Verslag studiedag "Cognitieve ergonomie"

Op 5 december 2013 was de BES NL te gast bij Space Applications Services. Keshav Chintamani gaf er een uiteenzetting over "Augmented reality and robotics'. Ondanks het selecte gezelschap was dit een zeer interessante kennismaking met cognitieve ergonomie op topniveau.

Augmented reality of toegevoegde realiteit betekent dat men aan de realiteit extra informatie gaat toevoegen. Men staat bijvoorbeeld voor een graf en men krijgt extra informatie over de overledene. Daarvoor is steeds een camera nodig die de realiteit registreert en een display waarop de wetenswaardigheden worden toegevoegd. Dit kan visueel, auditief of tactiel zijn, waarbij steeds wordt getracht het verschil tussen de echte en virtuele wereld zo klein mogelijk te houden. Augmented reality begint meer en meer zijn toepassing te vinden in de ons omringende wereld. Google glasses is een bekend voorbeeld: op de bril is een camera die de omgeving scant, de extra informatie wordt op de brilglazen getoond. De realiteit neemt men waar door gewoon voor zich te kijken, om de extra info te zien moet men iets omhoog in de glazen kijken. De reclamewereld maakt er ook al graag gebruik van: men kijkt naar een doos Lego en krijgt in 3D te zien wat er in de doos zit. In een autotijdschrift kan men in 3D naar de auto's kijken. Maar ook een autohersteller zou ook extra info kunnen oproepen bij het aankijken van een te vervangen onderdeel...

Keshav Chintamani startte zijn onderzoek voor de NASA bij het bouwen van een ruimtecentrum. Er verblijven permanent 3 tot 6 mensen in de ruimte. Als ze "buiten" willen gaan, moeten ze steeds in een ruimtepak met alle beperkingen vandien. Daarom blijven ze zoveel mogelijk binnen en het bouwen van een ruimtecentrum gebeurt vanop afstand door middel van robots. Deze moeten uiteraard met joysticks bestuurd worden door de astronauten. Daarvoor zijn er twee types camera's: egocentrisch en ecocentrisch. Een camera op de robot (ego) geeft een vliegtuigzicht, men beweegt mee met de robot. De andere camera's filmen de robot zelf, men kijkt op een geprojecteerd beeld naar zichzelf (ecocentrisch). Hierdoor gaat echter het dieptezicht verloren. Het is als een auto besturen op basis van drie camerabeelden (voor-zij-boven). Wanneer een object draait of kantelt in de ruimte, moet men voor de joystickbediening ook het assenstelsel meedraaien. Het vooruit bewegen van de camera kan dus een beweging achteruit gaan betekenen met de joystick. Dat is niet evident ondanks de strenge selectie en grondige training van de astronauten. Door middel van toegevoegde realiteit is men er echter in geslaagd om het assenstelsel toe te voegen aan een object, waarbij elke as zijn eigen kleur en richting heeft (pijl en staart). De joystick kreeg dezelfde kleuren. Wanneer objecten meer dan 90° werd gekanteld, gaf de extra informatie duidelijk kortere reactietijden en dus een betere bediening.

Een volgende vraag was hoe de manipulaties met de robot kan gebeuren zonder tegen omliggende objecten te botsen. Men zou de robots meer autonoom kunnen maken, maar ergens zijn toch grenzen hoe ver het "blind vertrouwen" in technologie kan gaan. Wie volgt er zijn GPS wanneer hij weet dat die hem fout aan het sturen is? Om dit op te vangen laat men de robot het beste pad van bewegingen plannen, maar het is de astrounaut die het effectief uitvoert. Het voorgestelde pad van de robot wordt dan aan de realiteit toegevoegd. Dit leidde tot een meer efficiënte en consistente uitvoering van het montagewerk zonder botsingen.

De huidige onderzoeken concenteren zich op hoe de toegevoegde informatie op een draagbare manier kan weergegeven worden. Alle handelingen die astronauten doen, gebeuren volgens vastgelegde procedures of checklisten. Deze staan neergeschreven op papier. Dit wordt steeds moeilijker omwille van de hoeveelheid en ook omdat de grond ("Houston") nog kan bijsturen. Optie is bijvoorbeeld om de info weer te geven op een spraakgestuurde smartphone, maar het moet wel in de ruimte werken. Head mounted displays zijn een hoofdband met camera en één brilglas waarop de instructies worden getoond. Met één oog kijkt men naar de omgeving/realiteit, met het andere oog kijkt men naar de display (glas). Door middel van commando's kan men de info sturen, notities toevoegen of communiceren. Een andere toepassing die momenteel onderzocht wordt, is het verlenen van medische ondersteuning. Wanneer een astronaut ziek is, is hij op zichzelf aangewezen. Er is enkel een echografie aanwezig, die hij wel zelf moet bedienen. Om de echografie juist te kunnen gebruiken wordt de astronaut naar de juiste locaties op het lichaam geleid via augmented reality. De zes plaatsen op de borstkas die nodig zijn om een diagnose te kunnen stellen, worden op het lichaam geprojecteerd wanneer men ernaar kijkt..

Deze boeiende uiteenzetting over spitstechnologie in de ruimte maakte duidelijk hoe onze wereld er in de nabije toekomst kan/zal uitzien. De toepassingen zijn immers reeds aanwezig in reclame en medische wereld. Een niet-alledaags ergonomie-onderwerp, maar het was zeker en vast de moeite waard.

Verslag: Roeland Motmans