Next: Systeme zur virtuellen Manipulation
Up: Andere Aspekte von VR
Previous: Andere Aspekte von VR
VR-Applikationen ermöglichen es dem Benutzer, mit Objekten der virtuellen Welt genauso zu interagieren wie mit Objekten im täglichen Leben. Dadurch können wichtige kognitive Fähigkeiten, wie beispielsweise die visuelle Interpretation von Daten oder das Wiedererkennen komplexer Strukturen, erfolgreich eingesetzt werden (cf. Bullinger et al., 1997). Andererseits lassen sich durch die menschliche Informationsverarbeitung auch Schwächen der Simulation ausgleichen: Der Eindruck von Realität bei Benutzung virtueller Umgebungen entsteht unter anderem auch durch die Tendenz der menschlichen Informationsverarbeitung, Lücken in sensorischen Wahrnehmungen zu schließen und dadurch den Eindruck einer konsistenten Realität zu erzeugen.
Bullinger et al. (1997) unterscheiden verschiedene Visualisierungsmethoden:
- Immersive virtuelle Umgebungen verwenden HMDs (head mounted devices) oder BOOMs (binokular omnioriented monitors)und Stereokopfhörer.
- Projektions-Umgebungen schränken die Bewegungsfreiheit des Benutzers, der nur eine entsprechende 3D-Brille tragen muß, kaum ein.
- Angereicherte Realitäten zeigen die virtuellen Objekte über einen halbdurchlässigen Spiegel gleichzeitig mit einem Abbild der Realität.
- Monitorbasierte virtuelle Umgebungen sind die preiswerteste Alternative. Auch dabei können 3D-Visualisierungen und Verfolgen von Kopfbewegungen eingesetzt werden.
- Reagierende Arbeitsbänke ermöglichen die direkte Interaktion mit virtuellen Objekten, die in physikalischen Umgebungen erscheinen.
Wann und Mon-Williams (1996) untergliedern die Ziele für die Implementierung erfolgreicher VR-Systeme in solche, die die Wahrnehmung und solche, die die Steuerung betreffen: Ein Hauptziel ist es, den Benutzer bei der Wahrnehmung des visuellen dreidimensionalen Raumes zu unterstützen. Dazu sind folgende Aspekte wichtig:
- Die Auflösung wird nicht nur durch den Bildschirm bestimmt, sondern auch durch die verwendete Optik. Prinzipiell reicht es aus, nur für den Bereich der fovea centralis eine hohe Auflösung zu realisieren.
- Das Sehfeld sollte möglichst groß sein, Verzerrungen lassen sich durch eine geeignete Optik ausgleichen.
- Helligkeit, Farbsättigung und Kontrast sind bei Bildschirmen, die auf Flüssigkristall-Technik basieren, oft unzureichend.
- Geeignete Skalierung zeigt sich darin, daß sich Benutzer üblicherweise sehr schnell auf den gain ihrer Maus einstellen können: Es wird eine Äquivalenz hergestellt zwischen Körperbewegungen und Cursorbewegungen. Ein ähnliches Problem bei VR-Systemen besteht darin, dem Benutzer genügend Hinweisreize anzubieten, um ihm ein Beurteilen der absoluten Größe von Objekten zu ermöglichen.
- Geeignete Darstellung der Dreidimensionalität beruht einerseits auf Tiefenkriterien der bildlichen Darstellung (Verdeckungen, Schatten, Höhe im Bild (nimmt zu bei sich nähernden Objekten), Fluchtpunkte in der Perspektive und farbliche Veränderungen aufgrund zunehmender Entfernung; außerdem relative Größe und Texturgradienten), andererseits auf im Körper stattfindenden Veränderungen als Tiefenkriteriem (insbesondere Akkomodation und Vergenz sowie Unschärfe). Auch durch aktives Bewegen lassen sich Tiefeninformationen erheben. Größe, Bilddistanz und Überlappungen müssen entsprechend den Aufgabenanforderungen gewählt werden.
Der Eindruck räumlicher Tiefe läßt sich entweder durch zeit-parallele Verfahren (simultane Präsentation für beide Augen) oder durch zeit-multiplexed Verfahren (durch Tragen einer Shutter-Brille wird immer abwechselnd eines der beiden Augen stimuliert) realisieren. Ein Problem ist dabei, daß oft ein Widerspruch zwischen Konvergenz der Augen und Akkomodation entsteht.
- Berücksichtigung von optischen Illusionen, die bei sich widersprechenden Tiefenkriterien ergeben können.
- Information über die absolute Größe, die bei binokularer Wahrnehmung durch Akkomodation und Vergenz bestimmt werden kann (bei VR-Applikationen bleibt Akkomodation dagegen meist konstant).
VR-System müssen nicht versuchen, alle natürlicherweise auftretenden Tiefenkriterien zu simulieren, unter Umständen kann eine absichtliche Verletzung sogar förderlich sein (beispielsweise konstante Größe von Icons oder konstante Höhe zusammengehöriger Objekte unabhängig von ihrer Entfernung). Als wesentliches Tiefenkriterium genügt meist die entsprechende retinale Disparität. Folgende Fragen soll man bei Überlegungen zur Wahrnehmung virtueller Umgebungen nach Wann und Mon-Williams (1996) stellen:
- Welche räumlichen Merkmale werden dargestellt und welche Tiefeninformation enthalten sie?
- Liegen potentiell zweideutige oder sich widersprechende Tiefeninformationen vor?
- Welche Informationsquellen ermöglichen eine robuste, eindeutige Schätzung sowohl von Entfernung als auch von absoluter Größe?
- Sind Informationen über die Körper-Skala notwendig zur Disambiguierung proximaler und distaler Oberflächen?
Das zweite Hauptziel für VR-Systeme besteht nach Wann und Mon-Williams (1996) darin, Navigation, Exploration und Engagement zu untersützen. Hierfür werden Informationen verwendet, die auf räumlichen und zeitlichen Veränderungen der relativen Umgebung basieren: Bewegungsparallaxe bzw. differentielle Bewegungsparallaxe (Entfernungsschätzung durch aktive Kopfbewegungen), optischer Fluß (visuelle Details verschwinden bei schnellen Bewegungen) usw.
Besonders wichtig ist für VR-Applikationen, daß der Benutzer seine Perspektive verändern kann, innerhalb einer dreidimensionalen Struktur navigieren kann und daß er sich selbst an die ihn interessierenden Punkte bewegen kann. Eine gewisse Schwierigkeit bereitet das Erkennen des Ankommens. Dazu muß sowohl die optische Expansion beim Annähern als auch deren Zeitverlauf berücksichtigt werden. Bezüglich der Navigation sollte man sich nach Wann und Mon-Williams (1996) beim Implementieren folgende Fragen stellen:
- Welche Information über relative Bewegungen ergibt sich aus den räumlichen Merkmalen der Umgebung?
- Behindern oder verfälschen technische Probleme (Update-Rate, Bildschirmauflösung usw.) die Bewegungsinformation?
- Welche Quellen informieren robust und eindeutig über relative Bewegungen?
- Müssen auch Informationen über die Körper-Skala integriert werden?
Grundsätzlich muß man sich fragen, welche Kriterien unbedingt erforderlich sind, welche erwünscht sind und welche optimal wären. Eine möglichst genaue Nachbildung der Realität ist meist nicht optimal (Beispiel virtueller Supermarkt: Man will nicht in virtuellen Regalen lange suchen müssen oder an einer virtuellen Kasse anstehen wollen).
Neben den visuellen Kriterien kann auch eine geeignete akustische Simulation das Gefühl der Immersion erhöhen. Außerdem eignen sich akustische Signale als Zustandsmeldungen und Warnhinweise sowie als Hilfen bei der Navigation. Die verwendeten Signale sollten gut unterscheidbar und interpretierbar sein, um die kognitive Belastung des Benutzers zu minimieren (insbesondere, wenn mehrere akustische Signale gleichzeitig präsentiert werden). Es wurden auch spezielle Techniken zur Präsentation dreidimensionaler akustischer Ereignisse entwickelt (3D-Audio). Klänge können auch bei der räumlichen Orientierung unterstützend wirken, da sie von Bewegungen des Benutzers und der Objekte abhängen. Wichtig ist es außerdem, daß auch die Richtung, aus der die simulierten Klänge kommen, von der Orientierung des Benutzers abhängt. Dazu müssen die head-related-transfer-functions (HRTF) des Benutzers (die die spektralen Veränderungen von Klängen aufgrund von deren Richtung und in Abhängigkeit von der Anatomie des Ohrs des Benutzers modellieren) berücksichtigt werden.
Auch haptisches Feedback, das im Teil II eingehend beschrieben wird, kann Bestandteil von virtuellen Umgebungen sein. Dabei läßt sich prinzipiell die gesamte Körperoberfläche stimulieren. Grundsätzlich müssen folgende Anforderungen erfüllt werden:
- keine Gefährdung des Körpers;
- maximale Bewegungsfreiheit und möglichst geringe Ermüdung;
- unabhängiges Feedback für verschiedene Körperregionen, insbesondere für die Finger;
- die Anwendung von Bewegungen und Kräften auf Objekte sollte möglich sein;
- beim Feedback sollten sowohl starke als auch fein dosierte Kräfte möglich sein.
Hierfür werden portable und nicht-portable Geräte eingesetzt. Grundsätzlich wird unterschieden zwischen taktilem Feedback (Reizung der Haut durch aufblasbare Kammern, Drahtstifte, Kontaktelemente oder Kolben) und Force-Feedback (propriozeptives Feedback mittels eines Exoskeletts/Hand-Arm-Systems oder eines einfachen Hand-Systems; am einfachsten ist ein stiftbasiertes System).
Wickens und Baker (1995) gehen von vier Typen von Aufgaben aus, die mit VR-Systemen bearbeitet werden können:
- On-line Performanz bei Direktmanipulation einer entfernten oder nicht sichtbaren Umgebung: Hier wird Feedback über motorische Aktionen, globale Orientierung des Benutzers und geringe kognitive Auslastung gefordert.
- Off-line Training bzw. Übung kritischer Aktionen: Hier ist hoher Transfer auf reale Situationen wichtig.
- On-line Verständnis bzw. Einsicht in die Struktur der Umgebung, beispielsweise bei der wissenschaftlichen Visualisierung: Einsichten und Entdeckungen während der Interaktion sind das Ziel.
- Off-line Lernen und Wissenserwerb, so daß das erworbene Wissen später in realen Situationen angewandt werden kann.
Eine wichtige Voraussetzung für den Entwurf von VR-Applikationen ist eine Analyse der dort durchzuführenden Aufgabe und der dabei eingesetzten sensorischen und kognitiven Fertigkeiten der Benutzer. Eine der häufigsten Aufgaben besteht in der Suche nach Objekten, die durch eine elektronische Landkarte der Umgebung erleichtert werden kann. Hilfreich ist auch die gleichzeitige Präsentation einer egozentrischen und einer exozentrischen Perspektive. Folgende Merkmale elektronischer Landkarten machen diese zu guten Hilfsmitteln bei der visuellen Suche:
- Es sollte eine minimale Menge an unnötigen Einzelheiten (clutter) enthalten sein, durch die die Suche erschwert wird. Es hängt allerdings von der Aufgabe und vom Benutzer ab, was dabei als unnötiges Detail empfunden wird und was nicht.
- Es sollte ein flexibles Bezugssystem zur Verfügung gestellt werden (sowohl umgebungsbestimmt als auch benutzerbezogen; Beispiel Navigationssystem: Karte aus Sicht des Benutzers oder Norden oben).
- Es sollte eine elektronische Verknüpfung bestehen zwischen der Repräsentation eines Objekts in der Landkarte und in der virtuellen Umgebung.
Bei der Navigation in virtuellen Umgebung spielen vier Fragen eine Rolle: (1) Wo befinde ich mich jetzt? (2) Was ist meine momentane Stellung und Orientierung? (3) Wo will ich hin? (4) Wie gelange ich dorthin? Die ersten beiden Fragen lassen sich mit den im letzten Abschnitt dargestellten elektronischen Landkarten beantworten. Für das Bewegen in virtuellen Räumen sollten möglichst viele Metaphern aus der realen Umgebung eingesetzt werden, wobei Geschwindigkeit, Flexibilität und Situationsabhängigkeit (Wissen über die momentane Position im Gesamtkontext; geht verloren, wenn der Computer zu viel Unterstützung bei der Navigation bietet) gewährleistet sein sollten. Insbesondere sollte der Einfluß von Bewegungen auf die Raumwahrnehmung integriert werden. Dabei sind Kollisionen mit anderen Objekten zu vermeiden und regelmäßige Texturen des Bodens sowie ein Horizont erleichtern die Wahrnehmung der Bewegung. Zusätzliche Hilfsgitter und Pfosten erleichtern die genaue Lokalisierung von Objekten im dreidimensionalen Raum.
Wichtig für erfolgreiche VR-Applikationen ist ein Koppelung zwischen visuellen und sensorischen Funktionen (cf. Wickens & Baker, 1995). Dabei - und auch bei der Manipulation von Objekten - spielen folgende Punkte eine zentrale Rolle:
- Übersetzung (gain): Zu hohe Übersetzungen können zu Instabilitäten und motorischen Überreaktionen führen.
- Zeitverzögerung kann (insbesondere zusammen mit hohen Übersetzungen) ebenfalls zu Instabilitäten führen. Adaptive Visualisierung bietet einen Ausweg (nur wenige Details während der Bewegung, bei Stillstand dagegen alle Details).
- Ordnung der Kontrolle: Bei Kontrolle nullter Ordnung bewirkt eine Veränderung des Eingabegeräts eine Veränderung des visualisierten Systemzustands (besser für exakte Einstellungen), bei Kontrolle erster Ordnung führt eine bestimmte Veränderung des Eingabegeräts zu einer konstanten Veränderungsrate oder Geschwindigkeit (besser für große Veränderungen).
- Entkoppelung von Bewegung und Ansicht: Die Richtung einer Bewegung soll nicht zwangsläufig mit der Perspektive zusammenhängen (die Steuerung wird dadurch aber komplizierter).
- Gesichtsfeld (ohne Drehen des Kopfes) und Sehwinkel sind in der realen Welt identisch, bei VR können aber beispielsweise Fischauge-Perspektiven realisiert werden. Ob dies günstig ist, hängt von der jeweiligen Aufgabe ab.
Die Schwerpunkte der Visualisierung hängen wiederum von der Aufgabenstellung ab. Für das Umherbewegen in virtuellen Umgebungen ist eine genaue Darstellung der räumlichen Relationen wichtig, zur Überprüfung und Identifikation von Objekten spielen dagegen Licht und Schatten sowie die Bewegungsparallaxe eine größere Rolle. Manchmal läßt sich eine Überlegenheit von vereinfachten visuellen Darstellungen (Strichmännchen) nachweisen.
In virtuellen Umgebungen können vier Arten von Lernen auftreten:
- prozedurales Lernen (hier wirkt sich eine möglichst detailgetreue Darstellung nicht förderlich aus);
- perzeptuelles Erlernen motorischer Fertigkeiten (Möglichkeit zum aktiven Mitwirken und Feedback sind wichtig);
- räumliches Lernen und Üben von Navigation, z.B. für Chirurgen (hierbei kann eine egozentrische Perspektive die Bildung einer mentalen Landkarte stören, aktives Steuern ist hierfür dagegen förderlich);
- konzeptuelles Lernen (hier sind aktive Exploration und Feedback wichtig, außerdem helfen verschiedene Repräsentationen des selben Sachverhalts).
Wickens und Baker (1995) nennen auch relevante Prinzipien der Human-Factors, die die Performanz erhöhen und das Erlernen beschleunigen sollen, wobei sie besonders das Konzept der Konsistenz der Repräsentation betonen. Inkonsistenzen (z.B. unterschiedliche Bezugssysteme oder Navigationsarten) können zu Verwirrung, hoher kognitiver Belastung und zu Fehlern führen. Manchmal kann aber eine Inkonsistenz der Repräsentation auch eine Redundanz der Erfahrung bewirken und somit ein besseres Erlernen ermöglichen. Redundanz macht die Interaktion weniger störanfällig, die Gedächtnisrepräsentation wird nicht so schnell vergessen (da mehrfach gespeichert) und der Benutzer kann sich auf denjenigen Aspekt konzentrieren, der seinem kognitiven Stil am besten entspricht.
Die Forderungen nach Redundanz und nach Konsistenz lassen sich durch das Prinzip des visual momentum in Einklang bringen, dem folgende Richtlinien zugrunde liegen:
- Verwende konsistente Repräsentationen; ist dies nicht möglich, sollte die Beziehung zwischen den alten und den neuen Daten hervorgehoben werden.
- Verwende sanfte Übergänge (keine abrupten Wechsel).
- Betone Anker (konstante invariante Merkmale der repräsentierten Welt); beispielsweise sollte immer der Horizont sichtbar sein. Außerdem sollte eine kanonische Achse festgelegt werden (z.B. Norden oder oben).
Regan (1997) beschäftigt sich mit visuellen Wahrnehmungen, die zur Steuerung motorischer Aktionen notwendig sind. Er geht davon aus, daß durch fünf verschiedene Arten von visuellem Kontrast Objekte erkennbar werden, nämlich durch Unterschiede in Leuchtdichte, Farbe, Bewegung, Textur und binokularer Disparität, wobei in der Wahrnehmung bzw. Gewichtung dieser Attribute große interindividuelle Unterschiede auftreten. Der Autor nennt unter anderem die folgenden Befunde:
- Die Sichtbarkeit von Objekten wird durch Blendung reduziert, insbesondere wenn die blendende Lichtquelle in der selben Richtung wie das zu erkennende Objekt liegt.
- Bewegungen in der frontoparallelen Ebene werden erst ab einer bestimmten Geschwindigkeit erkannt (etwa 2 Bogenminuten pro Sekunde). Dieser Wert verzehnfacht sich, wenn kein Bezugsrahmen dargeboten wird. Je weiter in der Netzhautperipherie die Reize dargeboten werden, desto eher werden Bewegungen erkannt.
- Die Schwelle der Wahrnehmung von Geschwindigkeiten nimmt zur Mitte und zum Rand der Netzhaut hin zu.
- Die Wahrnehmung von Bewegungsrichtungen hängt von der Bewegungsgeschwindigkeit ab (außerdem verbessert sie sich mit zunehmender Übung).
- Bei der Tiefenwahrnehmung von Bewegungen lassen sich zwei Mechanismen unterscheiden, die getrennt adaptieren können: Wahrnehmung von relativen und von absoluten Bewegungen. Außerdem werden monokulare und binokulare Mechanismen eingesetzt, wobei die binokularen Mechanismen eher auf der Veränderungsrate der relativen binokularen Disparität basieren (relativ zu Referenzpunkten) als auf der Veränderungsrate der absoluten Disparität. Bei den meisten Menschen lassen sich außerdem Netzhautareale nachweisen, innerhalb derer sie keine binokulare Bewegungswahrnehmung besitzen (sog. stereomotion scotomata).
- Die Unterscheidung von Bewegungsrichtungen in der (räumlichen) Tiefe ist am genauesten für Bewegungen in Richtung der Mitte zwischen beiden Augen (wobei die Wahrnehmung von Bewegungen eher in der Peripherie gelingt, siehe oben). Scheinbar existieren verschiedene binokulare Mechanismen, die jeweils für ein bestimmte Bewegungsrichtung empfindlich sind.
- Die Wahrnehmung von Bewegungsgeschwindigkeiten in der (räumlichen) Tiefe funktioniert ebenfalls über die Veränderungsrate der Disparität. Die Geschwindigkeit weiter entfernter Objekte kann nur sehr ungenau eingeschätzt werden, der Geschwindigkeitsunterschied zwischen zwei Objekten hingegen relativ genau.
- Die Vorhersage von Kollisionszeitpunkten gelingt am genauesten bei Objekten, die sich direkt auf den Beobachter zubewegen. Als Reiz wirken dabei sowohl die zunehmende Vergrößerung des Objekts als auch (unabhängig davon) die zunehmende Vergrößerung von dessen Oberflächentextur. Stimmen diese Indikatoren nicht überein, was bei manchen VR-Simulationen der Fall ist (die Textur wird zu langsam berechnet), kommt es zu systematischen Fehleinschätzungen des Kollisionszeitpunktes. Deshalb ist es im Zweifelsfall besser, auf die Dynamik der Textur zu verzichten. Auch über die Zunahme der binokularen Disparität kann der Eindruck erzeugt werden, ein Objekt bewege sich auf den Beobachter zu (allerdings nur bei mittleren bis geringen Distanzen). Am genauesten gelingen Vorhersagen von Kollisionszeitpunkten (wichtig z.B. zum Fangen eines Balls), wenn monokulare und binokulare Tiefenkriterien zusammenwirken. Eigen-Bewegungen des Beobachters führen dagegen zu Schwierigkeiten.
- Die Einschätzung der Richtung von Eigen-Bewegungen erfolgt durch den retinal flow, d.h. das ``Fluchtmuster'' der Objekte, das sich ringförmig um den gerade fokussierten Ausschnitt ergibt. Unklar ist, inwieweit die Richtung der Eigenbewegung von einem Beobachter beurteilt werden kann, der sich in einem drehenden/schleudernden Fahrzeug befindet. Möglicherweise spielt bei der Beurteilung von Eigenbewegungen auch Symmetrie in der Umgebung eine wichtige Rolle. Je nach Geschwindigkeit scheinen auch unterschiedliche Mechanismen eingesetzt zu werden (bei langsamen Bewegungen eher Umherblicken zum Beurteilen der Bewegungsparallaxe, bei hohen Geschwindigkeiten dagegen Fixieren des Zielpunktes zum Beurteilen des optischen Flusses).
- Visuell gesteuerte zielgerichtete motorische Handlungen werden sowohl von den Eigenheiten des visuellen Systems als auch von denen des motorischen Systems (die sich allerdings teilweise ebenso wie ihr physiologischer und neuroanatomischer Aufbau ähneln) beeinflußt. Die Geschwindigkeit motorischer Reaktionen nimmt logarithmisch mit der Anzahl verschiedener Alternativen zu (Hick-Hyman'sches Gesetz bei gleichwahrscheinlichen Alternativen: RT = , wobei N die Anzahl der Alternativen bezeichnet und a und b Konstanten sind). Durch Reiz-Reaktions-Kompatibilität (z.B. geeignete Anordnung der Kontrollelemente eines Herdes) lassen sich Reaktionszeiten vermindern.
Nach Fitts Gesetz hängt die Bewegungszeit logarithmisch vom Quotienten aus zurückzulegender Entfernung und Größe des Ziels ab, außerdem wirkt sich das jeweilige Bewegungsorgan in Form einer charakteristischen Konstante aus. Bei Bewegungen, die während der Mensch-Computer-Interaktion wichtig sind (insbesondere Mausbewegungen), spielen ebenfalls die Anzahl der Wahlmöglichkeiten, die zurückzulegende Entfernung und die Größe der Zielfläche ein Rolle.
Kozak, Hancock, Arthure und Chrysler (1993) beschäftigen sich mit dem Transfer von motorischen Fertigkeiten, die in virtuellen Umgebungen gelernt werden, auf real durchzuführende Aufgaben. Ihre Versuchspersonen sollen fünf Blechdosen von einem Start- auf ein Zielfeld stellen und sie anschließend wieder in die ursprüngliche Position zurückbringen. Diese einfache motorische Aufgabe wird 30 mal geübt, entweder in einer virtuellen Umgwebung, nachdem vorher 20 Minuten lang der Umgang mit dem Datenhandschuh und dem HMD geübt worden ist, oder in einer realen Umgebung. Eine dritte Gruppe übt diese Tätigkeit gar nicht. In den beiden Übungsgruppen finden Kozak et al. (1993) deutliche Übungseffekte, allerdings benötigen die Versuchspersonen in der virtuellen Umgebung durchschnittlich zehn mal so lange wie die Versuchspersonen in der realen Umgebung für die Fertigstellung der Aufgabe.
In der daran anschließenden Testphase sollte die selbe Aufgabe nochmals in der realen Umgebung durchgeführt werden. Überraschenderweise finden Kozak et al. (1993) hier keinen Unterschied in der Bearbeitungszeit zwischen den Versuchspersonen ohne Übungsphase und denjenigen, die in der virtuellen Umgebung trainierten; die Versuchspersonen, die in der realen Umgebung übten, waren dagegen signifikant schneller.
Obwohl sich in der Übungsphase auch in der virtuellen Umgebung ein Übungseffekt zeigen ließ, läßt sich kein Transfer zur realen Umgebung nachweisen. Kozak et al. (1993) erklären dies folgendermaßen:
- In der Übungsphase wird etwas anderes gelernt als in der Testphase benötigt wird: Die Greifbewegungen in der virtuellen Umgebung unterschieden sich von denen in der realen Umgebung und es fehlt das propriozeptive und akustische Feedback.
- Die Versuchspersonen lernen, in der virtuellen Umgebung eine für sie besonders günstige Perspektive und Körperhaltung zu wählen; diese hilft aber in der realen Umgebung nicht weiter.
Kozak et al. (1993) schlagen deshalb vor, das Training in virtuellen Umgebungen auf die speziellen Fertigkeiten, die zu erlernen sind, auszurichten. Durch möglichst hohe Übereinstimmung zwischen Trainings- und realem Kontext läßt sich der Transfer erhöhen (die Autoren schlagen auch vor, die reale Welt dementsprechend zu ändern!).
Insgesamt begründen die Autoren das Fehlen von Transfer mit technischen Problemen der verwendeten VR-Applikation. Wie auch in Abschnitt 3.4.2 zu sehen ist, läßt sich jedoch unter geeigneten Bedingungen schon Transfer von in virtuellen Umgebungen erlernten Fertigkeiten nachweisen.
Next: Systeme zur virtuellen Manipulation
Up: Andere Aspekte von VR
Previous: Andere Aspekte von VR
rainer@zwisler.de
Last modified 10-29-98