Exzerpt von
Rainer Zwisler, Februar 1994
Bereits Ernst MACH (1905) stellte fest, daß
Wissen und Fehler zwei Seiten der selben mentalen Quellen darstellen;
Automatisierung führen zu Slips, Begrenzungen des Arbeitsgedächtnisses
zu Datenverlust usw. Fehler treten nur in einer sehr begrenzten
Anzahl von Erscheinungsformen auf. Ein vorhersagbarer Fehler
tritt auf, wenn die Faktoren bekannt sind, die zu seiner Entstehung
führten; dabei spielen die Art der Aufgabe, die Begleitumstände,
die Person des Problemlösers und die Bearbeitungsmechanismen
eine Rolle.
Von einem Fehler kann nur bei intentionalem Verhalten
gesprochen werden: Es muß ein bestimmter Endzustand erstrebt
werden und er soll auf eine bestimmte Art erreicht werden. Intentionales
Verhalten kann in folgende Kategorien eingeteilt werden:
Intentionale Handlungen ohne Absicht (spontane oder
ergänzende Handlungen);
Unfreiwillige Handlungen (wird nicht zu den Fehlern
gerechnet);
Unbeabsichtigte Handlungen:
(1) die ihr erwünschtes Ziel doch erreichen und (2) die das
Ziel nicht erreichen (hochautomatisierte Tätigkeiten, bei
denen die Aufmerksamkeit abgelenkt wird -> Exekutionsfehler).
Beabsichtigte Handlungen,
bei denen ein inadäquater Plan angewandt wird (-> Planungsfehler).
Von einem Fehler (Error) spricht man, wenn
das erwünschte Ziel nicht erreicht wird und dafür kein
Zufall verantwortlich ist. Slips (Ausführung nicht
so wie geplant) und Lapses (Gedächtnisfehler, Schritt
wird vergessen) sind Fehler in der Ausführung und/oder Speicherung
einer Handlungssequenz, unabhängig davon, ob der zugrundeliegende
Plan adäquat war. Mistakes sind Fehler bei der Beurteilung
oder Herleitung von Wegen zur Zielereichung.
Die Klassifikation von Fehlern kann sich nach
den formalen Merkmalen des Fehlers richten (Was?), nach den Umständen,
unter denen Fehler auftreten (Wo?) oder nach den beteiligten kognitiven
Mechanismen (Wie?). Bei der Unterscheidung nach den Stufen der
Informationsverarbeitung kann man drei Arten von Fehlern unterscheiden:
Planungsfehler (Mistakes);
Speicherungsfehler (Lapses)
und
Ausführungsfehler
(Slips).
Zur wissenschaftlichen Erfassung und Untersuchung
von Fehlern können verschiedene Verfahren eingesetzt werden:
Sammeln von Beispielen, um Regelmäßigkeiten
zu entdecken;
Fragebogenuntersuchungen
(Selbst-Report ist relativ stabil; die einzelnen Items sind meist
positiv korreliert, was zur stress-vulnerability Hypothese
führte: hoher Grad von kognitiven Fehlern im täglichen
Leben korreliert mit externem Streß: möglicherweise
ist sowohl die geistige Abwesenheit als auch der Streß wegen
ungeeigneter Coping-Mechanismen durch bestimmte Stile des kognitiven
Managements bedingt).
Laboruntersuchungen (die
Forderung nach präziser Kontrolle führt aber oft zur
Beschränkung auf die Untersuchung trivialer Phänomene).
Simulationsstudien (Schaffung
von dynamischen, komplexen Entscheidungsaufgaben) und
Fallstudien (Untersuchung
der Reports zu größeren Unfällen).
Bereits um die Jahrhundertwende versuchten Forscher,
die verschiedenen Arten von Fehlern zu beschreiben und die ihnen
zugrundeliegenden Prozesse zu erklären:
SULLY unterschied drei Arten von Illusionen:
Falsche Erinnerungen, nicht-repräsentative Erinnerungen und
falsch datierte Erinnerungen.
FREUD´sche Fehlleistungen, die vom Unbewußten
bestimmt werden.
MERINGER (1908) sammelte 8000 Versprecher bzw. Verschreiber.
Die Gestaltpsychologen stellten heraus, daß
kleine Unregelmäßigeiten zugunsten der guten Gestalt
übersehen werden.
Die Neuropsychologen LASHLEY und HEAD stellten
fest, daß Bewegungsreflexe auch dann noch funktionieren,
wenn kein Feedback mehr möglich ist (z.B. bei Wirbelsäulenverletzungen);
die Kontrolle muß also feed forward erfolgen.
BARTLETT fand heraus, daß Erinnerungen in Richtung
bestimmter Schemata verzerrt werden; dabei handelt es sich
um unbewußte Gedächtnisstrukturen aus altem Wissen,
die aktiv rekonstruieren.
Einige der neueren Theorien befinden sich in der
Tradition der Naturwissenschaften:
Aufmerksamkeits- und Flaschenhals-Theorien
gingen davon aus, daß ein Informationskanal mit begrenzter
kapazität zur Verfügung steht; deshalb muß aus
der eintreffenden Information ausgewählt werden. Menschen
können ihre Aufmerksamkeit erstaunlich gut auf eine bestimmte
Tätigkeit richten und andere Stimuli ignorieren. Die Selektivität
ist aber nicht perfekt; aufgrund bestimmter physikalischer und
semantischer Eigenschaften können auch die nicht beachteten
Informationen "durchbrechen". Das Wechseln der Aufmerksamkeit
von einer Aufgabe zu einer anderen benötigt Zeit.
Theorien zur geteilten Aufmersamkeit und zu Ressourcen
halten die Aufmerksamkeit für ein einziges Reservoire an
Informationsverarbeitungs-Ressourcen, das allen mentalen Operationen
gleichermaßen zur Verfühgung steht. Bei der gleichzeitigen
Bearbeitung verschiedener Aufgaben ist deren Ähnlichkeit
der entscheidende Faktor: Hohe Ähnlichkeit führt zur
Beanspruchung der selben Ressourcen und somit zur wechselseitigen
Interferenz.
Mehrkanal-Prozessor-Theorien
glauben, daß bei der Bearbeitung einer komplexen Aufgabe
mehrere unabhängige Spezialisten (spezialisierte Prozessoren)
beteiligt sind, die auch bei anderen Aufgaben eingesetzt werden
können; sie sind wahrscheinlich hierarchisch organisiert
unter der Leitung eines central executive.
Die wichtigsten Eigenschaften des primären
Gedächtnisses bestehen in der Beschränkung der Kapazität
auf etw 7 unverbundene Items und dem Mechanismus des Chunking.
Durch den akustischen Ähnlichkeitseffekt wird die Gedächtnisspanne
erheblich reduziert und allgemein tritt ein Wortlängeneffekt
(weniger behaltensleistung bei Wörtern, die zur Aussprache
mehr Zeit benötigen) auf. Dies führte zu der These,
daß die zu merkenden Items subvokal wiederholt werden.
Nach BADDELEY besteht das Arbeitsgedächtnis
aus einem Central executive (Kontrolleinheit mit begrenzter
Kapazität; Aufmerksamkeit und Bewußtheit), der articulatory
loop und dem visuospatial scratchpad. Letztere umfassen
jeweils einen passiven Speicher und einen aktiven Rehearsal-Prozeß
und funktionieren unabhängig voneinander.
Nach BRUNER können viele der menschlichen Strategien
und "Abkürzungen" bei der Bearbeitung komplexer
Aufgaben als Mittel betrachtet werden, die kognitive Belastung
bzw. die Belastung des Arbeitsgedächtnisses zu minimieren.
Die nächste Stufe der Theorien ergab sich aus
der Richtung der Kognitionswissenschaften:
Die Schematheorien von MINSKY, RUMELHART und
SCHMIDT sehen in Schemata Gedächtnisstrukturen, die in einzelnen
Slots Variablen enthalten, deren Wert entweder aus der Umwelt
bzw. dem Gedächtnis abgelesen wird oder aber durch Default-Werte
ersetzt wird. Auf diese Weise werden die Regelmäßigkeiten
der Welt erfaßt. Andere Varianten sind Scripts,Prototypen
oder Personae. Systematische Fehler können sich auf
drei Arten ergeben: (1) Die Daten werden in das falsche Schema
gesteckt; (2) Statt dem Einsetzen potentiell verfügbarer
Information werden zu viele Default-Werte verwendet; (3) Aktive
oder saliente Schemata werden zu leichtgläubig verwendet.
Normative Theorien, nach
denen Fehler als Irrationalität oder Unaufmerksamkeit des
Wahrnehmenden betrachtet wurden, wurden langsam widerlegt: Menschliche
Entscheidungen sind oft auf bestimmte Bereiche fixiert,
die aus subjektiver Perspektive unabhängig von anderen
Entscheidungen gesehen werden; es wird nur eine begrenzte Menge
erreichbarer Alternativen betrachtet; beim hindsight bias
werden nach einer Entscheidung die zur Entsceidung führenden
Informationen überbewertet; die begrenzte Rationalität
(bounded rationality nach SIMON; also die Begrenzungen
der kognitiven Kapazität) führt dazu, daß satisficing
behavior vorherrscht: Man bemüht sich nur so lange, bis
ein akzeptabler Zustand erreicht wurde. Unrationales Verhalten
läßt sich bei deduktiven Aufgaben nachweisen, wo negative
Evidenz kaum beachtet wird. Das Entscheidungsverhalten wird eher
durch similarity matching als durch logische Überlegungen
bestimmt. Beim Treffen diagnostischer Entscheidungen sollten nach
der Theorie von BAYES die gegebene a priori-Information, die spezifische
Evidenz und die bekannte Power des Tests verrechnet werden. Tatsächlich
haben aber die representativeness Heuristik (Ähnliches
verursacht Ähnliches) und die availability Heuristik
(leicht abrufbare Dinge werden für häufiger gehalten)
einen wesentlichen Einfluß.
Reluctant Rationality
geht davon aus, daß mit der Aufnahme neuer Informationen
und dem analytischen Treffen von Entscheidungen kognitive Kosten
verbunden sind, die nach Möglichkeit vermieden werden. Nach
dem Prinzip der Verisimilitude (in der Vergangenheit relevante
Cues werden bevorzugt) werden Zuordnungen zu Kategorien getroffen.
Auf diese Weise werden potentiell ergiebige Betrachtungen der
Umwelt eingeschränkt.
Irrationalität läßt
sich zum Beispiel beim Treffen von Entscheidungen in Gruppen feststellen.
Der General Problem Solver basiert auf Problemräumen,
Wissenszuständen und einer Menge von Oeratoren; das Problem
läßt sich in einem problem behavior graph darstellen.
Bei der Lösung wird nach dem Prinzip der Means-End-Analyses
vorgegangen.
RASSUMSSEN unterschied drei Arten des Verhaltens:
Die Skill based Ebene bezieht sich auf gespeicherte Muster
vorprogrammierter Anweisungen. Die Stufe des Rule based
Verhalten verwendet gespeicherte Produktionen (Regeln: Wenn ...
Dann ...) zur lösung. Zur Knowledge based Stufe werden
in neuartigen Situationen analytische Prozesse und gespeichertes
Wisssen angewandt.
Nach dem Fuzzy-Rule Modell von ROUSE verhalten
sich Menschen eher als kontextspezifische Mustererkenner als als
Problemlöserer oder Optimierer. Eine Regel wird angewandt,wenn
sie verfügbar, momentan anwendbar, erfolgsversprechend und
einfach ist; diese Kriterien sind aber fuzzy.
Modelle zum Paralled Distributed Processing
(RUMELHART) gehen von einer großen Anzahl untereinander
verbundener Prozessoren aus. Es kann zwar plangeleitetes Verhalten
weniger gut simuliert werden, dafür aber graceful degradation,
d.h. der Umgang mit teilweise verzerrtem Input.
In der heutigen Kongnitionspsychologie wird auch
versucht, übergreifende Theorien zu finden, die in einer
relativ allgemeinen Sprache die wesentlichen Merkmale der menschlichen
Informationsverarbeitung beschreiben.
Entsprechend der Klassifikation nach RASMUSSEN können
drei grundsätzliche Fehlertypen unterschieden werden:
Skill-based level -> Slips und Lapses (SB)
Rule-based level -> Rule-based mistakes (RB)
Knowledge-based level -> Knowledge-based mistakes
(KB)
SB-Fehler treten nur dann auf, wenn die Aufmerksamkeit
von der entsprechenden Tätigkeit abgelenkt wird. RB- und
KB-Verhalten treten nur dann in Erscheinung, wenn sich das Individuums
eines Problems bewußt ist; hier ist also Aufmerksamkeit
Voraussetzung. SB- und RB-Verhaltensweisen werden durch feedforward
Kontrolle aus gespeicherten Wissensstrukturen (motorische
Programme, Schemata, Regeln) gesteuert; es handelt sich um datengesteuertes
(data driven) Vorgehen. Auf der KB-Stufe erfolgte doe Kontrolle
dagegen über Feedback: Auf einem mentalen Modell oder
Problemraum soll die Zieldistanz verringert werden; dieses Verhalten
ist fehlergesteuert (error driven).
Fehler auf der SB- oder RB-Stufe haben meist die
Form von starken aber falschen Routinen. Auf der KB-Stufe dagegen
erscheinen die Fehler denen von Novizen ähnlich, da das Repertoire
an "Experten-Regeln" aufgrund neuartiger Situationsanforderungen
nicht eingesetzt werden kann. Die wesentlichen Unterschiede in
der Expertise können deshalb auf den SB und KB Stufen
gefunden werden: Expertise besteht darin, eine große und
breitgefächerte Menge an Routinen zur Verfügung zu haben.
Die Regeln der Experten sind außerdem abstrakter formuliert.
Wenn man das Verhältnis der tatsächlich
gemachten Fehler zu den potentiell machbaren betrachtet, treten
auf den SB- und RB-Stufen wesentlich weniger Fehler auf. als auf
der KB-Stufe. Absolut gesehen ist es dagegen umgekehrt.
SB-Fehler werden vor allem durch Ablenkung der Aufmerksamkeit
und Stärke der assoziierten Schemata hervorgerufen. Bei RB-Fehlern
ist es wahrscheinlich ähnlich; es ist anzunehmen, daß
die Regeln entsprechend ihrer Stärke in einer Prioritäts-Liste
angeordnet sind. Es kommt darauf an, welche andere Regel durch
die in der Situation enthaltenen Hinweisreize angesprochen werden
könnte. Auf der KB-Stufe können die Fehler dagegen eine
Reihe verschiedener Formen annehmen; wichtig dabei ist die Art,
in der sowohl die Aufgabenstellung als auch die Umgebungsvariablen
die begrenzten Aufmerksamkeits-Ressourcen auf relevante oder irrelevante
Aspekte des Problemraums lenken.
Mistakes sind schwieriger zu entdecken als Slips;
sie können nur durch die Intervention eines externen Agenten
korrigiert werden. Folgende Beziehung zwischen Fehlern und Veränderungen
in der Umwelt lassen sich auf den verschiedenen Stufen ausmachen:
Bei SB-Fehlern setzen die fehlerauslösenden
Veränderungen die Abweichung von einer gut eingeübten
Routine voraus. Dabei kann es sich um eine beabsichtigte Abweichung
von der normalen Vorgehensweise oder um eine Veränderung
in den physikalischen Umständen, unter denen die Routine
ausgeführt wird, handeln. Es fehlt die Überprüfung
zum richtigen Zeitpunkt, welche Alternative gerade aktuell ist.
Bei RB-Fehlern fehlt geeignetes Wissen, wann und
wie genau eine Veränderung auftreten wird, auch wenn die
Veränderung antizipiert wird. Fehler ergeben sich aus der
richtigen Anwendung der falschen Regel oder aus der falschen Anwendung
der richtigen Regel.
Bei Fehlern auf der KB-Stufe ergeben sich Fehler
aus Veränderungen in der Welt, die unvorhergesehen und unvorbereitet
auftreten. Deshalb muß auf fehlerträchtiges on-line
Problemlösen zurückgegriffen werden.
Das General Error-Modelling System (GEMS)
beschreibt folgende Überwachungsfehler: Es wird überprüft,
ob die momentanen Aktionen gemäß den Plänen ablaufen
und ob der Plan für das erwünschte Ergebnis auch noch
zielführend ist. Slips können darauf zurüchzuführen
sein, daß kein aufmerksames Überprüfen stattfinden
(inattention) oder daß die aufmerksame Überprüfung
zu einem ungünstigen Zeitpunkt stattfindet (overattention).
Beide Fehlermöglichkeiten resultieren aus einem in bezug
auf die momentanen Aufgabenanforderungen falschen Kontrollmodus.
Folgende Problemlösefehler können auftreten:
Wenn Menschen mit einem neuen Problem konfrontiert werden, neigen
sie stark dazu, eine vorgefertigte Lösung auf der RB-Stufe
zu suchen und zu finden, bevor die anstrengendere KB-Stufe aktiviert
wird. Auch auf der KB-Stufe können dann aber noch Fehler
auftreten, da nach Hinweisreizen gesucht wird, die an früher
erfolgreich eingesetzte Regeln erinneren, die dann an die monentane
Situation angepaßt werden könnten.
Der Wechsel zwischen verschiedenen Stufen kann folgendermaßnen
beschrieben werden: Wenn bei der Ausführung von SB-Regeln
Abweichungen vom aktuellen Plan auftreten, wird der RB-Level aktiviert.
Der Wechsel von RB nach KB tritt ein, wenn der Problemlöser
feststellt, daß keine der bekannten Regeln für die
Problemlösung geeignet ist. Die Aktivität auf der KB-Stufe
wird beendet, wenn eine geeignete Lösung gefunden wurde,
also einPlan, der aus SB-Aktionen besteht. Bei der Ausführung
dessen muß wahrscheinlich zwischen der KB- und der SB-Stufe
hin- und hergeschaltet werden. Ein Handlungsplpan besteht aus
einer überarbeiteten Theorie von der Weltt; Bestätigungstendenzen
werden zu dessen Beibehalten führen, auch wenn gegenteilige
Evidenz auftritt.
Unaufmerksamkeit
Fehler durch Doppelaufmerksamkeit:
Wenn ein Großteil der begrenzten Aufmerksamkeit benötigt
wird, um die Handlung in die momentan gewünschte Richtung
zu bringen, kann die Verwechslung zwischen zwei getrennten aber
ähnlichen Prozessen eintreten. Die Kontrolle über die
handlung wird von dem stärksten Schema, das von dem momentanen
Punkt in der Handlungssequenz weiterführt, übernommen;
meist kommt es deshalb zu strong habit intrusion: alte
Gewohnheitten schleichen sich ein. Es kann auch zu Verzweigungsfehlern
oder zum Überrennen einer Stop-Regel kommen. Schließlich
kann man auch übersehen, zum richtigen Zeitpunkt die Notwendigkeit
der Änderung zu registrieren.
Vergessen nach Unterbrechungen:
Das Vergessen einer aufmerksamen Überprüfung (attentional
check) kann auch durch externe Ereignisse ausgelöst werden.
Eine Routine zur Behebung eines Planfehlers kann als restlicher
Teil des Plans interpretiert werden; der eigentliche Plan wird
dann nicht an der unterbrochenen Stelle fortgeführt.
Verminderte Intentionalität:
Bei einer Zeitverzögerung zwischen dem Beschließen
eines Plans und dem Beginn von dessen Ausführung kann es
zum Versagen des prospektiven Gedächtnisses kommen: Verschobene
Absichten (Fenster statt Türe schließen), umgebungsbedingte
Ablenkung (im Bad die Haare richten statt etwas holen), mehrfache
Seitenschritte oder die Gefühle des Was-Tu-Ich-Hier oder
Was-wollte-ich-denn-tun.
Wahrnehmungs-Verwirrungen:
Objekte, die dem benötigten ähnlich sehen, am selben
Ort ind oder eine ähnliche Funktion haben, werden fälschlicherweise
verwendet.
Fehler durch Interferenz:
Zwei simultane Pläne (oder zwei gleichzeitige Handlungselemente
innerhalb eines Plans) können zu einer Vermischung der ausgeführten
Handlungen führen.
Überaufmerksamkeit
(Wird die Aufmerksamkeit auf einen automatisch ablaufenden Prozeß
gerichtet, kann dieser dadurch gestört werden)
Auslassungen: Man glaubt,
der Prozeß sei schon weiter vorangeschritten als er es tatsächlich
ist und läßt deswegen die Zwischenschritte aus.
Wiederholungen: Man glaubt,
den tatsächlich vorliegenden Zustand noch nicht erreicht
zu haben und führt deshalbt einige Schritte doppelt aus.
Umkehrung: Es kann sogar
vorkommen (selten), daß der gesamte bisherige Prozeß
rückgängig gemacht wird.
Ob eine Regel angewandt wird, hängt von folgenden
Faktoren ab:
Die Bedingung muß erfüllt sein;
Die Regel muß stark genug sein (in der Vergangenheit
oft genug gefeuert haben);
Je spezifischer die Regel ist, desto wahrscheinlicher
feuert sie;
Die Menge an Unterstützung durch andere Regeln.
Zur Erstellung einer spezifischern regel ist es notwendig,
daß die Anwendung einer allgemeineren Regel fehlgeschlagen
hat.
Fehlanwendung geeigneter Regeln
Erste Ausnahmen: Die ersten
Gelegenheiten, bei denen eine neue Ausnahme auftritt, werden wahrscheinlich
zu Fehlern führen; dies gilt insbesondere, wenn die Regel
in der Vergangenheit immer korrekt feuerte.
Gegen-Zeichen und Nicht-Zeichen:
Situationen, die Ausnahmen von einer allgemeinen Regel erfordern,
werden oft nicht eindeutig als solche erkannt. Folgende Arten
der Information wären anwesend: Signs (Input, der
den Bedingungen der geeigneten Regel entspricht), Countersigns
(Input, der anzeigt, daß die Regel nicht anwendbar ist)
und Nonsigns (Input, der die momentane regel nicht betrifft;
Noise).
Zu viel Information: erschwert
das Erkennen der Gegen-Zeichen.
Stärke der Regel:
Je stärker eine Regel ist, desto weniger Übereinstimmung
der Bedingungen mit der Situation ist notwendig.
Allgemeine Regeln: sind
wahrscheinlich stärker, da sie öfter angewandt werden.
Redundanz: Wiederholtes
Auftreten einer Problemkonfiguration, führt dazu, daß
charakteristische Folgen oder Gruppiereungen von Zeichen erlernt
werden. Die diagnostische Information wird aus wenigen Schlüsselreizen
gezogen, andere Zeichen werden dagegen immer weniger beachtet,
obwohl auch sie wertvolle Information enthalten.
Starrheit: Bei der Anwendung
von Regeln herrscht "kognitiver Konservatismus" vor
(Umschüttaufgabe von LUCHINS und LUCHINS).
Anwendung ungeeigneter Regeln
Encodierungsprobleme:
Merkmale einer bestimmten Situation werden entweder gar nicht
repräsentiert (bei bestimmten Phasen des Erwerbs von komplexen
Fertigkeiten sind die kognitiven Anforderungen so hoch, daß
nicht alle Komponenten beachtet werden können) oder im Wenn-Teil
einer Regel falsch repräsentiert. Entweder werden Eigenschaften
des Problemraums nicht genau enkodiert oder eine falsche allgemeine
Regel wird durch die Existenz richtiger domänenspezifischer
Spezialfälle "geschützt".
Handlungsprobleme: Der
Dann-Teil einer Regel ist ungeeignet (systematische Mißverständnisse),
nicht elegant (in einer nachsichtigen Umgebung oder durch
Abwesenheit eines Lehrers können sich solche Regeln etablieren)
oder nicht ratsam (da ihre Ausführung gefährlich
ist).
Selektivität (Fehler
können auftreten, wenn die Aufmerksamkeit auf die falschen
Merkmale oder nicht auf die richtigen Merkmale gerichtet wird.)
Arbeitsspeicherbeschränkungen
(Um zu überprüfen, ob eine Folgerung richtig ist, müssen
verschiedene mentale Modelle zur Erklärung der Daten erstellt
werden; dadurch wird das Arbeitsgedächnis stark beansprucht.
Elemente können nach dem first-in-first-out-Prinzip verloren
gehen)
Aus-den-Augen-aus-dem-Sinn
(Faktoren, die zuerst ins Gedächtnis kommen, werden überproportional
gewichtet; nicht sofort präsente Faktoren werden ignoriert)
Confirmation Bias (bei
Ambiguitäten werden verfügbare Interpretationen bevorzugt)
Overconfindence (die eigenen
Pläne werden überzuversichtlich als korrekt betrachtet;
vor allem die Pläne bestätigende Evidenz wird beachtet)
Biased Reviewing (rückblickend
fällt nicht mehr ein, daß das Arbeitsgedächtnis
begrenzt war und dessen Inhalte deswegen sich schnell ändernde
Fragmente waren anstelle von systematischen Betrachtungen des
relevanten Materials)
Vermeintliche Korrelation
(Menschen haben nur ein geringes Verständnis von Kovariation)
Halo-Effekte (einfache
Ordnungen werden diskrepanten vorgezogen)
Probleme mit Kausalität
(Kausalitäten werden zu sehr vereinfacht; Unregelmäßigkeiten
in der Zukunft werden unterschätzt; Verzerrungen durch die
Repräsentativitäts- und Verfügbarkeits-Heuristik;
hgindsight bias; illusion of control)
Probleme mit Komplexität
Probleme mit verzögertem Feedback:
Bei nur minimaler Verzögerung des Feedback tritt bei der
Steuerung komplexer Systeme kaum Lerngewinn auf.
Ungenügende Betrachtung der zeitlichen Prozesse:
VPn sind mehr daran interessiert, wie die Dinge momentan stehen,
als wie sie sich entwickelt haben.
Schwierigkeiten mit exponentiellen Entwicklungen:
VPn haben kein intuitives Gefühl für exponentielle Entwicklungen,
die Veränderungsrate wird immer unterschätzt.
Denken in kausalen Reihen statt in kausalen Netzen:
Das Denken in linearen Systemen wird bevorzugt. Deshalb werden
vor allem die Haupteffekte der Handlungen betrachtet, weniger
die Seiteneffekte.
Abschweifen vom Thma:
VPn mit schlechter Leistung bei der Steuerung komplexer Systeme
(Lohausen) springen von einem Punkt zum nächsten, wobei jeder
nur oberflächlich behandelt wird.
Encysting: Einzelne Details
werden genau bearbeitet, wichtigere Themen dagegen übergangen.
Intellektuelle Notfallreaktionen zeichnen
sich nach DOERNER durch eine Reduzierung des intellektuellen Niveaus
aus: Das Denken reduziert sich zu reflexhaftem und stereotypen
Verhalten. Die Erfahrung wiederholten Versagens führt insbesondere
bei schlechten Systemsteuerern dazu, daß sie risikoberreiter
werden, um die Situation um jeden Preis zu meistern. Alle Phänomene
werden auf eine einzige Ursache zurückgeführt; die Bedeutung
des Confirmation Bias nimmt noch zu.
Nach GROENEWEGEN und WAGENAAR (1988) liegt die Wurzel
der Probleme bei der Diagnose im täglichen Leben in
der komplexen Interaktion von zwei logischen Entscheidungsaufgaben:
(1) Identifikation der kritischen Symptome und der
erklärungsbedürftigen vorliegenden Elemente;
(2) Verifizierung, ob die Symptome erklärt wurden
und ob die Faktoren der Situation mit dem favorisierten Erklärungsschema
vereinbar sind.
Grundthese dieses Abschnitts ist, daß nicht
genügend spezifizierte kognitive Operationen dazu führen,
Reaktionen mit einer hohen Auftretenswahrscheinlichkeit hervorzurufen;
dabei handelt es sich um eine adaptive Strategie, da die Welt
sowohl eine große Menge an Regelmäßigkeiten als
auch an Unsicherheit enthält. Ähnlichkeits- und Häufigkeitsinformationen
scheinen automatisch und ohne kognitive Anstrengung verarbeitet
zu werden, unabhängig vom Alter, dem kulturellen Hintergrund,
der Motivation oder der Instruktion.
Schemata werden sowohl durch spezifische als auch
durch allgemeine Faktoren ausgelöst. Spezifische Aktivatoren
rufen ein Schema zu einem bestimmten Zeitpunkt ins Leben; darunter
fallen die momentane Intention, der gegenwärtige Kontext
und verwandte Schemata. Je häufiger ein Schema ausgelöst
wird, eine destoweniger detaillierte Beschreibung ist zur Auslösung
notwendig.
Allgemeine Aktivatoren
sorgen für die Hintergrundaktivierung eines Schemas unabhängig
vom momentanen Kontext: Recency, Häufigkeit, mit anderen
Schemata gemeinsame Elemente und die affektive Ladung spielen
dabei eine Rolle.
Die Beschreibungen eines Schemas sind also kontextabhängig.
Wenn ein bestimmter Kontext identifiziert wurde, ist die Menge
der möglicherweise anwendbaren Schemata dadurch schon stark
eingegrenzt. Jedes Schema wurde ursprünglich in einem bestimmten
Kontext erworben; die kontextuelle Information bildet somit einen
Teil des "Wissens" des Schemas. Der Kontext enthält
dabei sowohl physikalische Merkmale der Umwelt als auch semantische
Bestandteile; letzteres läßt sich z.B. durch Primingeffekte
bachweisen (phonologische Primingefekte sind auf eine bestimmte
semantische Subdomäne beschränkt): In einer Studie von
REASON & MACKINTOSH (1986) zeigte sich, daß im geeigneten
semantischen Kontext die Wahrscheinlichkeit des Primings mit der
Anzahl der Primes zunahm und daß kaum Begriffe aus einem
anderen (semantischen) Kontext geprimt wurden.
Folgende empirischen Befunde zur Unterspezifizierung
bzw. zu Häufigkeitseffekten sind bekannt:
Der oft gefundene Worthäufigkeitseffekt
besteht darin, daß tachistoskopischer oder verzerrter Darbietung
gebräuchliche Wörter schneller erkannt werden als seltene.
Beim Wiedererinnern einer Liste von Wörtern
werden häufige Wörter mit höherer Wahrscheinlichkeit
erinnert und häufige Wörter schleichen sich öfter
fälschlicherweise als intruders ein.
Sollen nach der Nennung eines Kategorienamens möglichst
viele Exemplare aus der entsprechenden Kategorie generiert werden,
läßt sich eine hohe Korrelation zwischen der Dominanz
(Häufigkeit, mit der ein Item in einer Gruppe von VPn generiert
wird) des jeweiligen Items und der Position, an der es abgerufen
wurde, feststellen: Die beliebtesten Items werden als erste genannt.
Die zuerst genannten Items werden als "frischer" (recent),
häufiger, bekannter und affektiv geladener als später
genennte Beispiele bezeichnet. Hieraus resultiert die Annahme,
daß Unterspezifizierung dazu führt, daß das am
meisten aktivierte Schema ins Gedächtnis gerufen wird.
Beim Tip-Of-The-Tongue-Phänomen zeigt
sich, daß immer wiederkehrende Eindringlinge sehr häufig
abgerufene Wörter sind, die außerdem eine gewisse strukturelle
Ähnlichkeit (z.B. im Wortklang) zu dem eingentlich gesuchten
Begriff aufweisen.. Dieses TOT-Phänomen ist ähnlich
den strong habit intrusions bei Handlungsfehlern.
Versprecher zeigen eine
deutliche Ähnlichkeit zwischen der aktuellen und der eigentlich
beabsichtigten Äußerung.
Slips of action treten
meist bei der Ausführung hochautomatisierter Handlungen in
vertrauter Umgebung auf, wenn gleichzeitig die Aufmerksamkeit
abgelenkt ist. Die versehentlich ausgeführten Tätigkeiten
wurden dabei oft erst kürzlich und häufig ausgeführt
und teilen mit der beabsichtigten Handlung ähnliche Orte,
Bewegungen und Objekte.
Fehler des prospektiven Gedächtnisses
sind relativ häufig.
Beim Planen muß von Unterspezifikation
ausgegangen werden, da die Zukunft immer etwas unsicher ist. Für
die zukünftigen Handlungen werden entweder sehr saliente
(lebhafte) oder sehr vertraute Szenarios ausgewählt.
Auch bei bestimmten patholoischen Erscheinungsformen
lassen sich Häufigkeitseffekte finden: Bei Schädigungen
des Frontallappens werden die eigentlich auszuführenden Aktionen
durch ungeeignete häufig gebrauchte stereotype Reaktionen
ersetzt. Viele der scheinbar bizarren schizophrenen Gedanken beruhen
auf sehr häufigen Assoziationen.
Das kognitive System erzeugt also oft vertrautere
und häufigere Antworten als die eigentlich gesuchten und
für richtig gehaltenen und und es ist auf zwei Arten kontextgebunden:
Die generierten Antworten entsprechen sowohl der momentanen physikalischen
Situation als auch dem semantischen Kontext der beabsichtigten
Handlung.
Bei der konvergenten Suche im Gedächtnis
wird von mehreren spezifischen Merkmalen ausgehend ein Begriff
gesucht, auf den diese zutreffen. Hierbei ist die Heuristik des
similarity matching dominierend. Bei der divergenten
Suche sollen Exemplare aus einer Kategorie generiert werden; dabei
kommt vor allem frwequency gambling zum Einsatz.
Beim Abruf von Wissen sind vier Prozesse notwending:
Die subjektive Sicherheit, etwas zu wissen; das Beurteilen, ob
die gefundenen Schemata passen (frequency matching); von den erzeugten
Kandidaten wird der häufigste ausgewählt (frequency
gambling); über Inferenzen kann nicht direkt vorhandenes
Wissen erzeugt werden.
Unter epistemischer Bewußtheit versteht
man das subjektive Gefühl, etwas zu wissen. Nach dem Modell
von GLUCKSBERG & McCLOSKEY (1981) wird bei der Gedächnissuche
erst überprüft, ob Information vorhanden ist; wenn nicht,
wird schnell eine "Ich weiß es nicht"-Entscheidung
getroffen. Wenn aber relevante Fakten gefunden werden, müssen
diese genauer betrachtet werden, ob sie eine Antwort auf die gestellte
Frage darstellen. Das anfängliche Gefühl, etwas zu wissen,
hängt damit zusammen, wie oft einem Item in der Vergangenheit
begegnet wurde: Es wird angenommen, daß die VPn "Häufigkeitslandkarten"
der semantischen Regionen bilden und abscannen.
Beim Similarity matching wird durch eine Frage
eine Menge von Abrufreizen an das Langzeitgedächtnis gesendet.
Dadurch werden automatisch gespeicherte Items aktiviert, die die
Attribute besitzen und ganz oder teilweise den Abrufbedingungen
entsprechen.
Beim Frequency gambling wird aus einer Menge
möglicher Kandidaten derjenige ausgewählt, dem häufiger
begegnet wurde.
Beim Abruf aus dem Gedächtnis kommt es also
zu einer komplexen Interaktion der drei folgenden Suchmechanismen:
similarity matching, frequency gambling und Inferenz. REASON,
HORROCKS & BAILEY (1986) konnten zeigen, daß die Menge
an frequency gambling bei allgemeinen Wissensfragen mit dem von
dem Probanden verfügbaren relevanten Wissen abnimmt: Je mehr
die VPn wußten, desto weniger mußten sie die Antwort
unter Einsatz der frequency gambling Heuristik lösen.
In einer weiteren Untersuchung wurde gezeigt, daß
similarity matching die vorherrschende Strategie ist, wenn
die Abrufreize nur ein einziges Item spezifizieren und wenn es
eine große Menge an gespeicherten Items gibt. Frequency
gambling wird dagegen vor allem dann verwendet, wenn keine
eindeutigen Abrufreize vorliegen oder wenn die VP nur wenig relevantes
Fachwissen besitzt.
Ziel dieses Kapitels ist es, eine informationsverarbeitende
Maschine zu beschreiben, die meistens korrekt arbeitet, aber gelegentlich
auch falsche Antworten produziert, die auch für menschliches
Verhalten charakteristisch sind. Sie besteht im wesentlichen aus
einem Arbeitsgedächtnis WM (working memory, WM) und
einer Wissensbasis (knowledge base, KB); das WM wird weiter
in das focal working memory (FWM), mit begrenzter Kapazität
und Arbeitsweise in Entscheidungszyklen, und das peripheral
working memory (PWM) unterteilt, das Daten aus der KB und
dem sensorischen Input selektiert, um sie ins FWM gelangen zu
lassen. Visuelle Information wird beim Zugang zum PWM vor anderen
Arten bevorzugt; vor allem Veränderungen in der momentanen
Umwelt werden wahrgenommen; der Zugang zum PWM ist verzerrt in
Richtung der Informationen, die den momentanen Inhalten entsprechen.
Die Aktivierung der Informationselemente im FWM wird durch die
Aktivierung der Wissenseinheiten, aus denen sie stammen, bestimmt.
Das PWM enthält auch Subsysteme, wie die articulatory
loop oder das visuo-spatial scratch pad.
In der Wissensbasis werden die einzelnen Wissenseinhaiten
abgespeichert; die Kapazität und die Dauerhaftigkeit dieser
Informationen sind im wesentlichen unbegrenzt. Der Abruf erfolgt
parallel, verteilt und automatisch; es kommen die Mechanismen
des similarity-matching, frequency-gambling und
der gesteuerten Suche zum Einsatz.. Was nach außen
hin den Eindruckt erweckt, die Wissensbasis wäre in Kategorien
organisiert, ist ein Resultat des Abrufsystems, nicht einer hierarchischen
Struktur oder Modularität der Wissensbasis selbst. Wird
Wissen wiederholt durch das FWM geleitet, wird es zu größeren
Einheiten zusammengefaßt (kompiliert). Jede Wissenseinheit
besitzt einen gewissen modifizierbaren Grad der Aktivierung; überschreitet
dieser Grad eine bestimmte Schwelle, wird eine Produktion gefeuert.
Der letzte Zyklus des FWM wird in einem Pufferspeicher gehalten;
bei allen gespeicherten Wissenseinheiten, die denen im Puffer
entsprechen, wird die Aktivierung gesteigert. Die allgemeine Aktivierung,
die unbegrenzt ist, hängt vor allem von der Häufigkeit
der bisherigen Anwendung ab. Die aufmerksamkeitsbedingten Aktivatoren
werden aus einem streng begrenzten Pool gezogen; werden dessen
Grenzen überschritten, wird die Kontrolle standardmäßig
an aktive Wissenseinheiten gegeben, die wahrscheinlich für
den Kontext geeignet und häufig verwendet sind.
Der sensorische Input (input function, IF)
wird in das periphere Arbeitsgedächtnis geleitet; die Outputfunktion
(output function, OF) besteht in der Umwandlung gespeicherter
Instruktionen in Programme für die Effektoren oder in dem
Richten der Aufmerksamkeit auf neuen sensorischen Input.
Intentionale Aktivitäten
kommen dadurch zustande, daß die begrenzten Ressourcen der
Aufmerksamkeit dazu verwendet werden, ein bestimmtes Element im
FWM zu halten, so daß die Aufmerksamkeit auf eine begrenzte
Menge von Wissensstrukturen gerichtet bleibt. Ein weiteres wichtiges
Merkmal dieses Modells ist, daß die Information gleichzeitig
vom Arbeitsgedächtnis und von der Wissensbasis verarbeitet
wird. An zwei Stellen kann fuzziness auftreten:
(1) Die mit einer bestimmten Problemstellung assozierten
Abrufbedingungen können auf mehrere oder keine gespeicherte
Strukturen passen; sie können aber auch verzerrt, nicht beachtet
oder abwesend sein.
(2)Die gespeicherten Wissensstrukturen können
unvollständig (nicht alle Fakten bekannt), falsch oder fehlend
sein.
Der mit diesem Modell, das in PROLOG implementiert
wurde, erreichte Fit war für die Aufgabe, Präsidentennamen
zu erinnern, erstaunlich gut: Koeffizienten der Korrelation zwischen
dem Output des Modells und den Antworten der VPn lagen zwischen
.85 und .87 (die Korrelation zwischen zwei menschlichen Stichproben
lag auch nur bei .96).
Zum Entdecken von Fehlern liegen bisher nur relativ
wenig empirische Untersuchungen vor. Die kognitiven Mechanismen
zum Entdecken von Fehlern sind in fast allen Fällen erfolgreich.
RIZZO fand folgende Verteilungen:
SB-Fehler: 60.7% der Fehler; Entdeckung in 86.1%
der Fälle.
RB-Fehler: 27.1% der Fehler; Entdeckung in 73.2%
der Fälle.
KB-Fehler: 11.3% der Fehler; Entdeckung in 70.5%
der Fälle.
Nach LEWIS und MORMAN behindern folgende kognitive
Prozesse das Entdecken von Fehlern:
Relevanz-Bias: Oft wird
nur ein Teil der für eine geeignete Lösung wichtigen
Faktoren beachtet: nur solche Items, die für die momentane
Betrachtungsweise relevant erscheinen. Evidenz gegen den momentanen
Standpunkt wird geren übersehen. In einer sehr informationsreichen
Umgebung (z.B. Leitstand) wird auch leicht bestätigende Evidenz
gefunden.
Teilerklärungen:
Menschen geben sich schon mit einer groben Übereinstimmung
zwischen dem aktuellen Zustand der Welt und ihrer momentanen Theorie
darüber zufrieden.
Überlappung zwischen der Welt und dem mentalen
Modell: Das mentale Modell, das sich eine
Person von einem bestimmten Problemraum bildet, wird wahrscheinlich
größtenteils mit der realen Welt überinstimmen,
auch wenn es in mancher Hinsicht falsch ist.
Schwierigkeit, häufige Fehlerformen zu entdecken:
Fehler können in so vertrauter, häufig vorkommender
Gestalt auftreten, daß sie von den Mechanismen, die Anweichungen
zwischen Handlung und INtention überwachen sollen, nicht
bemerkt weredn (USA statt UAA).
Das Entdecken von Fehlern ist durch folgende Mechanismen
möglich:
Die Feedback-Kontrolle ist im wesentlichen fehlergesteuert:
Aktionen werden durch Abweichungen (= Fehler) vom Sollzustand
erreicht. Bei der automatischen Entdeckung von Haltungsabweichungen
werden als Input das visuelle System, die Haut-Muskel-Gelenk-Rezeptoren
und der Gleichgewichtssinn verwendet. Jeder dieser räumlichen
Sinne liefert einem "Vergleichsprozessor" (comparator)
Daten, der den Grad der Übereinstimmung zwischen der Beschreibung
der Körperposition und der Bewegung berechnet. Der Output
wird nicht direkt an die Effektoren weitergeleitet, sondern zuerst
dazu verwendet, eine innere Repräsentation der Orientierung
der Position des Körpers im Raum auf den neuesten Stand zu
bringen.
Die Korrektur von Fehlern bei einfachen motorischen
Reaktionen erfolgt schneller als die Ausführung korrekter
Antworten. Menschen entdecken Ausführungsfehler dadurch,
daß sie die wahrgenommenen Ergebnisse mit einer Aufzeichnung
der Intention vergleichen. Es scheint also eine Art Echo des korrekten
motorischen Programms zu existieren, das noch kurz bestehen bleibt,
wenn die Reaktion ausgeführt wurde, und so den Vergleich
zwischen dem aktuellen und dem beabsichtigten Response ermöglicht.
Bei perzeptuellen Diskriminationsaufgaben ist das Übersehen
von Reizen wesentlich häufiger als falsche Indentifikationen,
die allerding öfter korrigiert werden.
Es scheint auch ein inneres System zu existieren,
das den sprachlichen Output sowohl kurz vor als auch kurz
nach einer Äußerung überprüft. Empirische
Befunde deuten darauf hin, daß gesprochene Sprache auf verschiedenen
Stufen überprüft wird, und daß Fehler, die den
lexikalischen Regeln entsprechen, leichter übersehen werden,
insbesondere, wenn Ablenkung vorliegt.
Das Entdecken von Handlungsfehlern findet
dann statt, wenn routinemäßig die Aufmerksamkeit aus
ablaufende automatisierte Aktionen gerichtet wird, um Abwichungen
vom vorhergesehenen Ablauf festzustellen. Slips können deshalb
auftreten, wenn diese Überprüfung vergessen wird und
sie können bei einer nachträglichen Überprüfung
dann doch entdeckt werden.
Das Entdecken von Fehlern beim Problemlösen
ist schwieriger, da die richtige Lösung (wenn überhaupt)
nur in der Umwelt zu finden ist. Der Erfolg der Strategie von
Versuch und Irrtum hängt davon ab, daß der Zielzustand
bekannt ist und daß Abweichungen vom beabsichtigten Ablauf
erkannt werden können. Dies ist bei strategischen Fehlern
(Wahl des falschen Ziels) viel schwieriger als bei taktischen
Fehlern (Wahl des falschen Pfades), da eine längere Zeit
bis zur Fertigstellung vergeht und eine Beurteilung nur rückblickend
möglich ist. ALLWOOD (1984) fand bei Studenten folgende Arten
der Überprüfung von Statistikaufgaben:
Standard Check: Entschluß,
eine allgemeine Überprüfung zu beginnen (selten);
Direct error-hypotheses formation:
Abrupte Entdeckung eines Fehlers (nimmt mit zeitlichem Abstand
ab);
Error suspicion: Etwas
Ungewöhnliches wird bemerkt, der Verdacht eines Fehlers tritt
auf.
Ausführungs-Slips wurden dabei wesentlich schneller
als Fehler in den Lösungsmethoden entdeckt. RZZO und seine
Mitarbeiter fanden außerdem heraus, daß die meisten
SB-Fehler während der direkten Fehlerhypothesenbildung entdeckt
wurden, während die meisten KB-Fehler nach einer Fehlervermutung
gefunden wurden. RB-Fehler wurden entweder während der Fehlerhypothesenbildung
oder während der Fehlervermutung entdeckt.
Durch Forcing Function kann die Entdeckung
von Fehlern garantiert werden (z.B. erlauben viele Programme nicht,
zum OS zurückzukehren, wenn die Dateien nicht abgespeichert
wurden). Beim Zerlegen von Gegenständen treten normalerweise
mehr Forcing Functions auf als beim Zusammensetzen (was letzteres
schwieriger macht). Menchen reagieren nicht immer rationale auf
solche erzwungenen Fehlerhinweise.
Manchmal erlaubt die Umwelt zufälliges Entdecken
von sehr ungünstigen Lösungen, wenn wesentlich einfachere
Lösungen möglich gewesen wären. Folgende Systemreaktionen
auf Fehler sind möglich (cf. LEWIS und NORMAN, 1986):
Gagging: Jede nicht geeignete
Reaktion wird abgeblockt; das System reagiert so lange nicht,
bis ein Reset stattgefunden hat.
Warning: Über potentiell
gefährliche Situationen wird informiert.
Do nothing: Das Systemreagiert
einfach nicht auf illegalen Input; dies macht es für den
Benutzer schwer, die Fehlerquelle herauszufinden.
Self-correct: DWIM: Ein
Programm versucht, die eigentlich intendierte Aktion herauszufinden.
Let´s talk about it:
Auf einen Fehler hin versucht das System, einen Dialog zu starten
(-> Debug Window).
Teach me: Wird ein Fehler
entdeckt, fragt das System den Benutzer, was er wollte; es will
unterrichtet werden.
WOODS (1984) fand heraus, daß bei der Steuerung
komplexer Anlagen die Hälfte der Ausführungsfehler von
den Operateuren selbst entdeckt wurden. Allerdings wurden keine
diagnostischen Fehler von ihnen entdeckt; sie wurden auf sie erst
aufmerksam, wenn neue Leute hinzukamen.
REASON unterscheidet zwischen aktiven Fehlern
(deren Auswirkungen sofort sichtbar werden) und latenten Fehlern,
deren negative Konsequenzen für lange Zeit unerkannt im System
verborgen sein können und erst bei einer ganz bestimmten
Kombination von anderen Gegebenheiten zum Tragen kommen. Für
letztere Art der Fehler sind vor allem Designer, höhere Entscheidungsträger
und das Maintenance-Personal verantwortlich zu machen. (Bei der
HCI ist diese Unterscheidung schwierig: Auch wenn im System ein
latenter Fehler steckt, so gibt sich der Benutzer doch meist selbst
die Schuld, wenn dieser auftritt.)
Die Operateure von Systemen sind deshalb nicht die
Hauptquelle von Systemfehlern, sondern sie "erben" diese
aufgrund von schlechtem Design, ungünstiger Installation,
fehlerhafter Wartung oder schlechten Entscheidungen des Management.
Der Versuch, diese latenten Fehler zu neutralisierren würde
sich besser auf die Sicherheit des Systems auswirken als die Versuche,
lokale aktive Fehler zu minimieren.
Latente Fehler treten nur selten und unter ganz bestimmten
Umständen auf. Da sich die selbe Situation wahrscheinlich
nicht wiederholen wird, wird der Versuch, die Wiederholung eines
Fehlers zu verhindern, nur einen geringen Einfluß auf die
Sicherheit des Gesamtsystems haben.
REASON stellt die Ähnlichkeit zwischen latenten
Fehlern in komplexen technischen Systemen und pathogenen Faktoren
im menschlichen Organismus heraus: Bei beiden müssen erst
mehrere Foktoren zusammenkommen, um zu einem Versagen der vorhandenen
Korrekturmechanismen zu führen.
Dadurch, daß die Systeme immer mehr automatisiert
wurden, wurden die Operateure immer weiter von den Prozessen entfernt,
die sie angeblich kontrollieren. Das Mensch-System-Interface tritt
zusätzlich zwischen das eigentliche System und den menschlichen
Operateur und präsentiert ihm nur ausgewählte Informationen.
Die meiste Zeit ist die Aufgabe des Operateurs darauf reduziert,
das System zu überwachen bzw. sicherzustellen, daß
es innerhalb gewisser Grenzen funktioniert.
Die Systeme wurden immer komplexer und gefährlicher.
Immer größere Mengen an potentiell schädlichem
Material konzentrieren sich an einzelnen Standorten unter der
zentralisierten Kontrolle von immer weniger Operateuren.
Manche Systeme verwenden automatic safety devices,
um sich vor allen bekannten Arten des Zusammenbruchs zu schützen;
dieses Vorgehen wird als defence in depth bezeichnet. Allerdings
können gerade wieder solche Sicherheitssysteme der Grund
für latente Fehler sein.
Die Systeme werden immer undurchsichtiger.
Komplexe, eng vernetzte und stark abgesicherte Systeme werden
für die Leute, die sie steuern, warten oder leiten sollen,
immer undurchsichtiger: Man weiß nicht, was passiert und
man versteht nicht, was das System tun kann. Die direkte Information
wird durch das Interface gefiltert. Die Sicherheitsmechanismen
führen zu der Täuschung, daß defense in depth
stattfindet, da das System nicht aktiv auf einzelne Fehler
reagiert und sich diese Fehler deshalb nicht zeigen.
Folgende Ironien der Automatisierung werden
von BAINBRIDGE (1987) genannt:
Die Fehler des Designers tragen signifikant zu den
Unfällen bei.
Der selbe Designer, der versucht, die Menschen aus
der Steuerung möglichst heraus zu halten, überläßt
den Operateuren immer noch diejenigen Aufgaben, von denen er nicht
weiß, wie sie zu automatisieren sind.
Automatiche Kontrollsysteme, die nur wenige Fehler
machen, bieten den Operateuren auch kaum die Möglichkeit,
aus fehlern zu lernen bzw. die nötigen motorischen Fertigkeiten
einzuüben.
Gerade die Systeme, die am erfolgreichsten automatisiert
wurden und in die deshalb selten manuell eingegriffen werden muß,
benötigen die meisten Investitionen in die Schulung der Operateure.
Es wurde versucht, Notfallsprozeduren für die
Operateure zu entwickeln. Diese berücksichtigen aber nicht
alle auftretenden Möglichkeiten. Unfälle beginen manchmal
auf konventionelle Art, aber entwickeln sich schnell entlang unvorhersehbarer
Linien.
Die Operatuere müssen also deshalb ein system
überwachen, da der Designer nicht alle möglichen Szenarios
oder Fehler vorhersehen kann und deshalb nicht für alle Fehlermöglichkeiten
automatische Korrekturen zur Verfügung stellen kann. Deshalb
ist die einzigartige menschliche Fähigkeit gefordert, in
neuen Situationen on-line Probleme zu lösen; gerade iin
dieser Fähigkeit ist aber auch der Mensch nicht sonderlich
gut.
Die größte einzelne Kategorie an Fehlern
besteht im einfachen Vergessen von bestimmten Aktionen, die zur
Erreichung eines Ziels notwendig sind, insbesondere bei Wartungsarbeiten.
In einer Studie von RASMUSSEN (1980) zeigte sich ein sehr großer
Anteil an Auslassungen bei Test-, Feineinstellungs- und Wartungsarbeiten.
Eine mentale Aufgabenanalyse zeigt eine enge Verbindung zwischen
den Auslassungen und dem Planen und Abruf von Prozeduren.
Zuerst muß unterschieden werden, ob die Regelverstöße
absichtlich begangen wurden; war dies nicht der Fall, spricht
man von fehlerhaften oder unbeabsichtigten Vrstößen.
War dagegen beabsichtigt, das System zu chädigen, spricht
man von Sabotage. Ansonsten wird zwischen Routineverstößen
(die immer wieder stattfinden, um möglicht wenig Aufwand
zu betreiben und/oder wenn die Umgebung ihnen gegenüber nachsichtig
ist) und ausnahmsweisen Verstößen (aufgrund
besonderer Umstände) unterschieden.
Untersuchungen zu Fehlverhalten im Straßenverkehr
erbrachten drei Dimensionen solchen Verhaltens: Absichtliche Verstöße
(betrunken Fahren), gefährliche Fehler (Stopschild überfahren)
und folgenlose Versehen (falsche Ausfahrt nehmen). Es ist anzunehmen,
daß Fehler und Verstöße von unterschiedlichen
kognitiven Mechanismen verursacht werden.
Alle komplexen Technologien sind in irgendeiner Form
mit der Produktion beschäftigt. Folgende Grundelemente sind
darin enthalten:
Decision Makers: Das höhere
Management setzt die Ziele und gibt die dazu zur Verfügung
stehenden Mittel an. Die meisten Fehler beruhen letztendlich auf
fehlerhaften Entscheidungen. Das Hauptproblem besteht in der Aufteilung
der Ressourcen zwischen Produktion und Sicherheit. Investitionen
in die Sicherheit führen nicht so sicher und nicht so schnell
un klar erkennbar zu Erfolgen.
Line Management: Hierunter
fallen die Spezialisten, die die Strategien ausführen; Wartung;
Training usw. Die Inkomptenz des Personals auf dieser Stufe kann
die Designfehler noch verschlimmern, aber auch kompensieren.
Preconditions: Voraussetzungen
sind die notwendigen Eigenschaften der Menschen und Maschinen
wie Zuverlässigkeit, Fähigkeit und Motivation. Auch
die Voraussetzungen bergen viele Fehlerquellen, die in komplexer
Weise von der jeweiligen Aufgabe, den Umwelteinflüssen und
bestehenden Störungen abhängen. Viele Pathogene auf
dieser Stufe beruhen auf den involvierten Menschen: Z.B. Streßanfälligkeit,
Übersehen von Störungen, mangelnder Überblick über
das System oder mangelnde Motivation.
Productive Activities:
sind die aktuellen Tätigkeiten der Maschinen und der Menschen.
Unsichere Handlungen ergeben sich aus der Interaktion zwischen
den intrinsichen Systemmerkmalen und der Umwelt. Z.B. ist es nur
dann unsicher, keinen Helm zu tragen, wenn mit herunterfliegenden
Gegenständen zu rechnen ist.
Defences: Schutzvorrichtungen
gegen vorhersehbare Gefahren. Auf der untersten Ebene kann es
sich um Schutzkleidung für die Arbeiter oder Wachpersonal
vor gefährlichen Bereichen handeln; auf der obersten Ebene
steht die oben beschriebene defence in depth.
In stark abgesicherten Systemen besteht eine der
häufigsten Fehlerquellen darin, daß bestimmte Sicherheitsmechanismen
absichtlich abgeschaltet werden.
Für eine adäquate Sicherheitskontrolle
ist es notwendig, daß ein mehrkanaliges Feedback-system
zur Verfügung steht und daß schnell und effizient auf
aktuelle oder antizipierte Veränderungen reagiert werden
kann. Effektive Sicherheitsinformation kommt in der Wichtigkeit
bezüglich der Sicherheit von Organisationen gleich nach den
Bemühungen des Top-Managements. Organisationen können
sich auf folgende Arten in ihrer Sicherheit unterscheiden:
Denial Action: Verdrängung
(keine Aufzeichnungen ...) oder Abkapselung (Meinung der Beobachter
des Fehlers wird nicht beachtet).
Repair Actions: Öffentlichkeitsarbeit
(Schönreden der Fehler) oder lokale Ausbesserungen (weitreichende
Implikationen werden geleugnet).
Reform Actions: Ausbreitung
(das Problem wird als global erkannt und behandelt) oder Reorganisation
(das gesamte System wird neu organisiert).
Je anchdem, auf welcher Ebene die Organisation versucht,
mit Problemen fertig zu werden, wird sie nach WESTRUM als pathologisch,
berechnend oder generativ bezeichnet.
Man sollte bei der Schuldzuweisung bei größeren
Unglücken den fundamentalen Attribuierungsfehler (man
neigt dazu, persönliche Eigenchaften für einen Fehler
verantwortlich zu machen) und die fundamentale Überraschung
(man neigt dazu, Probleme, aus denen sich völlig neue Konsequenzen
ergeben, als nur situative Probleme zu betrachten) beachten. Außerdem
scheint rückblickend die Gefahr ganz klar erkennbar gewesen
zu sein, während dies in der relevanten Situation vielleicht
nicht der Fall war.
Insbesondere aufgrund der Unglücksfälle
in Atomkraftwerken wurden Techniken zur Analyse der menschlichen
Zuverlässigkeit entwickelt; die Ängste der Bevölkerung
und die Zulassungsvorschriften machten diese Entwicklungen notwendig.
Die meisten dieser Techniken basieren auf logischen Bäumen,
in denen die bedingten Fehlerwahrscheinlichkeiten verknüpft
werden; sie erwiessen sich empirisch nicht als all zu effektiv:
Probabilistic Risc Assessment
(PRA) versucht, die Gebiete mit möglichen Risiken zu identifizieren
und Verbesserungen vorzuschlagen; außerdem läßt
sich das Gesamtrisiko berechnen. Dabei wird aber die mögliche
Abhängigkeit der einzelnen Fehler nicht berücksichtigt.
Technique for Human Error Rate Prediction
(THERP) schätzt die Zuverlässigkeit der Operatuere ähnlich
wie die Zuverlässigkeit der Ausstattung. Ziel ist die Vorhersage
der menschlichen Fehlerwahrscheinlichkeiten. Diese hängen
von der Qualität der Mensch-Maschine-Schnittstelle ab und
von der individuellen Erfahrung, Fähigkeit, Motivation und
Erwartung.
Bei der empirical Technique to Estimate Operators´
Errors (TESEO) werden fünf Fehlerparameter unterschieden:
Art der Aktivität; Streß bei Routinetätigkeiten;
Qualitäten des Operateurs; Angstfaktor und Ergonomiefaktor.
Die Confusion Matrix versucht auf der Grundlage
von Expertenbefragungen die Wahrscheinlichkeit verschiedener falscher
Diagnosen bei kritischen Zuständen zu errechnen.
Aufgrund der Tatsache, daß menschlicher Fehler
unvermeidbar ist, ist möglicherweise die beste Art, gefährliche
Systeme vor menschlichen Fehlern zu schützen, sie fehlertoleranter
zu gestalten.
Nach NORMAN (1988) beruhen Fehler weniger auf der
Tendenz der Personen, diese zu begehen, sondern eher daran, daß
die Objektee benutzerfeinlich gestaltet wurden. Außerdem
wird oft das Ausmaß unterschätzt, in dem das Wissen
der Menschen in der Umwelt liegt, nicht in ihrem Kopf. Wissen
in der Welt ist immer zugreifbar und braucht nicht extra bereitgestellt
werden; Wissen im Kopf ist effizient und von der momentanen
Umgebung unabhängig, aber es muß abgerufen werden und
erfordert, sich daran zu erinnern. Um Fehlertendenzen zu minimieren
schlägt NORMAN folgende Richtlinien vor:
Zwischen dem Modell des Designers, des Benutzers
und des Systems sollte eine konsistente Relation vorliegen (konsistent
mapping).
Die Aufgaben sollten so strukturiert werden, daß
die Belastung des Gedächtnisses minimiert wird.
Sowohl Ausführung als auch Bewertung einer Aktion
sollten deutlich erkennbar sein.
Natürliche Mappings sollten genutzt werden.
Natürliche und künstliche Constraints können
verwendet werden.
Design for Errors: Man soll vom Auftreten von Fehlern
ausgehen und ihre Behebung einplanen.
Wenn alles andere nicht funktioniert, standardisiere.
Es wurde auch versucht, Bei kritischen Entscheidungen
Unterstützung zu bieten:
Zusätzliche technische Berater in jeder Schicht.
Verbesserungen der Ausbildung (nicht nur Auswendiglernen
von Prozeduren, sondern auch Verständnis der Zusammenhänge
führt dazu, daß neue Fehler genauso schnell behoben
werden, wie bekannte; cf. DUNCAN).
Computerisierte Unterstützungssysteme.
Die meisten Fehler der Operatuere resultieren daraus,
daß zwischen den Merkmalen des Systems als Ganzes und der
menschlichen Informationsverarbeitung Inkompatibilitäten
bestehen. Wenn Entscheidungshilfen tatsächlich funktionieren,
dann wird es nur dazu kommen, daß man sich zu sehr auf sie
verläßt und die diagnostischen Fähigkeiten weiter
absinken.
Simulatortraining kann
zwar erfolgreich zu generalisierbaren diagnostischen Fähigkeiten
beim Operator führen; was erreicht werden kann, ist aber
begrenzt. Die Wahrscheinlichkeit von Diagnosefehlern ist auch
nach einem solchen Training noch beunruhigend hoch (cf. DUNCAN,
1987).
Nach FRESE und anderen haben Fehler auch positive
Seiten:
Gelegenheit, mehr über das System zu lernen.
Erkennen ungeeigneter mentaler Modelle.
Verzögerung der verfrühten Automatisierung
von Fertigkeiten.
Möglichkeit für kreative Lösungen
und neue Strategien.
Exploratives Verhalten.
Dem stehen die negativen Effekte auf das Selbstbewußtsein
und Streß und Angst gegenüber. Bei der Ausbildung sollte
deshalb versucht werden, die positiven Effekte der Fehler zu maximieren,
ohne daß die negativen Aspekte zum Tragen kommen:
Das Training soll aktives, exploratives Vorgehen
fördern.
Es sollte auch Fehlertraining erfolgen.
Die Einstellung zu Fehlern sollte geändert werden
(sie haben auch positive Seiten).
Das Fehlertraining sollte zum richtigen Zeitpunkt
erfolgen (grundlegendes Wissen sollte schon vorhanden sein).
RASMUSSEN erstellte Richtlinien, die nicht
die Beseitigung von Fehlern zum Ziel haben, sondern die Fehlertoleranz
des Systems dadurch erhöhen sollen, daß den Operateuren
natürlichere Mittel zur Verfügung stehen:
"Experimente" sind notwendig zum Erlernen
sensorimotorischer Fertigkeiten der Systembenutzer.
Feedback sollte so gestaltet sein, daß funktionales
Verständnis und wissensbasiertes Beobachten während
regelbasiertem Vorgehen möglich wird.
Hinweise auf mögliche Aktionen sollten auch
die Voraussetzungen für ihre Validität enthalten.
Es sollten Werkzeuge zur Verfügung stehen, mit
denen man experimentieren und Hypohesen testen kann, ohne bereits
in das aktuelle Geschehen eingreifen zu müssen.
Übersichtsdisplays sollen die Ablenkung durch
irrelevante Details minimieren.
Integrierte Muster sollen aus Hinweisreize für
Handlungen dienen, um das eindringen starker Gewohnheiten zu vermeiden.
Die Interferenz zwiscchen verschiedenen mentalen
Modellen soll minimiert werden.
Die Informationen sollen so präsentiert werden,
daß sie für SB, RB und KB Verarbeitung geeignet sind.
Die Informationen sollten in eine externe Struktur
so eingebettet sein, daß diese als externalisiertes mentales
Modell dienen kann.
Externe Gedächtnishilfen sollen zur Verfügung
gestellt werden (-> Toolbox).
zurück zur Skriptenseite
zurück zu meiner homepage
Die Natur des Fehlers
Studien zum menschlichen Fehler
Leistungsstufen und Fehlertypen
Fehlerarten auf der Skill-based Ebene
Fehlerarten auf der Rule-based Ebene
Fehlerarten auf der Knowledge-based Ebene
Cognitive Underspecification und Fehlerformen
Die Spezifikation mentaler Operationen
Beispiele von Unterspezifizierung
Gedächtnissuche und Abruf
Design einer fehlbaren Maschine
Das Entdecken von Fehlern
Selbstbeobachtung
Hinweise der Umwelt auf Fehler
Fehlerentdeckung durch andere Menschen
Verdeckte Fehler und Systemabstürze
Technologische Entwicklungen
Wartungsbezogene Fehler
Klassifikation von Verstößen
Fehlerverursachung in komplexen Systemen
Schuldzuweisungen
Schätzung und Reduzierung des menschlichen Fehlerrisikos
Fehlerreduktion
Last modified 10-29-98