rainer@zwisler.de
0. Definitionen
1. Planen in der KI
1.1. Einstufiges Planen
1.1.1. Planen als Inferenz
1.1.2. Planen als Suche
1.1.2.1. STRIPS
1.1.3. Nichtlineares Planen
1.2. Mehrstufiges Planen
1.2.1. Situationsabstraktion
1.2.2.. Operatorabstraktion
1.2.3. Flexibilisierung des Planens
1.2.3.1. Planen mit Constraints
1.2.3.2. Meta-Planen
1.2.3.3. Opportunistisches Planen
1.2.3.4. Verteiltes Planen verteilter Problemlösungen
1.2.3.5. Rationale Agenten
1.3. Probleme bei den klassischen KI-Ansätzen
1.4. SIPE: Ein neuerer Ansatz
1.4.1. WILKINS' Ansicht vom klassischen Planen
1.4.2. Die Merkmale von SIPE
1.4.3. Implikationen für psychologische Planungsmodelle
1.5. Planerstellung bei PANDORA (WILENSKY)
2. Planen aus psychologischer Sicht
2.1. Opportunistisches Planen
2.1.1. Merkmale opportunistischen Planens
2.1.2. Empirische Befunde
2.1.3. Das Modell und die Simulation
2.2. Adaptives Planen
2.2.1. Was ist adaptives Planen
2.2.2. Planen bei PLEXUS
2.2.3. Psychologische Bedeutung
2.3. Hierarchisches Planen
2.3.1. Generalisierung von Plänen in STRIPS
2.3.2. Hierarchisches Planen bei ABSTRIPS
2.4. Fallbasiertes (case-based) Planen
2.4.1. Das System CHEF
2.4.2. Praktische Relevanz
2.5. "Kognitive Psychologie des Planens"
2.5.1. Die Ansicht von HOC
2.5.2. Die Ansicht von WILENSKY
2.5.3. Fazit
3. Planerkennung
3.1. Grundlagen
3.1.1. Grundzüge der Planerkennung
3.1.2. Planerkennung zwischen Psychologie und KI
3.1.2.1. Empirische Befunde
3.1.2.2. Das Modell
3.1.2.3. Der Bezug zwischen Modell und Daten
3.1.3. Das Konzept der Intention
3.1.3.1. Die Vorstellungen von SCHULTZ (1991):
3.1.3.2. Das Modell von ALLEN:
3.1.4. Planerkennung in Diskursen (allgemein)
3.1.5. Fehler in Plänen
3.2. Pläne als komplexe mentale Einstellungen
3.2.1. Das Planen nach POLLACK (1990)
3.2.2. Das Planerkennen nach POLLACK (1990)
3.3. Planbeschreibung mittels Prädikatenlogik
3.3.1. Der Ansatz von KAUTZ (1990)
3.3.2. Kritik
3.4. Planerkennung in Dialogen
3.4.1. Planerkennung in Teildialogen (LITMAN)
3.4.1.1. Pläne
3.4.1.2. Der Planstack
3.4.1.3. Planerkennung
3.4.2. Das Modell von CARBERRY
3.4.2.1. Das System TRACK
3.4.2.2. Die lokale Analyse
3.4.2.3. Die globale Analyse
3.4.2.4. Erweiterung des Modells
3.5. Die Anwendung
3.5.1. Ein Anwendungsbeispiel
3.5.2. Benutzer-Modelle
0. Definitionen
Bei den verschiedenen Definitionen des Planens
stehen entweder die Tätigkeit des Planens selbst (meist eher
psychologische Modelle) oder die Repräsentation der Pläne
(oft eher Modelle aus der künstlichen Intelligenz, KI) im
Vordergrund. HERTZBERG (1989, S. 11) nennt neben der KI auch automatisches
Programmieren, Konfigurieren, Operations Research, Betriebswirtschaft
oder Sozialwissenschaften, die sich mit dem Gegenstandsbereich
der Planung befassen.
Man kann Planen mehr als praktische Tätigkeit betrachten und daraus die Definition des Begriffs herleiten. Diesen Weg gehen z.B. HAYES-ROTH & HAYES-ROTH in ihrer Definition des Begriffs Planen, den sie von dessen eigentlicher Ausführung abgrenzen:
"We define planning as the predetermination of a course of action aimed at achieving some goal. It is the first stage of a two-stage problem-solving process. The second stage entails monitoring and guiding the execution of a plan to a useful conclusion. We refer to these two stages as planning and control." (HAYES-ROTH & HAYES-ROTH, 1979, S.275 f, Hervorhebung im Text)
Auch in der Betriebswirtschaft, insbesondere im Bereich der Unternehmensforschung, befaßt man sich mit Planungsproblemen. Eine Definition aus diesem Bereich betont wiederum eher den Vorgang (weniger die Repräsentation) des Planens:
"Planung ist die gedankliche Vorwegnahme zukünftigen Handelns durch Abwägen verschiedener Handlungsalternativen und Entscheidung für den günstigsten Weg. Planung bedeutet also das Treffen von Entscheidungen, die in die Zukunft gerichtet sind und durch die der betriebliche Prozeßablauf als Ganzes und in allen seinen Teilen festgelegt wird." (WÖHE, 1981, S.125, Hervorhebung im Text)
WILENSKY (1983), der sich mit relativ realistischen und komplexen Planungsproblemen befaßt, bringt eine recht umfassende Definition des Begriffs, die die psychologische Seite des Planens betont; dabei soll ein möglichst weiter Bereich des Planens und der bei der Ausführung eines Plans auftretenden Prozesse erfaßt werden:
"Planning concerns the process by which
people select a course of action - deciding what they want, formulating
and revise plans, dealing with problems and adversity, making
choices, and eventually performing some action." (WILENSKY,
1983, S.1)
Andererseits kann aber das Planen mehr aufgrund der Repräsentation der Problemstellung und der formalen Darstellung der Lösungsfindung definiert werden. Diese Art der Definition ist vor allem in der künstlichen Intelligenz (KI) üblich. WILKINS beschreibt die klassische Art des Planens in der KI folgendermaßen:
"The classical definition of the planning problem assumes a state-based representation of the world. This means that the world is represented by taking a 'snapshot' of it at one particular time and describing the world as it appears in this snapshot... " (WILKINS, 1988, S.4)
"The problem of generating a sequence of actions to accomplish a goal is referred to as planning." (WILKINS, 1984, S.269, Hervorhebung im Text)
Nach GEORGEFF (1987, S.367) gibt es grundsätzlich
folgende Möglichkeiten zur Planerstellung: Aneinanderreihung
(sequencing), Auswahl (choice), Iteration
und Rekursion. Die klassischen Planungssysteme in der KI
basieren auf einer Beschreibung der Welt, auf die Operatoren angewandt
werden:
Die zuletzt genannte Definition wird den
meisten der im folgenden vorgestellten Modelle zugrunde liegen.
Abweichende Definitionen werden bei den einzelnen Modellen genannt.
1. Planen in der KI
Die Darstellung des Planens in der KI ist sehr wichtig. Alle mir bekannten bisher entwickelten Modelle des Planens bauen auf den in der KI dazu entwickelten Vorstellungen auf; dies gilt auch für die von Psychologen erstellten Modelle. Meist steht im Vordergrund der Modelle der Versuch, einen lauffähigen Planer zu konstruieren. "That is, the goal is not so much a theory of cognition but a program that performs certain tasks efficiently." (WILENSKY, 1983, S.6) Am häufigsten operieren die vorgestellten Modelle in der Domäne der Roboter-Planung in einer Blockwelt (block world); diese oder ähnliche Bereiche werden vor allem deshalb gewählt, da sie eine begrenzte Beschreibung der Welt und ihrer möglichen Zustände relativ leicht ermöglichen.
In der künstlichen Intelligenz versteht man unter einem Plan einen "Handlungsplan, also eine Folge von Aktionen, die man sich überlegt hat und die man ausführen kann, um irgendein Ziel zu erreichen." (HERTZBERG, 1989, S.9, Hervorhebung im Text) Die dazu entwickelten Systeme stellen keinen Anspruch darauf, ein Modell der kognitiven Vorgänge des Menschen beim Planen zu bieten.
WILKINS charakterisiert kurz und bündig die wesentlichen Merkmale des Planens in der KI:
"The automation of planning in a computer
program involves representing the world, representing actions
and their effects on the world, reasoning about the effects of
sequences of such actions, reasoning about the interaction of
actions that are taking place concurrently, and controlling the
search so that plans can be found with reasonable efficiency."
(WILKINS, 1984, S.269)
1.1. Einstufiges Planen
In der KI trifft man die grundsätzliche Unterscheidung zwischen einstufigem Planen, wobei sich der Plan auf einer Ebene (und zwar meist auf der Ebene der ausführbaren Aktionen) bewegt, und mehrstufigem Planen, bei dem der Plan auf verschiedenen Abstraktionsebenen erstellt wird.
Viele der in der KI entwickelten Planer spielen sich in der Domäne der Blockwelt ab. In dieser Blockwelt existieren verschiedene geometrische Figuren (meist Quader oder Würfel), die teilweise aufeinander aufgetürmt sind. Ein Greifarm eines Roboters kann diese Blöcke hochheben und an einem anderen Ort abstellen. Ziel ist es, eine ganz bestimmte Konfiguration der Blöcke zu erzielen. Die Blockwelt kann leicht so komplex gestaltet werden, daß die Probleme der einzelnen Planungsverfahren schnell offenbart werden; andererseits kann die Komplexität aber auch leicht eingegrenzt werden, z.B. durch Verringerung der Anzahl der Blöcke. Es lassen sich auch relativ leicht - und vor allem auch anschaulich - Operatoren finden und definieren. WILKINS beschreibt Operatoren so:
"The actions that can be taken in the world must be represented in such a way that the planner can take the state of the world in which the action is performed and map it into the state of the world that will exist after the action is performed. Such a representation of an action is called an operator." (WILKINS, 1988, S.4 f, Hervorhebung im Text)
Solche Operatoren sind z.B. move(Origin,
Destination), der einen Block (Origin) nach Destination
(entweder ein anderer Block oder der Tisch) bewegt, oder clear(Block),
der alle auf Block liegenden Blöcke entfernt.
1.1.1. Planen als Inferenz
Logik kann dazu verwendet werden, zu zeigen, wie Wahrheit (eines Zustandes) erreicht wird, indem Operatoren zum Verändern von Zuständen verwendet werden. Die verwendeten Mechanismen der Resolution, des Widerlegungsbeweises und des Resolutionstheorembeweisens sind in WINSTON (1984, chapter 7) dargestellt. Die ersten zum Planen entwickelten Systeme versuchten, einen Plan als einen Theorembeweis zu formalisieren. Ein Beispiel hierfür ist das Situationskalkül von McCarthy und Hayes, das in HERTZBERG (1989, S.21 - 25) dargestellt wird. GEORGEFF (1987, S.370) betont, daß es sich bei der Planung mittels eines Theorem-Beweisers um die einfachste Art der Planung handelt.
Man beschreibt die Ausgangssituation (bzw. die Prädikate, die in dieser erfüllt sind) und man definiert die anwendbaren Operatoren, die aus Vorbedingungen, die zu ihrer Anwendung erfüllt sein müssen, und aus Nachbedingungen, die sich aus ihrer Anwendung ergeben, bestehen. Es wird versucht aus der Startsituation unter Anwendung der Operatoren die Zielsituation zu beweisen; die einzelnen Schritte des Beweises entsprechen dann dem Plan. Dabei tritt das sog. Frame Problem (Rahmen-Problem) auf: Es reicht nicht, bei einem Operator anzugeben, was dessen Anwendung bewirkt, sondern es muß auch explizit angegeben werden, was sich nicht ändert bzw. was nach dessen Anwendung weiterhin gelten soll; dadurch wird die Anwendung eines Operators oft zu einem komplexen Vorgang. Insbesondere in Domänen, die durch viele Prädikate zu beschreiben sind oder in denen viele Operatoren existieren, wird durch das Rahmen-Problem die Planung durch das Situationskalkül schnell ineffizient. Eine Lösung des Rahmen-Problems, die von Kowalski vorgeschlagen wird, wird in HERTZBERG (1989, S.31 ff) dargestellt.
Auf ein weiteres Problem in diesem Zusammenhang weist WILKINS (1988, S.7) hin: Die Auswirkungen eines Operators können auch davon abhängen, wie die konkrete Situation, in der er angewandt wird, aussieht. In diesem Zusammenhang spricht er von "context-dependent effects"; in einem solchen Fall müssen für jede mögliche Situation spezielle Operatoren definiert werden.
Als ähnliches Problem stellt HERTZBERG (1989, S. 28 f.) das Qualifikationsproblem dar: Die Vorbedingungen für die Anwendung eines Operators müssen eigentlich auch bestimmte Ausnahmesituationen erfassen, die in der realen Welt auftreten können (z.B. daß während des Aufeinanderstellens von Blöcken eine starke Erschütterung des Bodens stattfindet). Dieses Problem ist nach HERTZBERG (1989, S.28) prinzipiell unlösbar, da man eigentlich unendlich viele Bedingungen in den Vorbedingungen zur Anwendung eines Operators nennen müßte. In der Praxis beschränkt man sich auf ein Modell der Welt, in der nur bestimmte Phänomene auftreten können.
Das Schließen nach den Regeln der
klassischen Logik ist monoton: Ein abgeleiteter Schluß
ist immer gültig, unabhängig davon, wieviel zusätzliche
Information noch gegeben wird. In der realen Welt kann es aber
durch die Darbietung zusätzlicher Informationen dazu kommen,daß
man erkennt, daß in einer Situation eine bestimmte Ausnahme
vorliegt, die normalerweise nicht in Betracht gezogen worden wäre.
Hierbei spricht man von nichtmonotonem Schließen.
Dieses ist mit den hier aufgeführten Planungsverfahren nicht
darstellbar.
1.1.2. Planen als Suche
Auch hier geht man von einzelnen Situationen aus, die durch Operatoren ineinander überführt werden können. Das Ziel sieht nach GEORGEFF folgendermaßen aus:
"Find some or all possible orderings of the agent's actions that would result in achieving the specified goal, given the constraints of the world in which the agent is embedded." (GEORGEFF, 1987, S.372)
Die Anwendung eines Operators entspricht der Ausführung einer Handlung in der realen Welt. Jede Situation wird dabei - im Gegensatz zur rein "logischen" Repräsentation - immer vollständig beschrieben; es sind also in jeder Situation alle Merkmale enthalten; zur Prüfung der Gültigkeit eines Merkmals muß dieses nicht erst abgeleitet werden. Man kann dieses Prinzip so charakterisieren: "Wenn man beim Planen von einer Situation in eine andere gelangt, stellt man sich das so vor, daß die Beschreibung der alten Situation in die neue hinüberkopiert wird, verändert nur um die Merkmale, die der Operator verändert. " (HERTZBERG, 1989, S. 45) Durch das Kopieren der kompletten Situation wird auch das Rahmen-Problem gelöst.
Es handelt sich also um die Suche in einem Zustandsraum, der durch die Anwendung aller anwendbaren Operatoren auf die jeweiligen Situationen expandiert werden kann. Hier kann man nun schon deutlich erkennen, welches Problem dabei auftreten kann: Der Aufwand für die Suche in einem Graphen nimmt mit dessen Größe exponentiell zu (dieses Problem wird z.B. BARR & FEIGENBAUM, 1981, S.27 ff) dargestellt).
Im Graphen hat eine Situation meist weniger Vorgänger als Nachfolger; deshalb ist es günstiger vom Ziel her in einer Rückwärtssuche den Weg zur Ausgangssituation zu ermitteln. HERTZBERG stellt folgendes Ziel auf:
"Ein Plan ist komplett ausführbar
und erfüllt seine Ziele, wenn die Ziele nach dem letzten
Operator gelten, wenn die Vorbedingung des ersten Operators in
der Startsituation gilt und wenn die Vorbedingungen eines jeden
Operators nach dem jeweils vorangehenden Operator gelten. "
HERTZBERG (1989, S. 57)
Die Suche kann ganz allgemein und domänenunabhängig durch einen der bekannten Suchalgorithmus für Graphen (eine neuere Darstellung findet sich z.B in SEDGEWICK, 1990, S.415-508) bewerkstelligt werden. Um die Effizienz der Suche durch Einbringung von domänenspezifischem Wissen zu fördern, kann man aber auch auf wissensbasierte Programmierung zurückgreifen. Nach HERTZBERG (1989, S.64 f) geht es dabei im wesentlichen darum, mittels Heuristiken eine "vernünftige Auswahl von Operatoren oder zu bearbeitenden Zielen" (S.64) zu treffen.
Beim Planen als Suche gilt es zu vermeiden,
daß durch die Anwendung eines Operators die Lösung
unmöglich gemacht wird, weil eine notwendige Voraussetzung
unwiederbringlich zerstört wird. Außerdem muß
man sich mit dem Problem der Interaktion von Teilzielen
befassen (dargestellt in HERTZBERG, 1989, S.70 ff), das sich durch
eine intelligente Verzahnung und Anordung der Teilziele lösen
läßt.
1.1.2.1. STRIPS
Eines der ersten und das wohl bekannteste Planungssystem, das Planen als Suche in einem Zustandsraum betrachtet, ist das System STRIPS (von STanford Research Institute Problem Solver) von FIKES & NILSSON (1971). Die Autoren definieren dazu einen Problemraum ganz im Sinne der klassischen KI:
"The problem space for STRIPS is defined by the initial world model, the set of available operators and their effects on world models, and the goal statement." (FIKES & NILSSON, 1971, S.191)
Die Situationen (world models) werden dabei als eine Menge von Fakten dargestellt; nach FIKES & NILSSON (1971, S,197 ff) lassen sich die verfügbaren Operatoren in "Familien", sogenannte Schemata, untergliedern; die einzelnen Operatoren werden als Tripel von Beschreibungen repräsentiert:
- Die Preconditions (Vorbedingungen) sind die Bedingungen, die in der Welt erfüllt sein müssen, damit ein Operator angewandt werden kann.
- Die Add List gibt an, was den Zustandsbeschreibungen nach Anwendung des Operators hinzugefügt werden muß.
- Die Delete List umfaßt diejenigen Merkmale der Situationsbeschreibung, die nach Anwendung des Operators nicht mehr gelten und deshalb entfernt werden müssen.
Ein Plan besteht dabei in einer Folge von Operatoranwendungen, die jeweils eine neue Situation zur Folge haben. "STRIPS uses the GPS strategy of attempting to apply those operators that are relevant to reducing a difference between a world model and a goal or subgoal. We use the theorem prover as a key part of this mechanism." (FIKES & NILSSON, 1971, S.198) Eine Mittel-Ziel-Analyse legt demzufolge die jeweiligen Unterziele rekursiv fest; kann ein Operator nicht angewendet werden, wird das Unterziel aufgestellt, einen Weltzustand zu erstellen, in dem der Operator anwendbar ist. Der resultierende Plan besitzt eine genau bestimmte Reihenfolge, in der die Teilziele erfüllt werden; man spricht hier von der Linearitätsannahme. Das Rahmenproblem wird bei STRIPS durch die STRIPS assumption beseitigt: "...every allowable formula that is satisfied in the state in which the action is initiated and does not belong to the operator's delete list is satisfied in the resulting state." (GEORGEFF, 1987, S.366) Dies bedeutet, daß sich die neue Situation von der alten nur durch explizit angegebene Änderungen unterscheidet.
CARBERRY nennt aber einen schwerwiegenden Nachteil von STRIPS:
"STRIPS constructed a fully detailed plan for reaching a world state in which the relevant operator could be applied before it ascertained that the operator was part of a complete plan for solving the problem." (CARBERRY, 1990, S.25, Hervorhebung im Text)
Außerdem sind die von STRIPS erstellten
Pläne vollständig linearisiert, d.h. die Reihenfolge
der Ausführung der Einzelschritte ist genau vorgegeben. Dies
führt unter Umständen zu umständlichen Plänen,
da hilfreiche Interaktionen zwischen Teilschritten nicht gezielt
gesucht und ausgenutzt werden.
1.1.3. Nichtlineares Planen
Beim nichtlinearen Planen geht es darum, zu planen, ohne sich zu früh auf eine bestimmte Reihenfolge der Operatoranwendung festzulegen; die Operatoren sollen lediglich partiell geordnet werden. Nach HERTZBERG liegt dem folgende Idee zugrunde:
" ...wenn man an einem Punkt in der Planung mehrere Teilziele zugleich hat (also beispielsweise am Anfang der Planung oder wenn man die Vorbedingungen eines Operators herstellen will), dann bearbeitet man die Teilziele unabhängig voneinander an der Stelle im Plan, wo sie aufgetreten sind; wenn sich dabei keine Interaktionen ergeben, wird nichts weiter über die Reihenfolge ausgesagt, in der die entsprechenden Teilpläne ausgeführt werden sollen; treten Interaktionen auf, muß man die Reihenfolgen beschränken - oder irgendetwas anderes tun..." (HERTZBERG, 1989, S.81)
Da die Erkennung und Berücksichtigung von Interaktionen dabei einen relativ hohen Aufwand darstellt, ist nichtlineares Planen nur in Domänen empfehlenswert, die nur wenige Interaktionen aufweisen.
Beim Planen stellt das Erreichen eines bestimmten Merkmals ein Teilziel dar, das durch einen Unterplan erzielt werden soll. Beim nichtlinearen Planen sucht man nach parallelen Teilplänen, deren Abarbeitung nicht voneinander abhängt; GEORGEFF (1987, S.375) spricht in diesem Zusammenhang von kommutativen Teilplänen. Sogenannte Abhängigkeiten sagen, welcher Teil eines Planes Vorraussetzung für einen anderen ist. HERTZBERG (1989, S.93) trifft dabei folgende Unterscheidung zu den Vorbedingungen: "die Vorbedingungen geben an, welche Merkmale an einer Stelle des Plans gelten müssen, und die Abhängigkeiten sagen, wie es erfüllt wird."
Ein wichtiges Problem stellt das Erkennen und Auflösen von negativen Interaktionen zwischen Teilplänen, also von Konflikten, dar. Ein Konflikt liegt vor, wenn ein Teilplan ein Merkmal zerstört, das Voraussetzung für einen später folgenden Teilplan ist, und das nicht mehr wiederhergestellt werden kann. Aufgelöst werden Konflikte nach HERTZBERG grundsätzlich "dadurch, daß man im Teil des Plans, in dem der Konflikt auftritt, linearisiert oder einen neuen Erzeuger des gefährdeten Merkmals einfügt." HERTZBERG (1989, S.103) Unter Linearisierung versteht das Vorschreiben einer bestimmten Abarbeitungsreihenfolge der Teilpläne. Unter Umständen ist es auch sinnvoll, mehrere Konflikte gleichzeitig zu betrachten, da sie so zusammenhängen können, daß der Gesamtkonflikt nur dann gelöst werden kann, wenn die einzelnen Teilkonflikte in einer bestimmten Reihenfolge gelöst werden.
Ein letzter von HERTZBERG (1989, S.117 ff)
geschilderter Schritt besteht darin, mittels Kritiken (critics)
- Prozeduren, die den Plan begutachten - Schwachstellen in einem
Plan aufzudecken, z.B. besonders ineffiziente Stellen (wie redundante
Operatoranwendungen, die dadurch zustande kommen können,
daß die Reihenfolge der Teilplanbearbeitung umgestellt wird).
Andere ineffiziente Stellen sind solche, an denen Umwege
stattfinden, d.h. eine bestimmte Arbeit erst verrichtet und dann
wieder rückgängig gemacht wird. Man kann es sich auch
zunutze machen, wenn man bei zwei Teilzielen die selben Unterprobleme
auftreten. Das Ziel der Kritiken ist es, hilfreiche Interaktionen
aufzufinden: Wenn ein Teilplan die Voraussetzungen für einen
anderen parallelen Teilplan schafft, können diese fest in
der günstigen Reihenfolge eingeplant werden. Der Einsatz
von Kritiken muß aber gründlich überlegt werden,
da diese auch einen relativ hohen Aufwand verursachen und somit
der Effizienzgewinn schnell wieder verloren gehen kann.
1.2. Mehrstufiges Planen
Das mehrstufige Planen, oft auch als hierarchisches
Planen bezeichnet, entspricht eher den beim Menschen stattfindenden
kognitiven Vorgängen als das einstufige Planen. Eine Reduktion
der Komplexität der Planungsaufgabe soll dadurch erzielt
werden, daß zuerst ein grober Plan erstellt wird, der dann
schrittweise verfeinert werden kann. Diese Abstraktion kann sich
sowohl auf die Situationen als auch auf die verwendeten Operatoren
beziehen.
1.2.1. Situationsabstraktion
Bei der Situationsabstraktion geht es nach HERTZBERG (1989, S.131 ff) darum, die einzelnen Merkmale einer Situation zu gewichten; den wichtigsten Merkmalen wird ein hoher Index, den weniger wichtigen ein niedrigerer Index zugeordnet. Bei der Erzeugung von abstrakteren Plänen werden dann nur die Merkmale verwendet, die mindestens eine bestimmte Wichtigkeit aufweisen. Später wird dann der Plan verfeinert, d.h. auch die Merkmale mit geringerer Wichtigkeit werden in Betracht gezogen. Dabei kann es passieren, daß sich beim Verfeinern herausstellt, daß der abstrakte Plan so nicht realisiert werden kann; in einer solchen Situation muß dann erst wieder ein alternativer abstrakter Plan gefunden werden (z.B. durch Backtracking).
Verwirklicht wird die Zuweisung der Wichtigkeit dadurch, daß man den Vorbedingungen einer Operatoranwendung eine bestimmte Wichtigkeit zuordnet, ab der sie erst betrachtet werden. HERTZBERG (1989, S.135) betont, daß es auch freisteht, dem selben Merkmal in den Vorbedingungen zu verschiedenen Operatoren eine unterschiedliche Wichtigkeit zuzuweisen. Dieser Mechanismus der Situationsabstraktion scheint jedoch kaum bei den kognitiven Vorgängen beim Planen des Menschen eine Rolle zu spielen.
Bei der Vergabe der Indizes sollte so vorgegangen
werden, daß sich der Planungsaufwand möglichst gleichmäßig
über die einzelnen Abstraktionsebenen verteilt; ansonsten
würden auf manchen Stufen praktisch kaum Verfeinerungen/Abstraktionen
stattfinden. Auch betont HERTZBERG (1989, S.143), daß gerade
die Pläne auf den höchsten Abstraktionsstufen unbedingt
"richtig" sein sollen, da sonst der gesamte in deren
Verfeinerung investierte Aufwand vergeblich wäre. Ein zusätzliches
Problem ergibt sich daraus, daß - gerade wegen der gelockerten
Vorbedingungen - auf den höheren Abstraktionsebenen sehr
viele Pläne möglich scheinen.
1.2.2. Operatorabstraktion
Bei der Operatorabstraktion werden neue Operatoren konstruiert, die eigentlich in der Welt nicht direkt ausführbar sind. Es handelt sich dabei um das Ergebnis einer Folge von Anwendung von "Primitiv-Operatoren". Diese abstrakten Operatoren werden beim Planen genauso verwendet, wie die anderen Operatoren und unterscheiden sich von diesen nur dadurch, daß sie außer den Vorbedingungen, der Add-List und der Delete-List auch noch einen sogenannten Plot beinhalten, der angibt, durch welche Teilpläne oder Operatoren der Operator bei der Verfeinerung ersetzt werden soll. HERTZBERG faßt die Operatorabstraktion folgendermaßen zusammen:
"Mit der Operatorabstraktion schafft man nun gleichsam Unterprogramme oder Makros; dadurch verschiebt man die Abstraktionsschwelle, was als Operatoren zur Verfügung steht, über die Ebene hinaus, die durch die Wahl der elementaren Operatoren festgelegt ist." (HERTZBERG, 1989, S.148)
Wichtig bei der Operatorabstraktion ist, daß bei einem abstrakten Operator nicht alle Vorbedingungen angegeben sein müssen, die bei der Anwendung seines Plots gelten müssen; genauso müssen in dessen Add- und Delete-Lists nicht alle Merkmale auftauchen, die bei dessen Anwendung eine Änderung erfahren. Der Grund dafür ist nach HERTZBERG: "... Abstraktion soll vereinfachen, damit man effizienter arbeiten kann." (HERTZBERG, 1989, S.150, Hervorhebung im Text) Aber gerade durch diese Möglichkeit der Weglassung können auch Probleme entstehen: Nach der Operatoranwendung kann ein Merkmal ungültig sein, obwohl dies noch nicht festgestellt wurde (es fällt dann erst bei der Expansion des Operators auf); andererseits können eventuell neu hinzukommende Merkmale nicht genutzt werden, da sie erst nachdem der abstrakte Plan entwickelt wurde, bei dessen Expansion, zutage treten. Als "sauberste Lösung" für die genannten Probleme nennt HERTZBERG die Möglichkeit, "daß man hinter oder parallel zu einem unexpandierten abstrakten Operator nicht planen darf." (HERTZBERG, 1989, S.161)
Wird ein Operator bei der Ausarbeitung des
Planes durch seinen Plot ersetzt, kann entweder direkt der Plot
anstelle des abstrakten Operators eingesetzt werden oder aber
der Operator selbst wird als expandiert markiert (und bei der
Planung nicht weiter beachtet) und anschließend wird außerdem
sein Plot eingefügt. Die letztgenannte Möglichkeit bietet
z.B. für eine eventuell vorhandene Erklärungskomponente
Ansatzpunkte.
1.2.3. Flexibilisierung des Planens
Es wurden mehrere Ansätze zur Flexibilisierung
des Planens entwickelt; diese sind auch teilweise psychologisch
motiviert. Die hier dargestellten Planungsmethoden wurden auch
für komplexere Planungssituationen verwendet und zeigten
dabei ihre Leistungsfähigkeit.
1.2.3.1. Planen mit Constraints
Die klassische Darstellung des Planens mit Constraints stammt von STEFIK (1981a). Der Grundgedanke dabei basiert auf "the view of systems as aggregates of loosely coupled systems." (Stefik, 1981a, S.112, Hervorhebung im Text) Der Problemraum wird in nearly independent subproblems, also fast voneinander unabhängige Teilprobleme, eingeteilt; diesen Teilproblemen wird ein abstrakter Operator zugeordnet. Sie sind nicht völlig unabhängig voneinander, da sich ihre Aktionen geeignet ergänzen müssen.
Constraints drücken eine Beziehung zwischen den einzelnen Planvariablen aus. Stefik bietet dabei drei Interpretationen des Begriffs an:
"The first interpretation of constraints is as elimination rules from the perspective of object selection. [Potentielle Belegungen einer Planvariable werden eliminiert, wenn sie nicht den Constraints entsprechen.]
...A second interpretation of constraints is as partial descriptions and commitments for the perspective of plan refinement. [Ein Constraint stellt im wesentlichen eine teilweise Beschreibung eines Objektes dar; es ist möglich, die vollständige Beschreibung erst zu einem möglichst spätem Zeitpunkt zu fixieren - entsprechend dem least-commitment-Ansatz.]
...A third interpretation of constraints is as a communication medium for expressing interactions between subproblems." (STEFIK, 1981a, S.114, Hervorhebung im Text)
Constraints erlauben es also den "individuals (objects) that appear in a plan to be partially specified." (GEORGEFF, 1987, S.378)
Die verwendeten Constraints werden während
der Planung propagiert, d.h. aus den bestehenden Constraints
werden neue hergeleitet. Im Zuge der Constraint satisfaction
werden dann für die Variablen solche Werte gefunden, die
alle bestehenden Constraints befriedigen. Von MACKWORTH (1977)
werden die dazu benötigten Algorithmen genau dargestellt.
1.2.3.2. Meta-Planen
Meta-Planen, das Planen des Planens, wurde wiederum von STEFIK (1981b) beschrieben. In diesem Artikel geht es um
"...meta-planning, which enables a planner to reason (to some degree) about its own reasoning process. Meta-planning provides a framework for partitioning control knowledge into layers so that flexibility is achieved without the complexity of a large monolithic system." (STEFIK, 1981, S.142, Hervorhebung im Text)
Das Planen selbst wird dabei als ein Problem betrachtet, für den es keinen von Anfang an festgelegeten Lösungsweg gibt. Das Meta-Planen soll "herausfinden, welche (Meta-)Operatoren auf einen vorliegenden unvollständigen Plan sinnvoll als nächste anzuwenden sind..." (HERTZBERG, 1989, S.180)
In dem System MOLGEN (STEFFIK, 1981b) gibt es einen Design-Raum, der folgende Operatoren zur Planung enthält:
"(1) Comparison operators that compare goals and compute differences,
(2) Temporal-extension operators that extend a plan forwards or backwards in time, and
(3) Specialization operators that make an abstract plan more specific." (STEFIK, 1981b, S.152, Hervorhebung im Text)
Außerdem gibt es noch einen Strategie-Raum, der nach bestimmten Heuristiken in Situationen mit unvollständiger Information die Entscheidungsfindung steuert; dazu werden vier Operatoren verwendet (Focus, Resume, Gues und Undo), die in STEFIK (1981b, S.156ff) ausführlich erklärt werden.
HERTZBERG (1989, S.182f) nennt folgende Vorteile des Meta-Planens:
"- flexible Kontrollstruktur
- ...Ausdrücklichkeit von Strategien der Programmkontrolle
- ...Nachvollziehbarkeit des Programmverhaltens
- ...einheitliche Darstellung von Meta- und
Objektinformation."
1.2.3.3. Opportunistisches Planen
Das Konzept des opportunistischen Planens
wurde von HAYES-ROTH & HAYES-ROTH (1979) aus empirischen Untersuchungen
des Planungsverhaltens von Versuchspersonen entwickelt. Die Autoren
konnten feststellen, daß das Planungsverhalten bei Alltagsaufgaben
(eine Einkaufstour planen) nicht so regelhaft war, wie sie es
erwartet hatten; es schien viel mehr so, als würden gerade
solche Lösungsschritte ausgeführt, die im Verlauf der
Planung zufällig auffallen. Da das von den Autoren
entwickelte Modell stark psychologisch begründet ist, wird
es unter diesen Gesichtspunkten unten genauer dargestellt werden.
1.2.3.4. Verteiltes Planen verteilter Problemlösungen
Beim verteilten Planen erstellen mehrere Planer zusammen einen Plan,der dann von mehreren Akteuren ausgeführt wird. HERTZBERG (1989, S.195 f) denkt dabei z.B. an die Zusammenarbeit von Spezialisten, oder an die erwünschte Robustheit mancher Systeme gegenüber dem Ausfall von Teilsystemen. Außerdem kann durch die Zusammenarbeit effizienter eine Lösung gefunden werden. Die einzelnen Planer wissen nichts von der Existenz der übrigen Planer; sie besitzen ein Modell von der Welt, das nur die Merkmale enthält, die ihre Operatoren beeinflussen. Die Kommunikation zwischen den Planern findet über ein Blackboard statt.
Da sich die Merkmale der Welt auch ändern können, nachdem sie der einzelen Planer in sein eigenes Weltbild übernommen hat, meint HERTZBERG:
"Die Fakten, die die Planer in ihren Modellen der Welt haben, sind also nicht mehr als Fakten, sondern lediglich als Überzeugungen (beliefs) zu interpretieren und zu behandeln." (HERTZBERG, 1989, S.205, Hervorhebung im Text)
Das verteilte Planen unterteilt den Gegenstand in möglichst unabhängige Strukturen. GEORGEFF weist auf, daß dieser Art des Planens auch beim Menschen eine gewisse Bedeutung zukommt:
"Indeed, what makes planning useful for
survival is the fact that we can structure the world in a way
that keeps most properties and events independent of one another,
thus allowing us to reason about the future without complete knowledge
of all events that could possibly be occuring." (GEORGEFF,
1987, S.385)
1.2.3.5. Rationale Agenten
GEORGEFF stellt den Ansatz vor, "to consider planning systems as rational agents that are endowed with the psychologiocal attitudes of belief, desire, and intention." (GEORGEFF, 1987, S.394) Dieser Autor hat auch ein auf dieser Grundlage basierendes System (PRS) entwickelt. Dieses System bestent aus:
- einer Datenbasis die die momentanen Beliefs oder Fakten über die Welt enthält;
- einer Menge von Zielen oder Wünschen;
- einer Menge von Plänen (auch Meta-Pläne) oder Prozeduren und
- einem Interpreter oder Entscheidungsmechanismus zur Manipulation dieser Komponenten.
Zuerst wird ein allgemeiner Plan ausgearbeitet, dann werden die Mittel zur Erreichung der naheliegenderen Ziele festgestellt und wenn möglich angewandt; dann werden die nächsten naheliegenden Ziele bearbeitet usw. Auch hier ist eine reaktive Komponente vorhanden:
"Changes in the environment may lead to
changes in the system's beliefs, which in turn may result in the
consideration of new plans that are not means to any already intended
end." (GEORGEFF, S.395)
1.3. Probleme bei den klassischen KI-Ansätzen
Am Ende seines Buches listet HERTZBERG folgende Unzulänglichkeiten der dargestellten Planungsmethoden der KI auf:
"- Nicht alle Handlungen sind in STRIPS-artigen Operatoren beschreibbar...
- Die Welt ist nicht vollständig bekannt...
- Die Welt hält nicht still...
- Ziele können auch ungenau vorgegeben sein...
- Kein Mensch plant die Lösung alltäglicher 'Probleme'...
- Problemlösen ist noch viel komplexer..."
(HERTZBERG, 1989, S.207-216)
1.4. SIPE: Ein neuerer Ansatz
1.4.1. WILKINS' Ansicht vom klassischen
Planen
Auch WILKINS (1988) glaubt, daß es noch kaum psychologische Erkenntnisse zum Planen des Menschen gibt; er hofft allerdings, durch Aufzeigen von möglichen Vorgehensweisen diesen Erkenntnissen näher zu kommen:
"Because little is understood about the way human beings reason about actions, a model of this human capability is not presented here. Nevertheless, studying the ways that information is able to guide behavior increases our understanding of the problems involved, and provides insights that may later prove useful in understanding our interactions with the world and with each other." (WILKINS, 1988, S.2)
Eines der wichtigsten Gütekriterien
für ein Planungssystem ist dessen heuristische Angemessenheit
(heuristic adequacy), d.h. einfach gesagt, das System sollte "be
efficient enough to be useful in practice." (WILKINS, 1988,
S.8)
Nach Wilkins (1988, S.12) zeichnen sich
klassische Planungssysteme durch folgende Merkmale aus: Domänen-Unabhängigkeit,
Verwendung von Planvariablen, Möglichkeit des hierarchischen
Planens und von nichtlinearen Plänen. WILKINS (1988) bemängelt
an den klassischen Ansätzen zum Planen insbesonders, daß
sie nicht reaktiv sind, d.h. daß die Auswahl von
Aktionen Änderung der Gegebenheiten der Welt, die von außen
bewirkt werden, nicht berücksichtigen kann. Im Gegensatz
dazu steht das Verhalten des Menschen: "Humans often simply
respond to stimuli without thinking ahead. Furthermore, a classical
planner might be run over by a train while it is planning."
(WILKINS, 1988, S.6)
1.4.2. Die Merkmale von SIPE
Den klassischen Ansätzen stellt WILKINS (1988) sein System SIPE (System for Interactive Planning and Execution Monitoring) gegenüber. Es konnte sich in folgenden unterschiedlichen Domänen bewähren:
- Standard-Blockswelt,
- Erweiterte Blockswelt (unterschiedliche Gewichte; Roboter benötigt Treibstoff...),
- Kochen,
- Flugzeugbedienung,
- Reiseplanung,
- Zusammenbau von Objekten und
- Robotersteuerung.
SIPE zeichnet sich dabei nach WILKINS (1988, S.19 ff) durch folgende Merkmale aus: Das Planen erfolgt hierarchisch auf verschiedenen Ebenen. Es werden nichtlineare Pläne erstellt, deren endgültige Ausführungs-Reihenfolge erst zu einem möglichst spätem Zeitpunkt festgelgegt wird (least-commitment). Es werden Constraints bezüglich der Planvariablen erstellt und propagiert. Nach dem Planen auf jeder Ebene überprüfen Kritiken (critics), ob negative Interaktionen oder unbefriedigbare Constraints vorliegen; wenn ja, werden die Probleme von den Kritiken behoben. Auch Überlegungen zur Verfügbarkeit von Ressourcen helfen bei der Planerstellung. SIPE verwendet einen speziellen Mechanismus für Entscheidungen über numerische Größen (stetig oder diskret). Die Suche nach dem Plan kann automatisch oder interaktiv mit Hilfe des Benutzers erfolgen. Die korrekte Ausführung des Planes wird überwacht und im Falle von Schwierigkeiten besteht die Möglichkeit, Teilpläne neu zu erstellen (Replanning). Die einzelnen Mechanismen und ihre Implementierung sind sehr ausführlich in WILKINS (1988) dargestellt.
Die Fähigkeit, bereits erstellte Pläne
aufgrund geänderter Umweltbedingungen zu modifizieren, ist
in Domänen der realen Welt von besonderer Bedeutung, da dort
unvorhergesehene Änderungen häufig auftreten, meint
GEORGEFF (1987, S.393).
1.4.3. Implikationen für
psychologische Planungsmodelle
Das Zusammenwirken der hier vorgestellten Mechanismen ermöglicht es SIPE, effiziente Pläne auch in komplexeren Domänen zu erstellen. Außerdem bietet es die Möglichkeit, fast in Echtzeit zu planen, die in folgenden Beispiel deutlich gezeigt wird:
"To solve a problem requiring the robot to retrieve an object from one room and deliver it to another typically requires the planner to generate hundreds of goal nodes (just to generate one plan, not to search through alternatives), yet SIPE takes about 30 seconds to formulate completely such a plan. By taking advantage of the system's ability to intermingle planning and execution, a plan can be ready for execution in only 9 seconds." (WIKLINS, 1988, S.20)
Das Kriterium der heuristischen Angemessenheit
scheint also erfüllt zu sein. Durch den Einsatz einer Vielzahl
von Planungsmechanismen läßt sich also ein Planungsverhalten
erzeugen, daß den Erfordernissen der Welt einigermaßen
entspricht. Für psychologische Planungsmodelle ergibt sich
daraus der Hinweis, daß man nicht unbedingt versuchen sollte,
das Planungsverhalten des Menschen nur durch einen einzigen Mechanismus
zu erklären, sondern eher durch das Zusammenwirken mehrerer
spezialisierter Komponenten.
1.5. Planerstellung bei PANDORA
(WILENSKY)
WILENSKY beschreibt in seinem Buch von 1983 ausführlich die Mechanismen (und ihre Implementierung) des Planungssystems PANDORA (Plan Analysis with Dynamic Organization, Revision, and application). Auf die Implementierung der einzelnen Mechanismen möchte ich hier nicht eingehen; statt dessen werde ich nur einen groben Überblick über die Arbeitsweise des Systems geben.
Ein bestimmter Auslöser (z.B. ein innerer Zustand wie Hunger oder eine äußere Bedrohung) läßt den Planer erkennen, daß er ein bestimmtes Ziel haben sollte. Sobald dieses Ziel erkannt wurde, wird ein Plan zu seiner Realisierung entwickelt. Ist ein entsprechender Standardplan bekannt, wird dieser vorgeschlagen. Nun muß überprüft werden, ob der neue Plan andere Pläne beeinflußt. Um solchen Interaktionen zu begegnen, muß der Plan möglicherweise modifiziert werden. Diese Suche nach Interaktionen ist dem anfänglichen Suchen nach einem Ziel ähnlich. Bei der Modifikation von Plänen kann es nötig sein, neue Planschritte einzufügen; geschieht dies, muß wiederum überprüft werden, ob es zu neuen Interaktionen kommt usw. Steht der Plan dann endlich fest, kann er ausgeführt werden; dazu wird er "expandiert", d.h. bei dessen Erstellung nicht beachtete Details werden nun eingefügt. Auch hier können nun neue Interaktionen und Probleme auftreten, die wie oben genannt angegangen werden.
Für die Planungsaufgabe selbst stehen vier Komponenten zur Verfügung (cf. WILENSKY, 1983):
- Der Zielentdecker (Goal Detector) bemerkt, wenn für den Paner relevante Situationen auftreten. Dazu werden die Vorlieben, Abneigungen und Bedürfnisse des Planers, seine Umwelt und seine bestehenden Pläne berücksichtigt.
- Der Planvorschlags-Mechanismus (Plan Proposer) sucht einen gespeicherten Plan, der für das aktuelle Ziel relevant ist. Dazu können Stereotype, Abwandlungen bekannter Situationen oder der innovative Gebrauch bestimmter Operatoren verwendet werden. Der Plan Proposer ist auch für die Expansion von Plänen in Teilpläne zuständig.
- Der Projektor (Projector) simuliert, welcher Weltzustand sich bei Anwendung des Planes ergeben würde. So können Fehler in Plänen entdeckt und ausgebessert werden.
- Der Ausführer (Executor) versucht, die Folge der angegebenen Operatoren auszuführen. Dazu müssen die Pläne bis zu den direkt ausführbaren Aktioen expandiert werden. Der Ausführer überwacht auch den Erfolg der Ausführung.
Dieses Modell wurde also implementiert und
konnte erfolgreich auch für alltägliche Situationen
Pläne erstellen.
2. Planen aus psychologischer Sicht
HAYES-ROTH & HAYES-ROTH (1979, S.275) listen eine Reihe ganz verschiedener Situationen auf, in denen Menschen planen: Wir planen, wie wir morgens zur Arbeit kommen; wo und mit wem wir mittags essen; wie wir unsere Abende verbringen; was wir im Urlaub machen wollen; wie wir Weinachten feiern wollen oder welche Karrierepläne wir verfolgen sollen. Planen ist also ein relativ weit gefaßter Begriff, den die Autoren folgendermaßen definieren: "We define planning as the predetermination of a course of action aimed at achieving some goal." (HAYES-ROTH & HAYES-ROTH, 1979, S.275 f) Außerdem wurde auch darauf hingewiesen, daß "Planen als Entwurf der nächsten Handlungssequenz oder -sequenzen ... ein integraler Bestandteil jeder Problemlösetätigkeit" (PFEIFFER, 1991, S.13) ist.
CARBERRY (1990, S. 18 f) unterscheidet drei Arten des Planens:
- Aufgabenbezogene Pläne werden in bezug auf ein bestimmtes Ziel innerhalb einer Domäne erstellt.
- Ein Metaplan wird zur Entwicklung eines aufgabenbezogenen Plans erstellt, indem sich der Planer darüber Gedanken macht, wie er den aufgabenbezogenen Plan erstellen will.
- Ein Diskursplan wird mit dem Ziel erstellt und ausgeführt, daß die daraus resultierende Äußerung einen bestimmten Effekt auf den Zuhörer ausübt.
Von Psychologen erstellte Modelle zum Planungsverhalten
des Menschen resultieren meist in der Entwicklung eines Simulationsprogrammes,
das eben dieses Verhalten aufweisen soll. Bei der Erstellung dieser
Simulation werden die im erstem Teil genannten Techniken der KI
verwendet; teilweise wurden sie auch erweitert.
2.1. Opportunistisches Planen
2.1.1. Merkmale opportunistischen
Planens
HAYES-ROTH & HAYES-ROTH (1979) behaupten, daß Menschen - zumindest unter bestimmten Umständen - beim Planen opportunistisch vorgehen. Zu jedem Zeitpunkt während des Planungsprozesses bieten sich dem Planer aufgrund seiner Überlegungen und Beobachtungen verschiedene Möglichkeiten (opportunities, daher die obige Bezeichnung) zur Weiterentwicklung des Planes dar. Dies führt zu folgendem charakteristischem Verhalten:
"In general, the assumption that people plan opportunistically implies that interim decisions can lead to subsequent decisions at arbitrary points in the planning space. Thus, a decision at a given level of abstraction, specifying an action to be taken at a particular point in time, may influence subsequent decisions at higher or lower levels of abstraction, specifying actions to be taken at earlier or later points in time." (HAYES-ROTH & HAYES-ROTH, 1979, S.276)
Dies kann im Extremfall dazu führen,daß
das Planungsverhalten chaotisch wirkt.
2.1.2. Empirische Befunde
Der empirische Nachweis des opportunistischen Planens wurde von HAYES-ROTH & HAYES-ROTH (1979) mit folgender Versuchsanordnung erbracht: Die Versuchspersonen bekamen den Stadtplan einer fiktiven Stadt vorgelegt, in dem Geschäfte aller Art etc. eingezeichnet waren. Außerdem bekamen sie eine Liste mit Aufträgen, die innerhalb eines bestimmten Zeitraumes erfüllt werden sollten. Ihre Aufgabe war es, eine günstige Reihenfolge bei der Abarbeitung der Aufträge zu entwickeln und den resultierenden Weg in den Stadtplan einzutragen.
Dabei konnten sie folgendes Verhalten der Versuchspersonen beobachten:
"First, the subject's plan develops incrementally at various points in the planning space. He plans actions at various points in the plan's temporal sequence and he also plans at different levels of abstraction.
Second, the subject appears to plan opportunistically, 'jumping about' in the planning space to develop promising aspects of the plan in progress...
Finally, decisions at a given point in the planning space appear to influence subsequent decisions at both later and earlier points in the temporal sequence and at both higher and lower levels of abstraction" (HAYES-ROTH & HAYES-ROTH, 1979, S.285 f)
Sie konnten auch zeigen, daß die Versuchspersonen
die Ausführung des Planes oder von Teilplänen auf verschiedenen
Abstraktionsebenen mental simulieren.
2.1.3. Das Modell und die Simulation
Die Einzelheiten des Modells und ein Überblick über die Implementierung ist in HAYES-ROTH & HAYES-ROTH (1979) zu finden. Da hier die psychologischen Aspekte im Vordergrund stehen sollen, werde ich nur die groben Umrisse des Modells beschreiben.
Das Planen wird durch mehrere kognitive Spezialisten (die mit den Dämonen in SELFRIDGE's Pandämonium-Modell, das z.B. in BADDELEY (1990, S.363-366) dargestellt ist, vergleichbar sind) bewerkstelligt. Diese Spezialisten sind als Wenn-Dann-Regeln implementiert: Sie treten beim Auftreten eines vorher spezifizierten Zustands in Aktion. Jeder Spezialist trifft vorläufige Entscheidungen für einen vorläufigen Plan; unterschiedliche Spezialisten können verschiedene Aspekte des Plans beeinflussen. Die Entscheidungen der einzelnen Spezialisten werden auf einem Blackboard vermerkt, mittels dessen die verschiedenen Spezialisten interagieren und kommunizieren können. Das Blackboard weist folgende Besonderheit auf:
"The model partitions the blackboard into several planes containing conceptually different categories of decisions. For example, one plane contains decisions about explicitly planned activities, while another contains decisions about data that might be useful in generating planned activities. The model further partitions each plane into several levels of abstraction." (HAYES-ROTH & HAYES-ROTH, 1979, S.285)
Es existiert auch eine Ebene des Blackboardes, die sich mit Meta-Planung beschäftigt, und zwar den Bereichen Problemdefinition, Problemlösungs-Modell, "Politik" des Planers und Bewertungs-Kriterien für Lösungen.
Das dargestellte Modell wurde implementiert und man verglich die von dem Programm erzeugten Pläne mit denen der Versuchspersonen. Es wurde eine starke Übereinstimmung gefunden:
"The two plans are quite similar. Both plans included all primary errands and at least some of the secondary errands... Both the simulation and the subject planned to arrive at time-constrained destinations (e.g. the restaurant and the movie) at reasonable times. the major difference between the two plans lies in their relative 'realism'. The subject's plan is quite unrealistic - one could not execute the complete plan in the time available for doing so. The simulations plan is somewhat more realistic...." (HAYES-ROTH & HAYES-ROTH, 1979, S.298 ff)
Insgesamt scheint dieses Modell das Verhalten
der Versuchspersonen also recht gut zu beschreiben; es ist also
psychologisch zumindest plausibel, daß eine Art des Planens
beim Menschen so aussehen kann. HAYES-ROTH & HAYES-ROTH (1979,
S.307) weisen aber darauf hin, daß unter geänderten
Zeitbeschränkungen oder bei kompetenteren Versuchspersonen
andere Planungsweisen auftreten. Dieses Modell beansprucht also
nur für eine bestimmte Klasse von Planungsaufgaben Relevanz.
2.2. Adaptives Planen
2.2.1. Was ist adaptives Planen
Der Begriff des adaptiven Planens
geht auf ALTERMAN (1988) zurück. Grundsätzlich geht
es dabei darum, in neuen Situationen auf einen bereits bekannten
Plan zurückzugreifen und diesen entsprechend den Erfordernissen
der neuen Situation abzuändern (zu adaptieren). Die bekannten
Pläne sind als Hintergrundwissen in einem Netzwerk gespeichert.
Der adaptive Planungsprozeß besteht dabei hauptsächlich
aus zwei Komponenten: Die Aufgabe der taktischen Kontrolle
ist es, "to add or delete features from the matching process
based on the type of situation difference that has occured."
(ALTERMAN, 1988, S.394) Bei der zweiten Komponente, dem Situation
Matching, "the old plan is used as a starting point from
which the old and new situations are matched, and in the course
of matching a new plan is produced." (ALTERMAN, 1988, S.394)
2.2.2. Planen bei PLEXUS
Die oben dargestellten Grundüberlegungen zum adaptiven Planen wurden in dem System PLEXUS (ALTERMAN, 1988) implementiert. Dabei wird ein der Problemstellung entsprechender gespeicherter Plan abgerufen und dann - möglichst spät - der konkreten Situation angepasst. Die verwendeten Pläne sind, wie oben bemerkt, als Background Knowledge (Hintergrundwissen) in einem Wissensnetzwerk gespeichert. Dabei werden vier verschiedene Arten von Hintergrundwissen unterschieden:
- Kategorisierungswissen wird zur Modellierung von Klassenzugehörigkeit und Klasse-Unterklasse-Beziehung verwendet. Es dient zur Abstraktion und Spezialisierung.
- Partonomisches Wissen betrifft Teil-Ganzes-Beziehungen: Jeder Plan (das Ganze) besteht aus einer Reihe von Schritten (Teilen), die wiederum Pläne sind, die sich in Schritte oder Aktionen unterteilen lassen.
- Kausales Wissen enthält Wissen zur Absicht eines Plans (purpose), zur Rechtfertigung von Schritten (reason), zum Ziel eines Planes (goal), zu den Voraussetzungen für einen Plan (precondition) und zum erwarteten Resultat einer Planausführung (outcome).
- Rollenwissen repräsentiert die Merkmale des alten Plans als Constraints.
Das oben erwähnte Situation Matching wurde folgendermaßen implementiert: Zwischen den gespeicherten Situationen (zu denen Pläne vorhanden sind) und der momentanen Situation können Unterschiede bezüglich der Vorbedingungen, der Reihenfolge der Schritte, der Ziele oder des Ergebnisses bestehen;
"if a particular plan fails to match the current situation, some of the details of that particular plan must be removed. Moving up the abstraction hierarchy removes the details that do not work in the current situation while maintaining much of what is in common to the two situations." (ALTERMAN, 1988, S.403)
Dabei wird soweit abstrahiert, bis man auf die Abstraktionsebene gelangt, die den Zweck des Schrittes enthält, der abgeändert werden soll.
Bei der Ausarbeitung eines Planes muß sich PLEXUS dann wieder von einem abstrakten Plan zu spezifischeren Beispielen bewegen, die dann auch ausgeführt werden können; dies geschieht durch Spezialisierung (specialization). Dabei wird die Klassifikationshierarchie Schritt für Schritt herabgestiegen, bis ein End-Knoten erreicht wird. Die Art der Situationsdifferenzen oder beobachtbare Merkmale der Situation bestimmen, in welcher Richtung die Spezialisierung erfolgen soll (welche der Spezialisierungen gewählt wird), wenn nicht einer der Unterknoten aufgrund seiner Wichtigkeit sowieso immer gewählt wird.
PLEXUS gelangt also zu seinem neuen Plan,
indem zuerst ein bestehender Plan abstrahiert wird und dann wieder
entsprechend der vorliegenden Situation spezialisiert wird.
2.2.3. Psychologische Bedeutung
Der Planer von ALTERMAN (1988) bezieht sich bei seinen Überlegungen vor allem auf Merkmale der Situation. Er geht dagegen kaum auf die möglichen unterschiedlichen Strategien eines Planers selbst ein, sondern nur auf dessen Fähigkeit, Situationen zu interpretieren.
ALTERMAN (1988) stellt zwar den Anspruch,
daß sein Modell des Planens auch einem Mechanismus beim
Menschen entspricht, er belegt dies aber nur durch einige Beispiele,
in denen er das Vorgehen beim Planen in natürlichen Situationen,
z.B. auf einem Flughafen, schildert. Er führt jedoch keine
konkrete empirische Untersuchung an, die belegen könnte,
daß Menschen - zumindest in bestimmten Situationen - adaptiv
planen. Deshalb ist dieses Modell nur bedingt als psychologisches
Modell des Planens zu betrachten.
2.3. Hierarchisches Planen
2.3.1. Generalisierung von Plänen
in STRIPS
Der erste Ansatz zum hierarchischen Planen ergab sich aus einer Erweiterung des Systems STRIPS durch FIKES et al. (1972). Die Generalisierung von Plänen zu sogenannten Makro-Operatoren (MACROP's) erlaubt im Vergleich zu STRIPS eine verringerte Planungszeit und komplexere Pläne. Spezifische Pläne werden dadurch generalisiert, daß einige der konstanten Argumente der Operatoren durch Parameter (Variablen) ersetzt werden; die Schwierigkeit besteht darin, daß andere Konstanten immer ihren spezifischen Wert beibehalten müssen, um den Teilplan funktionstüchtig zu halten (cf. FIKES et al., 1972, S.261). "Our plan generalization procedure overcomes these difficulties by taking into account the internal structure of the plan and the preconditions of each operator." (FIKES et al., 1972, S.262) Ein Problem bei dieser Art der Generalisierung ergibt sich daraus, daß innerhalb eines MACROP's alle Details erhalten bleiben; die Komplexität der Aufgabe wird also nicht genügend reduziert.
Die Überwachung der Ausführung von Plänen ermöglicht es, einen erfolglos ausgeführten Plan mit geänderten Argumenten nochmals zu versuchen.
Dieses Modell beansprucht keine psychologische
Relevanz; die verwendeten Algorithmen basieren auf einer ganz
bestimmten Art der Repräsentation (Dreieckstabellen), von
der anzunehmen ist, daß sie beim Planen des Menschen nicht
angewendet werden kann, da sie zu hohe Gedächtnisanforderungen
stellen würde. Andererseits ist es "a commonplace observation
that successful problem solvers (human or machine) must plan at
a level of detail appropriate to the problem at hand." (FIKES
et al., 1972, S.286) Das Grundkonzept kann also als psychologisch
relevant gesehen werden.
2.3.2. Hierarchisches Planen bei
ABSTRIPS
"By planning in a hierarchy of abstraction spaces in which successive levels of detail are introduced, significant increases in problem solving power have been achieved" (SACERDOTI, 1974, S.119), verspricht der Autor. Die Vereinfachung des Problemraumes in ABSTRIPS (SACERDOTI, 1974) erfolgt durch sogenannte MACROPs (MakroOperatoren), die es ermöglichen zu einem Zeitpunkt eine ganze Sequenz von Operatoren auszuwählen. Bei der Plansuche wird ein vereinfachter Problemraum, ein Abstraktionsraum in dem unwichtige Details weggelassen wurden, durchsucht.
SACERDOTI (1974) erweiterte nun dieses Konzept auf eine Hierarchie von Abstraktionsräumen: Dadurch, daß ein Plan nur dann weiter in Betracht gezogen wird, wenn ein erfolgreicher Plan auf höherer Stufe für dessen Wichtigkeit spricht, kann der Teil des Suchraumes, der tatsächlich durchsucht wird, stark begrenzt werden. Die Abstraktionsräume unterscheiden nur sich in dem Grad der Detailiertheit der Preconditions: Den einzelnen Preconditions ist, wie bereits oben beschrieben, jeweils ein Wert zugeordnet; eine kritische Schwelle legt dann fest, welche Preconditions abgefragt werden.
Beim Planen werden also nach SACERDOTI (1974) jeweils eine kritische Schwelle und ein sogenannter Skelett-Plan (eine Liste von Knoten aus dem Suchbaum in einem abstrakterem Raum) verwendet. Bei der Erstellung des Skelett-Plans wird entschieden, welcher Schritt jeweils als nächstes folgen soll. Dabei wird zweierlei in Betracht gezogen: Die Schwierigkeit, das Ziel nach Anwendung des Operators zu erreichen, und die Schwierigkeit, den Zustand herzustellen, in dem der Operator angewandt werden kann.
Wenn auf einer bestimmten Abstraktionsebene ein Unterproblem nicht gelöst werden kann, wird der Suchbaum, der vor der Wahl des entsprechenden Knotens vorlag, wiederhergestellt. Der zu einem Fehler führende Knoten wird eliminiert und die Suche nach einem Plan wird auf der höheren Abstraktionsebene fortgesetzt.
Das Planen in hierarchischen Abstraktionsräumen
erleichtert nach SACERDOTI (1974) das Erstellen von Plänen,
bei denen das Ergebnis der Anwendung einzelner Operatoren nicht
von Anfang an festgelegt ist. Dies ist deshalb möglich, weil
das Ergebnis der Operatoranwendung nur bis zu einer gewissen Abstraktionsstufe
unsicher ist. SACERDOTI (1974, S.131) nennt dazu folgendes Beispiel:
Wenn man an einen anderen Ort fliegen will, muß man sein
Auto am Flughafen parken. Welche konkrete Parklücke dazu
verwendet wird, braucht man bei der Planung einer Reise noch nicht
festzulegen.
Die Planung in hierarchischen Abstraktionsräumen
scheint beim Menschen ein wichtiges Prinzip zu sein; es läßt
sich schon alleine mit der begrenzten kognitiven Kapazität
begründen, daß ein komplexer Plan nicht in einem Zug
erstellt werden kann. In dem Artikel von SACERDOTI (1974) wird
aber nicht auf die psychologische Relevanz des hierarchischen
Planens eingegangen. Die von SACERDOTI (1974) zum Planen in hierarchischen
Abstraktionsräumen vorgeschlagenen Mechanismen stellen
wohl kaum ein Modell für die menschliche Planungstätigkeit
dar (wohl aber das allgemeine Konzept).
2.4. Fallbasiertes (case-based)
Planen
2.4.1. Das System CHEF
HAMMOND (1990) stellt seinen fallbasierten Planer CHEF vor, der in der Domäne der Sezuan-Küche operiert:
"CHEF's input is a set of goals for different tastes, textures, ingredients and types of dishes, and its output is a single recipe that satisfies all of its goals. Its basic aproach is to find a past plan in memory that satisfies as many of the most important goals as possible and than modify that plan to satisfy the other goals as well." (HAMMOND, 1990, S.175)
"CHEF ... is aimed at problems of the interaction between planning steps that are discovered during plan execution" (HAMMOND, 1990, S.177) und verwendet zur Planerstellung folgende Module:
- Der Anticipator sagt Planungsprobleme vorher;
- der Retriever durchsucht das Plangedächtnis nach Plänen, die möglichst viele der gegenwärtigen Ziele befriedigen;
- der Modifier verändert den gefundenen Plan so, daß nun auch die bisher nicht erreichten Ziele befriedigt werden;
- der Repairer liefert eine kausale Erklärung und repariert den Plan, wenn ein Fehler aufgetreten ist;
- der Assigner verwendet die kausale Erklärung, um die Merkmale festzuhalten, aus denen sich der Fehler zukünftig vorhersagen läßt;
- der Storer speichert die neuen Pläne im Gedächtnis.
CHEF erkennt die Fehler, die sich aus den
Interaktionen zwischen den Teilplänen ergeben können,
aufgrund des Überprüfens einer Datenbasis an bisher
aufgetauchten Problemen, nicht durch Abarbeitung von Regeln. Wird
ein Fehler gefunden, so wird das Ziel aufgestellt, diesen zu beseitigen.
Die in der Datenbasis gefundenen ähnlichen Probleme sind
mit der damals verwendeten Lösung assoziiert; der Lösungsplan
für das nun vorliegende Problem läßt sich also
aus der Beschreibung des vergangenen Problems rekonstruieren.
2.4.2. Praktische Relevanz
Das Wesentliche am fallbasierten Entscheiden ist, daß die Entscheidungen beim Planen von einem episodischem Gedächtnis gesteuert werden, nicht durch Inferenzregeln oder Planungsoperatoren. Die am besten passenden Pläne werden dann entsprechend den Erfordernissen ausgebessert.
Es scheint sehr naheliegend, daß sich auch der Mensch bei Planungsentscheidungen auf sein episodisches Gedächnis stützt; im Bereich des Problemlösens konnte beispielsweise von CHASE & SIMON (1973) gezeigt werden, daß Schachexperten sich Laien gegenüber vor allem dadurch auszeichnen, daß sie wesentlich mehr Spielsituationen gespeichert haben. Es ist anzunehmen, daß sich diese Befunde auch auf das Planen in Alltagssituationen übertragen lassen.
Auch hier gilt natürlich wieder, daß
die Art, in der das fallbasierte Planen von HAMMOND (1990) realisiert
wurde (vor allem die Mechanismen der "Reperatur" partiell
fehlerhafter Pläne), weniger das Verhalten des Menschen widerspiegelt;
HAMMOND (1990) stellt auch keine diesbezüglichen Behauptungen
auf.
2.5. "Kognitive Psychologie
des Planens"
2.5.1. Die Ansicht von HOC
1988 erschien von HOC eine Arbeit mit dem vielversprechenden Titel "Cognitive Psychology of Planning". Schon in der Einleitung weist der Autor dabei darauf hin, daß "planning enters into a variety of activities such as problem solving, language production and understanding, memory, etc. that cut across the traditional boundaries of research." (HOC, 1988, S.1) Dieser sehr weit gefaßte Planungsbegriff führt dazu, daß der Autor im weiteren Verlauf des oben zitierten Werkes einige wichtige Gebiete der kognitiven Psychologie, nämlich Hypothesenbildung, Gedächtnisorganisation und insbesondere Problemlösen, beschreibt und die zu den jeweiligen Bereichen (mehr oder weniger) passenden Planungssysteme aus der KI beschreibt. HOC nennt folgende Definition des Begriffs:
"A plan will be defined as a schematic and/or multilevel representation of an object (procedure or state), elaborated and/or used to guide activity." (HOC, 1988, S.7)
HOC (1988, S.12 ff) geht auch kurz auf die Geschichte des Begriffs der Planung ein und weist dabei auf, daß speziell die Gestaltpsychologen, wie z.B. Dunker, auf diesem Gebiet bereits früh tätig waren. Dazu werden von ihm die klassischen Untersuchungen zum Problemlöseverhalten des Menschen angeführt. Speziell zur Planung werden vor allem empirische Untersuchungen aus den Bereichen Architektur und Programmierfähigkeit zitiert, die sich jedoch alle mit sehr speziellen Fragestellungen befassen, die meist unter den Bereich der Problemlösungs-Forschung fallen. HOC (1988) versteht es jedoch, mittels geschickter Überleitungen den Zusammenhang zum Gebiet der Planung (im vom ihm gemeinten, sehr weit gefassten, Sinne) - zumindest einigermaßen - herzustellen. Rückblickend meint HOC schließlich selbst: "These information processing models and artificial intelligence programs provide the framework for the status of planning in this book". (HOC, 1988, S.234)
Der Inhalt des genannten Buches kann meiner
Meinung nach als ein deutlicher Hinweis auf die Stellung des Gebietes
der Planung innerhalb der Psychologie betrachtet werden: Es existieren
zwar einige (wenige) Untersuchungen zum Planungsverhalten des
Menschen, es gibt aber keine allgemeine Theorie des Planens, die
zur Formulierung konkreter Hypothesen geeignet wäre. Die
bisher erstellten Modelle sind jeweils nur für einen bestimmten
Typ von Planungsaufgaben relevant; nach HOC kann dies daran liegen:
"One of the major characteristics of plans and strategies
is their variety." (HOC, 1988, S.236)
2.5.2. Die Ansicht von WILENSKY
Auch WILENSKY (1983, S.XII) begründet das Fehlen empirischer Untersuchungen zum Planen damit, daß es auch keine allgemeinen Theorien zum Planen gäbe, aus denen man konkrete und nützliche Fragestellungen, die zu untersuchen wären, ableiten könnte. Er meint, daß vielmehr die in der KI entwickelten Modelle Anregungen zur Untersuchung des menschlichen Verhaltens bieten könnten; deshalb glaubt er auch von seiner Arbeit: "The primary purpose of the work is to faciliate the Artificial Intelligence goal of producing more intelligent devices. However, the methodology entails an inquiry into the structure of human behavior." (WILENSKY, 1983, S. XI)
Durch psychologische Experimente konnten zwar viele Details der kognitiven Funktionen gefunden werden, aber das Experimentieren
"... has been less successful at answering important questions about the status of these facts, such as which of them are crucial to the performance of the task in question, which of them are artifacts of more fundamental processes, and which of them might just as well have been otherwise." (WILENSKY, 1983, S.2)
Die von ihm vorgeschlagenen und implementierten
Mechanismen können sich seiner Meinung nach aber dennoch
nicht wesentlich von denen des Menschen unterscheiden, wenn ihm
bei der Analyse kein Fehler unterlaufen ist. Eine solche Analyse
wird folgendermaßen erstellt: Eine Vielzahl potentieller
Situationen, die aus der Planungsaufgabe resultieren können,
wird betrachtet; dir Erfordernisse jeder einzelnen Situation werden
herausgefunden und in ein Modell eingebaut, das auf weitere Situationen
angewendet werden kann und somit schrittweise verbessert wird;
das Ergebnis kann schließlich für eine genaue Simulation
verwendet werden (cf. WILENSKY, 1983, S.3). Der Autor weist selbst
auf das schwierige Verhältnis zwischen Programmen (Simulationen)
und Theorien hin: "In particular, the question arises as
to which parts of a program are meant to be taken seriously, and
for the ones that are, what is the correspondence between the
program and the theory." (WILENSKY, 1983, S.3) Das Problem
besteht nämlich darin, auf welcher Ebene man die Behauptung
aufrecht erhalten will, das Verhalten des Menschen und das der
Simulation seien analog. PYLYSHYN, dessen Lektüre zu dieser
Fragestellung empfehlenswert ist, bezieht dazu folgende Position
(die er in seinen Schriften zu begründen versteht): "
... computational models are models of what literally goes on
in the mind." (PYLYSHYN, 1991, S. 221). Verschiedene Thesen,
die zu diesem Thema in einem Workshop bearbeitet wurden, sind
dem dazu von PYLYSHYN & DEMOPOULOS (1986) herausgegebenen
Sammelband zu finden.
2.5.3. Fazit
Die Theorien zum Planen, die bisher entwickelt wurden, sind eng mit den entsprechenden Entwicklungen im Bereich der KI verzahnt, die oben dargestellt wurden. Genuin psychologische Modelle zum Planen existieren meines Wissens nach nicht; man muß deshalb auch in der Psychologie auf die Modelle aus der KI zurückgreifen:
"It is necessary to consider such models
because the question of whether an organism possesses and uses
such representations cannot be decided on strictly empirical grounds."
(SCHMIDT & MARSELLA, 1991, S.109)
3. Planerkennung
Die verschiedenen Systeme zur Planerkennung werden von KAUTZ in ihrer allgemeinen Form folgendermaßen beschrieben:
"In each case one is given a fragmented, impoverished description of the actions performed by one or more agents and is expected to infer a rich, highly interrelated description. The new description fills out details of the setting and relates the actions of the agents in the scenario to their goals and future action. The result of the plan recognition process can be used to generate summaries of the situation, to help (or hinder) the agent(s), and to build up a context for use in disambiguating further observations." (KAUTZ, 1990, S.105)
Nach ALLEN & PERRAULT (1980, S.148)
existieren grundsätzlich zwei Möglichkeiten, die Pläne
eines Agenten zu erkennen: Der Beobachter kann von den erwarteten
Zielen des Agenten ausgehen und versuchen, dessen Planungsprozeß
zu simulieren und so einen Plan zu finden, der auch die beobachteten
Aktionen enthält. Diese Möglichkeit ist jedoch kaum
praktizierbar. Die andere Herangehensweise an das Planerkennen,
die auch in den nun vorgestellten Systemen verwendet wird, ist
folgende: Der Beobachter kann den Plan aus den beobachteten Aktionen
rekonstruieren, indem er die Regeln zur Planerstellung rückwärts
anwendet.
3.1. Grundlagen
3.1.1. Grundzüge der Planerkennung
Beim Planerkennen beobachtet ein Agent einen anderen Agenten, der eine Handlung oder eine Sequenz von Handlungen ausführt, und versucht herauszufinden, welcher Plan dem Verhalten zugrundeliegt. Bei den meisten Planerkennungssystemen werden Pläne auf eine Art repräsentiert, wie sie von FIKES & NILSSON (1971) oder von SACERDOTI (1974) dargestellt wird (cf. GROSZ et al., 1989, S.453). Diese Methoden aus der KI basieren auf der Verwendung von symbolischen Ausdrücken.
"This computational approach is useful since creating some well-defined models of planning and plan recognition can at least provide a basis for describing what might be meant when we say that a person can plan or can recognize plans of other agents." (SCHMIDT & MARSELLA, 1991, S.110)
SCHMIDT & MARSELLA (1991, S.116 ff) stellen dem einen Ansatz gegenüber, bei dem die Pläne als finite state machine repräsentiert werden. Dabei handelt es sich zwar um ein (vom logischen Standpunkt) einfaches und sparsames Modell, das aber empirisch nur schwer falsifiziert werden kann (da, wie schon Turing zeigte, letztlich alle Algorithmen auf diese Weise implementierbar sind) und deshalb als Modell kaum weiterhilft. Ein weiteres Problem besteht darin, daß Änderungen oder Erweiterungen nur sehr aufwendig eingebracht werden können.
GROSZ et al. (1989, S.454 f) nennen folgende allgemeine Regeln, nach denen Handlungen interpretiert werden können, um den zugrundeliegenden Plan zu erschließen:
- Wenn eine Handlung beobachtet wird, kann gefolgert werden, daß der Handelnde einen oder mehrere ihrer Effekte herbeiführen will.
- Wenn ein Effekt der Handlung Voraussetzung zur Ausführung einer annderen Handlung ist, werden möglicherweise Effekte dieser Handlung beabsichtigt usw.
- Will der Handelnde wissen, ob X der Fall sei, will er meist X herbeiführen.
Dabei kann von den vorliegenden Handlungen auf deren beabsichtigte Effekte gefolgert werden, von diesen wiederum auf weitere Handlungen usw. (forward-chaining); alternativ dazu kann man entscheiden, welches Ziel der Handelnde wahrscheinlich verfolgt und von diesem aus schließen, welche Aktionen dazu erforderlich sind, welche Voraussetzungen dieses hat usw. (backward-chaining).
Die bisher dargestellten Regeln dienen vor allem zur Interpretation einer vorliegenden Aktion (oder Aussage); es wurden aber auch sogenannte inkrementelle Planerkennungstechniken erstellt, bei denen aus den vorliegenden Aktionen eine Menge von Hypothesen gebildet wird, die dann durch die weiteren Aktionen eingegrenzt wird (cf. GROSZ et al., 1990, S.456 ff).
Bei den oben genannten Regeln handelt es sich um Heuristiken, die nicht immer gelten müssen. Andere Ansätze zur Planerkennung gehen dagegen streng nach den Prinzipien der logischen Ableitung vor (z.B. KAUTZ, 1990, siehe unten).
SCHMIDT & MARSELLA (1991, S.115) nennen folgende Schwierigkeiten, auf die der Beobachter beim Erkennen von Plänen stoßen kann:
- Es liegt eine Unsicherheit über die Motive und Überzeugungen des Handelnden vor;
- der Handelnde kann seinen Plan auf fehlerhaften Überzeugungen aufbauen;
- Pläne können sich überschneiden;
- ein Plan kann fehlschlagen oder abgebrochen
werden.
3.1.2. Planerkennung zwischen
Psychologie und KI
3.1.2.1. Empirische Befunde
SCHMIDT et al. (1978) stellten ein Modell - BELIEVER - auf, das aufzeigen sollte, wie Beschreibungen von beobachteten Aktionen dazu verwendet werden können, dem Handelnden Absichten, Überzeugungen und Ziele zuzuschreiben. Ausgangspunkt waren experimentelle Untersuchungen: Versuchspersonen wurde eine genaue Beschreibung einer Folge von Tätigkeiten einer Person vorgelegt. Währenddessen wurden sie unterbrochen und entweder gebeten, zusammenzufassen, was der beschriebene Handelnde tun wollte, oder sich an das Gelesene zu erinnern (cf. SCHMIDT et al., 1978, S.46 f). Die dabei erhaltenen Daten deuteten darauf hin, daß die Versuchspersonen die Geschichte anhand logischer Beziehungen zwischen vorkommenden Objekten/Personen strukturieren und daß sie den Handelnden Ziele und Bedürfnisse zuschreiben. "These and other aspects of the data support the generalization that action understanding is simply a process of plan recognition." (SCHMIDT et al., 1978, S.50) Die Autoren fanden außerdem Hinweise daruf, daß die Versuchspersonen beim Finden der Pläne hypothesengeleitet vorgehen: Schlug der Plan des dargestellten Agenten fehl, entwickelten die Probanden eine Erklärung für dessen Scheitern; außerdem erstellten sie keine Zusammenfassungen, in denen sich gegenseitig ausschließenden Pläne vorkamen (cf. SCHMIDT et al., 1978, S.50 f). Die Autoren stellen deshalb folgende Hypothese auf:
"The plan recognition process involves
the generation of a small number of alternative plan hypotheses.
These hypotheses are represented at a general level until the
incoming observations provide a basis for adding detail and making
the plans more specific. A plan hypothesis provides the basis
for generating expectations concerning what action might be observed
next. The violation of these expectations triggers revision processes
which attempt to retain the current hypothesis." (SCHMIDT
et al., 1978, S.51 f)
3.1.2.2. Das Modell
Das Modell ist in SCHMIDT et al. (1978) ausführlich dargestellt; ich möchte deshalb nur dessen Grundzüge beschreiben: Aufgrund einer anfänglichen Beobachtung oder einer Sequenz von Beobachtungen werden (in Verbindung mit Hintergrundwissen und Annahmen über den Handelnden) Hypothesen über die Welt, den Handelnden und dessen Pläne gebildet; diese Hypothesen werden auch als Erwartungsstuktur (Expectation Structure, ES) bezeichnet. Aus Beschreibungen von Beobachtungen können ein Weltmodell (Annahmen des Systems bezüglich der momentanen Situation der physikalischen Welt) und ein Personenmodell (Vorstellungen des Systems von den Überzeugungen, Wünschen und Vorlieben des Handelnden) gebildet werden. Es werden Erwartungen gebildet, wie die nächsten Aktionen des Handelnden beschaffen sein könnten. Das System besitzt auch die notwendige Fähigkeit, seine Hypothesen auszubessern oder neu zu formulieren, wenn die beobachteten Handlungen von den erwarteten abweichen. SCHMIDT et al. beschreiben ihr Modell zusammenfassen so:
"The plan recognition process consists of a collection of subprocesses for:
(i) setting up an expectation structure, ES;
(ii) accepting a description of an action and matching it against expectations; and
(iii) revising the ES when expectations are
not matched by observations." (SCHMIDT et al., 1978, S.63)
3.1.2.3. Der Bezug zwischen Modell und Daten
SCHMIDT et al. (1978, S.47 ff) stellen folgende Überlegungen an: Eine Theorie hat zwei Aufgaben. Erstens - die erklärende Rolle - muß sie eine Menge von Strukturen und Prozessen spezifizieren, die zu dem beobachteten Verhalten führen können. Zweitens - die repräsentierende Rolle - muß sie eine Sprache zur Verfügung stellen, in der sowohl die experimentelle Aufgabenstellung als auch die Reaktionen des Subjekts dargestellt werden können; dazu sollte eine möglichst formale Sprache verwendet werden. "The representational schemes developed within AI provide such a formal language." (SCHMIDT et al., 1978, S.48)
Ein implementiertes Modell kann also dazu
dienen, der aus den Daten gewonnenen Theorie einen formalen Rahmen
zu geben; außerdem kann ihre (logische) Widerspruchsfreiheit
damit demonstriert werden.
3.1.3. Das Konzept der Intention
3.1.3.1. Die Vorstellungen von SCHULTZ (1991):
Die Fähigkeit zur Planerkennung hängt davon ab, daß die entsprechende Person über das Konzept der Intention (Absicht) verfügt. SCHULTZ (1991) zeigt auf, daß in der Entwicklung von Kindern zuerst nur das Konzept der Handlungsausführung (agency) existiert, das erklärt, warum sich ein Wesen bewegt oder eigenes Verhalten zeigt, ohne daß es von außen dazu veranlaßt wird. Aus diesem Konzept entwickelt sich später dann das Konzept der Intention, das davon ausgeht, daß ein interner mentaler Zustand das Verhalten steuert.
SCHULTZ (1991, S.82 ff) nennt auch die Regeln, durch die sich das Konzept der Intention beschreiben läßt:
- agent-move spezifiziert, daß ein Objekt, das sich bewegt und für dessen Bewegung keine äußere Ursache verantwortlich ist, ein Agent ist.
- patient-move spezifiziert, daß ein Objekt, das sich bewegt und für dessen Bewegung eine äußere Ursache verantwortlich ist, ein Patient ist.
- move-patient sagt: Wenn eine Person will, daß sich ein Objekt bewegt und es bekannt ist, daß das Objekt ein Patient ist, dann sollte die Person das Objekt direkt dazu veranlassen, sich zu bewegen.
- move-agent bestimmt: Wenn eine Person will, daß sich ein Objekt bewegt und es bekannt ist, daß das Objekt ein Agent ist, dann sollte die Person dem Objekt mitteilen, daß es sich bewegen soll.
- attribute-agent besagt, daß von der Bewegung eines Objekts, das sich bewegt und ein Agent ist, keine äußere Veranlassung zu erwarten ist.
- attribute-patient besagt, daß von der Bewegung eines Objekts, das sich bewegt und ein Patient ist, anzunehen ist, daß sie von außen verursacht wurde.
Das teilweise fehlerhafte Attribuierungsverhalten
von Kindern läßt sich durch Abwandlungen dieser Regeln
beschreiben. Die Regeln können sich dynamisch durch Diskrimination,
Generalisierung, Komposition, Kompilierung usw. ändern (cf.
SCHULTZ, 1991, S.88 f).
3.1.3.2. Das Modell von ALLEN:
Speziell in kommunikativen Situationen ist
es für den Zuhörer wichtig, die Intention der Äußerung
des Sprechers zu erkennen. Hier kann auf die die Theorie der Sprechakte
von Austin verwiesen werden, der in diesem Zusammenhang von einem
illocutionary act spricht (cf. CARBERRY, 1990, S.37 ff)
Nach CARBERRY kann auch die Sprachtheorie von Grice in diesem
Zusammenhang gesehen werden: "Grice ... claimed that the
meaning of an utterance on a particular occasion is the effect
that the speaker intends to produce in the hearer by virtue of
the hearer's recognition of that intent." (CARBERRY, 1990,
S.38) Grice bezieht also gegenüber Austin auch das Erkennen
der Absicht des Sprechers mit in seine Theorie ein. Searle ging
noch weiter und spezifizierte die Bedingungen, die beeinflussen,
ob die Absicht eines Sprechaktes erkannt wird (cf. CARBERRY, 1990,
S.39 f)
Aus den oben genannten Ansätzen entwickelten ALLEN & PERRAULT (1980) ein Modell zur Planerkennung in Äußerungen, das auch im Bereich der Bahnauskunft erfolgreich implementiert werden konnte. Aktionen werden auf die vom Planen bekannte Art, nämlich durch Preconditions, Anwendbarkeitsbedingungen, Planrumpf und Effekte (wie z.B. auch im unten vorgestellten System TRACK von CARBERRY (1990)), repräsentiert. Das nach Meinung der Autoren wichtigste Merkmal ihres Modells, das es von anderen Theorien unterscheidet, ist die Verwendung eines Modells der Überzeugungen und Ziele des Agenten, das den oben genannten Vorstellungen zur Intention entspringt. Von CARBERRY wurde der Mechanismus so zusammengefaßt:
"In Allen's scheme, understanding the meaning of an utterance consists of identifying the surface speech act that the speaker intends to be recognized from his utterance and identifying, by making the inferences intended by the speaker, the illocutionary act(s) whose effects the speaker intended the listener to recognize as effects he wanted to achieve." (CARBERRY, 1990, S.43)
Die Planerkennung selbst geschieht folgendermaßen:
(1) Von einer einzelnen Beobachtung ausgehend, werden alle möglichen Erweiterungen des bisherigen Plans ermittelt, ohne daß deren Plausibilität geprüft wird. Dazu werden in ALLEN & PERRAULT (1980, S.154 ff) dargestellte Plan-Inferenz-Regeln verwendet, wie z.B. folgende: Wenn der Agent ein Ziel P erreichen will, will er möglicherweise eine Aktion ausführen, die durch P ermöglicht wird. Es existieren Regeln bezüglich Aktionen, Wissen und dem Planungsverhalten anderer Agenten.
(2) In einem zweiten Schritt werden die gefundenen Teilpläne bewertet: jeder Plan bekommt einen nunmerischen Wert nach domänenunabhängigen Regeln zugewiesen. Dazu werden Heuristiken verwendet, die die beobachteten Handlungen verwerten, die das erwartete Ziel berücksichtigen und die die Effizienz der Suche im Problemraum steigern (aufgeführt in ALLEN & PERRAULT, 1980, S.157 ff). Die Kontrolle über die Planung wird also vor allem durch die Plan-Inferrenz-Regeln und durch die Bewertungsfunktion ausgeübt.
(3) Es existieren aber noch weitere Kontrollmechanismen: Ein bestimmter Teilplan wird auf jeden Fall dann verwendet, wenn er eine doppelt so günstige Bewertung erhält wie irgend ein anderer Teilplan. In dem gewählten Plan sind meist einige Objekte noch nicht spezifiziert (die z.B. Parameter eines ausgesuchten Plans waren); für diese wird nun eine geeignete Entsprechung gesucht.
Die hier geschilderten Mechanismen wurden
zur Interpretation von Äußerungen verwendet. Der Bezug
auf die dem Sprecher zugrundeliegenden Pläne ermöglichte
es auch, Satzfragmente zu interpretieren und Klärungsdialoge
(z.B. "Was?") richtig zu führen (cf. ALLEN &
PERRAULT, 1980, S.171 ff).
Insgesamt gesehen ist also das Konzept der
Intention sehr wichtig bei der Erkennung von Plänen, insbesondere
im Bereich der Erkennung von Plänen in Diskursen.
3.1.4. Planerkennung in Diskursen
(allgemein)
Nach GROSZ et al. (1989, S.451) "understanding language ... requires determining what intentions speakers have: figuring out what plans they are pursuing in part by making an utterance." Die Autoren gehen dabei davon aus, daß der Sprecher seine Ziele nur erreichen kann, wenn der Hörer den seinen Äußerungen zugrundeliegenden Plan erfaßt; deshalb wird die Äußerung genügend Informationen enthalten, um ein Erkennen des Plans zu ermöglichen. Die Modelle, die hierzu entwickelt wurden, sind auf den oben dargestellten Mechanismen aufgebaut:
"In particular, AI models of plan recognition in discourse have made use of techniques for representing and reasoning about action originally developed by those interested in the problem of automatic plan formation." (GROSZ et al., 1989, S.452)
Da kommunikative Pläne oft wiederum Teile umfassenderer Pläne sind, ist es für den Zuhörer oft wichtig, aus den Äußerungen auch auf die globalen Pläne zu schließen, um das Gesagte richtig zu verstehen. Nach GROSZ et al. (1989, S.452 f) ist Planerkennung deshalb gerade beim Führen von Diskursen wichtig.
Das weiter unten vorgestellte Modell von POLLACK (1990), das Pläne als komplexe mentale Einstellungen betrachtet, wurde ebenfalls zur Interpretation von Aussagen entwickelt (cf. CARBERRY, 1990, S.4 f).
Hier möchte ich aber noch kurz darauf
hinweisen, daß es noch weitere Modelle existieren, die zum
Erfassen des Sinnes einer Diskurseinheit erstellt wurden und ohne
das Erkennen der Äußerungen, die dem Plan zugrundeliegen,
auskommen. Das Modell zum Focusing von SIDNER (1983) z.B.
gibt einige Regeln an, nach denen herausgefunden werden kann,
worauf sich Anaphora in Sätzen beziehen, ohne daß dazu
die dem Sprecher zugrundeliegenden Pläne herausgefunden werden
müssen. Die Wirkungsweise und die Implementierung dieses
Modells sind z.B. in der oben genannten Quelle ausführlich
dargestellt.
3.1.5. Fehler in Plänen
QUILICI (1989) stellt ein (auch tatsächlich implementiertes) Modell vor, das dazu geeignet ist, Fehler, die bei Dialogen mit einem System auftreten können, zu erkennen und kooperativ darauf zu reagieren. Eine kooperative Reaktion besteht darin, daß das System begründet, warum es die Äußerung des Benutzers für fehlerhaft hält, oder das auf eventuelle Lücken hinweist. Die Äußerung des Benutzers läßt auf bestimmte Überzeugungen (beliefs) desselben folgern. "A belief relation represents an advisor's belief that an actor maintains that a particular plan applicability condition, precondition, or effect holds." (QUILICI, 1989, S.112, Hervorhebung im Text) Die Überzeugungen beziehen sich auf die Beziehung zwischen einer Aktion und einem Zustand; folgende Arten und ihre Negation werden vom Autor genannt: Verursachung, Ermöglichung, Angemessenheit, Ausschluß und Ziel. Es wird zwischen den Überzeugungen unterschieden, die das System selst hat und denen, von denen das System glaubt, der Benutzer habe sie.
Das System verfügt zum einen über domänenspezifische Überzeugungen, die die Anwendbarbeit von Plänen, ihre Voraussetzungen und ihre Effekte betreffen; sie stammen aus vergangenen Erfahrungen oder aus vergangenen Interaktionen mit dem Benutzer. Die negierten Überzeugungen bilden eine Art von Bug List (cf. QUILICI, 1989, S.114 f).
Zum anderen hat das System Wissen über potentielle Erklärungen. Zu folgenden drei Planungsbeziehungen liegen eine Menge von potentiellen Erklärungen vor, die es dem System erlauben, Abweichungen seiner Überzeugugen von denen des Benutzers zu erkennen (cf. QUILICI, 1989, S.116 ff):
- Das System teilt nicht die Überzeugung des Benutzers, daß der Plan zu einem bestimmten Ziel führt; Erklärungen: Plan erreicht anderes Ziel; Plan erzielt nicht gewünschten Effekt; Voraussetzung für ein Planelement nicht erfüllbar; Plan behindert Ziel.
- Das System teilt nicht die Überzeugung des Benutzers, daß ein Zustand eine Voraussetzung für das Erreichen des Planziels darstellt; Erklärungen: Ermöglichung eines Subziels (nicht des Ziels); Voraussetzung gilt nicht immer; Voraussetzung vom Benutzer zu spezifisch.
- Der Benutzer hat die falsche Überzeugung,
daß sich bei der Planausführung ein bestimmter Zustand
ergibt; Erklärung: Benutzer weiß nicht, daß ein
bestimmter Zustand Voraussetzung für die Effektivität
ist; Benutzer hat von den tatsächlichen Effekten des Plans
auf falsche gefolgert; anderer Effekt als vom Benutzer geplant
tritt auf.
Das System erklärt dem Benutzer seine Überzeugung, da hinter dem Modell die Annahme steht, daß der Benutzer nicht die fehlerhafte Überzeugung hätte, wenn er über den Standpunkt des Systems verfügen würde. Die Erklärung erfolgt durch Nennung der Überzeugungen des Systems, die rechtfertigen, daß es nicht die Überzeugungen des Benutzers teilt. Grundsätzlich wird dabei in folgenden fünf Schritten vorgegangen (cf. QUILICI, 1989, S.109 f):
1. Die natürlichsprachliche Problembeschreibung des Benutzers wird auf die Überzeugungen des Systems abgebildet.
2. Es wird festgestellt, welche der Überzeugungen falsch ist.
3. Es werden die fehlenden oder falschen Überzeugungen des Benutzers hergeleitet, die zu diesen falschen Überzeugungen geführt haben.
4. Es werden die Überzeugungen ausgewählt, die das System dem Benutzer als kooperative Antwort präsentieren soll.
5. Diese Überzeugungen des Systems werden in natürliche Sprache abgebildet.
Grundsätzlich gelingt es also mit diesem
System, kooperativ zu reagieren, wenn sich ein Fehler oder eine
falsche Überzeugung in einem Plan des Benutzers zeigt. Dadurch
ist das System gut zur Wissensvermittlung geeignet. Der existierende
Prototyp wird dazu verwendet, bei dem Umgang mit UNIX-Systemen
zu beraten.
3.2. Pläne als komplexe
mentale Einstellungen
3.2.1. Das Planen nach POLLACK
(1990)
POLLACK (1990) stellt Überlegungen dazu an, wie ein Modell beschaffen sein sollte, das es erlaubt, Pläne zu inferieren. Sie fordert, daß ein Modell zum Planen einen Plan nicht nur als ein auszuführendes Rezept betrachtet (wie es in der KI meist der Fall sei), sondern es muß auch "concern itself with the structure of the complex mental attitude of having a plan, as well as with the structure of the objects of that attitude." (POLLACK, 1990, S.78) Ihr Ansatz betrachtet deshalb Pläne als mentale Phänomene.
Die Vorstellung von einem Plan, die POLLACK (1990, S.83ff) entwickelt, sieht folgendermaßen aus: Ein Plan besteht in der Absicht, einige Handlungen auszuführen, die zu einem bestimmten Ergebnis führen sollen. Das Ergebnis muß später nicht unbedingt erreicht werden; für einen Plan genügt die Überzeugung (belief), daß das Resultat erzielt werden wird. Die Überzeugungen können sich auf beliebigen Abstraktionsebenen bewegen. Eine genaue zeitliche Ordnung der Pläne wird erst bei deren Ausführung notwendig. Das planende Subjekt muß folgende Einstellung zum Plan besitzen (cf. POLLACK, 1990, S.87):
- Der Planer muß glauben, daß er Schritte des Plans ausführen kann,
- daß die Ausführung der Schritte das Ziel erreicht und
- daß jeder Schritt für den Plan eine Rolle spielt.
- Der Planer muß beabsichtigen, jeden Schritt (in der möglicherweise vorgegebenen Reihenfolge) auszuführen;
- er muß beabsichtigen, diesen Plan zum Erreichen des Ziels auszuführen und
- er muß beabsichtigen, daß jeder Schritt des Plans eine Role spielt.
POLLACK (1990) legt also auch großen
Wert darauf, daß hinter dem Plan eine Absicht - die eine
komplexe mentale Einstellung darstellt - steht; sie fordert daß
die Überzeugungen, die das System von den Absichten und Überzeugungen
des Benutzers entwickelt hat, aus dem Ziel, das der Benutzer verfolgt,
resultieren.
3.2.2. Das Planerkennen nach POLLACK
(1990)
Das System, mit dem ein Subjekt interagiert, sollte in der Lage sein, dessen Pläne zu erkennen, um ihm im Falle von Schwierigkeiten Hilfestellungen bieten zu können. Dazu eignet sich ein System, das die Pläne des Benutzers auf die oben angegebene Art repräsentiert:
"When plans are viewed as complex mental attitudes, the process of plan inference can be seen as that of attributing a collection of beliefs and intentions to an actor." (POLLACK, 1990, S.100)
Der Planende hat dann einen ungültigen Plan, wenn eine oder mehrere seiner Überzeugungen falsch sind und deshalb nicht zum Ziel führen oder wenn eine oder mehrere der Absichten nicht zu verwirklichen sind. In diesem Fall sollte ein Planerkennungssystem nach POLLACK (1990, S.93) kooperativ antworten, indem es auf die Unterschiede zwischen seinen Überzeugungen und denen des Planers hinweist.
Außerdem sollte das System davon ausgehen, daß das planende Subjekt erklärende Überzeugungen (explanatory beliefs) besitzt, die den kausalen Zusammenhang zwischen einzelnen Teilschritten des Plans betreffen: Das System "must attribute to A [dem Planer] beliefs that explain the other beliefs that are constituents in his plan." (POLLACK, 1990, S.95) Auf diese Weise lassen sich auch unzusammenhängende Pläne, in denen Zwischenschritte ausgelassen wurden, erklären (und sie werden nicht fälschlicherweise als fehlerhafte Pläne behandelt). POLLACK (1990, S.96 f) nennt folgende exemplarische Regeln, nach denen das System dem Planer solche erklärenden Überzeugungen zuschreiben kann:
- Das System kann dem Planenden die selben Überzeugungen zuschreiben, die es selbst besitzt.
- Das System kann dem Planenden Überzeugungen zuschreiben, die seinen eigenen ähnlich sind.
- Das System kann davon ausgehen, daß der Planer Planschritte verwechselt hat oder sich beim Analogieschluß von einem auf einen anderen geirrt hat.
Regeln dieser Art ermöglichen es dem System, eine Vielzahl von Plänen zu erschließen, auch solcher Pläne, die nicht in der Planbibliothek des Systems gespeichert sind.
WOODS (1990, S.139) bemängelt, daß
sich das System nicht die syntaktische Form der Äußerungen
des Planers zunutze macht, indem es z.B. die kausale Verknüpfung
zweier Satzteile auch als kausale Verknüpfung zweier Teilpläne
betrachtet.
3.3. Planbeschreibung mittels
Prädikatenlogik
3.3.1. Der Ansatz von KAUTZ (1990)
KAUTZ (1990) stellt eine Möglichkeit dar, Pläne zu beschreiben und zu erkennen, die in der Prädikatenlogik erster Ordnung dargestellt ist. Es geht dabei um die sogenannte keyhole recognition von Plänen, also um das Erkennen ohne explizite Unterstützung durch den Agenten.
Die einzelnen Aktionen des Agenten werden in einer azyklischen Ereignis-Hierarchie dargestellt, deren Wurzelknoten das End Event bildet. Diese Hierarchie muß vollständig (complete) sein, d.h. jedes Ereignis, das kein End Event ist, muß Komponente eines anderen Ereignisses sein.
Beim Erkennen eines Planes wird nach KAUTZ (1990, S. 113 ff) aufgrund der Beobachtung des Agenten eine Teilmenge der Ereignis-Hierarchie ausgewählt (sog. covering model) und zur Erklärung der Beobachtung herangezogen. Die Vielzahl an Erklärungsmöglichkeiten wird dadurch reduziert, daß mit jedem Ereignis Constraints assoziiert sein können. Wenn alle Alternativen eliminiert wurden, folgert das System, daß die Ereignisse unterschiedlichen End Events zugeordnet werden müssen; somit können auch gleichzeitig auftretende, voneinander unabhängige Pläne erfaßt werden. Mittels mehrerer komplexer Methoden wird dabei die Erklärung ausgewählt, die am wenigsten voneinander unabhänige Ereignisse (End Events) beinhaltet. Die komplexe Formalisierung dieses Ansatzes ist in KAUTZ (1990) zu finden.
KAUTZ (1990) schildert auch die Anwendung dieses Ansatzes anhand dreier beispielhafter Domänen, in denen er verwendet wurde:
- Das Erkennen von Plänen beim Kochen wird zuerst vorgestellt, da dies eine einfach handzuhabende Domäne darstellt.
- Bei der Planerkennung von Benutzern von multitasking-fähigen Computern muß das Planungerkennungssystem mehrere, gleichzeitig auftretende und voneinander unabhängige Pläne des Benutzers handhaben. "This example again stresses the fact that a recognitionsystem need not develop a single interpretation of all its observations in order to respond intelligently." (KAUTZ, 1990, S.122)
- Bei der Analyse von Gesprächen
erweist sich das Modell ebenfalls als brauchbar.
3.3.2. Kritik
KAUTZ äußert sich selbst zur psychologischen Relevanz seines Modells:
"This work does not make claims of psychological validity but does attempt to clear up some of the mistery surrounding nondeductive inferrence in high-level artificial intelligence." (KAUTZ, 1990, S.130)
Eine Schwachstelle seines Modells besteht darin, daß es von intern konsistenten Plänen ausgeht und annimmt, daß alle Handlungen zweckgerichtet sind. Er gibt aber Hinweise darauf, wie das Modell zu ändern wäre, um auch fehlerhaftes Verhalten erkennen zu können.
WOODS (1990, S.137) bemängelt, daß zum Erkennen des Plans bei diesem System die Beobachtung aller Handlungsschritte Voraussetzung ist; ein Plan kann also nicht während seiner Entwicklung verfolgt werden. WOODS beschwert sich außerdem über die zu formale Herangehensweise von KAUTZ:
"As cleverly and elegantly as Kautz's
formalization has been done, I can't help but feel the result
tends to mask the essence of plan recognition rather than illuminate
it... nothing seems to be bought as a result of the effort other
than a certain aesthetic appreciation and the respect of one's
colleagues." (WOODS, 1990, S.136)
3.4. Planerkennung in Dialogen
Aus den bisherigen Äußerungen im Verlauf eines Dialoges gefolgerte Pläne des Informationssuchenden können dazu verwendet werden, neue Äußerungen schneller und präziser zu interpretieren. Dazu dient nach CARBERRY (1990, S.9) das Weltmodell des Benutzers (bestehend aus verschiedenen Klassen von Objekten, Vorkommnissen einzelner Objekte aus bestimmten Klassen und Constraints bezüglich der Werte von Attributen oder Beziehungen zwischen Objekten).
CARBERRY (1990, S.10 f) nennt empirische
Belege dafür, daß es Menschen zwar leicht fällt,
komplexe syntaktische Strukturen in ihren Äußerungen
zu vermeiden, wenn man sie darum bittet, daß sie es aber
kaum zustandebringen, sich immer vollständig zu äußern:
Oft werden Teile eines Satzes oder eines logischen Zusammenhangs
nicht explizit genannt. Außerdem entsprechen die Informationsanfragen
oft nicht den pragmatischen Regeln der Sprache. Damit müssen
Systeme, die die Pläne des Benutzers erkennen wollen fertig
werden. Auslassungen können z.B. dadurch ergänzt werden,
daß der bisherige Plan und das Ziel des Diskurses berücksichtigt
werden (cf. CARBERRY, 1990, S.14).
3.4.1. Planerkennung in Teildialogen
(LITMAN)
3.4.1.1. Pläne
LITMAN & ALLEN (1987, S.167) unterscheiden zwei Arten von Plänen, die Dialoge betreffen: Diskurspläne (discourse plans) beziehen sich auf das Gespräch selbst, auf die Art, wie es abgewickelt werden soll; es handelt sich also um eine Art von Meta-Plänen. LITMAN & ALLEN (1987, S.173 f) zählen folgende Arten von Diskursplänen auf:
Die Continue Class:
- CONTINUE-PLAN: Der Agent führt den nächsten Schritt des oben auf dem Stack liegenden unvollendeten Plan aus.
- TRACK-PLAN: Der Agent spricht über
den nächsten Schritt des oben auf dem Stack liegenden unvollendeten
Plan, wenn dieser Schritt nicht-linguistisch ist.
Die Clarification Class:
- IDENTIFY-PARAMETER: Hier geht es darum, eine geeignete Beschreibung für die Belegung eines Parameters einer Aktion zu liefern, so daß der Hörer diese dann ausführen kann.
- CORRECT-PLAN: Hier wird eine Ausbesserung
des Plans spezifiziert, damit dieser nach unvorhergesehenen Ereignissen
dennoch zum Erfolg führt.
Die Topis Shift Class:
- INTRODUCE-PLAN: Es wird ein neuer Plan zur Diskussion gestellt, der bisher in der Unterhaltung noch nicht aufgetaucht ist.
- MODIFY-PLAN: Ein neuer Punkt wird dadurch eingeführt, daß der vorherige Punkt verändert wird.
Domänenpläne
(domain plans) dagegen beziehen sich auf den Sachverhalt, um den
es in dem Gespräch geht. Die Pläne selbst können
in ihrem System hierarchisch aufgebaut sein und ihre Teilschritte
können durch Constraints verbunden sein (siehe oben). In
einer Bibliothek von Planschemata ist das Wissen über typische
Pläne von Sprechern niedergelegt. Die einzelnen Planinstanzen
werden gebildet, indem den Schemaparametern solcher allgemeiner
Planschemata Werte zugewiesen werden (cf. LITMAN & ALLEN,
1987, S.171). "A plan recognizer ... will use the plan schemas
to recognize the plan instantiation which produced an executed
action." (LITMAN & ALLEN, 1987, S.172)
3.4.1.2. Der Planstack
Der momentane Kontext eines Dialogs wird zu jedem Zeitpunkt durch einen Planstack repräsentiert: "... the stack of plans will always represent what the system believes is the state of the joint plan." (LITMAN & ALLEN, 1987, S.169)
Tritt eine neue Äußerung des
Sprechers auf, muß diese zuerst einem neuen Diskursplan
zugeordnet werden, der wiederum einem Domänenplan zugeordnet
werden muß; ist kein geeigneter Domänenplan vorhanden,
wird ein neuer in den Planstack aufgenommen. Bezieht sich die
Äußerung dagegen auf den gerade aktuellen Domänenplan,
wird der dazugehörige Diskursplan durch einen neuen ersetzt,
der auch diese Äußerung berücksichtigt. Ist die
Interpretation dieser Äußerung beendet, befindet sich
also immer die gerade beobachtete Aktion oben auf dem Stack. Die
Pläne oben auf dem Stack können nur entfernt (gepoppt)
werden, wenn der Akteur ihre Beendung signalisiert; dies kann
explizit geschehen oder dadurch, daß sich der Akteur so
verhält, daß das System daraus folgern kann, daß
der Plan abgeschlossen ist. Jeder momentan suspendierte Plan wird
wieder bearbeitet, wenn der über ihm liegende vom Stack genommen
wurde. Der sich oben auf dem Stack befindende Plan ist, wurde
oder wird also gerade ausgeführt. LITMAN & ALLEN (1987,
S.170) wiesen selbst darauf hin, daß es sich bei der Stackmetapher
um eine Idealisierung handelt; so kann es z.B. vorkommen, daß
ein unterbrochener Plan nicht wieder weiterbearbeitet wird.
3.4.1.3. Planerkennung
Der Planerkenner hat also eine Bibliothek an Planschemata (abhängig von der Domäne), eine Bibliothek an Diskursplänen (siehe oben), eine geparste repräsentation der Äußerung des Sprechers und den Plan-Stack (den momentanen Stand des Gesprächs) zur Verfügung.
"The final output of the plan recognition process is a modified plan stack, representing the updated plan state underlying the dialogue. If the interpretation is ambiguous, a stack is created for each interpretation.
... The plan recognizer's task is to find a sequence of instantiations of plan schemas, each one containing the previous one in its decomposition, that connects the surface speech act analyses produced by the parser to a discourse plan." (LITMAN & ALLEN, 1987, S.178 f)
Folgende Heuristiken zur Erhaltung der Kohärenz steuern dabei die Erkennung des Plans und seine Zuordnung zu einem Schema (cf. LITMAN & ALLEN, 1987, S.180 f):
1.) Zuerst wird versucht, einen bestehenden Plan fortzuführen (continuation).
2.) Als nächstes wird versucht, bestehende Pläne zu klären (clarification).
3.) Als letzter Ausweg bleibt die Erstellung eines neuen Plans (topic shift).
Durch die Reihenfolge der Anwendung dieser Heuristiken wird versucht, möglichst wenig neue Pläne einzuführen, um eine gewisse Kontinuität zu gewährleisten. "While these heuristics and their ordering have not been validated with psychological experimantation, they have intuitive appeal" (LITMAN & ALLEN, 1987, S.180) geben die Autoren dazu zu bedenken.
Zusätzlich finden noch weitere Heuristiken
Verwendung (cf. LITMAN & ALLEN, 1987, S.180 ff): Verbindungswörter
(clue words) können dazu verwendet werden, die Reihenfolge
der Anwendung der oben genannten Heuristiken zu verändern
(da z.B. by the way oft einen neuen Plan signalisiert);
Pläne, deren erwünschter Effekt bereits wahr ist oder
deren Constraints nicht befriedigt werden können, werden
nicht weiter in Betracht gezogen; wenn mehrere Möglichkeiten
übrigbleiben, werden sie alle weiterverfolgt und nach Möglichkeit
später eingegrenzt. Durch die genannten Methoden gelingt
es meist, einen Plan direkt zu erkennen oder die Anzahl der möglichen
Alternativen stark einzugrenzen.
3.4.2. Das Modell von CARBERRY
3.4.2.1. Das System TRACK
Das Kontext-Modell von CARBERRY ist z.B. in CARBERRY (1989) oder ausführlicher in CARBERRY (1990) geschildert. Es dient zur Erleichterung von Dialogen eines Informations-Suchenden (IS) mit einem System, das diese Information berreitstellen soll (information provider, IP). Es wurde als Bestandteil des Systems TRACK implementiert, das während des laufenden Dialogs die Äußerungen des Benutzers erfaßt und damit die Überzeugungen (beliefs) des Systems bezüglich dessen aufgabenbezogenen Plans schrittweise auf den neuesten Stand bringt und erweitert. Grundsätzlich geht das System dabei folgendermaßen vor:
"During local analysis, candidate focused goals and plans are hypothesized from individual utterances. Global analysis uses focusing heuristics to select the goal-plan pair that is most appropriate to the current dialogue context and integrate it into the existing plan structure, which thereby incrementally expands the system's model of the user's plan as the dialogue progresses." (CARBERRY, 1990, S.110)
Die von TRACK verwendeten Heuristiken sind domänenunabhängig und basieren auf empirisch festgestellten Merkmalen von natürlich auftretenden Dialogen zur Informationssuche (cf. CARBERRY, 1990, S.77). Ein Plan besteht aus
- Anwendbarkeitsbedingungen (die schon vor Überlegungen zu dessen Anwendung vorliegen müssen),
- Preconditions (die vor dessen Ausführung vorliegen müssen),
- Planrumpf (der die Durchführung des Plans beschreibt) und
- Effekten (den Zielen der erfolgreichen Ausführung des Plans).
Die Pläne sind hierarchisch, da einzelne
Schritte des Planrumpfes wiederum Pläne sein können.
3.4.2.2. Die lokale Analyse
Zuerst ermittelt die lokale Analyse das unmittelbare Ziel der Äußerung aus der semantischen Repräsentation dieser, welches z.B. darin bestehen kann, daß der Sprecher vom System eine Information benötigt.
Im zweiten Schritt wird die Äußerung zu dem Wissen des Systems über Ziele und Pläne in Verbindung gesetzt; dadurch werden mögliche fokussierte Ziele (candidate focused goals) und mögliche fokussierte Pläne (candidate focused plans) festgestellt.
"Each hypothesized candidate focused goal and plan pair represents a domain plan on which the system believes the information seeker's attention might be focused at that time along with the goal that the system believes might be motivating consideration of this plan." (CARBERRY, 1990, S.82)
CARBERRY (1990, S.83 ff) nennt dazu acht Planidentifikations-Heuristiken, mit denen mögliche domänenabhängige Ziele und damit verbundene Pläne gefunden werden können.
- Will der Informationssucher (IS), daß eine momentan nicht erfüllte Proposition wahr ist, wird diese sein mögliches fokussiertes Ziel.
- Will der IS, daß eine bereits erfüllte Proposition P wahr ist, werden die Pläne, zu deren Voraussetzungen P gehört, zu möglichen fokussierten Plänen.
- Will der IS, daß das System weiß, daß eine Proposition P wahr ist, werden die Pläne, die P als Teil ihrer Anwendbarkeitsbedingungen, Preconditions oder ihres Planrumpfes beinhalten, zu möglichen fokussierten Plänen und deren Effekte zu möglichen fokussierten Zielen.
- Will der IS wisen, ob oder wie er ein Ziel erreichen kann, wird dieses Ziel zu einem möglichen fokussierten Ziel und die Pläne, die zu dessen Effekt führen, werden zu möglichen fokussierten Plänen.
- Will der IS wissen, ob eine Proposition P erfüllt ist, werden die Pläne, die P als Teil ihrer Anwendbarkeitsbedingungen, Preconditions oder ihres Planrumpfes beinhalten, zu möglichen fokussierten Plänen und deren Effekte zu möglichen fokussierten Zielen.
- Will der IS den Wert eines Terms, der sich aus der Erfüllung einer Proposition P ergibt, wissen, werden die Pläne, die P oder nicht(P) als Teil ihrer Anwendbarkeitsbedingungen, Preconditions oder ihres Planrumpfes beinhalten, zu möglichen fokussierten Plänen und deren Effekte zu möglichen fokussierten Zielen.
- Will der IS die Elemente, die er wahlweise als Argument eines Subzieles verwenden kann, wissen, werden die Pläne, die dieses Subziel enthalten, zu möglichen fokussierten Plänen und deren Effekte zu möglichen fokussierten Zielen.
- Will der IS wissen, ob ein Element von der
Sorte X ist, werden die Pläne, die ein Argument enthalten,
das von Typ X sein muß, zu möglichen fokussierten Plänen
und deren Effekte zu möglichen fokussierten Zielen.
3.4.2.3. Die globale Analyse
Bei der lokalen Analyse wurden also mögliche fokussierte Plaöne und Ziel ohne Berücksichtigung des Kontextes ausgewählt. Nun müssen sie mit den vom System gefolgerten Plänen in Verbindung gebracht werden und die Überzeugungen des Systems über die Absicht des Benutzers müssen entsprechend erweitert werden. Dazu wird ein Kontext-Modell benötigt:
"The context model is a tree structure representing the system's beliefs about the information seeker's underlying task-related plan and current focus of attention in his plan... The context model represents the overall plan considered by the speaker." (CARBERRY, 1990, S.89)
Die Verbindung zwischen dem globalsten Ziel und dem momentan fokussierten Ziel, der aktive Pfad, stellt den globalen Kontext dar. Gerade zu Beginn des Dialogs kann es vorkommen, daß mehrere verschiedene globale Ziele existieren, wobei sich erst im weiteren Verlauf des Gesprächs herausstellt, welches davon der Informationssuchende verfolgt. In einer solchen Situation müssen mehrere verschiedene Kontextmodelle erstellt werden, die dann schrittweise durch nachfolgende Äußerungen eliminiert werden, bis nur noch eines übrigbleibt. Die Autorin nennt fünf Regeln, sogenannte Fokussierungs-Heuristiken; sie sind in CARBERRY (1990, S.93 ff) ausführlich dargestellt und erfüllen folgende Aufgaben:
- Bewertung der möglichen Beziehungen zwischen den möglichen fokussierten Plan-Ziel-Paaren und dem Kontextmodell;
- Auswahl des für den momentanen Plan-Kontext geeignetsten möglichem fokussierten Plan-Ziel-Paar;
- Einfügen des geeignetsten möglichen Plan-Ziel-Paares als neuer Fokus der Aufmerksamkeit und
- Erweiterung des Kontext-Modells.
Dabei wird die in den Dialogen inhärente Struktur genutzt (cf. CARBERRY, 1990, S.92 f): Die natürlicherweise auftretenden Dialoge zur Informationssuche weisen eine organisierte Natur auf (einmal begonnene Teilpläne werden erst beendet, bevor neue Teilpläne eingeführt werden etc.) und sie sind von kooperativer Natur (die Beziehungen zwischen den einzelnen Äußerungen wird explizit oder implizit mitgeteilt).
Durch die globale Analyse wird somit das
am geeignetsten erscheinende Plan-Ziel-Paar in die momentane Planstruktur
eingefügt; dadurch wird das Modell, das sich das System von
dem Plan des Benutzers gemacht hat, im Verlauf des Dialogs erweiteret.
Das so erhaltene Modell vom Plan des Benutzers kann dann dazu
verwendet werden, bei schlechtformulierten (pragmatically ill-formed)
Fragen oder bei unvollständigen Anfragen dem System Hinweise
auf die Intentionen des Informationssuchenden geben (cf. CARBERRY,
1989, S.145 ff).
3.4.2.4. Erweiterung des Modells
CARBERRY (1989, S.150 ff) weist darauf hin, daß das oben vorgestellte Modell nur unter gewissen idealisierten Bedingungen gilt, die in der Realität kaum anzutreffen sein dürften. Es wird z.B. vorausgesetzt, daß das Wissen des Benutzers und des Systems ähnlich sind und daß das System unfehlbar den den Äußerungen des Bentzuers zugrundeliegenden Plan erkennt. Diese Annahmen werden in natürlich auftretenden Dialogen ständig verletzt, wurden aber bei Planerkennungssystemen der ersten Generation eingeführt, um die auftretenden Probleme zu vereinfachen und somit die grundlegenden Prinzipien und Herangehensweisen auszutesten. Für neuere Planerkennungssysteme schlägt CARBERY (1989, S.150 ff) eine Erweiterung des Modells vor, die dieses robuster machen würde; dabei würde in folgenden vier Schritten vorgegangen werden:
1.) Feststellung von Hinweisen auf die Existenz von Diskrepanzen zwischen dem Benutzermodell des Systems und den Plänen und Zielen des Benutzers.
2.) Vermutungen zum Ursprung dieser Diskrepanz mittels des Domänenwissens und des Modells des Systems.
3.) Antwort gegenüber dem Benutzer und Verhandeln mit diesem um die Fehler zu isolieren.
4.) Geeignete Ausbesserung des Benutzermodells.
3.5. Die Anwendung
3.5.1. Ein Anwendungsbeisiel
Ich möchte hier als Beispiel für die Anwendung der Planerkennung das System PLANET von QUAST (in press) vorstellen. Es wurde dazu entwickelt, Benutzer des Systems EXCEL (es wurde leider keine Angaben zu Versionsnummer oder Platform gemacht) bei ihren Aktionen zu beobachten und daraus mögliche zugrundelliegende Pläne zu folgern. Wenn nun diese Benutzer die Hilfefunktion des Systems betätigen, kann ihnen genau zu der momentan relevanten Aufgabenstellung Hilfe angeboten werden.
Die einzelnen Aktionen der Benutzer werden als Elementarereignisse (elementary events), die aus dem Namen der Aktion, ihren Paramentern und ihrer Position in der Aktionsfolge bestehen, an eine Inferenzkomponente übermittelt. Diese Inferenzkomponente versucht dann, einen dazu geeigneten Plan in der statischen Wissensbasis zu finden. Die statische Wissensbasis wurde anhand empirischer Beobachtungen von Benutzern des Systems EXCEL erstellt. Die einzelnen Pläne sind in einer Hierarchie von Subplänen in Form eines Graphen gespeichert; bei Aktionen, die in einer bestimmten Reihenfolge ausgeführt werden müssen,ist diese jeweils vermerkt. Die Beschreibung eines Plans bestimmt, welche Subaktion zu welchen Plan zuzuordnen ist, wobei zur Einschränkung der Anzahl der Möglichkeiten auch die zeitliche Abfolge der einzelnen Aktionen berücksichtigt wird. Des weiteren werden Constraints bezüglich der Werte der Parameter eines Planes, sogenannte semantische Constraints, zur Verkleinerung der Zahl der potentiellen Pläne verwendet (cf QUAST, in press).
Die Inferenzkomponennte selbst arbeitet folgendermaßen: Ein Netzgenerator formt die oben beschriebene Planbeschreibung in ein hierarchisches Netz aus Knoten und Verbindungen zwischen ihnen um. Die unterste Ebene des Netzes wird dann durch die tatsächlich beobachteten Aktionen des Benutzers aktiviert. Die Aktivierung wird bottom-up weitergeleitet: Wird ein hierarchisch höher stehender Knoten von genügend Subknoten aktiviert, sendet auch dieser wieder eine Aktivierung "nach oben"; dies entspricht dem Fall, daß der Teilplan, den der Knoten repräsentiert, vorzuliegen scheint. So kann sich die Aktivierung bis zur obersten Ebene, einem der gespeicherten Pläne, ausbreiten (cf QUAST, in press). Das Aktivierungs-Netz wird gespeichert.
"Starting from the hightest level of action execution in the storage tree one can determine on each level which alternative in the operation tree has been executed. In this way completely executed action plans are assessable and suboptimal executions can be determined." (QUAST, in press, S. 7)
Die auf die hier vorgestellte Weise erstellten
Hypothesen bestimmen zusammen mit den komplett erkannten Aktionen,
welchen Hilfetext das kontextsensitive Hilfesystem dem Benutzer
auf Anfrage präsentiert.
3.5.2. Benutzer-Modelle
Das Erkennen der Pläne des Benutzers eines Systems, also des Informationssuchenden, ist ein sehr wichtiger Bestandteil bei der Erstellung eines Benutzermodells. Man kann dabei unter einem Benutzermodell folgendes verstehen:
"The user model represents the system's assimilation of the dialogue and contains information about the user and the current dialogue context that can increase the systems ability to engage in effective communication." (CARBERRY, 1990, S.2)
CARBERRY (1990, S.1) nennt dazu folgende Komponenten eines Benutzermodells:
- Die Aufgabe, die der Benutzer mittels des Systems erreichen will;
- die Planerstellungs- oder Problemlösungs-Ziele, die der Benutzer zum Erreichen seines aufgabenbezogenen Plans verfolgt;
- die kommunikativen oder Gesprächsziele, die der Benutzer verfolgt;
- seine Vorlieben und Abneigungen;
- seine Überzeugungen;
- seine Kenntnis des Gegenstandsbereichs
(level of expertise).
ALLEN, J.F. & PERRAULT, C.R. (1980). Analyzing
Intention in Utterances. Artificial Intelligence 15 (1980),
S.143-178.
ALTERMAN, R. (1988). Adaptive Planning.
Cognitive Science, 12 (1988), S.393-421.
BADDELEY, A.D. (1990). Human Memory: theory
and practice. East Sussex, UK: Erlbaum.
BARR, A. & FEIGENBAUM, E.A., Eds (1981).
The Handbook of Artificial Intelligence. Volume I. Los
Altos, CA: William Kaufmann.
CARBERRY, S. (1989). Plan Recognition and
Its Use in Understanding Dialog. In KOBSA, A. & WAHLSTER,
W. (Eds). User models in Dialog systems. (S.133-162) Berlin,
Heidelberg. Springer.
CARBERRY, S. (1990). Plan Recognition in
Natural Language Dialogue. Cambridge, MA: MIT Press.
CHASE, W.G. & SIMON, H.A. (1973). Perception
in chess. Cognitive Psychology 4 (1973), S.55-81.
COHEN, P.R., MORGAN, J.L. & POLLACK, M.E.
(1990). Intentions in Communication. Cambridge, MA.: MIT
Press.
FIKES, R.E., HART, P.E. & NILSSON, N.J.
(1972). Learning and Executing Generalized Robot Plans.
Artificial Intelligence 3 (1972), S.251-288.
FIKES, R.E. & NILSSON, N.J. (1971). Strips:
A new approach to the application of theorem proving to problem
solving. Artificial Intelligence 2 (1971), S.189-208.
GEORGEFF, M.P. (1987). Planning. Annual
Review of Computational Science, 2 (1987), S.359-400.
GROSZ, B.J., POLLACK, M.E. & SIDNER, C.L.
(1989). Discourse. In POSNER, M.I. (Ed): Foundations
of cognitive science. (S.437-468). Cambridge, MA: MIT-Press.
HAMMOND, K.J. (1990). Explaining and Repairing
Plans That Fail. Artificial Intelligence 45 (1990), S.173-228.
HAYES-ROTH, B. & HAYES-ROTH, F. (1979).
A Cognitive Model of Planning. Cognitive Science, 3 (1979),
S.275-310.
HERTZBERG, J. (1989). Planen: Einführung
in die Planerstellungsmethoden der Künstlichen Intelligenz.
Mannheim; Wien; Zürich: BI-Wiss.-Verl.
HOC, J.-M. (1988). Cognitive Psychology
of Planning. London: Academic Press.
KAUTZ, H. (1990). A Circumscriptive Theory
of Plan Recognition. In COHEN, P.R., MORGAN, J.L. & POLLACK,
M.E. (Eds). Intentions in Communication. (S.105-133) Cambridge,
MA.: MIT Press.
KOBSA, A. & WAHLSTER, W. (1989). User
models in Dialog systems. Berlin, Heidelberg. Springer.
LITMAN, D.J. & ALLEN, J.F. (1987). A
Plan Recognition Model for Subdialogues in Conversations.
Cognitive Science 11 (1987) S.163-200.
MACKWORTH, A.K. (1977). Consistency in Networks
of Relations. Artificial Intelligence 8 (1977), 99-118.
PFEIFFER, T. (1991). Mentale Evaluation
von Plänen. Regensburg: Dissertation.
POLLACK, M.E. (1990). Plans as Complex Mental
Attitudes. In COHEN, P.R., MORGAN, J.L. & POLLACK, M.E.
(Eds). Intentions in Communication. (S.77-103) Cambridge,
MA.: MIT Press.
PYLYSHYN, Z.W. & DEMOPOULOS, W. (1986).
Meaning and Cognitive Structure: Issues in the Computational
Theory of Mind. Norwood, N.J.: Ablex Publishing Corporation.
PYLYSHYN, Z.W. (1991). The Role of Cognitive
Architecture in Theories of Cognition. In VAN LEHN, K. (Ed).
Architectures for intelligence / the Twenty-second Carnegie
Mellon Symposium on Cognition. (S.189-223) Hillsdale, N.J.:
Erlbaum.
QUAST, K.-J. (in press). Plan Recognition
for Context Sensitive Help. Sankt Augustin, Germany: Institute
for Applied Information Technology (German National Research Center
for Computer Science).
QUILICI, A. (1989). Detecting and Responding
to Plan-Oriented Misconceptions. In KOBSA, A. & WAHLSTER,
W. (Eds). User models in Dialog systems. (S.108-132) Berlin,
Heidelberg. Springer.
SACERDOTI, E.D. (1974). Planning in a Hierarchy
of Abstraction Spaces. Artificial Intelligence 5 (1974), S.115-135.
SCHMIDT, C.F., SRIDHARAN, N.S. & GOODSON,
J.L. (1978). The Plan Recognition Problem: An Intersection
of Psychology and Artificial Intelligence. Artificial Intelligence
11 (1978), S.45-83.
SCHMIDT, C.F. & MARSELLA, S.C. (1991).
Planning and Plan Recognition from a Computational Point of
View. In WHITEN, A. (Ed). Natural theories of mind: evolution,
development, and simulation of everyday mindreading. (S.109-126)
Cambridge, MA.: Blackwell.
SCHULTZ, T. R. (1991). From Agency to Intention:
A Rule-Based, Computational Approach. In WHITEN, A. (Ed).
Natural theories of mind: evolution, development, and simulation
of everyday mindreading. (S.79-95) Cambridge, MA.: Blackwell.
SEDGEWICK, R. (1990). Algorithms in C.
Reading, MA: Addison-Wesley.
SIDNER, C.L. (1983). Focusing in the Comprehension
of Definite Anaphora. In BRADY, M. & BERWICK, R.C. (Eds).
Computational Models of Discourse. (S.267-330) Cambridge,
M.A.: MIT-Press.
STEFIK, M.J. (1981a). Planning with Constraints.
Artificial Intelligence 16(2) (1981), 111-140.
STEFIK, M.J. (1981b). Planning and Meta-Planning.
Artificial Intelligence 16(2) (1981), 141-170.
WILENSKY, R. (1983). Planning and Understanding.
A Computational Approach to Human Reasoning. Reading, MA:
Addison-Wesley.
WILKINS, D.E. (1984). Domain-independent
Planning: Representation and Plan Generation. Artificial Intelligence
22 (1984), S.269-301.
WILKINS, D.E. (1988). Practical Planning:
Extending the Classical AI Planning Paradigm. San Mateo, CA:
Kaufmann.
WINSTON, P.H. (1984). Artificial Intelligence.
2nd edition. Reading, M.A.: Addison-Wesley.
WÖHE, G. (1981). Einführung in
die Allgemeine Betriebswirtschaftslehre. 14., überarbeitete
Auflage. München: Vahlen.
WOODS, W.A. (1990). On Plans and Plan Recognition:
Comments on Pollack and on Kautz. In COHEN, P.R., MORGAN,
J.L. & POLLACK, M.E. (Eds). Intentions in Communication.
(S.135-140) Cambridge, MA.: MIT Press.
zurück zur Skriptenseite
zurück zu meiner homepage
rainer@zwisler.de