rainer@zwisler.de
Grundsätzlich existieren zwei Paradigmen zur Untersuchung des Größenvergleichs von Zahlenpaaren: Bei einer Wahl-Aufgabe (selection task) werden beide Zahlen visuell dargeboten und die Versuchsperson muß einen von zwei Schaltern betätigen, um anzugeben, welche der beiden Zahlen die größere (oder kleinere) ist. Bei Klassifikations-Aufgaben merkt sich die Versuchsperson eine Zahl, die als Standard gelten soll. Es werden dann einzelne Zahlen visuell präsentiert; die Versuchsperson soll durch Betätigen eines Schalters (von zwei möglichen) angeben, ob die präsentierte Zahl größere war als der Standard oder kleiner.
Bereits SEKULER et al. (1971) fanden heraus, daß die für eine Wahl-Aufgabe benötigte Reaktionszeit abnimmt, wenn die Distanz zwischen den Zahlen zunimmt. Außerdem führten sie folgende Variation der Präsentation der Zahlen durch: In einer Bedingung wurde die zweite Zahl 50 Millisekunden nach der ersten präsentiert, in der anderen Bedingung erst 2000 Millisekunden später. In der zweiten Bedingung war die durchschnittliche Reaktionszeit um 150 Millisekunden länger; dieser Zeitraum kann als der zum Kodieren der ersten Zahl benötigte interpretiert werden. Er dürfte allerdings mit Effekten der Antizipation konfundiert sein: Ist die erste Zahl relativ groß, so ist zu erwarten, daß die zweite Zahl kleiner ist.
DEHAENE (1989) zählt folgende Effekte auf, die sich unter Verwendung dieser experimentellen Paradigmen aufweisen lassen:
Diese Effekte konnten z.B. von DEHAENE (1989) experimentell gezeigt werden. Es ist jedoch wichtig, anzumerken, daß die Unterschiede in den Reaktionszeiten zwar signifikant sind, es sich aber um absolut gesehen nur geringe Unterschied handelt. Die Mittelwerte der Reaktionszeiten in den Experimenten von DEHAENE (1989) schwankten z.B. zwischen 375 und 620 Millisekunden.
DEHAENE et al. (1990) konnten in Vergleichsaufgaben zeigen, daß an der Grenze der Dekade, die den Standardreiz enthielt, die Reaktionszeiten deutlich zunahmen, wenn der Standardreiz 55 oder 66 war, nicht dagegen, wenn er 65 war. Diese Diskontinuität kann also nicht beim Vergleichsprozess selbst entstehen, da sie sonst immer auftreten müßte. Es handelt sich also wahrscheinlich um einen Effekt der Encodierung der Zahl. Sie konnten auch zeigen, daß dieser Effekt und der Distanzeffekt unabhängig davon auftreten, ob die Muttersprache der Versuchspersonen Französisch ist oder Englisch. Dabei ist zu bedenken, daß die Zahlenbezeichnungen im Französischen nach einer anderen Systematik erstellt werden.
DEHAENE et al. (1990) präsentierten in einem weiteren Experiment die Einer und die Zehner des Reizes entweder gleichzeitig oder nacheinander, getrennt durch ein Intervall von 50 Millisekunden getrennt; es wurde sowohl zuerst die Einer und dann die Zehner als auch die umgekehrte Reihenfolge verwendet. Diese drei Bedingungen unterschieden sich nicht in der Verteilung der Reaktionszeiten. Dieser Befund deutet darauf hin, daß zuerst die ganze Zahl kodiert und dann der Vergleich stattfindet. Die Möglichkeit, daß eine Entscheidung schon durch Betrachten der Zehner getroffen wird, wurde somit ausgeschlossen.
Nach DEHAENE (1989) deutet der kontinuierliche Distanz-Effekt darauf hin, daß die Zahlen analog encodiert werden. "In comparison tasks, the magnitude of numbers appears to be represented on a continuum that conserves neighbourhood relationships, a mental map called the number line." (DEHAENE, 1989, S.562; Hervorhebung im Original)
In den von DEHAENE (1989) durchgeführten Experimenten zeigte sich eine Asymmetrie im Nachlassen der Reaktionszeiten bei größerer Distanz: Er verglich Zahlen, die gleich weit entfernt vom Standardwert lagen, wobei eine der Zahlen um den gleichen Betrag kleiner war als der Standardreiz, die andere um den selben Betrag größer. Bei einer gleichen numerischen Distanz zu den Extremwerten (der größten bzw. kleinsten möglichen Zahl) wird für die größere Zahl eine längere Reaktionszeit benötigt; längere Reaktionszeiten deuten wiederum auf eine größere Ähnlichkeit zwischen den verglichenen Werten hin. Dieser Befund legt nahe, daß die Zahlen intern auf einer logarithmischen Skala kodiert sind.
TODD et al. (1987) untersuchten die Kalibrierung der internen Zahlenskala, indem sie ihre Versuchspersonen (Kinder verschiedener Altersgruppen) möglichst schnell Zufallszahlen generieren ließen, ohne daß sie eine Ordnung oder obere Grenze vorgaben. Die Zahlen, die größer als 20 waren, ließen sich am besten durch eine logarithmische Verteilung beschreiben, die kleineren Zahlen durch eine lineare. Wurde dagegen 100 als Obergrenze vorgegeben, verteilten sich alle produzierten Zahlen eher linear.
In einem zweiten Experiment von TODD et al. (1987) sollten die Versuchspersonen nach der Präsentation mehrerer Listen von Zahlen (in denen alle Zahlen gleich häufig vorkamen) jeweils für jede Zahl schätzen, ob sie öfter als der Durchschnitt vorkam, durchschnittlich häufig oder seltener als der Durchschnitt. Zahlen, in denen eine Null oder eine Fünf vorkam, schienen besonders oft vorzukommen; das Vorkommen gerader Zahlen wurde als höher eingeschätzt als das ungerader Zahlen. Die geschätzte Häufigkeit nimmt nicht monoton mit dem Wert der Zahl ab. Die vorkommende Häufigkeit der Zahlen ist somit alleine keine Erklärung für das im ersten Experiment gezeigte Ergebnis: Die logarithmische Verteilung der internen Repräsentation der Zahlen hängt wohl nicht nur von der erfahrenen Häufigkeit ab.
Aufgrund der vorliegenden Befunde stellten DEHAENE et al. (1990) folgendes Modell auf: In einem ersten Schritt, der Encodierung, wird der digitale Kode der Zahlen auf eine interne Größe abgebildet, die auf einem analogen Zahlenstrahl liegt. Diese Stufe ist schnell und hängt nicht davon ab, um welche spezielle Zahl es sich handelt; nur Zahlen, die aus gleichen Ziffern bestehen, wie z.B. 66, benötigen etwas mehr Zeit zur Encodierung.
Der zweite Schritt, der Vergleich selbst, findet rein analog statt, ohne daß nochmals auf die digitale Repräsentation der Zahl zurückgegriffen wird. Die für diesen Vergleich benötigte Zeit hängt von dem Abstand der zu vergleichenden Zahlen und den Endpunkten, also der größten und der kleinsten möglichen Zahl ab.
Die letzte Stufe besteht in der Auslösung einer Reaktion, wobei eine von zwei möglichen Antworten (die für "größer" bzw. "kleiner" steht) produziert wird.
KLEIN & STARKEY (1987) beschäftigen sich mit der ontogenetischen und phylogenetischen Entwicklung der Fertigkeiten, mit Zahlen umzugehen. Dazu unterscheiden sie drei Arten von numerischen Wissen:
Zur phylogenetische Entwicklung des numerischen Wissens nennen KLEIN & STARKEY (1987) folgende Daten: Vögel können mit viel Training dazu gebracht werden, eine Repräsentation von kleinen Anzahlen (5 bis 7, je nach Art) zu entwickeln. Ratten können dazu gebracht werden, zwischen Sequenzen zu unterscheiden, die wenige (z.B. 2) bzw. viele (z.B. 4) Töne enthalten. Schimpansen können die Anzahl der Elemente einer kleinen Menge wahrnehmen; sie können auch Wissen zur Konstruktion von Übereinstimmungen zwischen Mengen erlangen.
Das numerische Wissen in der menschlichen ontogenetischen Entwicklung (cf. KLEIN & STARKEY, 1987) zeigt sich bereits bei Babys: Sie können die Numerosität von Mengen mit einem, zwei oder drei Elementen unterscheiden. Im zweiten Lebensjahr beginnen Kinder bereits, konventionelle Zahlennamen zu verwenden. Zweijährige können bereits ihre Repräsentation von kleinen Mengen so verändern, daß sie Transformationen wie Addition oder Subtraktion widerspiegeln. Danach können sich auch Berechnungsprozeduren herausbilden, die von der numerischen Repräsentation des Problems abhängen.
GREENO (1991a) nennt Befunde, nach denen Kinder bereits im Vorschulalter implizit die Prinzipien der Ordnung, der Eins-Zu-Eins-Entsprechung und der Kardinalität verstehen; dies bedeutet, daß sie mehr als ein mechanisches Wissen von Zählregeln und Prozeduren besitzen. Das Lernen der Kinder sollte deshalb als ein aktiver Prozeß betrachtet werden, bei dem allgemeine Prinzipien und Konzepte helfen, die Informationen und Prozeduren zu organisieren.
MIURA et al. (1994) untersuchten Schüler der ersten Klasse aus China, Japan, Korea, Frankreich, Schweden und den USA, wobei Zahlen aus Blöcken mit der Basis 10 konstruiert werden sollten. Dabei bevorzugten asiatische Vpn die Verwendung der kanonischen Basis 10, westliche Vpn verschendeten verschiedene Einheiten. Unterschiede in der Sprache (die Zahlen betreffend) scheinen einen deutlichen Einfluß auf die Repräsentation der Zahlen zu bewirken; so läßt sich vielleicht auch die Überlegenheit asiatischer Schüler bei Rechenaufgaben erklären.
Transcoding, die Fähigkeit, Zahlen zu lesen, zu schreiben, zu produzieren und zu erfassen, ist die Voraussetzung zum Rechnen mit Zahlen. DEHAENE (1992) zitiert neuropsychologische Befunde, die belegen, daß die Verarbeitung von arabischen Ziffern von der Verarbeitung verbaler Zahlen getrennt werden kann.
Es können lexikalische von syntaktischen Transcodierungs-Prozessen unterschieden werden. Manche Patienten vertauschen zwar Ziffern, wenn sie Zahlen lesen, aber die syntaktische Struktur bleibt korrekt (z.B. wird 450 als "dreihundertfünfzig" gelesen). Bei anderen Patienten werden zwar die einzelnen Ziffern richtig gelesen, aber nicht korrekt kombiniert (z.B. "siebenhunderttausend" wird als 1700 geschrieben); hierbei handelt es sich um eine Störung der Zahlen-Syntax. Ähnliche charakteristische Fehler lassen sich auch bei Kindern nachweisen, die den Gebrauch der Zahlen lernen.
Die Zeit, die benötigt wird, um eine einziffrige Addition oder Multiplikation auszuführen, hängt nach DEHAENE (1992) von der Größe der Zahlen ab (problem size effect): Die Lösungszeit ist proportional zum Produkt der Operanden oder zum Quadrat ihrer Summe; eine Ausnahme bilden Operationen, bei denen beide Male die selbe Zahl verwendet wird: Hier nimmt die Lösungszeit nur geringfügig mit der Größe der Zahl zu. Der Autor empfiehlt deshalb, in diesem Zusammenhang nicht von einem Effekt der Problemgröße zu sprechen, sondern von einem Effekt der Problemschwierigkeit (problem difficulty).
Die Erklärung, daß das Ergebnis von Additionen durch Abzählen erhalten wird, und deshalb bei großen Zahlen mehr Zeit benötigt wird, wird von ASHCRAFT (1992) mit folgender Begründung ausgeschlossen: Bei Erwachsenen erfolgt die Reaktion zu schnell, als daß entsprechend hochgezählt werden könnte. Außerdem zitiert ASHCRAFT (1992) eine ältere Untersuchung von ihm, in der ein exponentielles Anwachsen der Lösungszeit gefunden wurde; einfaches Abzählen läßt aber ein lineares Anwachsen erwarten.
Der Effekt der Problem-Größe läßt sich dadurch erklären, daß die Ergebnisse als Fakten in einem mentalen Netzwerk, einem Lexikon, abgespeichert sind. Die Effekte der Größe und von gleichen Zahlen hängen von der Dauer und Schwierigkeit des lexikalischen Zugriffs auf die Einheiten ab. Auf dieser Idee basiert zum Beispiel das unten dargestellte Netzwerk-Modell von ASHCRAFT. Probleme, bei denen die selbe Zahl zwei Mal vorkommt, sind nach diesem Autor besonders einfach.
Es lassen sich auch Priming-Effekte nachweisen: Wird das gleiche Problem nach einem kurzem Zeitabstand nochmals präsentiert, wird es beim zweiten Mal schneller gelöst. Außerdem kann bei der Präsentation von Aufgaben und deren dazugehörigen Lösungen, deren Korrektheit die Versuchsperson beurteilen soll, Error Priming nachgewiesen werden: Die Wahrscheinlichkeit, ein Ergebnis für fälschlicherweise für richtig zu halten, nimmt zu, wenn zuvor eine Aufgabe präsentiert wurde, bei der dieses Ergebnis tatsächlich korrekt war.
DEHAENE (1992) stellt außerdem neuropsychologische Befunde dar, nach denen der Zugriff zu den Additions- bzw. Multilpikations-Tabellen bei Gehirnläsionen selektiv beeinträchtigt sein kann. Eine Ausnahmestellung nehmen nur die Multiplikation mit 0 oder 1 und eventuell die Addition von 0 ein.
Der Zeitaufwand für die Berechnung von mehrstelligen Operationen setzt sich nach DEHAENE (1992) genau aus folgenden Anteilen zusammen:
Die Addition von mehrstelligen Zahlen erfolgt spaltenweise von rechts nach links. Dies läßt sich zum Beispiel daran demonstrieren, daß bei Verifikationsaufgaben die Berechnung sofort abgebrochen wird, wenn ein Fehler gefunden wird.
Auch die Untersuchung von gehirngeschädigten Patienten deutet auf die Existenz unterschiedlicher Prozesse für den Abruf arithmetischer Fakten und für ihre Aneinanderreihung hin: Patienten können oft noch einstellige Operationen durchführen, aber keine mehrstelligen mehr.
Die Lösungszeiten bei mentaler Arithmetik lassen sich nur sinnvoll interpretieren, wenn die Fehlerrate dabei konstant bleibt, um auszuschließen, daß die beobachteten Effekte alleine durch den speed-accuracy-trade-off erklärt werden können.
ASHCRAFT (1992) führt Untersuchungen auf, bei denen Erwachsene Lösungen für Multiplikationsaufgaben produzieren sollten. Mehr als 90 % der Fehler waren "Tabellenfehler", das heißt, korrekte Antworten für eine andere Kombination zu multiplizierender Zahlen. Insbesondere Vielfache einzelner Operanden der Multiplikation wurden häufig beobachtet (z.B. 32 als Ergebnis der Aufgabe 4 * 6: fälschlicherweise wurde das Ergebnis für 4 * 8 genannt). Solche Fehler legen nahe, daß das Ergebnis der Multiplikation in einer Tabelle am Schnittpunkt der beiden Operanden gesucht wird.
ASHCRAFT (1992) stellt einige Untersuchungen vor, in denen die Versuchspersonen die Korrektheit von Berechnungen beurteilen mußten. Bei falschen Ausdrücken zeigte sich, daß die zur Falsifikation benötigte Zeit besonders lang war, wenn bei der Verknüpfung der zwei Operanden durch eine andere arithmetische Operation das Ergebnis richtig wäre (z.B. 5 + 4 = 20). Dieser Effekt wird als cross operation confusion bezeichnet. Ähnliche Effekte treten auch bei der Falsifizierung von Aufgaben auf, bei denen das Ergebnis bei Inkrementierung oder Dekrementierung eines der Operanden korrekt wäre (z.B. 7 * 4 = 21). Dieser Effekt ist den oben beschriebenen Fehlereffekten ähnlich und deutet auch wieder darauf hin, daß die Ergebnisse einfacher arithmetischer Operationen in einer Tabelle gespeichert sind.
ASHCRAFT (1992) nennt auch noch den split effect, der besagt, daß die Zeiten zur Falsifizierung einer nicht korrekten Lösung zunehmen, je näher das falsche Ergebnis am richtigen liegt.
Eine Ausnahme bilden Probleme, bei denen mit Null multipliziert wird; die Lösungszeiten scheinen hier konstant zu bleiben. Für solche Aufgaben scheint eine eigene Regel (0 * N = 0) angewandt zu werden, so daß das Ergebnis nicht in einer Tabelle nachgeschlagen werden muß.
Vor allem komplexere Arithmetik mit mehrstelligen Zahlen beruht auf dem Einsatz von Regeln, die festlegen, in welcher Reihenfolge die einzelnen Teilschritte ausgeführt werden sollen und wie z.B. der Übertrag behandelt wird, wie die momentane Position in der Sequenz gemerkt wird oder wie Zwischenergebnisse behalten werden. BROWN & VanLEHN (1980) untersuchten die Fehler, die sich bei der Anwendung von Regeln durch Weglassen von Teilschritten ergeben können. In einer Situation, in der der Rechnende nicht mehr weiter weiß (also keine seiner für dieses Teilproblem verfügbaren Regeln anwenden kann), erfindet er neue Regeln, nach denen er vorgehen kann. So kann es zum Einsatz von falschen Regeln (bugs) kommen.
Es muß also zwischen arithmetischen Fakten und Berechnungs-Prozeduren unterschieden werden. Dies geschieht zum Beispiel in dem unten vorgestellten Modell von McCLOSKEY.
ASHCRAFT (1992) schildert sein Modell, das aus den oben dargestellten Befunden resultiert. Der Abruf eines Ergebnisses aus einem gespeichertem Netzwerk basiert auf Aktivitätsausbreitung, die durch drei Prozesse ausgelöst werden kann:
Die Aktivierung aus diesen drei Quellen breitet sich parallel durch das Netzwerk aus, wobei die einzelnen Knoten unterschiedliche Aktivierung ansammeln. Der am meisten aktivierte Knoten wird für die Antwort ausgewählt; die Zeit für die Antwort hängt von der Aktivierung dieses Knotens ab. Die Stärke der Verbindungen zwischen den einzelnen Knoten sollte nach ASHCRAFT (1992) von der unterschiedlichen Häufigkeit, mit der arithmetische Fakten erworben und eingeübt werden, abhängen. In den Grundschul-Lehrbüchern kommen Probleme mit kleineren Zahlen früher und häufiger vor. Deshalb werden bei Problemen mit kleineren Zahlen kürzere Bearbeitungszeiten beobachtet.
Nach SIEGLER & SHRAGER (1984, kritisch dargestellt in ASHCRAFT, 1992) enthält die Repräsentation arithmetischer Fakten im Gedächtnis nicht nur die korrekten Antworten, sondern auch falsche. Wenn die Stärke einer gefundenen Antwort über einem bestimmten Konfidenzkriterium liegt, antwortet die Person, ansonsten wird die Lösung durch Abzählen gesucht. Jedes Mal, wenn ein Kind eine Aufgabe löst, wird eine Assoziation zwischen Problem und Antwort gespeichert. Manche Probleme, die durch Abzählen gelöst werden, werden öfter falsche Ergebnisse liefern, die aber nahe bei der richtigen Lösung liegen. So könnte der split- effect erklärt werden. Es ist aber noch nicht klar, ob mit diesem Modell auch das Verhalten von Erwachsenen beschrieben werden kann.
CAMPBELL (1987) beschreibt die Befundlage zur mentalen Arithmetik:
Das Auftreten von Interferenzen bei verschiedenen Aufgaben mit gleichen Ergebnissen wurde von der Autorin experimentell untersucht. Zur Erklärung der Befunde stellte sie ein Netzwerk-Modell auf, bei dem die Werte in der Problemstellung den Abruf auslösen:
"...simple multiplication problems access a common network structure of candidate responses. Encoding a problem activates multiple response candidates in the network, and different problems can activate intersecting network substructures. Temporally-close activation episodes are not independent. When intersection occurs, activation of a network response node by retrieval creates interference that disrupts performance on other problems that have associative links to that response." (CAMPBELL, 1987, S. 117)
Dabei existieren aber nicht nur Assoziationen zwischen den einzelnen Operanden, sondern auch Assoziationen zwischen ganzen Problemen und ihren Antworten. Wird ein Problem bearbeitet, finden deshalb zwei Suchen parallel statt: Einmal wird von den Operanden ausgehend eine Lösung gesucht, zum anderen wird aber auch von dem gesamten Problem ausgehend nach einer Lösung gesucht. Dieses Modell ist allerdings nicht sehr sparsam (parsimonious).
Die Numerosität einer Menge von Objekten besteht in der Anzahl der Vorkommnisse dieser Objekte. Unter Quantifikation versteht man die Feststellung der Numerosität einer wahrgenommenen Menge und den Zugriff auf die entsprechende mentale Repräsentation einer Größe. Dazu können drei verschiedene Prozesse eingesetzt werden (cf. DEHAENE, 1992):
Der erste genannte Prozeß kann durch ein symbol-verarbeitendes Modell beschrieben werden; er läuft auf verbaler Ebene ab. Die beiden anderen Prozesse basieren dagegen auf einer nicht-verbalen Quantifizierung; möglicherweise handelt es sich aber nur um unterschiedliche Zugangswege zur zentralen symbolischen Zahlenverarbeitung.
Bei der blinden Anwendung von Transcodierungs- oder Berechnungs-Algorithmen können Fehler auftreten, so daß das Ergebnis semantisch völlig absurd ist. Dies kann daran liegen. daß diese Algorithmen angewandt werden, ohne daß deren zugrundeliegende Gedanken beachtet werden.
Die oben dargestellten Befunde deuten darauf hin, daß Zahlen nicht auf einer symbolischen Ebene verglichen werden, sondern zuerst rekodiert werden und dann als Quantitäten verglichen werden.
DEHAENE (1992) stellt in diesem Zusammenhang den SNARC-Effect (spatial-numerical association of response code) dar: Versuchspersonen sollten entscheiden, ob eine präsentierte Zahl gerade oder ungerade war. Bei größeren Zahlen konnte diese Reaktion schneller erfolgen, wenn sie mit der rechten Hand ausgeführt wurde, bei kleineren Zahlen mit der linken Hand. Dieser Effekt hängt nicht davon ab, welcher Hand die Entscheidung "gerade" zugeordnet wird; er hängt auch nicht davon ab, ob rechtshändige oder linkshändige Versuchspersonen teilnehmen. Der Effekt hängt von der relativen Größe der Zahlen in bezug auf den bei der Untersuchung verwendeten Bereich ab. Folgende Erklärung wird gegeben: "Our interpretation is that the presentation of an arabic numeral elicits an automatic activation of the appropriate relative magnitude code. This activation cannot be repressed, even though magnitude information is irrelevant to the requested task of parity judgement." (DEHAENE, 1992, S.21) Es konnte auch gezeigt werden (dargestellt in DEHAENE, 1992), daß sich dieser Effekt bei iranischen Versuchspersonen, die von links nach rechts schreiben, umkehrt.
Ein weiteres Merkmal der internen Zahlen-Repräsenation ist, daß die Zahlen auf einer logarithmischen Skala dargestellt sind, wie sie von WEBER und FECHNER für Sinnesempfindungen postuliert wird. DEHAENE (1992) führt dazu folgende Befunde (neben den oben genannten Asymmetrien der Reaktionszeiten bei Klassifikations-Aufgaben) auf:
DEHAENE & COHEN (1991) fanden bei einem an Aphasie und Acalculie leideneden 41-Jährigem folgende Auffälligkeit: Der Mann konnte selbst bei einfachen Rechenaufgaben nicht korrekt angeben, ob das Ergebnis richtig war, wenn das falsche Ergebnis nahe bei dem tatsächlich richtigem lag; lag es dagegen weiter davon entfernt, konnte er angeben, daß es sich um einen Fehler handelt. Genaue Berechnungen waren also nicht möglich, Schätzungen aber schon. Es scheinen also zwei verschiedene Arten der Zahlenverarbeitung zu existieren.
Die meisten Modelle zur Verarbeitung von Zahlen (siehe den folgenden Abschnitt) gehen davon aus, daß die Zahlen, egal in welcher Form sie präsentiert werden, zuerst in eine einheitliche mentale Repräsentation überführt werden, auf der basierend dann Operationen stattfinden können. VORBERG & BLANKENBERGER (1994) können jedoch mit einer Reihe experimenteller Befunde demonstrieren, daß verschiedene Arten der Präsentation der Zhlen auch zu unterschiedlichen mentalen Repräsentationen führen müssen:
Wenn alle Zahlen gleich repräsentiert sind, läßt sich die Zeit, die bis zum Aussprechen des Ergebnisses einer mentalen Operation vergeht, in folgende Bestandteile zerlegen:
Der zweite Teil der Reaktionszeit sollte dabei nicht mehr von der ursprünglichen Präsentationsart der Zahlen abhängen; die beiden Anteile müßten deshalb additiv zusammenwirken. Es dürfte keine Interaktion DxO zwischen der Darstellungsweise der Zahlen (D) und der Art der Operation (O) stattfinden.
Bei einem experimentellen Vergleich von Zahlendarstellung (VORBERG & BLANKENBERGER, 1994; Experiment 1) als
ergab sich aber eine signifikante Interaktion zwischen Zahlendarstellung und Operation ("aussprechen", "plus 1" oder "minus 1").
In einem zweiten Experiment (VORBERG & BLANKENBERGER, 1994; Experiment 2) wurde Addition bzw. Multiplikation bei Würfel- und Zahlendarstellung verglichen (es wird angenommen, daß Addition bei Würfeln vertraut ist - aus Spielen - Multiplikation dagegen nicht so sehr). Auch hier ergab sich eine Interaktion (in der selben Richtung bei den Reaktionszeiten und bei den Fehlerquoten): Der Zeitunterscheid zwischen Addition und Multiplikation ist bei Würfeln größer als bei Zahlen. Interessanterweise werden Ziffern schneller multipliziert als addiert (bei Würfel-Mustern ist es umgekehrt).
In zwei weiteren Experimenten (VORBERG & BLANKENBERGER, 1994; Experiment 3 und 4) wurde die Rechenoperation konstant gehalten und dafür der Effekt der numerischen Größe der Zahlenwerte untersucht. Aus der einheitlichen Repräsentationsannahme läßt sich die Hypothese erstellen, daß die Reaktionszeitfunktionen für homogene (nur eine Art der Zahlendarstellung bei einer Aufgabe) und für heteroge Aufgaben für den Distanzeffekt beim Größenvergleichen und für den Größeneffekt beim Addieren parallel verlaufen. Beide Hypothesen konnten aufgrund der Daten abgelehnt werden:
Alle diese Befunde lassen sich am besten dadurch erklären, daß die Zahlen unterschiedlich mental repräsentiert werden.
DEHAENE, BOSSINI & GIRAUX (1993) untersuchten, wie VPn beurteilen, ob eine Zahl gerade oder ungerade ist und wie Größeninformationen verarbeitet werden. Dazu wurden 9 Experimente durchgeführt:
Der SNARC-Effekt deutet darauf hin, daß die Größe einer Zahl auch dann eine Rolle spielt, wenn sie für die Bearbeitung eines Problems irrelevant ist (wie eben bei der Entscheidung, ob eine Zahl gerade ist).
Die meisten Theorien zur mentalen Addition und Mulitiplikation gehen davon aus, daß -- zumindest bei geübten Rechnern -- keine Anwendung von Regeln mehr stattfindet, sondern ein direkter Abruf der Ergebnisse aus dem Gedächtnis erfolgt. Wenn dem so ist, läßt sich allerdings der size effect (Berechnungen mit größeren Operanden benötigen mehr Zeit) nur schwer erklären.
Ein weiterer zu erklärender Befund stellt die semantische Beziehung der Fehler der Vpn dar: Gut gelernte Zahlenkombinationen wirken als Quelle von Fehlern; dazu sei auf folgende Beispiele verwiesen:
Hier muß semantische Interferenz eine Rolle spielen, d.h. die Empfindlichkeit der VP gegenüber gut gelernten Zahlenkombinationen.
Bei den meisten bisher durchgeführten Untersuchungen geht es darum, den Effekt verschiedener Operationen zu untersuchen; es geht dagegen nicht um die Effekte einzelner Zahlen (aufgrund der mit ihnen verbundenen Assoziationen). DEHAENE & MEHLER (1992) konnten zeigen, daß die Häufigkeit, mit der bestimmte Zahlenwörter in unserer Sprache auftauchen, invers zur Größe der entsprechenden Zahlen ist. Die Erfahrung mit kleineren Zahlen ist sowohl häufiger als auch verschiedenartiger als die mit größeren zahlen. Sogenannte "runde" Zahlen besitzen vielfältigere Verknüpfungen.
MILIKOWSKI & ALSHOUT (1992) untersuchten, wie sich im Bereich von 1 bis 100 tabellierte Zahlen (die als Produkte der Zahlen 1 bis 12 auftreten können) von untabellierten Zahlen unterscheiden. In dem untersuchten Bereich existieren 53 tabellierte und 47 untabellierte Zahlen. In einem ersten Experiment produzierten die VPn zu tabellierten Zahlen höchst signifikant mehr Assoziationen als zu den untabelierten Zahlen; dies deutet auf einer stärkere semantische Einbettung der tabellierten Zahlen hin.
In einem zweiten Experiment sollte jede VP nur eine Assoziation zu den Zahlen nennen. Es zeigte sich ein signifikanter Unterschied zwischen tabellierten und untabellierten Zahlen: Für erstere zeigte sich zwischen den VPn eine größere Übereinstimung in der produzierten Assoziation, wurde seltener keine Assoziation gefunden und wurde die Asoziation schneller erzeugt. Meist wurde dabei als Assoziation ein Divisor der entsprechenden Zahl genannt.
Aus den beschriebenen Experimenten läßt sich folgern, daß tabellierte Zahlen in eine semantisch reichhaltigere Struktur eingebettet sind als untabellierte. Semantische Eigenschaften der Zahlen beeinflussen deren Verarbeitung auch dann, wenn diese Zahlen nicht im Kontext eines Problems dargeboten werden, meinen MILIKOWSKI & ALSHOUT (1992).
DEHAENE (1992) stellt vier verschiedene Architekturen vor, die die beschriebenen Mechanismen integrieren können:
MAYER (1985) stellt zwei grundsätzliche Ansätze zur Messung der mathematischen Fertigkeiten vor: Der psychometrische Ansatz definiert mathematische Fähigkeit als das, was ein entsprechender Test mißt; die Fähigkeit besteht also darin, in Tests gut abzuschneiden. Auf diese Weise kann man aber keine unabhängige Beschreibung von dem erhalten, was gemessen wird.
Der Informations-Verarbeitungs-Ansatz basiert dagegen auf Aufgabenanalysen. Jedes mathematische Problem kann in seine einzelnen informations-verarbeitenden Komponenten zerlegt werden: einfache mentale Operationen, Fertigkeiten und Wissen. Diese Komponenten definieren die mathematische Fähigkeit.
Bereits MILLER (1956) stellte heraus, daß die Anzahl der gleichzeitig im Gedächtnis verfügbaren Einheiten stark begrenzt ist, auf etwa sieben Elemente. Bei Zahlen kann diese Spanne erweitert werden, indem eine Folge von Ziffern zu einer einzigen Einheit, einem Chunk, zusammengefaßt werden. SMYTH (1987, S.128) gibt dazu zu folgendes bedenken:
"The multiplication of two two-digit numbers, such as 89 x 37, is probably at or beyond the limit for most of us. That is, the number of items that have to be held in some arithmetic problems might be said to be larger than the number of slots available."
SMYTH (1987) referiert folgende bekannten Ergebnisse der Gedächtnispsychologie, die sich auf das Behalten von Zahlen auswirken können: Zuerst führt er den Primacy-Effect auf: Die ersten Items einer längeren Liste von Zahlen werden besser erinnert als die folgenden. Die letzten Items einer Liste von Zahlen werden ebenfalls besser erinnert; hier spricht man von dem Recency-Effect. Eine Verlängerung der Zeitspanne zwischen der Präsentation der letzten Zahl einer Liste und dem Abruf der Zahlen wirkt sich negativ auf die Behaltensleistung der Zahlen aus; insbesondere verschwindet der Recency-Effekt. Die genannten Befunde wurden, zusammen mit den Ergebnissen einiger Studien von Gehirngeschädigten, als Hinweise auf die Existenz von zwei getrennten Gedächtnissystemen interpretiert: Kurzzeit-Gedächtnis und Langzeit-Gedächtnis. Außerdem konnte noch die Existenz eines sensorischen Puffers experimentell gezeigt werden.
RESNIK et al. (1987) unterscheiden zwischen abstraktem und formalem Wissen; im Bereich der Mathematik gibt es keine konkreten Einheiten; bei Zahlen, die die Grundlage der Mathematik bilden, handelt es sich um kognitive Entitäten. "So we have in mathematics a domain in which, from the very beginning, people must reason about objects that exist only as mental abstractions." (RESNIK et al., 1987)
Im Bereich der Mathematik hängen die Leistungsfähigkeit und das Erlernen außerdem von der korrekten Anwendung eines formalen Systems ab; diese Abhängigkeit nimmt mit der Komplexität der verwendeten Algorithmen zu.
Die Terme und Ausdrücke in der Mathematik sind referentielle Symbole, indem sie sich auf Objekte oder Entitäten beziehen, die außerhalb des Formalismus liegen; sie sind aber auch formale Symbole, indem sie Elemente eines Systems mit bestimmten Regeln sind. Die Mächtigkeit der Algebra liegt nach RESNIK et al. (1987) zum Teil darin begründet, daß sie die Manipulation der Beziehungen zwischen Variablen erlaubt, ohne daß man beachten muß, wofür die Variablen stehen.
Die Bedeutung algebraischer Ausdrücke besteht einerseits in ihrer Bedeutung als wohlgeformte Sätze innerhalb dieses Systems; die Bedeutung kann aber auch aus der Welt der Zahlen und der darauf definierten Operationen herrühren: Algebraische Ausdrücke stellen allgemeingültige Beziehungen zwischen Zahlen und Operationen dar. Eine mögliche dritte Bedeutung algebraischer Ausdrücke besteht darin, quantitative Beziehungen innerhalb einer Situation zu beschreiben.
SOKOL et al. (1991) gehen davon aus, daß ein System zur Verarbeitung von Zahlen aus drei Komponenten besteht muß:
Das Berechnungssystem selbst besteht wieder aus drei verschiedenen Subsystemen:
Eine Evidenz für das Bestehen dieser getrennten Einheiten besteht in der Schilderung von gehirngeschädigten Personen, bei denen nur eines dieser Systeme betroffen ist. SOKOL et al. (1991) schildern z.B. den Fall einer Patientin, die Operations-Symbole nicht erfassen konnte; diese Patientin konnte aber verbal gestellte Aufgaben richtig lösen. Ein anderer beschriebener Patient konnte zwar Zahlen problemlos erfassen und produzieren, hatte aber Probleme beim Abruf arithmetischer Fakten, insbesondere bei der Multiplikation. Es lassen sich auch Menschen finden, bei denen der Abruf arithmetischer Fakten nicht gestört ist, die aber bei der Ausführung von Berechnungsprozeduren Probleme haben.
Kinder lösen arithmetische Aufgabe durch Abzählen, bevor sie arithmetische Fakten gelernt haben. Dabei verwenden sie bei Aufgaben zur Addition oft die Min-Strategie: Von der größeren der beiden Zahlen ausgehend wird um die kleinere Zahl weitergezählt. Dabei ist der Zählaufwand geringer als in der umgekehrten Reihenfolge.
Wenn die Kinder sich dann aber an arithmetische Fakten erinnern, wird diese Art der Problemlösung vorherrschend. Es findet aber ein gradueller Übergang vom Abzählen zum Erinnern statt. Dieser hängt möglicherweise mit einer Verbesserung der Geschwindigkeit und der Zuverlässigkeit des Faktenabrufs zusammen.
Der Faktenabruf selbst scheint entweder als Suche in einem Netzwerk (einer Tabelle; z.B. ASHCRAFT, 1992) oder als direkte Assoziation (z.B. CAMPBELL, 1987) vor sich zu gehen. Die Multiplikation mit Null scheint eine Ausnahme darzustellen: sie ist als Regel implementiert (siehe oben). Dies zeigt sich auch an dem Verhalten eines von SOKOL et al. (1991) geschilderten Patienten: In den ersten 9 von 23 Aufgaben, die eine Multiplikation mit Null enthielten, wurden 98% der Fragen falsch beantwortet; ab der 10. Aufgabe wurde dann plötzlich in 95% der Aufgaben die korrekte Antwort gegeben. Dies deutet darauf hin, daß nach der 9. Aufgabe die Regel verfügbar wurde. Von den Autoren werden noch mehrere Patienten geschildert, deren Verhalten nahelegt, daß im Falle der Multiplikation mit Null eine spezielle Regel angewandt wird.
Die Fehler in den Prozeduren von Kindern sind systematisch und ergeben sich aus der Anwendung fehlerhafter Prozeduren (cf. BROWN & VanLEHN, 1980; siehe oben); diese Prozeduren konnten auch simuliert werden.
Einzelne Personen können aber auch Regeln für Spezialfälle verwenden, die die allgemeinen Regeln umgehen und effizienter sind. Eine von SOKOL et al. (1991) geschilderte Patientin konnte nur in 2% der Aufgaben, bei denen eine einstellige Zahl mit Null multipliziert wurde, richtig lösen, aber 100% der selben Aufgaben, bei denen eine mehrstellige Zahl verwendet wurde. Die Autoren schildern auch noch einen zweiten, ähnlichen Fall. Möglicherweise war in diesen beiden Fällen die entsprechende Regel im Kontext einer einstelligen Zahl nicht verfügbar. Die Autoren halten es aber für wahrscheinlicher, daß es sich hierbei um eine Spezialregel handelte.
SOKOL et al. (1991) schildern den Fall eines Patienten, der Schwierigkeiten hatte, auf arithmetische Fakten zuzugreifen, aber die Konzepte der verschiedenen arithmetischen Operationen vernünftig definieren konnte. Der Zugriff auf das Konzept war also offensichtlich intakt, der auf das Faktenwissen dagegen nicht mehr. Die Autoren schildern auch den Fall einer Patientin, die zwar in vielen Fällen kein Faktenwissen mehr hatte, aber die gesuchten Lösungen unter korrekter Anwendung der Assoziation- und Kommutativ-Regeln herleiten konnte. Diese Befunde deuten darauf hin, daß es sich beim konzeptuellen Wissen und Faktenabruf um getrennte Systeme handelt.
RESNIK et al. (1987) nennen vier grundlegende Prinzipien, die dem Verständnis von Addition und Subtraktion zugrunde liegen sollten:
Diese Prinzipien sind bei Kindern unterschiedlicher Alterstufen unterschiedlich salient.
RESNIK et al. (1987) untersuchten, wie Kinder algebraische Ausdrücke auf Situationen beziehen, indem sie ihnen Ausdrücke vorgaben und die Kinder baten, sich Geschichten dazu auszudenken. Manche Kinder hatten Probleme, wenn ein negatives Vorzeichen vor einer Klammer stand (z.B. "17 - (11 + 4)"); sie konnten aber ansonsten geeignete Geschichten konstruieren. Es zeigten sich auch Schwierigkeiten bei der Aneinanderreihung mehrerer algebraischer Ausdrücke (z.B. "17 - 11 - 4"), wobei zwar korrekte Geschichten erdacht werden konnten, aber nicht das richtige Ergebnis gefunden wurde. Vor allem Ausdrücke mit drei Elementen bereiteten Schwierigkeiten.
Die Schwierigkeiten, die Kinder bei der Bearbeitung von Textaufgaben haben, liegen also nicht unbedingt daran, daß sie die relevante Information und die Beziehungen zwischen den Quantitäten in der Aufgabenstellung nicht finden, sondern auch darin, diese Beziehungen auf die formalen Ausdrücke abzubilden.
GREER (1987) unterscheidet drei verschiedene Arten von Additions- und Subtraktiosproblemen:
Bei der Division unterscheidet GREER (1987) zwischen Partition (Teilung durch die Anzahl der Gruppen) und Quotition (Teilung durch die Anzahl der Elemente jeder Gruppe). Die genannten verschiedenen Klassen von Aufgaben unterscheiden sich in der Quote der korrekten Lösungen.
Bei der Lösung von Textaufgaben spielen auch semantische und linguistische Faktoren eine wichtige Rolle. Es existieren sogenannte Schlüsselworte (key-words), die als Hinweis für den Einsatz einer bestimmten Operation dienen und nach denen im Aufgabentext gezielt gesucht wird; wird der Text einer Aufgabe so gestellt, daß die Schlüsselworte nicht mit der für die Lösung richtigen Operation konsistent sind, sinkt die Wahrscheinlichkeit dafür, daß diese Aufgabe korrekt gelöst wird.
RESNIK et al. (1987) nennen drei verschiedene Strategien, nach denen Kinder die Äquivalenz algebraischer Ausdrücke feststellen können:
GREER (1987) stellt verschiedene Theorien gegenüber, die den Umgang mit arithmetischen Operationen erklären sollen. Zuerst nennt er einfache Verstärkungstheorien: Fehlkonzeptionen sollen aus falschen Generalisierungen früherer Erfahrungen bei Berechnungen mit Zahlen (die zum damaligen Zeitpunkt richtig waren) entstehen. Für typische Textaufgaben, die meist entsprechend einem stereotypen Schema erstellt wurden, entwickeln Schüler oft "Abkürzungen", die aus der Oberflächenstruktur der Aufgaben direkt die benötigte arithmetische Operation identifizieren, ohne die Tiefenstruktur zu berücksichtigen. Eine andere Strategie wäre, die Operation aus den Operanden zu schließen: Bei 78 und 54 handelt es sich wahrscheinlich um Addition oder Subtraktion, bei 78 und 3 wahrscheinlich um eine Division.
FISHBEIN´s Theorie (FISHBEIN et al., 1985) geht davon aus, daß jeder arithmetischen Operation ein implizites, unbewußtes und primitives intuitives Modell zugrunde liegt. Dieses Modell bestimmt, welche Operation bei einem konkreten Problem angewandt wird. Das primitive Modell der Multiplikation wäre zum Beispiel wiederholte Addition.
Nach dem Modell von RILEY et al. (1983) wird ein mathematisches Problem gelöst, indem das Problem zuerst in einem Problemschema repräsentiert wird und dann strategisches Wissen die Lösungssuche leitet, bei der Handlungsschemata angewandt werden.
Means-End-Analyse wird vor allem bei Problemen eingesetzt, für die noch kein Lösungsweg bekannt ist; ein Beispiel hierfür stellen geometrische Beweise dar. AYRES & SWELLER (1990) gehen davon aus, daß es bei Anwendung der Means-End-Strategie zu einer hohen kognitiven Belastung kommen kann, weil der momentane Zustand, das Ziel, die Differenz zum Ziel und der Subgoal-Stack im Gedächtnis gehalten werden müssen. Bei der Bearbeitung von Subzielen sollte diese Belastung am höchsten sein; demzufolge sollten in dieser Stufe auch die meisten Fehler auftreten; in diesem Fall sprechen die Autoren dann von einem stage effect. Dieser Befund konnte auch experimentell bei der Bearbeitung von geometrischen Beweisen gezeigt werden.
Die Autoren konnten auch zeigen, daß nicht vertraute Probleme wahrscheinlicher unter Anwendung der Mittel-Ziel-Analyse gelöst werden. Problemstellungen, die sehr neuartig sind oder die viele irrelevante Merkmale enthalten, erzeugen eher einen stage effect.
Bei der Bearbeitung von Problemen, die zwei Subziele erforderlich machten, war die Fehlerwahrscheinlichkeit bei dem zweiten Subziel höher. Unter Verwendung von Verbalprotokollen wurde dies von den Autoren damit erklärt, daß das erste Subziel durch direktes Vorwärtsarbeiten von der Startsituation aus gelöst wurde, während erst bei dem zweiten Subziel die Means-End-Analyse eingesetzt wurde.
Diese Befunde legen es nahe, daß während der Lernphase keine Mittel-Ziel-Analysen zur Anwendung kommen sollten: Müssen gleichzeitig Subziele bearbeitet werden, bleibt nur ein geringerer Teil der kognitiven Kapazität "frei" zum Erlernen eines Lösungsschemas. "Procedures that eliminate the necessity for generating subgoals provide the most effective techniques for faciliating learning." (AYRES & SWELLER, 1990)
GREENO (1991a) weist darauf hin, daß bei der Lösung geometrischer Probleme eine abgewandelte Version der Mittel-Ziel-Analyse eingesetzt wird, die eine Suche mit offenem Ende nach relevanten Informationen und Prozesse zum Hinzufügen von Linien in das Diagramm verwendet. Es handelt sich also um ein domänenspezifisches schematisches Wissen.
SMITH (1987) unterscheidet drei Ebenen des Wissens über Statistik:
SMITH (1987) stellte 112 Psychologiestudenten eine statistische Aufgabe, die durch einen t-Test für verbundene Stichproben zu lösen war. 29.0% der Studenten, die einen Taschenrechner verwendeten, gaben als Ergebnis einen unplausiblen t-Wert an; bei den Studenten, die keinen Taschenrechner verwendeten waren es nur 16.2%. Verbesserung der Hardware verbessert also die Ergebnisse nicht unbedingt, wenn bereits auf algorithmischer Ebene Fehler vorliegen.
Die Abruftiefe wurde in dieser Untersuchung definiert als die Anzahl der Lösungsschritte zwischen dem momentanen Schritt und dem Schritt, von dem Information benötigt wird. Die Fehlerzahl war mit dieser Abruftiefe positiv korreliert. Innerhalb der algorithmischen Ebene können also Begrenzungen des Arbeitsgedächtnisses zu Fehlern führen.
In einem anderen Experiment von SMITH (1987) wurde den Studenten eine Aufgabe gestellt, die mit dem Wilcoxon-Test zu lösen gewesen wäre. Bei einer Gruppe wurde die Aufgabe so formuliert, daß die Anwendung dieses Test nicht bereits im Text nahe gelegt wurde. Diese Gruppe machte bei der Ausführung des Test mehr Fehler, obwohl sich die Aufgabenformulierung eigentlich nur auf die Wahl des Tests auswirken sollte. Hier ließ sich also eine Interaktion zwischen der Berechnungs-Theorie und dem Algorithmus zeigen. "Less formally, if we confuse our students at one level, their performance may suffer at other levels as well." (SMITH, 1987, S. 167)
Bei der Lösung von Textaufgaben versucht der Problemlöser, ein geeignetes Schema zu finden und zu instantiieren, das es ihm ermöglicht, geeignete Operationen auszuwählen oder eine geeignete Gleichung aufzustellen (cf. GREENO, 1991b).
MAYER (1985) schildert diese Stufe der Lösung von Textaufgaben etwas genauer. Die Problemrepräsentation besteht aus zwei Schritten: der Problem-Übersetzung und der Problem-Integration.
Bei der Problem-Übersetzung (Problem Translation) wird jede Proposition der textuellen Aufgabenstellung in eine interne Repräsentation überführt. Dazu benötigt der Problemlöser sowohl sprachliches Wissen (linguistic knowledge) als auch Weltwissen (factual knowledge). Nach MAYER (1985) spielt bei der Lösung mathematischer Probleme insbesondere das Erfassen relationaler Propositionen (Propositionen, die eine quantitative Beziehung zwischen Variablen ausdrücken) eine wichtige Rolle.
Bei der Problem-Integration (Problem Integration) werden die einzelnen Propositionen in eine zusammenhängende Repräsentation gebracht. Dazu benötigt der Problemlöser Wissen über typische Problemtypen, sogenanntes Schemawissen (schema knowledge). MAYER (1985) nennt dazu Untersuchungen, in denen die Versuchspersonen ohne Schwierigkeiten mathematische Textaufgaben aus Lehrbüchern kategorisieren konnten. Sie konnten aufgrund ihres Schemawissens auch sofort angeben, welche Informationen für ein Problem relevant waren.
Die Lösung mathematischer Probleme zerfällt nach MAYER (1985) wiederum in zwei Teilschritte: die Lösungsplanung und die Lösungsausführung.
In dieser Stufe muß ein Lösungsplan entworfen werden. Dazu benötigt der Problemlöser Wissen über geeignete Heuristiken, also strategisches Wissen. Welche Lösungsstrategie verwendet wird, kann davon abhängen, wie das Problem präsentiert wird. Dazu stellt MAYER (1985) eine ältere von ihm durchgeführte Untersuchung vor, in der die selben Aufgaben entweder als algebraische Ausdrücke oder als Textaufgaben gestellt wurden. Wurde die Aufgabe als Text präsentiert, wurde bevorzugt die reduce strategy angewandt: die angegebenen Operationen wurden so bald wie möglich ausgeführt. Wurde die selbe Aufgabe dagegen als algebraischer Ausdruck präsentiert, fand eher die isolate strategy Anwendung: es wurde versucht, alle Vorkommnisse von X auf eine Seite der Gleichung zu bekommen.
Der letzte Schritt der Lösung mathematischer Probleme besteht in der Ausführung der Lösung: Um die Lösung tatsächlich ausführen zu können, muß der Problemlöser die dazu nötigen Prozeduren kennen; er benötigt also algorithmisches Wissen. Die Verfügbarkeit der Algorithmen hängt zum Beispiel von der Übung im Umgang mit diesen ab.
GREENO (1991a) berichtet, daß Kinder, die auf Märkten in Brasilien Produkte verkaufen, dabei sehr genau Gesamtpreise berechnen können. Sollen sie dagegen Textaufgaben auf dem Papier lösen, sinkt die Lösungswahrscheinlichkeit ab (auf 74%); werden ihnen Aufgaben ganz ohne Kontext präsentiert, wird die Lösungswahrscheinlichkeit noch wesentlich geringer (37%). Das wesentliche Merkmal der Vorgehensweise dieser Kinder ist der situative Charakter der Berechnungen (situatedness): Die Berechnungen sind auf reichhaltige Weise mit den Situationen, in denen sie auftreten, verknüpft.
Beispiele für situative Berechnungen werden von LAVE et al. (1984) genannt; diesen gemeinsam ist
"a tendency for individuals to use the resources available in a situation to make inferences about quantities in the situation, often in preference to using symbolic computations that are less directly connected with the problem setting." (GREENO, 1991a, S.264)
Der Autor zieht daraus die Folgerung, daß Wissen nicht nur im Kopf der Person verankert ist, sondern auch in der Fähigkeit besteht, mit bestimmten Merkmalen der Umwelt sinnvoll zu interagieren:
"The knowing of mathematics is situated in social and intellectual communities of practice, and for their mathematical knowing to be active and useful, individuals either must learn to act and reason mathematically in the settings of their practice or they must acquire capabilities to generate mathematical meaning and solutions of problems in situations that they encounter." (GREENO, 1991b, S.76)
GREENO (1991a) weist darauf hin, daß Schüler und Studenten mathematische Probleme lösen können, ohne ein tieferes Verständnis des Konzepte und Prinzipien, die hinter diesen Problemen stehen und die sie eigentlich erlernen sollten, erlangt zu haben. Die gelernte Lösung von im Unterrichts-Kontext gestellten Aufgaben kann oft auch nicht in anderen Kontexten angewandt werden. Der Autor fordert deshalb:
"On this view, the goals of instruction in mathematics should be to strengthen students´ abilities to reason productively about the concepts and techniques of mathematics, rather than only knowing the content of the concepts and how to perform the techniques correctly." (GREENO, 1991a, S.260 f.)
Insbesondere fordert der Autor, daß Wege gefunden werden sollten, Mathematik so zu lehren, daß sie zu einem bedeutenden Faktor beim Denken in alltäglichen Situationen werden kann.
In der Schulmathematik werden den Schülern vor allem symbolische Operationen beigebracht, die sich auf abstrakte Objekte beziehen; die Schüler können deshalb zu der Fehleinschätzung gelangen, daß diese symbolischen Operationen Selbstzweck seien und keinen Bezug zur Welt hätten.
Im Gegensatz dazu steht das Verhalten der Straßenhändler: Sie verwenden Relationen zwischen konkreten Objekten; bei Aufgaben auf dem Papier schneiden sie deswegen so schlecht ab, weil diese Operationen nicht mit den symbolischen arithmetischen Ausdrücken verbunden sind.
GREENO (1991a) folgert deshalb, daß das alleinige Trainieren von konkretem Material und Kontexten nicht für das Verständnis von symbolischen Ausdrücken und Operationen ausreicht. Dazu müssen die Schüler auch die mathematischen Konzepte erfassen, die durch diese Symbole ausgedrückt werden. Beim Erlernen sollten deshalb den Schülern die allgemeinen Eigenschaften von Quantitäten und ihre Repräsentationen sowohl in geschriebenen Symbolen als auch anhand konkreter Materialien präsentiert werden. GREENO (1991a) nennt folgende drei Merkmale eines Settings, in dem mathematisches Wissen erworben werden kann:
GREENO (1991b) berichtet, daß diejenigen Studenten, die davon ausgehen, daß hinter mathematischen Symbolen eine tiefere Bedeutung steht und die diese Bedeutung aktiv suchen, auch unter den derzeitigen Unterrichtsmethoden diese Bedeutung erfolgreich konstruieren.
Folgende experimentellen Paradigmen wurden bisher zur Untersuchung der mentalen Artihmetik und der mentalen Repräsentation von Zahlen verwendet:
Als abhängige Variablen werden fast immer Reaktionszeiten verwendet; oft ist auch die Betrachtung von Fehlerhäufigkeiten sinnvoll. Mir sind keine Untersuchungen bekannt, bei denen Gedächtnisspannen untersucht werden (man könnte nach der Lösung einer Aufgabe fragen, welche Zahlen involviert waren; dies könnte bei Textaufgaben schlechter erinnerbar sein; außerdem Untersuchung von Priming, Primacy- und Recency-Effekten).
Die hier zusammengestellten Modelle lassen sich folgendermaßen klassifizieren:
Läßt sich der SNARC-Effekt auch beim Größenvergleich
von physikalischen Reizen nachweisen? Ist dies der Fall, deutet
dies darauf hin, daß sowohl Zahlen als auch Größen
auf eine ähnliche Art codiert werden
ASHCRAFT, M.H. (1992). Cognitive arithmetic: A review of data and theory. Cognition, 44, 75 - 106.
AYRES, P. & SWELLER, J. (1990). Locus of difficulty in multistage mathematics problems. American Journal of Psychology, 103 (2), 167 - 193.
BROWN, J.J. & VanLEHN, K. (1980). Repair Theory: A Generative Theory of Bugs in Procedural Skills. Cognitive Science, 4, 379 - 426.
CAMPBELL, J.I.D. (1987). The role of asociative inferencein learning and retrieving arithmetic facts. In: SLOBODA, J.A. & ROGERS, D. (Eds): Cognitive Processes in Mathematics (107 - 122). Oxford: Clarendon.
DEHAENE, S. (1989). The psychophysics of numerical comparison: A reexamination of apparentliy incompatible data. Perception & Psychophysics, 45 (6), 557 - 566.
DEHAENE, S., DUPOUX, E. & MEHLER, J. (1990). Is Numerical Comparison Digital? Analogical and Symbolic Effects in Two-Digit Number Comparison. Journal of Experimental Psychology: Human Perception and Performance, 16 (3), 626 - 641.
DEHAENE, S. & COHEN, L. (1991). Two mental calculation systems: A case study of severe acalculia with preserved approximation. Neurophysiologica, 29(11), 1045-1074.
DEHAENE, S. (1992). Varieties of numerical abilities. Cognition, 44, 1 - 42.
DEHAENE, S. & MEHLER, J. (1992). Cross-linguistic regularities in the frequency of number words. Cognition, 43, 1-29.
DEHAENE, S., BOSSINI, S. & GIRAUX, P. (1993). The mental representation of parity and number magnitude. Journal of Experimental Psychology: General, 122(3), 371-396.
FISHBEIN, E., DERI, M., MELLO, M.S. & MARINO, M.S. (1985). The role of implicit models in solving decimal problems in multiplication and division. Journal for Research in Mathemathics Education, 16, 3 - 17.
GREENO, J.G. (1991a). Mathematical Cognition: Accomplishments and Challenges in Research. In: HOFFMAN, R.R. & PELERMO, D.S. (Eds): Cognition and the Symbolic Processes: Applied and Ecological Perspectives (255 -279). Hildsdals, N.J.: Lawrence Erlbaum Associates.
GREENO, J.G. (1991b). A view of mathematical problem solving in school. In: SMITH, M.U. (Ed): Toward a Unified Theory of Problem Solving: Views from the Content Domains (69 - 98). Hillsdale, N.J.: Lawrence Erlbaum Associates.
GREER, B. (1987). Understanding of arithmetical operations as models of situations. In: SLOBODA, J.A. & ROGERS, D. (Eds): Cognitive Processes in Mathematics (60 - 80). Oxford: Clarendon.
KLEIN, A. & STARKEY, P. (1987). The origins and development of numerical cognition: a comparative analysis. In: SLOBODA, J.A. & ROGERS, D. (Eds): Cognitive Processes in Mathematics (1 - 25). Oxford: Clarendon.
LAVE, J., MURTAUGH, M. & DE LA ROCHA, O. (1984). The dialectics of arithmetic in grocery shopping. In: ROGOFF, B. & LAVE, J. (Eds): Everyday cognition: Its development in social context (67 - 94). Cambridge, MA: Harvard University Press.
MANDLER, G. & SHEBO, B.J. (1982). Subitizing: An analysis of its component processes. Journal of Experimental Psychology: General, 111, 1 - 22.
MAYER, R.E. (1985). Mathematical Ability. In: STERNBERG, R.J. (Ed): Human Abilities: An Information-Processing Approach (127 - 150). New York: Freeman and Company.
McCLOSKEY, M. (1992). Cognitive mechanisms in numerical processing: Evidence from acquired dyscalculia. Cognition, 44, 107-157.
MILIKOWSKI, M. & ALSHOUT, J.J. (1994). Differences in the semantic integration of tabled and non-tabled numbers. British Journal of Psychology, 85, 29-39.
MILLER, G.A. (1956). The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information. Psychological Review, 63, 81 - 97.
MIURA, I.T., OKAMOTO, Y., KIM, C.C., CHANG, C.M. et al. (1994). Comparisons of children´s cognitive representation of number: Chine, France, Japan, Korea, Sweden and the United States. International Journal of Behavioral Development, 17(3), 401-411.
NOEL, M.P. & SERON, X. (1992). Arabic number reading deficit: A single case study. Cognitive Neuropsychology, in press.
RESNICK, L.B., CAUZINILLE-MARMECHE, E. & MATHIEU, J. (1987). Understanding algebra. In: SLOBODA, J.A. & ROGERS, D. (Eds): Cognitive Processes in Mathematics (169 - 203). Oxford: Clarendon.
RILEY, M.S., GREENO, J.G. & HELLER, J.I. (1983). Development of children´s problem-solving ability in arithmetic. In: GINSBURG, H.P. (Ed): The development of methematical thinking (153 - 196). New York: Academic Press.
SEKULER, RUBIN & ARMSTRONG (1971). Processing numerical information: A choice time analysis. Journal of Experimental Psychology, 90 (1), 75 - 80.
SIEGLER & SHRAGER (1984): A model of strategy choice. In: SOPHIAN, C. (Ed): Origins of cognitive skills (S. 229 - 293). Hillsdale, N.J.: Lawrence Erlbaum Associates.
SMITH, P.T. (1987). Levels of understanding and psychology students´ acquisition of statistics. In: SLOBODA, J.A. & ROGERS, D. (Eds): Cognitive Processes in Mathematics (157 - 168). Oxford: Clarendon.
SMYTH, M.M. (1987). Cognition in Action. Hillsdale, N.J.: Lawrence Erlbaum Associates.
SOKOL, S.M. & McCLOSKEY, M. (1991). Cognitive Mechanisms in Calculation. In: STERNBERG, R.J. & FRENSCH, P.A. (Eds): Complex Problem Solving: Principles and Mechanisms (85 - 116). Hillsdale, N.J.: Lawrence Erlbaum Associates.
TODD, R.R., BARBER, P.J. & JONES, D. (1987). The internal representation of number: analogue or digital? In: SLOBODA, J.A. & ROGERS, D. (Eds): Cognitive Processes in Mathematics (142 - 156). Oxford: Clarendon.
VORBERG, D. & BLANKENBERGER, S. (1994). Mentale
Repräsentation von Zahlen. Sprache & Kognition, 12(2),
98-114.
zurück zur Skriptenseite
zurück zu meiner homepage
rainer@zwisler.de