Für das Verständnis von Texten lassen sich eine Reihe verschiedener Faktoren finden, Foltz (1996) nennt beispielsweise folgende: Innerer Zusammenhalt des Textes, Hintergrundwissen des Lesers, Erzählschemata im Text, kognitive Fähigkeit des Lesers sowie dessen Lesestrategie. Bei Lesen sollte der Leser die relevante Information aus dem Text extrahieren, die den Zielen von Autor bzw. Leser entspricht.
Nach Anderson (1990) lassen sich Sätze, aber auch ganze Texte, nach bestimmten immer wiederkehrenden Mustern strukturieren, die dazu dienen, die Sätze innerhalb größerer Textstrukturen zu organisieren. Anderson nennt dabei folgende mögliche Beziehungen: Antwort, Spezifizierung, Erklärung, Evidenz, Abfolge, Grund, Ziel, Ansammlung. Diese Beziehungen können auf jeder Stufe des Textes auftreten.
Die psychologische Bedeutung der (hierarchischen) Textstruktur zeigt sich darin, daß sich deren Einfluß auf das Verständnis von Texten und insbesondere auf deren Behalten nachweisen läßt. Diejenigen Leser, die die Aussagen auf der höchsten hierarchischen Ebene am besten identifizieren können, behalten die Texte auch am besten.
Neben der hierarchischen Struktur hält auch die logische Struktur einen Text zusammen. Je enger der kausale Zusammenhang zwischen zwei Sätzen ist, desto schneller wird der zweite Satz gelesen. Diejenigen Teile einer Geschichte, die besonders wichtig für deren kausale Struktur sind, werden auch am besten erinnert. Das Behaltensvermögen für Texte, die nicht dem ``natürlichen'' Aufbau (Schema?) entsprechen, ist deutlich geringer.
Nach Wickens (1984) kann man sich Bedeutung als Ergebnis der Aktivierung von Assoziationen oder Knoten im Langzeitgedächtnis vorstellen, die durch charakteristische Kombinationen von Merkmalen (features) ausgelöst werden. Die Erfassung und Verarbeitung von verbalem Material erfolgt eher in der linken Gehirnhälfte, die Verarbeitung von räumlichem Material eher in der rechten Hemisphäre. Nach dem Prinzip des direkten Zugriffs wird entsprechendes Material effizienter verarbeitet, wenn es über die kontralaterale Körperseite wahrgenommen wird. Deshalb wäre es empfehlenswert, grafische Browser links von den durch sie angewählten Textfenstern zu plazieren (eine ähnliche Untersuchung an komplexen Displays von Wickens zeigt dies). Nach dem Prinzip des Ressourcen-Wettstreits interferieren zwei Aufgaben stärker, wenn deren Verarbeitung in der selben Hemisphäre stattfindet. Die Effekte der beiden genannten Prinzipien sind jedoch relativ schwach ausgeprägt und es handelt sich eher um ein Kontinuum als um eine Dichotomie.
Die Wahrnehmung von gedruckter Schrift erfolgt hierarchisch. Nach dem Modell von Neisser (dargestellt z.B. von Wickens, 1984) sind daran folgende Stufen beteiligt:
Der Wortüberlegenheitseffekt besteht darin, daß Buchstaben innerhalb eines Wortes schneller korrekt identifiziert werden, da durch den (Wort-)Kontext die Anzahl möglicher Alternativen deutlich reduziert wird. Dieser Effekt deutet darauf hin, daß die Verarbeitung von Buchstaben parallel stattfindet
Marks und Dulaney (1998) fassen die wichtigsten Befunde zur Lese-Forschung folgendermaßen zusammen: Die Aufnahme von Informationen beim Lesen erfolgt während der Fixationen, die etwa 200 bis 250 Millisekunden dauern und zwischen denen Sakkaden stattfinden, bei denen der Blickpunkt etwas weiter gerückt wird (üblicherweise etwa sieben bis neun Buchstaben weit). Bei schwierigen Texten oder langen Wörtern finden auch häufiger rückwärts gerichtete Sakkaden statt. Während einer Fixierung werden etwa drei Buchstaben links vom Blickpunkt und 14 Buchstaben rechts davon wahrgenommen (bei Personen, die von links nach rechts schreiben, ist es genau andersherum), wobei vor allem das Erscheinungsbild der Buchstaben - deren Ober- und Unterlängen - eine große Rolle spielen. Dies läßt sich empirisch nachweisen, indem die Sätze am Computerbildschirm dargeboten werden und die genauen Blickbewegungen der Leser registriert werden. Man kann dann feststellen, ab welcher Buchstabenposition (vom Fokus aus) Veränderungen wahrgenommen werden (indem man die Buchstaben verändert, wenn sie von der Peripherie in den Fokus wandern).
Die Dauer von Fixationen am Ende von Sätzen ist besonders lange, vermutlich weil dort eine Integration der aufgenommenen Information stattfindet. Läßt sich ein Wort aufgrund des Kontextes mit hoher Wahrscheinlichkeit vorhersagen, dann sind die Fixationen besonders kurz. Bei besonders seltenen Wörtern finden hingegen längere Fixationen statt.
Diese Erkenntnisse können nach Wickens (1984) dazu eingesetzt werden, schnelle und genaue Lesbarkeit von Texten sicherzustellen, die auf einem Computerbildschirm dargestellt werden. Dazu müssen zuerst die kritischen Signale herausgefunden werden, die einen bestimmten Kontext signalisieren. Es ist sinnvoll, durch Training sicherzustellen, daß solche Signale automatisch beachtet werden. Alternativ dazu könnte die Intensität der Signale so weit erhöht werden, daß sich nicht ignoriert werden.
Die Genauigkeit und Geschwindigkeit des Erkennens ist dann am höchsten, wenn die dargestellten Reize in einem physikalischen Format präsentiert werden, das maximal kompatibel zu der visuellen Repräsentation des Items im Gedächtnis ist (z.B. Buchstaben oder Zahlen nicht durch nur aus Strichen bestehende Digitalanzeige darstellen). Bei Darstellung nur durch Großbuchstaben werden Wörter nicht mehr so gut erkannt, da das typische Muster der Ober- und Unterlängen fehlt. Aus diesem Grund sollten Abkürzungen aus den Anfangsbuchstaben bestehen und nicht aus einer komprimierten Version des ganzen Wortes. Wichtig ist auch, die Bildschirmanzeige durch Leerstellen geeignet zu strukturieren.
Man kann aber nicht immer eine optimale Informationsdarstellung realisieren, da oft einander widersprechende Anforderungen (trade-offs) vorliegen:
Wickens (1984) betont außerdem, daß durch einen geeigneten Kontext das Verständnis deutlich erleichtert werden kann, weil dem Lesenden durch den Kontext nahegelegt wird, das Material so zu enkodieren, wie es vom Autor gewünscht ist. Außerdem bietet der Kontext einen Rahmen, in den die aufzunehmende Information integriert werden kann. Sowohl Abruf als auch Verständnis verbessern sich dadurch. Am effizientesten sind Kontexte, die bereits vor der Darbietung des Materials anwesend sind.
Negationen sind besonders schwierig zu verarbeiten, ebenso wie logische Umkehrungen und Falsifizierungen. Nach dem Prinzip der Kongruenz werden positive Statements schneller verifiziert und negative Statements schneller falsifiziert. Die Reihenfolge, in der Informationen dargeboten werden, sollte auch der Reihenfolge entsprechen, in der sie abgerufen werden bzw. in der sie relevant sind. Dies kann bei Hypertexten nur schwer sichergestellt werden; es ist fraglich, ob in diesem Fall eine Linearisierung des entsprechenden Textteiles erzwungen werden soll. Problematisch ist es auch, wenn bestimmte Systemzustände durch die Abwesenheit von Hinweisreizen signalisiert werden.
Für das Verständnis geschriebener oder gesprochener Sprache spielen auch der Kontext des Autors und des Rezipienten eine wichtige Rolle, entscheidend ist aber die Rolle der Texte für den Kommunikationsprozeß. Nach Kintsch (1994) ist dabei Kommunikation nicht nur als Transaktion (Vermitteln von Information), sondern auch als Interaktion in sozialen Situationen zu betrachten: Der Text ist ein Werkzeug für die Bildung sozialer Beziehungen bzw. für die Verhandlung sozialer Rollen und das Ziel eines Textes ist Überzeugen, Unterhalten oder Zerstreuen des Lesers.
Kintsch (1994) diskutiert die Erklärungskraft streng formaler Theorien (formale semantische Systeme) und von Theorien, die die Reichhaltigkeit der Sprache erfassen wollen. Er unterscheidet folgende Ansätze:
Während des Verstehens von Texten folgern die Leser auch selbstständig neue Information, beispielsweise über Ziele oder Pläne von Protagonisten in einem Roman. Graesser et al. (1997) unterscheiden dabei fünf Arten von Inferenzen:
Graesser et a. (1996) betonen die wichtige Rolle von Fragen für das Verständnis von Texten. ``Gute'' Fragen, die sich auf die Identifikation von Lücken, Widersprüchen, Anomalien und Ambiguitäten in der Wissensbasis des Lesers beziehen, werden von Personen gestellt, die versuchen, bestehendes Wissen zu vertiefen. Mit Fragen sind aber oft soziale Barrieren bzw. Kosten verbunden, so daß weniger Fragen gestellt werden. Greasser et al. (1996) beschreiben die Möglichkeit, durch gezieltes Einbauen von Widersprüchen, (auffälligerweise oder unauffälligerweise) irrelavanten Items und Auslassungen in Texte die Wahrtscheinlichkeit zu erhöhen, daß vom Leser Verständnisfragen gestellt werden. Diese Technik läßt sich aber für Hypertexte kaum nutzen, da eine natürliche Sprachverarbeitung für das Parsing der Benutzerfragen erforderlich wäre.
Ein zentraler Bestandteil psychologischer Theorien zu Textverständnis sind Propositionen, die wiederum aus einem Prädikat oder einer Relation (eventuell mit mehreren Argumenten) bestehen kann, wobei deren Argumente Konzepte oder andere Propositionen sein können. Beim Lesen von Texten werden diese Propositionen aus dem Text mit Hilfe von lexikalischer Information im Langzeitgedächtnis gebildet (cf. Kintsch, 1994). Sie werden dabei in eine hierarchische Struktur gebracht, wobei die hierarchische Struktur eines Absatzes als Mikrostruktur und die hierarchische Struktur des gesamten Textes als Makrostruktur bezeichnet wird. Den Makrostrukturen kommt eine besondere Bedeutung für das Verständnis und Behalten von Texten zu; sie werden wesentlich von Titeln, Zusammenfassungen, ersten Sätzen und der Häufigkeit des Erwähnens einzelner Punkte bestimmt.
Letztlich setzt sich also die Textbasis aus einer strukturierten Menge an Propositionen zusammen, die durch semantische Kohärenzrelationen miteinander verbunden sind (siehe Abschnitt 2.2.3). Die propositionale Textbasis enthält (normalerweise) nicht alle Oberflächenmerkmale des Textes (z.B. geht die Zeitform bei Verben verloren). Die Propositionen lassen sich in Form von Listen (ähnlich wie PROLOG-Statements) formulieren oder - zumindest für einzelne Sätze - auch als Graphen. Es lassen sich empirische Belege dafür finden, daß das Verstehen von Texten auf solchen Propositionen beruht (freier Abruf, Wiedererkennen, Zusammenfassungen, Lesezeiten, Priming-Studien usw.).
Die rhetorische Struktur eines Textes wurde meist im Zusammenhang mit Erzählungen untersucht, bei denen sie die Form einer story grammer annimmt. Die Struktur eines Diskurses hängt aber nicht nur von dessen rhetorischer Struktur ab, sondern auch vom Domänenwissen des Lesers, das wiederum in Form von Skripten oder Schemata organisiert ist.
Nach Graesser, Millis und Zwaan (1997) liefert ein Diskurs den nötigen Kontext, um Sätze (in den allermeisten Fällen) eindeutig interpretieren zu können. Magliano, Schleich und Millis (1998) stellen einen informativen Überblick über die Informationsverarbeitungs-Mechanismen dar, die beim Verständnis von Diskursen eingesetzt werden. Nach Ansicht dieser Autoren beschäftigt sich discourse processing mit der Frage, wie zusammengehörige Botschaften übermittelt werden und wie ganze Texte produziert, verstanden und erinnert werden. Sie unterscheiden erzählende Texte (Belletristik, bei deren Rezeption der Leser sein Weltwissen einsetzen kann) und erläuternde (expository) Texte, die überzeugende oder logische Argumente, Beschreibungen oder Handlungsanweisungen enthalten können. Graesser et al. (1997) klassifizieren verschiedene Texte außerdem danach, wie natürlich sie sind: Man kann einerseits natürliche Texte untersuchen, andererseits aber auch künstlich erstellte Textoide, die so konstruiert sind, daß bestimmte unabhängige Variablen systematisch variiert werden.
Bei Erstellen von Texten - auch von solchen für das WWW - sollen das Vorwissen und die Ziele der Leser berücksichtigt werden. Eventuell sollte vor dem Zugang zum eigentlichen Text die entsprechende Information von den Benutzern erfragt werden oder die Benutzer sollten die Möglichkeit haben, die Darstellung an ihr Vorwissen anzupassen. Beim Verständnis von Texten bilden die Leser unterschiedliche mentale Repräsentationen, deren Bedeutung von der Art des Textes (bei Literatur ist auch die Textbasis und die Oberfläche wichtig, bei wissenschaftlichen Texten eher das Verständnis) und dem Ziel des Lesers (Auswendiglernen oder Verständnis) abhängt (siehe Kintsch, 1994; Magliano et al., 1998; die letzten beiden Punkte werden von Graesser et al. zusätzlich angegeben):
Beabsichtigte Bedeutungen (Ironie, Metaphern, indirekte Anfragen wie Kannst du mal das Fenster öffnen?) können genauso schnell aus einem Text extrahiert werden wie wörtliche Bedeutungen und sie hängen auch nicht davon ab, ob die wörtliche Bedeutung plausibel ist. Die Verarbeitung von Texten geschieht einerseits während des Lesens (online, andererseits aber auch im Anschluß an das Lesen (offline). Während des Lesens kann das Arbeitsgedächtnis mehr oder weniger ausgelastet werden durch Abruf von Wortbedeutungen, Verknüpfung von Propositionen, syntaktisches Parsing, logisches Folgern sowie durch Speichern von ``Zwischenergebnissen''. Erfahrene Leser können komplexere Repräsentationen im Arbeitsgedächtnis halten. Das Verständnis eines Textes wird durch vollständig spezifizierte und reichhaltige Schemata beim Leser erleichtert: Sie ermöglichen ein vom Weltwissen gesteuertes (top-down) Verständnis des Textes.
Nach der Modularitäts-Theorie handelt es sich bei den genanten Stufen um autonome Module, nach der Interaktivitäts-Theorie beeinflussen sich die Stufen dagegen wechselseitig.
Wichtig für das Verständnis von Texten ist auch, daß sie als zusammengehörige Einheit wahrgenommen werden. Bei der Konstruktion der Textbasis werden die einzelnen Propositionen in die Gesamtstruktur integriert. Dadurch wird ein hoher innerer Zusammenhalt des Textes erreicht, wobei sowohl der Text selbst als auch das Situations-Modell des Lesers dazu beitragen können. Kohäsion wird meist dadurch erreicht, daß aufeinanderfolgende Sätze Worte oder Phrasen gemeinsam haben (argument overlap); Kohärenz, die zur Bildung des Situations-Modells führt, kann auf verschiedenen Ebenen erzielt werden (cf. Magliano et al., 1998):
Graesser et al. (1997) unterscheiden außerdem zwischen lokaler Kohärenz (eine neue Information kann in den vorherigen Satz oder in das Arbeitsgedächtnis integriert werden) und globaler Kohärenz (neue Information kann in die Makrostruktur oder schon länger im Arbeitsgedächtnis befindliche Inhalte integriert werden). Bei unmotivierten Lesern wird sich die globale Kohärenz verringern, ebenso bei Lesern mit geringer Gedächtnisspanne.
Insbesondere das Verfolgen der Ziele der Handelnden ist nach Magliano et al. (1998) eine wichtige Voraussetzung für Textverständnis. Sätze, die konsistent mit dem vorangegangenem Kontext sind, werden besser verarbeitet und erinnert. Die Struktur eines Textes kann auch durch organisierende (organizational) Signale betont werden, wie beispielsweise Zusammenfassungen, Übersichten oder Überschriften. Auf diese Weise kann dem Benutzer signalisiert werden, welche Informationen besonders wichtig sind. Zwar werden solche Informationen dann auch besser erinnert, nicht hervorgehobene dagegen aber schlechter. Anfänger auf einem Gebiet profitieren von stark zusammenhängenden Texten, bei Experten verschlechtert sich dagegen die Behaltensleistung (vermutlich, weil ihnen der Text zu einfach erscheint und sie ihn deshalb nur sehr oberflächlich lesen).
Innerhalb eines Textes können unterschiedliche Arten von Verweisen auftreten, die sich auf Propositionen in der Textbasis, im Situationsmodell oder in der Welt beziehen können. Graesser et al. (1997) unterscheiden dabei
Enthält ein Texte viele nicht aufgelöste Verweise (unklare Pronomina etc.), wird dessen Verständnis erschwert. Nach Kintsch und van Djik (dargestellt in Anderson, 1990, S. 396) beträgt die maximale Anzahl solcher nicht aufgelöster Propositionen im Arbeitsgedächtnis vier, sind es mehr, können neue Propositionen nicht mehr auf die bestehende Textbasis bezogen werden. Werden die Beziehungen dagegen explizit gemacht, kann das Textverständnis verbessert werden. Beim Entwurf von Hypertexten ist aber zu beachten, daß nicht zu viele Verbindungen eingefügt werden, da sonst Experten eher Schwierigkeiten beim Textverständnis bekommen.
Das Verständnis eines Textes wird durch dessen Kohärenz bestimmt (cf. Foltz, 1996). Diese Kohärenz läßt sich bestimmen, indem der Text in seine propositionale Darstellung umgewandelt wird und dann die Anzahl der Argumentenüberlappungen zwischen aufeinanderfolgenden Propositionen bestimmt wird. Diese Zahl sollte das Textverständnis vorhersagen. Es läßt sich auch empirisch zeigen, daß das Hinzufügen von Kohärenz die Behaltensleistung nach dem Lesen dieses Textes erhöht.
Gibbs (1996) nennt einige Belege für das häufige Vorkommen von Metaphern sowohl in gesprochener als auch in geschriebener Sprache. In der wissenschaftlichen Literatur spiegelt sich beispielsweise das jeweils aktuelle Menschenbild bzw. Forschungsparadigma in der Wahl der Metaphern bei Veröffentlichungen wieder. Gibbs (1996) vertritt die These, daß Metaphern auch wesentliche Grundlagen des Denkens, Urteilens und Verstehens sind, und nennt drei Gründe für den Einsatz von Metaphern:
Das Verstehen von Metaphern kann gewisse kognitive Ressourcen in Anspruch nehmen, wenn diese isoliert dargeboten werden. Werden die Metaphern aber vor einem ausreichenden Kontext präsentiert, so erfolgt ihr Verstehen automatisch (cf. Gibbs, 1996). Metaphorische Konzepte dienen außerdem nicht nur zum Verständnis von Texten (dort spielen sie eine ähnliche Rolle wie Schemata), sondern auch allgemein zur Strukturierung unserer Wahrnehmung. Mit diesem Aspekt beschäftigt sich die kognitive Linguistik: Metaphorische Schemata erlauben es, das Wissen aus einer bestimmten Domäne auch für einen anderen Gegenstandsbereich nutzbar zu machen, so daß sich dort ebenfalls bedeutsame Interpretationen bilden lassen. Gibbs (1996) nennt auch empirische Belege - insbesondere Priming-Studien - dafür, daß die Verwendung von Metaphern die dazugehörigen Schemata aktivieren kann. Eine ähnliche Rolle spielen Idiome (Redewendungen, deren Bedeutung sich nicht aus der Bedeutung der einzelnen Wörter erschließen läßt) und Metonymien (Gebrauch eines Wortes anstelle eines verwandten Begriffes, z.B. ``die Kirche fordert,...'').
Eine wichtige Voraussetzung für Theorien zum Textverständnis ist nach Garnham und Oakhill (1996) eine entsprechende Aufgabenanalyse: Es sollte eine Aufgabenanalyse des Textverständnisses unter Berücksichtigung des Weltwissens des Lesers und von dessen Zielen durchgeführt werden. Außerdem sollte zwischen verschiedenen Texttypen unterschieden werden, beispielsweise zwischen fiktionalen Texten, argumentativen Texten, Texten über abstrakte Sachverhalte usw.
Ganz wesentlich für das Verständnis von Texten ist es nach Garnham und Oakhill (1996) , daß sich die Leser ein geeignetes mentales Modell aus den im Text enthaltenen Informationen zusammen mit ihrem Weltwissen konstruieren. Dazu greifen sie auf das Textverständnis-Modell von Bransford zurück, das folgende drei wesentlichen Bestandteile enthält:
Das Hintergrundwissen des Lesers erlaubt es, die beim Lesen aufgenommene Information in bereits vorhandene Wissensstrukturen zu integrieren. Auf diese Weise kann auch die Kohäerenz des Textes erhöht werden, indem nicht-kohärente Übergänge durch das Weltwissen des Lesers kohärent gemacht werden. Zusätliches Weltwissen erleichtert auch die Bildung relevanter Makrostrukturen (cf. Foltz, 1996).
Leser füllen unklare Stellen im Text mit ihrem Weltwissen auf, indem sie eigene Inferenzen ziehen. Dabei lassen sich nach Magliano et al. (1998) verschiedene Arten von Inferenzen unterscheiden:
Graesser et al. (1996) befassen sich mit wissensbasierten Inferenzen während des Lesens von Geschichten. Sie betonen, daß insbesondere bei Erzählungen eine größere Entsprechung zu den täglichen Erfahrungen des Lesers vorliegt als bei erklärenden Texten, so daß bei Erzählungen auch bereits während des Lesens mehr Inferenzen gezogen werden während das Situationsmodell gebildet wird. Das hierzu eingesetzte Wissen kann entweder generischer Art (allgemeines Weltwissen wie Skripten, Frames, Stereotypen oder Schemata) oder spezifischer Art (vorangegange Erfahrungen, bereits verstandene Textfragmente) sein. Daraus werden dann wissensbasierte Inferenzen gezogen, die sich nach Graesser et al. (1996) folgendermaßen klassifizieren lassen:
Eine besondere Bedeutung kommt auch der Pragmatik zu, also dem Wissen um die sozialen Regeln, die mündlicher oder schriftlicher Kommunikation zugrunde liegen. Werden diese Regeln befolgt, wird die Kommunikation erleichtert, bei Verletzungen wird sie hingegen erschwert. Ein wichtiger Grundsatz ist, die gemeinsame Basis (common ground) zwischen Leser und Autor zu beachten. Eine Anwendung besteht darin, bei der Präsentation neuer Inhalte immer vom (gegebenen) Vorwissen des Lesers auszugehen. Die Grice'schen Maximen stellen Richtlinien für eine kooperative Kommunikation dar:
Graesser et al. (1997) zählen verschiedene psychologische Modelle auf, die sich im Rahmen des Text- bzw. Diskursverständnisses einsetzen lassen:
Graesser et al. (1996) stellen zwei Modelle zur Vorhersage bestimmter Arten von Sprechakten innerhalb eines Diskurses vor: Sie unterscheiden zwischen Fragen, Antworten auf Fragen, Anweisungen, indirekten Anweisungen, Behauptungen, Beurteilungen, verbalen und nonverbalen Reaktionen als mögliche Sprechakte, die während eines Dialogs beobachtbar sein können. Mit den folgenden Modellen wollen die Autoren die Art eines Dialogschrittes aus der Art des vorangegangenen Dialogschrittes vorhersagen:
Das Konstruktions-Integrations-Modell von Kintsch (1994) läßt sich durch sechs Apekte beschreiben:
In einem Hypertext läßt sich Information direkt so, wie sie in der propositionalen Textbasis vorliegt, repräsentieren. Der Leser erhält zusätzliche Kontrolle darüber, in welcher Reihenfolge der Text gelesen wird und er kann den Text so lesen, wie wenn dieser speziell auf seinen Wissensstand und seine Fähigkeiten abgestimmt wäre. Dadurch, daß die assoziativen Abrufpfade dem Gedächtnisabruf ähneln, sollte ein leichtes Auffinden gesuchter Information möglich sein. Allerdings existieren bisher noch keine Standards für den Aufbau und den Einsatz effizienter Hypertextsysteme.
Die Evaluation von Hypertexten zeigt nach Foltz (1996) sehr große Unterschiede aufgrund der Textart des Hypertextes, der Fertigkeiten und Ziele der Benutzer und der Aufgabenstellung. Daraus folgt, daß verschiedene Faktoren berücksichtigt werden müssen, wenn beurteilt werden soll, wann Hypertexte linearen Texten überlegen sind. Ein wichtiger Befund ist, daß das Lesen am Bildschirm nur dann genauso schnell wie auf Papier erfolgt, wenn die Auflösung hoch genug ist und wenn Antialiasing eingesetzt wird.
In einem Experiment von Foltz (1996) ergeben sich nur sehr geringe Performanzunterschiede zwischen linearem Text, Hypertext und besonders kohärentem Hypertext. Benutzer von Hypertexten scheinen allerdings eine bessere Wissensstruktur aufzubauen. Die zusätzliche Kohärenzinformation führt zu keinem Effekt, möglicherweise, weil diese Information von den Lesern nicht bemerkt wurde. Die Leser, die den Hypertext kohärent rezipierten (depth-first: erst jedes Kapitel ganz), entwickelten bessere Wissensstrukturen. Durch Verbalprotokolle konnte auch gezeigt werden, daß das Lesen von Hypertexten eine Art Problemlöseprozeß in einer unbekannten Domäne darstellt. Insbesondere die Verfügbarkeit einer Landkarte bestimmt die Lesestrategien. Die Versuchspersonen entwickelten Heuristiken zum Aufrechterhalten der Kohärenz auch bei nicht vertrauten Textformaten. Foltz (1996) folgert aus seinen Ergebnissen, daß bei der Entwicklung von Hypertexten auch die Strategien der Leser berücksichtigt werden sollten, die wiederum von deren Zielen und Hintergrundwissen abhängen. Insbesondere Anfänger sind auch die strukturierende Wirkung eines Kontextes angewiesen.
Um das Textverständnis von Hypertexten möglichst zu erhöhen, wurden auch verschiedene Guidelines entwickelt, die sich jedoch darauf beschränken, wieviel Text in einem Knoten enthalten sein soll, wie die Information zu strukturieren sei und welche Merkmale sinnvoll sind. Foltz (1996) beklagt aber, daß derartige Guidelines nicht theoriegeleitet sind, sondern entweder auf abstrakten Regeln oder auf dem gesunden Menschenverstand basieren. Die wenigen theoretisch begründeten Ansätze gehen von einer Analyse des Benutzers und der Aufgabe aus und versuchen, die Effizienz verschiedener Merkmale vorherzusagen. Ein anderer Ansatz besteht in der formativen Evaluation, bei der zuerst aufgrund psychologischer Prinzipien bestimmte Merkmale implementiert werden, die dann in iterativen Benutzertests optimiert werden. Schließlich kann auch versucht werden, Theorien zum Information Retrieval für Hypertexte anwendbar zu machen.
In linearen Texten läßt sich vom Autor relativ leicht Kohärenz realisieren, die dem Leser beim Strukturieren der aufzunehmenden Information helfen kann. Bei Hypertexten kann ein bestimmtes Textsegment aber aus vielen verschiedenen Richtungen erreicht werden. Dadurch ist es schwierig, immer einen kohärenten Übergang (z.B. durch Argumentenüberlappung) zu ermöglichen. Foltz (1996) implementiert dazu einen Hypertext, der erst beim Öffnen eines Knotens einen Überleitungstext generiert, der an den Anfang der Texteinheit gesetzt wird und vom zuvor besuchten Knoten abhängt.
Wegen der Flexibilität von Hypertexten haben insbesondere Anfänger Schwierigkeiten, ihr Weltwissen zur Navigation im Hypertext einzusetzen; Experten können dies dagegen erfolgreich tun, da sie die richtige konzeptuelle Struktur für den Gegenstandsbereich besitzen. Erfahrene Leser stützen sich auch auf Erzählschemata, die beim Erkennen der Makrostruktur des Textes helfen. Solche Schemata hängen aber wesentlich von der Vertrautheit der Präsentationsform ab. Diese ist bei Hypertexten (noch) nicht gegeben, da bisher noch keine Standardisierung erfolgte.
Auch die Lesefertigkeit kann eine bedeutende Rolle für das Textverständnis spielen: Erfahrene Leser sind geübt darin, Hinweise aus dem Kontext und andere textuelle Constraints für das Textverständnis einzusetzen; sie bilden bessere Hypothesen über die Bedeutung von Wörtern und sie reagieren angemessener auf die rhetorische Struktur des Textes. Ungeübte Leser kompensieren ihre mangelnde Fertigkeit dagegen nach Foltz (1996) dadurch, daß sie kontextabhängiges Hypothesentesten praktizieren. Sie benötigen also den Kontext als Hilfe für das Textverständnis; Hypertexte enthalten aber oft weniger kontextuelle Hinweisreize als lineare Texte. Andererseits können gut strukturierte Hypertexte (die z.B. eine graphische Veranschaulichung ihrer Struktur beinhalten) zusätzliche kontextuelle Hinweisreize beinhalten, die für weniger geübte Leser von Vorteil sind.
Auch die Lesestrategie wirkt sich auf die Behaltensleistung aus. Strukturelle, syntaktische und semantische Hinweise können die unterschiedliche Relevanz eines Textteils für die Makrostruktur des Textes signalisieren. Derartige Signale bestimmen, welche Textteile besonders aufmerksam gelesen werden und welche gegebenenfalls vom Leser ignoriert werden. Daher werden auch lineare Texte nicht immer strikt linear rezipiert: Texte müssen nicht von vorne nach hinten komplett gelesen werden, sondern es können auch Rückgriffe zu bereits gelesenen Teilen innerhalb des selben Abschnitts oder auch innerhalb eines anderen Abschnittes stattfinden. Solche Lesestrategien hängen vom Domänenwissen des Lesers, dessen Zielen und Fertigkeiten sowie von Textmerkmalen ab. Hypertexte erlauben besonders flexible Lesestrategien. Wird die Struktur des Textes veranschaulicht, ist es für den Leser auch leichter, bestimmte Informationen im Text zu finden.
Abschließend überlegt Foltz (1996), in welchen Bereichen Hypertexte überlegen sind. Als besonderer Vorzug von Hypertexten gilt dabei die Möglichkeit, diese mit Suchmaschinen zu kombinieren. Hypertexte eignen sich besonders für Textformen, die sich nur schwer linear präsentieren lassen, wie beispielsweise Gesetzestexte. Auch durch die Möglichkeit, dynamisch Kohärenz herzustellen, lassen sich Hypertexte verbessern: Auf diese Weise können Wissen, Ziele und Fertigkeiten des Benutzers bei der Darstellung von Information in einem Hypertext berücksichtigt werden (Benutzermodellierung), was bei gedruckten Medien nicht möglich ist. Foltz (1996) sieht also den wesentlichen Vorzug von Hypertexten gegenüber linearen Texten darin, daß die Möglichkeiten des Autors und des Computers dazu genutzt werden können, besser personalisierte Texte zu verfassen.