Psychophysische Methoden zeichnen sich im allgemeinen dadurch aus, daß meistens ``Prozent korrekt'' als abhängige Variable eingesetzt wird. Gegenstand ist die Beziehung zwischen physikalischen Reizen und deren Wahrnehmung, wie sie sich in der psychophysischen Funktion zeigt, die die Abhängigkeit der empfundenen Intensität von der Reizintensität darstellt. Dabei soll primär die Sinnes-Empfindlichkeit untersucht werden, nicht die Reaktionsneigung der Versuchspersonen. Der Begründer dieser Methoden, Gustav T. Fechner, verwendete indirekte Methoden zur Messung der Unterschiedsschwelle. Bei der Frage nach den Sinnesempfindungen sind sowohl deren Grenzen als auch deren ``Wachtumsfunktion'' (wie wird ein Zuwachs der Reizintensität in einen Zuwachs der Empfindungsintensität transformiert) von großem Interesse.
Wichtig dabei ist das Konzept der Schwelle, das nicht von einer festen Grenze ausgeht, sondern davon, daß Intensitäten im Grenzbereich manchmal entdeckt werden und manchmal nicht. Daher muß die Empfindungsschwelle einer Person statistisch definiert werden.
Experimente zur Reizdetektion beschäftigen sich mit der Frage, welche physikalische Energie mindestens erforderlich ist, um einen Reiz zu erkennen; dazu wird die absolute Schwelle bestimmt, bei der der Reiz in 50% der Fälle erkannt wird. Es wird die absolute Schwelle in Abhängigkeit von einem physikalischen Attribut oder von einem bestimmten Zustand des Beobachters gemessen. Üblicherweise werden dazu einzelne Reize vor einem ``Null-Hintergrund'' dargeboten und der Beobachter soll nur berichten, ob ein Reiz wahrnehmbar war oder nicht. Dazu können zwei verschiedene Methoden eingesetzt werden:
Üblicherweise wechseln aufsteigende und absteigende Durchgänge einander ab. Problematisch bei dieser Methode ist das Auftreten von Habituationsfehlern (error of habituation), die auf der Tendenz beruhen, eine wahrgenommene Empfindung bei absteigenden Durchgängen auch weiter zu berichten (bzw. bei aufsteigenden Durchgängen weiter nicht zu berichten). Ein weiteres Problem stellen Erwartungseffekte (error of expectation) dar, durch die nach einer bestimmten Anzahl von Reizpräsentationen von Wahrnehmung zu Nicht-Wahrnehmung übergegangen wird (und umgekehrt). Eine mögliche Lösung besteht darin, bei jeder Schwellenbestimmung die gleiche Anzahl von aufsteigenden und absteigenden Durchläufen einzusetzen und über diese zu mitteln. Außerdem kann das Ausgangsniveau variiert werden.
Zu große Schrittweiten führen dazu, daß die 50%-Schwelle nicht mehr genau bestimmt werden kann; zu kleine Schrittweiten führen dagegen zwar zu genaueren Schätzungen, die aber einen wesentlich größeren Aufwand verursachen.
Meist wird die Apparatur so konzipiert, daß der Versuchsleiter durch eine zweite Einstellungsmöglichkeit die Ausgangsintensität variieren kann, so daß nicht einfach ein ``Hebel-Drehen'' von der Versuchsperson erlernt wird. Habituations- und Erwartungseffekte können dadurch minimiert werden, daß in einem Durchgang sowohl aufsteigende als auch absteigende Intensitäten eingesetzt werden (die VP soll beim Erreichen der Schwelle die Drehrichtung ändern).
Zur Identifikation von bestimmten Reaktionsneigungen können catch trials in den Versuch eingestreut werden, bei denen gar kein Reiz dargeboten wird. Die Häufigkeit, mit der bei solchen Durchgängen die Wahrnehmung eines Reizes behauptet wird, kann zur Korrektur der Reaktionsneigungen verwendet werden. Neben diesem Vorteil zeichnet sich die Konstanzmethode auch durch hohe Präzision aus. Nachteilig ist allerdings der damit verbundene hohe Aufwand.
beträgt der Wert von P gleich . Zur Minimierung der Auswirkung von Adaptations- und Habituationseffekten werden meist mehrere solcher Prozedruren miteinander verflochten.
Insgesamt ergeben die verschiedenen Verfahren ähnliche Schätzungen für die Schwellen. Allerdings tendieren die adaptiven und die Forced-Choice-Methoden dazu, die Schwellen etwas niedriger zu schätzen als die anderen Methoden.
Experimente zur Reizdiskrimination fragen nach den minimalen Reizintensitäts-Unterschieden, die dazu führen, daß zwei Reize unterschieden werden können; dazu wird die Unterschiedsschwelle bestimmt, bei der der Reizunterschied bei zwei Antwortkategorien in 75% der Fälle erkannt werden kann (bzw. in 50% der Fälle bei drei Antwortkategorien). Dazu können die Reize simultan oder sukzessiv präsentiert werden.
Man unterscheidet Experimente mit zwei Antwortkategorien (größer - kleiner), bei denen die Versuchspersonen ihre Antworten auf beide Kategorien gleich aufteilen sollen, wenn dich die Empfindungen nicht unterscheiden, und Experimente mit drei Antwortkategorien (größer - gleich - kleiner). Die Verwendung von drei Antwortkategorien erwies sich als suboptimal, da dadurch die Verwendung der mittleren Antwortkategorie, die für die Auswertung keinen Informationsgewinn bringt, begünstigt wird. Außerdem treten große interindividuelle Unterschiede in der Verwendung der mittleren Kategorie auf.
Der ebenmerkliche Unterschied (jnd) bezeichnet die minimale physikalische Intensitätsänderung, die noch wahrnehmbar ist (in 50% der Fälle). Der Punkt der subjektiven Gleichheit (PSE), bei dem der Vergleichsreiz als gleichintensiv wie der Standardreiz empfunden wird, muß nicht immer genau dem Standardreiz entsprechen.
Üblicherweise wird für entsprechende Untersuchungen die Konstanzmethode mit zwei Antwortalternativen (two alternative forced choice) eingesetzt: Auch hier erfolgt also wieder eine randomisierte Präsentation der Reizpaare. Da nur zwei Antwortalternativen vorgegeben sind, erhält man eine einzige psychometrische Funktion, die den Anteil von ``größer''-Urteilen in Abhängigkeit von der Intensität des Vergleichsreizes zeigt. Der Punkt der subjektiven Gleichheit (PSE) ist wieder derjenige, bei dem dieser Anteil genau 50% beträgt. Die obere Unterschiedsschwelle ist die Differenz zwischen dem PSE und demjenigen Reiz, der in 75% der Fälle als ``größer'' bezeichnet wird; die untere Unterschiedsschwelle bezeichnet die Differenz zwischen dem PSE und demjenigen Reiz, der in 25% der Fälle als ``größer'' bezeichnet wird. Der ebenmerkliche Unterschied (jnd) ist als arithmetisches Mittel von oberer und unterer Unterschiedsschwelle definiert.
Je steiler die psychometrische Funktion ist, desto kleiner wird der ebenmerkliche Unterschied und desto größer ist damit die Empfindlichkeit des untersuchten Sensoriums. An die psychometrische Funktion wird üblicherweise eine Normalverteilung angepaßt; man kann sie aber auch durch z-standardisierte Werte darstellen, so daß sich ein linearer Zusammenhang ergibt, der mit herkömmlichen Methoden zur Regressionsanalyse bestimmt werden kann.
Die Detektion schwellennaher Reize gelingt manchmal und manchmal gelingt sie nicht. Daher können Inkonsistenzen im Antwortverhalten der Versuchspersonen auftreten. Schwellenkonzepte versuchen, diese Inkonsistenzen vorherzusagen und entsprechende Methoden zur Verfügung zu stellen, um dennoch die Schwellen bestimmen zu können.
Die klassische Schwellentheorie nach Fechner geht von drei verschiedenen Kontinua aus: Reizkontinuum, internes Reaktionskontinuum und Beurteilungskontinuum. Ein Reiz bestimmter Intensität produziert eine interne Reaktion (d.h. eine Empfindung), deren Wert von Durchgang zu Durchgang normalverteilt variiert aufgrund von geringen Veränderungen in den Rezeptoren des Beobachters, dessen Aufmerksamkeit usw. Nach der klassischen Theorie ist die Schwelle ein fester Punkt auf diesem internen Reaktionskontinuum. Theoretisch wird sich der Beobachter aller Empfindungen bewußt, die oberhalb dieser Schwelle liegen, und er wird sich der Empfindungen nicht bewußt, die darunter liegen. Dementsprechend geben sie auch ihre Urteile über die Anwesenheit oder Abwesenheit eines Reizes ab. Werden die vorgegebenen Reizintensitäten relativ eng um diese Schwelle herum ausgewählt, zeigt die psychometrische Funktion (Reizintensität vs. Detektionswahrscheinlichkeit) einen annähernd normalverteilten Verlauf.
Eine weitere Annahme ist, daß die Präsentation eines Reizes mit Null-Intensität niemals zu einer Empfindung führt (catch trials). Weil dadurch die Schwelle sozusagen hoch ist, bezeichnet man die klassische Schwellentheorie auch als hohe Schwellentheorie. Es existieren aber deutliche Hinweise darauf, daß Versuchspersonen auch unterschwellige Reize erkennen können, da sie diese mit einer Wahrscheinlichkeit richtig benennen können, die über der Ratewahrscheinlichkeit liegt. Die exakten Werte für die absolute Schwelle werden von den klassischen Methoden daher eher überschätzt, so daß die Versuchspersonen tatsächlich sensitiver sind, als angenommen. Diese Methoden setzen auch nur sehr selten (wenn überhaupt) catch-trials ein.
Die Signalentdeckungstheorie geht von einem intrinsischen Rauschen aus, das den Hintergrund bildet, vor dem der Reiz erkannt werden soll. Es wird angenommen, daß sich der Beobachter eines Kontinuums an Empfindungen bewußt ist, das von sehr geringen Intensitäten, die wahrscheinlich auf neuronalem Rauschen beruhen, bis hin zu hohen Intensitäten, die wahrscheinlich auf einem externen Signal beruhen, reicht. Außerdem liegt ein bestimmtes Kriterium (response threshold) vor, ab dem man sich für oder gegen die Existenz eines externen Signals entscheidet.
In den hierzu durchgeführten Signalentdeckungs-Experimenten wird meist ein Signal vor einem Hintergrundrauschen präsentiert. Man geht davon aus, daß wiederholte Präsentation von Signal und Rauschen eine Normalverteilung von Empfindungen mit dem Mittelwert erzeugt, der oberhalb des Mittelwertes der Verteilung von Rauschen alleine liegt. Die Standardabweichung der Verteilung bei Rauschen alleine sei , die Standardabweichung der Verteilung von Signal und Rauschen zusammen sei .
Auf dem Empfindungskontinuum liegt auch das Kriterium c der Versuchsperson, ab dem sie sagt, ein Signal liege vor. Bei Signalentdeckungs-Experimenten werden relativ viele Durchgänge präsentiert, bei denen nur Rauschen dargeboten wird. Deshalb sind folgende vier Arten von bedingten Reaktionen möglich:
Die beiden Mittelwerte können nicht direkt bestimmt werden, nur deren Differenz. Berechnet man diese Differenz in z-Werten, ist auch gleich die Normierung an der Standardabweichung des Rauschens erfolgt. Unter der Annahme, daß die Standardabweichungen von Signal und Rauschen gleich sind, kann man aus einer einzigen Hit-Rate und False-Alarm-Rate berechnen. Der Wert von gibt an, um wieviele Standardabweichungen die Signal- und die Rausch-Verteilung auseinander liegen; eine einfacherer Formel lautet daher
Das Maß des Bias beschreibt die Lage des Kriteriums einer Versuchsperson. Es wird als Verhältnis der Ordinatenwerte von Signal- und Rausch-Verteilung an der Stelle c bestimmt:
Man bezeichnet daher auch als Kriteriums-Likelihood-Quotient (oder criterion likelihhod ration), weil es das Verhältnis von der Likelihood angibt, mit der eine bestimmte Beobachtung x aus der Signalverteilung ausgewählt worden ist, zu der Likelihood, daß sie aus der Rausch-Verteilung ausgewählt wurde. Es wird davon ausgegangen, daß die Versuchsperson zu jeder Beobachtung x den Likelihoodquotienten berechnet, und dann mit ``ja'' antwortet, wenn dieser größer ist als das Kriterium c. In entsprechenden Experimenten wird das Kriterium durch unterschiedliche Signalwahrscheinlichkeiten oder Pay-Off-Matrizen systematisch variiert.
Ein vom mathematischen Standpunkt optimaler Wert für das Kriterium hängt von der Wahrscheinlichkeit für Rauschen alleine und der Wahrscheinlichkeit für Rauschen und Signal zusammen ab und berücksichtigt gleichzeitig den Pay-Off, also den Wert von Hits und Correct Rejection sowie die Kosten von False-Alarms und von Misses :
Dieses Entscheidungskriterium versucht, den Pay-Off, der sich aus der Aufgabenstellung ergibt, zu maximieren.
Die Ergebnisse eines Signalentdeckungs-Experiments lassen sich in einer ROC-Kurve (receiver operating characteristic curve) zusammenfassen, indem man die Wahrscheinlichkeit für einen falschen Alarm (Abszisse) gegen die Wahrscheinlichkeit für einen Hit (Ordinate) abträgt. Die gesamte Kurve erhält man durch systematisches Variieren der Pay-Off-Matrizen oder der Signal-Wahrscheinlichkeit.
Signale von hoher Intensität oder sehr sensitive Versuchspersonen liegen im oberen linken Bereich und besitzen ein großes ; je größer der Wert von wird, desto weiter liegt die ROC-Kurve in der linken oberen Ecke. Die Hauptdiagonale repräsentiert Diskriminationsleistung auf dem Zufallsniveau. Entlangwandern an einer ROC-Kurve repräsentiert verschiedene Kriterien c bei gleichbleibender Empfindlichkeit . Bei einem liberalem Kriterium liegen die Punkte im rechten oberen Bereich über der Hauptdiagonale, bei einem konservativen Kriterium liegen sie im linken unteren Bereich über der Hauptdiagonale.
Es existieren drei verschiedene Arten von experimentellen Ansätzen zur Signalentdeckungs-Theorie, wobei bei allen in der Regel jede Versuchsperson einzeln analysiert wird:
Ursprünglich diente Skalierung zur Bestimmung der psychophysischen Funktion. Psychologische Intensität meint dabei die phänomenologische Erfahrung, die sich durch Begriffe wie Helligkeit, Lautheit, Wärme, Schmerz usw. beschreiben läßt. Die traditionellen Skalierungsprozeduren untersuchten, wie sich die Empfindungen auf einer Dimension verändern, wenn eine Reizdimension variiert.
Bei der eindimensionalen Skalierung kann man die quantitativen Dimensionen (prothetic) von den qualitativen Dimensionen (metathetic) unterscheiden:
wobei die Konstante als Weber-Konstante bezeichnet wird. Das Webersche Gesetz trifft für prothetische Kontinua zu, weniger für metathetische. Fechner erweiterte das Webersche Gesetz, so daß es nicht nur zur Unterscheidbarkeit von Reizen, sondern auch zur Skalierung von deren subjektiver Intensität eingesetzt werden kann: Er ging von der Annahme aus, daß Menschen nicht die absolute Größe ihrer Empfindungen beurteilen können, sondern nur deren Größe relativ zu anderen Empfindungen. Folgende Annahmen liegen dem Modell zugrunde:
Die Empfindung S wird dabei durch einen Reiz der Intensität I ausgelöst. Spätere Forscher, die die Empfindungsintensität direkt - und nicht über ebenmerkliche Unterschiede - gemessen haben, fanden aber Abweichungen zwischen dieser logarithmischen Funktion und den beobachteten Daten. Stevens argumentiert für einen exponentiellen Zusammenhang nach dem Power Law:
Die Konstante a hängt nur von der dem Standardreiz (willkürlich vom Experimentator) zugeordneten Zahl ab, der Exponent b ist gleich Eins, wenn die Empfindungsintensität linear mit der Reizintensität zunimmt, größer als Eins, wenn die Empfindung schneller als der Reiz zunimmt (z.B. bei Schmerz) und kleiner als Eins, wenn die Empfindungsintensität langsamer als die Reizintensität ansteigt. Der letzte Fall (und nur dieser) kann auch durch die Fechnersche logarithmische Funktion modelliert werden. Bei der Darstellung in log-log-Koordinaten wird eine exponentielle psychophysische Funktion zu einer Geraden, deren Steigung durch die Konstante b gegeben ist.
Zur direkten Skalierung wurden, insbesondere von Stevens, neue Methoden entwickelt:
Eine weitere Methode zur Skalierung ist das category scaling, bei dem der Versuchsperson eine kleine Menge von (beispielsweise fünf) Zahlen vorgegeben wird, mittels derer sie vorgegebene Reize kategorisieren sollen. Dabei werden die Versuchspersonen aufgefordert, gleiche Abstände zwischen den Kategorien zu realisieren; entfällt diese Forderung, spricht man von Rating Skalen. Mit diesen Methoden erhält man meist etwas andere psychophysische Funktionen als bei Magnitude Estimation.
Bei der multidimensionalen Skalierung soll ein psychologischer Euklidischer Raum konstruiert werden, innerhalb dessen Reize so angeordnet werden, daß deren Entfernung auch der psychologischen Ähnlichkeit entspricht. Durch entsprechende Methoden kann man auch Einsichten in die Dimensionen gewinnen, die den Ähnlichkeitsurteilen zugrunde liegen. Die Methoden der multidimensionalen Skalierung gehen aber davon aus, daß den Ähnlichkeiten Dimensionen zugrunde liegen, und nicht einzelne Merkmale, die entweder vorhanden sind oder nicht.
Die Clusteranalyse verwendet ebenfalls Ähnlichkeitsmatrizen als Input. Das Ergebnis ist eine Reihe von Unterteilungen der Reize in immer spezifischer werdende Cluster mit maximaler Ähnlichkeit innerhalb der Cluster und maximaler Unähnlichkeit zwischen den Clustern. Oft unterscheiden sich die Ergebnisse deutlich von denen einer multidimensionalen Skalierung. Je näher einzelne Items in der Lösung der Clusteranalyse beieinander liegen, desto ähnlicher werden sie empfunden. Clustering-Techniken sind besonders dann geeignet, wenn sich die Objekte eher aufgrund von Merkmalen unterscheiden als in ganzen Dimensionen.