Читать книгу Sprachliche Kommunikation: Verstehen und Verständlichkeit - Steffen-Peter Ballstaedt - Страница 26
5.1 Indikatoren des VerstehensIndikatorenVerstehen
ОглавлениеHier geht es um die Erhebung von Variablen, die Schlüsse auf Prozesse des Verstehens und den kognitiven Aufwand zulassen. Sie werden während des Ablaufs des Verstehens erhoben.
VorlesenVorlesen
Verarbeitungsprozesse, die beim Lesen gewöhnlich still ablaufen, sollen beim lauten Lesen hörbar gemacht werden. Gemessen wird die Latenzzeit zwischen Darbietung des Textes auf einem Monitor und Beginn der WiedergabeWiedergabe (Recall), aber auch die Pausen und das Verlesen sind Indikatoren für Verarbeitungsprozesse (Danks et al., 1983). Allerdings ist die Interpretation der Daten aus verschiedenen Gründen schwierig: 1. Man kann auch vorlesen, ohne den Text richtig zu verstehen. Was z.B. während einer Verzögerung im Kopf abläuft, ist von außen nicht erkennbar. 2. Eine Leseverzögerung kann entweder auf eine schwierige Textstelle oder auf ein Defizit beim Lesenden, z.B. fehlendes VorwissenVorwissen, hinweisen. Die Flüssigkeit beim lauten Lesen wird als brauchbarer Indikator für Lesekompetenz eingesetzt (Fuchs et al., 2001). Diese Methode ermöglicht somit nur einen groben Einblick in das Verstehen.
Lautes Denkenlautes Denken
Mit dieser klassischen Methode wird versucht, die Entwicklung eines Verständnisses zu erfassen. Während des Lesens werden die Versuchspersonen (Vpn)1 angewiesen auszusprechen, was ihnen gerade durch den Kopf geht. Die verbalen Daten werden aufgezeichnet und qualitativ ausgewertet.
Die deutsche Denkpsychologie hat mit der Methode des lauten Denkenslautes Denken einen bisher kaum gewürdigten Beitrag zum Verstehen des Verstehens erbracht. Karl Bühler (1908) legte seinen Kollegen anspruchsvolle Sentenzen oder Sprichwörter vor.
(1) | Wer zur Quelle kommen will, muss gegen den Strom schwimmen. |
Nachdem eine Vp mit einem „Ja“ ihr Verständnis des Satzes signalisierte, sollte sie äußern, was ihr beim Verstehen durch den Kopf gegangen war. Selbst für Professoren wohl keine einfache Aufgabe. Ein damals wichtiger Befund: Denken ist ohne visuelle oder andere Vorstellungen möglich.
Die Validität dieses introspektiven Verfahrens wird unterschiedlich eingeschätzt. Einerseits wird darin eine Möglichkeit gesehen, an Denkprozesse heranzukommen, die mit anderen Methoden nicht erfassbar sind, z.B. Assoziationen, Wissensaktivierung, Schlussfolgerungen (Ericsson & Simon, 1980). Andererseits wird wohl nur ein Bruchteil dessen verbalisiert, was beim Verstehen im Gehirn tatsächlich abläuft (Nisbett & Wilson, 1977). Zudem lassen sich bei den retrospektiven Berichten fortlaufendes Verstehen und abschließendes Verständnis nicht trennen. Lautes Denken offenbart nicht die Verstehensprozesse selbst, sondern liefert nur einen metakognitiven Bericht darüber, der durch Vorannahmen beeinflusst sein kann (Ballstaedt & Mandl, 1984).
In einer Variante dieser Methode zum interdisziplinären Verstehen studierten Biologen historische FachtexteFachtext, Fachsprache und Historiker biologische Fachtexte und notierten am Rand der fachfremden Texte ihre Verständnisprobleme in Form von Fragen an den jeweiligen Autor (Reinhard et al., 1997). Anhand der problematischen Textstellen konnten fachspezifische Sichtweisen und interdisziplinäre Verständnisprobleme herausgearbeitet werden.
LesezeitenLesezeit
Wer länger braucht, um einen Text zu lesen, der investiert auch mehr kognitive Ressourcen gegenüber einem Adressaten, der das in kürzerer Zeit bewältigt. Diese summative Lesezeit sagt aber nichts über die konkreten Verstehensprozesse aus. Genauere Einsichten lassen sich aus den Lesezeiten einzelner Wörter und Wortgruppen gewinnen. So verwenden Just & Carpenter (1987) die Lesezeit pro Wort, Phrase oder Satz als Indikator des Verstehensaufwandes.
Sie entwickelten die LesezeitLesezeit-Methode des Moving Window. Das Sprachmaterial wird maskiert, z.B. jeder Buchstabe durch einen Bindestrich. Durch einen Tastendruck wird die erste sprachliche Einheit (ein Wort, eine Phrase, ein Satz) durch Buchstaben ersetzt, die Vp kann den Textteil lesen. Drückt die Vp wieder die Taste, verschwindet diese Texteinheit und die nächste erscheint auf dem Monitor. So wird der Text Einheit für Einheit dargeboten und die Verarbeitungszeit zwischen den Knopfdruckreaktionen für jede Einheit wird erfasst (Just, Carpenter & Woolley, 1982).
Zur Validität lässt sich anmerken: Der Verarbeitungsaufwand wird erfasst, aber es kann nur vermutet werden, auf welche Prozesse er zurückzuführen ist und was die Person verstanden hat. Zudem ist die Lesesituation sehr unnatürlich.
Reaktionszeiten: PrimingPriming
Auch kognitive Prozesse benötigen Zeit, wenn auch nur im Bereich von Millisekunden. Reaktionszeiten sagen etwas aus über den Aufwand, der für eine Verstehensaufgabe notwendig ist.
Ein weitgehend vergessener Pionier der kognitiven Psychologie ist der Niederländer Frans Cornelis Donders, eigentlich Mediziner und Augenarzt, der bereits 1868 Experimente zur mentalen Chronometrie durchführte. Ihn beschäftigte die Frage, ob und wie man die Dauer psychischer Prozesse messen könnte: „Sollte nun auch der Gedanke nicht die unendliche Schnelligkeit haben, die man ihm zuzuschreiben pflegt, und sollte es möglich sein, die Zeit zu bestimmen, die zur Bildung einer Vorstellung oder einer Willensbestimmung gefordert wird?“ (Donders, 1868, S. 4) Er ging davon aus, dass komplexe Prozesse mehr Zeit brauchen als einfache Prozesse. Er entwickelte die Subtraktionsmethode, bei der die Zeit zwischen einem Reiz und einer Reaktion bei zwei Aufgaben gemessen und verglichen wird, die einander bis auf einen vermuteten Teilprozess vollkommen gleichen. Die Differenz zwischen den durchschnittlichen Reaktionszeiten wird als Zeitbedarf des Teilprozesses interpretiert.
Eine chronometrische Methode ist für die Sprachverarbeitung ungemein wichtig: das PrimingPriming (to prime = vorbereiten, grundieren). Dabei wird die Reaktionszeit auf einen Zielreiz (Target) gemessen, dem ein Vorreiz (Prime) vorangeht. Der Prime beeinflusst die Reaktionszeit, sie wird schneller (facilitation) oder langsamer (inhibition). Mit Priming-Experimenten können Hypothesen zur Bahnung und Hemmung in konzeptuellen Netzenkonzeptuelles Netz überprüft werden. Unser Beispiel betrifft das Wortverstehen (zusammenfassend Neely, 1991).
Als Aufgabe wird eine lexikalische Entscheidung verlangt: Ist ein dargebotenes Wort ein Wort der deutschen Sprache, ja oder nein? Vor dem Zielwort (target), auf das die Vp reagieren soll, wird ein Vorreiz (Prime) gezeigt. Z.B. wird einer Gruppe von Vpn im ersten Durchgang „Brot“ als Prime vorgegeben, danach soll „Arzt“ als Zielwort (target) beurteilt werden, die Reaktionszeit wird in Millisekunden gemessen. Einer zweiten Gruppe von Vpn wird „krank“ als Prime gegeben, bei ihr ist die Reaktionszeit auf „Arzt“ deutlich kürzer. Die Zeitdifferenz zwischen den beiden Gruppen ist der PrimingPriming-Effekt, der umso größer ist, je enger die Beziehung zwischen Prime und Target ist. Die Erklärung: Unser Wissen ist in Netzwerken von Konzepten gespeichert, zwischen denen mehr oder weniger stark gebahnte Relationen bestehen. Jedes gehörte oder gelesene Wort erzeugt eine Aktivationsausbreitung, zwischen „krank“ und „Arzt“ besteht eine stärkere Verbindung als zwischen „Brot“ und „Arzt“, deshalb wird die Reaktion darauf erleichtert bzw. erfordert geringere Ressourcen.
Man spricht auch von einem semantischen Anwärmeffekt. Derartige Priming-EPrimingffekte sind sogar messbar, wenn ein vorgeschalteter Kontext so kurz dargeboten wird (40 Millisekunden), dass er von den Vpn nicht bewusst erkannt wird (Fischler & Goodman, 1978). Es gibt zahlreiche bewährte Varianten des Priming. Man kann nicht nur Wörter, sondern auch Satzteile und ganze Sätze voraktivieren. Priming-Experimente verlangen den Einsatz von Computern, um präzise Reaktionzeiten im Bereich von Millisekunden zu messen. Die Validität der Methode ist überzeugend, um Assoziationen im Gedächtnis aufzudecken.
EyeEye Tracking TrackingBlickbewegung (Eye Tracking)
Beim Lesen gleitet der Blick nicht kontinuierlich über die Zeilen, sondern bewegt sich mit Sakkaden (Sprüngen) und Fixationen vorwärts und manchmal auch wieder zurück (Regressionen). Nur während der Fixationen werden Wörter verarbeitet (ausführlicher Kap. 6.1). Die Fixationen und Sakkaden beim Lesen lassen sich mit Eye-Trackern genau registrieren (Bartl-Pokorny et al., 2013). Die Vp sitzt einem Monitor gegenüber, auf dem der Text präsentiert wird. Da beim Lesen die visuelle Aufmerksamkeit auf ein enges Areal auf einer Zeile fokussiert und eine sehr genaue zeitliche Auflösung notwendig ist, wird der Kopf durch eine Kinn- oder Stirnstütze stabilisiert. Um die Augenbewegungen zu erfassen, wird ein nicht sichtbarer Infrarot-Lichtstrahl über einen Spiegel auf das Auge der Vp gerichtet, seine Reflexion durch die Hornhaut wird von einer Kamera erfasst. Ein Computer mit entsprechender Software berechnet das Fixationsmuster, es wird als Scan Path visualisiert, bei dem die Sakkaden als Linien und die Fixationen als Kreise dargestellt werden. Für jede Vp muss der Tracker individuell kalibriert werden. Das sieht nicht wie eine natürliche Lesesituation aus, inzwischen gibt es auch Tracker ohne Stabilisierung des Kopfes, die Vp trägt nur eine Spezialbrille.
Bei einer typischen Blickbewegungsstudie wird z.B. ein Satz mit einer kritischen Region vorgegeben, z.B. mit einem Pronomen, das zum Verstehen aufgelöst werden muss.
(2) | Einstein hat mit Freud korrespondiert, persönlich hat er ihn 1926 in Berlin getroffen. |
Es kann nun überprüft werden, ob die Pronomen „er“ und „ihn“ länger fixiert werden und eventuell eine Regression in den Vorsatz erfolgt. Es liegen auch Studien zu den BlickbewegungenBlickbewegung (Eye Tracking) bei langen expositorischen Texten vor (Hyönä, Lorch & Kaakinen, 2002). Sie zeigen verschiedene Lesetaktiken, die zu unterschiedlichen Verstehensleistungen führten.
Die Fixationsmuster lassen valide Schlüsse auf den Verarbeitungsaufwand zu. Was aber während einer Fixation verarbeitet wird, bleibt unklar, es sind sicher nicht nur Prozesse des Worterkennens, sondern auch syntaktische Prozesse.
Neuropsychologische Techniken
Mit diesen Methoden werden Gehirnaktivitäten bei bestimmten Verstehensaufgaben sichtbar gemacht, also neurophysiologische Korrelate für Verarbeitungsprozesse (ausführlich Jäncke, 2017; Müller, 2013).
Ereigniskorrelierte Potenzialeereigniskorrelierte Potentiale (Event Related Potentials = ERP). Viele Elektroden werden auf der Kopfhaut befestigt, meist in einer Art Badekappe. Dann werden einer Gruppe von Vpn bestimmte sprachliche Reize vorgegeben, eine Kontrollgruppe bekommt diese Reize nicht präsentiert. So lässt sich ableiten, wo im Gehirn wann eine Veränderung des Wellenmusters auftritt. Die Methode hat eine gute zeitliche, aber eine schlechte räumliche Auflösung, denn die Messung erfasst nur sehr grobe summierte Potenziale und erlaubt keine genaue tiefere Lokalisierung im Gehirn.
Als Erste haben Kutas & Hillyard (1980) die Methode beim Sprachverstehen benutzt. Sie boten ihren Probanden Sätze, die eine semantische Inkongruenz enthielten, d.h. ein Wort, das nicht in den Kontext passt:
(3.1) | He took a sip from the transmitter. |
(3.2) | Nach dem Regen scheint wieder die Suppe. |
Der Satz wurde Wort für Wort, jeweils 100 Millisekunden auf einem Monitor präsentiert. Dabei wurde durchschnittlich um 400 Millisekunden nach dem kritischen Wort im parieto-temporalen Areal eine negative Amplitude abgeleitet, die N400 getauft wurde. In Folgeuntersuchungen wurde bestätigt, dass N400 eine Reaktion auf eine semantische Inkongruenz ist. Bei einer syntaktischen Verletzung taucht ein anderes Muster P600 auf. Auch eine Verletzung referentieller Bezüge führt zu bestimmten Mustern im posterioren Bereich (Hemforth, 2006). Aber was bedeutet z.B. N400 genau? 200 Millisekunden nach dem kritischen Wort ist das Satzverstehen bereits abgeschlossen, N400 zeigt also offenbar nachträgliche Verarbeitungsprozesse an (Müller, 2013).
Bildgebende Verfahren. Validere Daten liefern bildgebende Verfahrenbildgebende Verfahren, bei denen die Areale eingefärbt sichtbar gemacht werden, die bei Prozessen des Verstehens aktiviert sind. Bei der Positronenemissionstomografie (PET) werden der Vp radioaktiv markierte Substanzen injiziert, die sich in aktiven Zellen nachweisen lassen. Bei der Funktionellen Kernspintomografie (fMRT oder fMRI) werden nicht radioaktive Strahlungen, sondern magnetische Felder erfasst (ausführlich Jäncke, 2017). Auch die Magnetoencephalografie (MEG) erfasst magnetische Felder. Mit diesen Methoden können kleine Zellbereiche unterhalb von 1-4 mm3 (räumliche Auflösung) und Prozesse im Bereich von 100 msec (zeitliche Auflösung) untersucht werden.
In einer fMRI-Untersuchung lasen oder hörten Vpn vorstellungsaffine Sätze, in denen mentale Rotationen beschrieben wurden (Just et al. 2004):
(4) | The number eight when rotated 90 degree looks like a pair odspectacles. |
Die Vpn sollten entscheiden, ob die Sätze wahr oder falsch sind. Mit fMRI-Daten und deren VisualisierungenVisualisierung war nachzuweisen, dass beim Hören wie beim Lesen Areale des linken Scheitelhauptlappens aktiviert wurden, in denen visuelle Vorstellungenvisuelle Vorstellung, speziell mentale Rotationen generiert werden.
Diese neuropsychologischen Methoden sind vielversprechend, aber drei Nachteile sind nicht zu übersehen: 1. Sie erfordern einen erheblichen apparativen Aufwand. 2. Die Bedingungen, unter denen gemessen wird, sind für die Probanden nicht unbedingt angenehm und weichen weit von natürlichen Situationen ab. 3. Die Interpretation der Daten ist schwierig, denn gemessen wird nur, wo etwas geschieht, aber nicht was dort genau geschieht, das ist eine Einschränkung der Validität.
Simulative Methoden
Bei simulativen Methodensimulative Methode wird eine Teilfähigkeit der Sprachkompetenz mit Hilfe eines Computers nachgeahmt. Dazu schreiben Computerlinguisten Programme (Algorithmen), mit denen ein Computer ein vorgegebenes sprachliches Problem lösen kann, z.B. Subjekt und Objekt eines Satzes finden oder eine Antwort auf eine Frage geben. Die ursprüngliche Idee dahinter: Die einzelnen Schritte des Programms entsprechen den mentalen Prozessen, die beim Lösen des Problems im Gehirn ablaufen.
Aber diese Annahme wird inzwischen bezweifelt. Kein Sprachwissenschaftler geht heute davon aus, dass ein digitaler Computer ebenso funktioniert wie unser Gehirn. Wenn ein Computer einen deutschen Satz korrekt ins Englische übersetzt, bedeutet das nicht zwangsläufig, dass er es mit denselben Prozessen und Strukturen wie eine Übersetzerin tut. Trotzdem sind die Bemühungen, sprachverstehende und sprachproduzierende Systeme zu entwickeln, für die Sprachwissenschaft interessant. Denn der Programmieraufwand, der getrieben werden muss, um z.B. eine Anapher aufzulösen, zeigt die Schwierigkeiten auf, mit denen auch unser Gehirn beim Verstehen konfrontiert ist.
Nehmen wir an, wir konfrontieren einen sprachverarbeitenden Computer mit folgendem Satz (Hilpert, 2013):
(5) | Britta nahm die Zeitung von der Tischdecke und faltete sie zusammen. |
Auf was wird der Computer das Pronomen „sie“ beziehen? Auf die Tischdecke oder die Zeitung, denn beide kann man falten. Die Zuordnung des Pronomens ist nur möglich, wenn das Computerprogramm den Kontext analysiert: Ging es thematisch um die morgentliche Zeitungslektüre von Britta, dann ist die Zeitung der wahrscheinlichere Kandidat. Zum „Verstehen“ muss also ein Kontextbereich ausgewertet werden.
Computer verstehen zwar Sprache nicht wie wir Menschen, aber sie können sprachlichen Input verarbeiten, z.B. wenn Siri oder Alexa uns eine Auskunft auf eine Frage geben oder auf einen Sprachbefehl die gewünschte Musik abspielen (Kremer, 2013). Weitere Anwendungen sind die Sprachsteuerung von Geräten (Navi, Smartphone), das Vorlesen von Texten für sehbehinderte Menschen, das Diktieren von Texten, die maschinelle Übersetzung und Auskunftssysteme.
Ist schon die Wort- und Satzverarbeitung schwierig zu simulieren, bleibt die Textverarbeitung eine bisher kaum lösbare Aufgabe (Jacobs, 2003). Trotzdem ruhen auf simulativen Methodensimulative Methode viele Hoffnungen, dass sie zusammen mit den traditionellen und neuen neuropsychologischen Methoden dazu beitragen, Licht in das Dunkel des verstehenden Gehirns zu bringen.
In Kooperation der Universitäten Stuttgart und Tübingen sowie des Deutschen Literaturarchivs (DLA) Marbach und des Leibniz-Instituts für Wissensmedien Tübingen (IWM) wird ein Projekt „Understanding Understanding“ gestartet. Es soll geisteswissenschaftliche und computerlinguistische Ansätze zusammenführen.