Читать книгу Einführung in die Textlinguistik - Monika Schwarz-Friesel - Страница 11

2.4 Methoden

Оглавление

„Wissenschaftler haben herausgefunden, dass …“ – wieoft liest man solche Sätze, die immer den Eindruck großer Gewissheit erwecken, besonders, wenn hinzugefügt wird „mit neuester Computertechnik“. Je technischer die Methoden, desto größer die Autorität der Forscher, so der Eindruck. Tatsächlich ist aber nur diejenige Methode gut, die zu der Fragestellung oder Hypothese passt, die untersucht werden soll. Und generell gilt, dass jede Methode im Forschungsprozess stets reflektiert und ihre Anwendbarkeit immer wieder aufs Neue kritisch überprüft werden muss.

Methoden

Introspektion

Methoden sind Verfahren, mit denen Erkenntnisse über einen bestimmten Untersuchungsgegenstand gewonnen werden sollen. Jede Wissenschaft hat in der Regel ihre eigene, dem jeweiligen Forschungsgegenstand angepasste Methodik. In der Linguistik (und Textlinguistik) wurde und wird primär die Introspektion (Selbstbeobachtung) benutzt (s. Willems 2012). Diese rationalistische Denkmethode geht davon aus, dass der menschliche Geist, aufgrund von kognitiven Prozessen, insbesondere aufgrund seiner Intuition, in der Lage ist, Aussagen über Phänomene in der Welt, aber auch über den eigenen Kopf zu machen. In der Textlinguistik (und den meisten anderen geisteswissenschaftlichen Disziplinen) führt dies dazu, dass individuelle Beobachtungen und Überlegungen zu bestimmten sprachlichen Phänomenen (z.B. Kohäsion und Kohärenz, Textsorten) systematisiert in Form von allgemeinen Aussagen zusammengefasst werden, etwa als „Kohäsion und Kohärenz sind textinterne Textualitätskriterien, die unabhängig voneinander auftreten können“. In den letzten Jahren wird die introspektive Vorgehensweise in der (kognitiven) Linguistik zunehmend ergänzt durch empirische Methoden wie Korpusanalysen, Fragebogenstudien und Experimente (s. Kertész et al. 2012a). Die für die Textlinguistik wichtigsten Verfahren stellen wir im Folgenden kurz vor. Dieser Abschnitt integriert dabei zum einen allgemeine Fragen zur Methodik, die nicht nur, aber auch für die Textlinguistik als datenbasierte und erklärende Wissenschaft interessant sind, zum anderen gibt er auch ganz anwendungsorientiert Antworten auf Fragen, die sich bei der Konzeption textlinguistischer Seminar- oder Abschlussarbeiten stellen: Welche Methode ist die richtige für mein Thema? Gibt es Methoden empirischer, also beobachtender Forschung, die im einfachen Rahmen einer Hausarbeit handhabbar sind? Wie verknüpfe ich Theorie und Daten? Vieles hiervon ist im Prinzip auf alle datenbasierten Studien in der Linguistik anwendbar. Am Ende des Abschnitts werden anspruchsvollere Methoden speziell der Psycho- und Neurolinguistik vorgestellt. Viele Annahmen über die menschliche Textverarbeitung wurden und werden mit derartigen Methoden gestützt und weiterentwickelt (und wir verweisen im Buch auf einige der experimentellen Untersuchungen). Daher sollte man sie kennen und verstehen, auch wenn man sie mangels technischer Ausrüstung selber nicht immer wird anwenden können.

Daten

Der Gegenstand der Textlinguistik sind Manifestationen der sprachlichen, genauer der textuellen Kompetenz, wobei diese Kompetenz als kognitives Kenntnis- und Verarbeitungssystem gesehen wird. Texte sind somit Produkte, Ergebnisse des menschlichen Geistes, die in der alltäglichen Kommunikation wahrnehmbar sind. Textlinguistische Theorien fußen zunächst einmal auf Beobachtungen, die systematisch und planvoll durchgeführt werden. In der Systematik eines Forschungsprogramms werden solche Beobachtungen zu Daten – seien es Auswertungen aus Textsammlungen (Korpora) oder Ergebnisse einer Fragebogenstudie oder eines Experiments. Dies kennzeichnet die Textlinguistik als eine empirische Wissenschaft. Weitere empirische Wissenschaften sind Psychologie, Sozial- und Naturwissenschaften, im Gegensatz zu den nicht-empirischen Wissenschaften Mathematik, Philosophie, Theologie und auch gewissen Ausprägungen der formalen Semantik innerhalb der Linguistik – diese letzteren haben das Ziel, ein in sich widerspruchsfreies Begriffsgebäude zu schaffen. So sind d) und e) empirische Aussagen, a), b) und c) aber nicht:

a) Parallelen schneiden sich im Unendlichen.

b) Böse Menschen kommen in die Hölle.

c) Aussagenvariablen sind wahr in der Welt w, wenn die Interpretationsfunktion ihnen in w den Wert „wahr“ zuweist. (www.wikipedia.org)

d) Der Gebrauch von Anglizismen in Zeitungstexten hat in den letzten Jahren zugenommen.

e) Bilder erleichtern die Rezeption von Texten.

Die Sätze a) und b) haben ausdrücklichen Bezug auf einen transzendenten, hypothetischen Ort oder Zustand, der für den Menschen weder direkt noch indirekt beobachtbar ist, somit ist ihre ganze Aussage durch empirische Beobachtung weder zu bestätigen, noch zu widerlegen. Zumindest a) und c) sind Axiome, Aussagen, die als Grundlage einer Theorie angenommen werden und sozusagen von alleine als wahr gelten und ein widerspruchsfreies Theoriegebäude ermöglichen, ohne selber ableitbar oder weiter begründbar zu sein. d) und e) hingegen sind Behauptungen, die sich durch systematische Beobachtung als wahr oder falsch erweisen können. Für eine Überprüfung von d) durch Beobachtung müsste man einfach nachzählen – allerdings braucht man zum Nachzählen (also der quantitativen Erfassung) zunächst eine brauchbare Definition von „Anglizismus“, eine geeignete Stichprobe von Zeitungstexten und natürlich eine genaue Angabe, was denn „in den letzten Jahren“ heißt. Satz d) ist ein typischer Fall für eine Korpusstudie – wir werden später darauf zurückkommen. Auch Satz e) ist im Prinzip durch Beobachtung überprüfbar, jedoch ist hier gar nicht so klar, was eigentlich unter einer „erleichterten Rezeption“ zu verstehen ist und wie man eine solche Erleichterung messen kann – ein Fall für technisierte psycholinguistische Methoden, auf die wir auch noch zu sprechen kommen.

Die Sätze a) bis e) sind natürlich eingebettet in ihre jeweiligen Theoriesysteme. So wie z.B. Physiker ein „großes Ganzes“ beschreiben möchten, das einzelne experimentelle Beobachtungen in einem einheitlichen System erklärt, so gehen auch textlinguistische Theorien über die reine Beobachtung hinaus. Sie beinhalten Annahmen über das kognitive System selbst, das dem beobachtbaren Verhalten von Sprachbenutzern zugrunde liegt (s. Schwarz 32008, Kertész et al. 2012b).

Theorie

Eine Theorie erschöpft sich also auch in einer empirischen Wissenschaft nicht in Datensammelei. Sie ist ein System von Hypothesen, die aufeinander bezogen sind oder die zusammen ein übergeordnetes Phänomen erklären. Ein (bewusst triviales) Beispiel: Die Hypothesen (1) Der Gärtner hat den Grafen gehasst, (2) Der Gärtner wusste, dass der Graf an jenem Abend spät nach Hause kommen würde, (3) Der Gärtner lauerte dem Grafen nachts hinterm Fliederbusch auf und schlug ihm von hinten die Astschere auf den Schädel, (4) Anschließend versenkte der Gärtner die Astschere im Teich – bilden zusammen die Theorie „Der Gärtner ist der Mörder des Grafen“. Um die Theorie zu beweisen, muss jede Hypothese einzeln erhärtet werden. Sollte sich Hypothese (1) als falsch erweisen und durch keine gleichwertige ersetzt werden können, ist die Theorie mangels Motiv unplausibel; sollte (2) widerlegt werden, fehlt die Gelegenheit zum Mord, usw. Hypothesen sind also noch unbestätigte, aber überprüfbare Annahmen, die im Zusammenhang einer Theorie stehen. Wissenschaftliche Theorien sind nicht wirklich beweisbar (verifizierbar) – es könnten immer noch neue Fakten auftauchen, die sie widerlegen (also falsifizieren) – aber sie sind durch Daten, also systematische Beobachtungen, stützbar und können sich in der Anwendung auf immer neue Daten bewähren.

Am Anfang jeder Studie (z.B. einer Seminararbeit) steht eine bestimmte Fragestellung, die nicht unbedingt für sich alleine eine Theorie bilden muss. Vielleicht geht es nur um eine einzelne Hypothese, dann sollte man sich darüber im Klaren sein, in welche Theorie sich diese einbetten lässt. Jede Fragestellung sollte sich indes als Hypothese(n) formulieren lassen. Hier zwei Fragestellungen als Beispiel (s. hierzu ausführlicher die Tipps für die Planung einer Seminararbeit im Onlinematerial auf der Texlinguistik-Einführung-Seite):

f) Wie funktioniert die Rezeption von Texten?

g) Werden bei der Rezeption von Texten zuerst grammatische Informationen und dann konzeptuelles Wissen genutzt oder beides gleichzeitig?

Die Frage f) ist natürlich eine zentrale Frage der Textlinguistik, aber zu allgemein gestellt, um empirisch überprüfbar zu sein. Sie lässt sich nicht als wissenschaftlich präzise Hypothese formulieren. Die Frage g) könnte einen Teilaspekt einer Theorie zur Rezeption von Texten abdecken; als Hypothese kann man aus der Oder-Frage entweder das eine oder andere auswählen und – zumindest mit experimentellen Methoden – testen (dazu mehr am Ende dieses Kapitels).

Operationalisierung

Jedoch können auch in empirischen Hypothesen nicht alle Konzepte direkt beobachtet und getestet werden, so wie oben in e) „erleichterte Rezeption“. Zwischen Hypothese und Test steht daher noch ein wichtiger Schritt, die sog. Operationalisierung. Operationalisierung heißt: Theoretische Konzepte werden beobachtbar gemacht. Nehmen wir zwei weitere empirische Hypothesen als Beispiel hinzu:

h) Frauen sind sprachlich begabter als Männer.

i) Je älter ein Mensch ist, desto größer ist sein Wortschatz.

Vielleicht kann man diese Hypothesen mittels einer Fragebogenstudie bewerten. In h) sind dann die Konzepte Geschlecht und Sprachbegabung involviert, in i) Alter und Wortschatz. Das Geschlecht eines Probanden festzustellen, dürfte in einer Fragebogenstudie kein Forscher als Problem empfinden: Die Definition von Frau und Mann in h) lautet dann nämlich: Frauen sind die, die in der ersten Zeile des Fragebogens „weiblich“ angekreuzt haben, Männer die, die „männlich“ angekreuzt haben. Das ist eine sogenannte Operationaldefinition, und man sieht, wie weit sich so eine Operationaldefinition vom ursprünglichen Geschlechts-Konzept – das ja eher mit X- und Y-Chromosomen zu tun haben mag – entfernen kann und welche Fehlerquellen eine Operationalisierung mit sich bringen kann (Probanden könnten sich verschreiben oder lügen). Auch das Konzept Alter wird man wohl in einem Fragebogen durch eine Selbstangabe definieren. Viel schwieriger ist natürlich, sprachliche Begabung messbar zu machen. Was will man darunter genau verstehen? Wie viele Fremdsprachen jemand beherrscht? Und wie kann man so etwas erfragen? Eine bloße Selbstangabe von Fremdsprachkenntnissen mit den Kategorienkästchen „fließend/mittel/Grundkenntnisse“ wäre zu subjektiv, vielleicht würden Männer selbstbewusster an die Sache herangehen und sich bei schlechteren Kenntnissen besser einschätzen. Die Hypothese h) würde dann aufgrund der empirischen Befunde zurückgewiesen, obwohl sie stimmt; bloß die Operationalisierung war fehlerhaft. Oder ist Sprachbegabung die Geschwindigkeit, mit der man einen Text lesen kann? Oder nehmen wir die sprachlichen Teile aus Intelligenztests und bilden einen Score? (Dann würden wohl lexikalische Fähigkeiten gemessen, aber keine grammatischen oder textuellen.) Sprachbegabung wäre dann operationalisiert als eine Punktzahl, die ein Proband in einem Fragebogen erzielt. Für das Konzept WORTSCHATZ lassen sich ähnliche Probleme denken. Je nach Operationalisierung würden wohl ganz verschiedene Ergebnisse herauskommen.

Hypothese

Nach der Operationalisierung sollte man sich noch einmal klar machen, wie die getesteten Konzepte sich zueinander verhalten: Hypothesen betreffen den kausalen Zusammenhang zwischen (mindestens) zwei Größen, diese nennt man hier Variablen; man kann das als Wenn-Dann-Beziehung ausdrücken (wie hier in h): Wenn jemand eine Frau ist, dann ist sie sprachbegabter als der Durchschnitt aus allen Menschen, oder e): Wenn ein Text Bilder enthält, ist er leichter zu rezipieren, als der gleiche Text ohne Bilder) – oder als Je-Desto-Beziehung (wie in i): je älter ein Mensch, desto größer der Wortschatz).

Variable

Die Variable, die die Ursache erfassen soll – hier im Beispiel Geschlecht bzw. Bebilderung bzw. Alter – heißt „unabhängige“ oder „erklärende Variable“. Die Variable, die die Wirkung misst, heißt „abhängige Variable“ (Sprachbegabung, Rezeption, Wortschatzgröße). Welche Beziehung zwischen den beiden Variablen müsste sich im Experiment zeigen, wenn die Hypothese stimmt? Dies sollte schon vorher klar sein.

Korrelation

Ergebnis eines Experiments oder einer Korpusanalyse ist allerdings keine kausale, sondern eine rein statistische Beziehung, eine sogenannte Korrelation. Von einer Korrelation hofft man nur, dass sie ein Anzeichen für eine Kausalbeziehung ist. Ein Beispiel, das in kaum einer Statistik-Einführung fehlt, ist folgendes (Monka et al. 52008):

j) Woes Störche gibt, bekommen die Menschen mehr Kinder.

Diese Korrelation ist vielerorts nachweisbar, und ein statistikgläubiger Mensch würde sie als Beleg für die Hypothese ansehen, dass der Storch den Menschen die Kinder bringt. Tatsächlich ist aber eine dritte Variable im Spiel, nämlich Urbanität. In ländlichen Gegenden ist die Geburtenrate höher, aus welchen sozialen oder kulturellen Umständen auch immer, und Störche sind natürlich eher auf dem Lande anzutreffen als in der Großstadt. Die vermeintlich unabhängige Variable Storchenaufkommen und die vermeintlich davon abhängige Variable Geburtenrate hängen also beide von derselben Drittvariablen ab und zeigen daher eine statistische Korrelation. Störche und Geburtenrate sind beides abhängige Variablen der unabhängigen Variable Urbanität. Statistik ersetzt also keinen Verstand.

Oft wird ein erstes Experiment nicht die gewünschten Ergebnisse bringen: Nach einer Datenrunde wird man eine zweite Theorierunde einlegen, in der die Hypothese verfeinert wird und weitere mögliche Variablen eingeführt werden. So könnte in unserem rein fiktiven Beispiel h) Frauen sind sprachlich begabter als Männer. eine erste Fragebogenstudie eine statistisch nur sehr schwache Korrelation ergeben haben. Vielleicht deutet dies auf eine nur schwache Kausalität hin, die Hypothese taugt dann nicht viel. Vielleicht besteht der vermutete Geschlechterunterschied aber nur bei Menschen bis zu einem gewissen Bildungsgrad und nivelliert sich bei akademischer Ausbildung. Die Hypothese wäre dann zu undifferenziert gewesen – ob dies der Fall ist, sehen wir nur, wenn wir die Variable Bildungsabschluss berücksichtigen. Im ersten Testlauf haben wir die Probanden nach dieser Variable gar nicht gefragt, weil sie nicht Teil der Theorie war. Nun ist also ein zweites Fragebogenexperiment fällig, diesmal mit verfeinerter These. Dabei könnte sich zeigen: Es gibt eine Korrelation zwischen Geschlecht und Sprachbegabung, aber nur bei Probanden ohne Hochschulbildung.

Auf diese Weise führen empirische Ergebnisse nur selten zur endgültigen Beantwortung einer Forschungsfrage; sie laden vielmehr zu immer differen-zierteren Theorien ein, die dann ihrerseits wieder empirisch getestet werden – eine Spirale zunehmender Erkenntnis. Forschung wird daher oft als Spiralenmodell dargestellt. Wer an einer Seminar- oder Abschlussarbeit schreibt oder Teil einer befristet finanzierten Forschergruppe ist, wird aber vermutlich nicht die Zeit für immer wieder neue Experimentzyklen haben. Hier ist eine gründliche theoretische Fundierung gefragt: Welche Aspekte zum untersuchten Phänomen werden in der Forschungsliteratur diskutiert, welche davon wähle ich für mein Experiment aus? Wird vielleicht in der Theorieliteratur schon eine Hypothese vorgestellt, die aber noch nie empirisch überprüft wurde? Hier kann auch eine kleine Studie mit wenig Aufwand einen Mosaikstein zur Forschung beitragen.

Fragebogenstudie

Fragebogenstudien sind ein Beispiel hierfür. Hierbei werden Bögen mit Fragen zu einem bestimmten Thema verteilt. Diese werden dann individuell beantwortet. Häufiger führt man allerdings bereits vorgegebene Antworten zum Ankreuzen auf, da diese besser für die statistische Auswertung geeignet sind. Die Antwortmöglichkeiten sind bspw.: „ja/nein/ich weiß nicht“ oder „ich stimme voll und ganz zu/… größtenteils zu/… nicht zu/ich weiß nicht. Solche Erhebungen sind gut brauchbar, um subjektive Einstellungen von Probanden zu erfassen, z.B. eine Meinung darüber, ob man einen Text mit oder ohne Bilder für informativer oder augenfreundlicher hält. Man muss sich aber darüber im Klaren sein, dass solche bewussten, überlegt gefällten Entscheidungen nur wenig sagen über die unbewussten Prozesse, die bei der menschlichen Sprachverwendung normalerweise beteiligt sind. Will man von Probanden z.B. ein Urteil über die Zulässigkeit von weil-Sätzen mit Verb an zweiter Stelle erhalten (wir testen das mal, weil – es ist sehr verbreitet), wird die genaue Fragestellung entscheidend sein für das Ergebnis: Die Frage „Ist das richtiges Deutsch? – ja/nein“ wird Probanden in normativen Kategorien denken lassen: Man hat in der Schule gelernt, dass das falsch ist, und fürchtet nun, als ungebildet dazustehen, wenn man eine solche Konstruktion als akzeptabel bewertet. Die Ablehnungsquote wird entsprechend hoch sein. Wer daraus schließen wollte, Verbzweit-weil sei keine gängige Erscheinung in mündlichen Textsorten, dürfte falsch liegen. Ein realistischeres Bild erhält man, wenn man die Frage in eine Situation einbettet und dabei eine Textsorte oder Stilebene angibt: „Ein Freund ist abends zu Besuch bei Ihnen und sagt gegen halb elf: ‚Ich werd’ mal gehen, weil, es ist schon spät.‘ Finden Sie diese Äußerung von der Grammatik her: völlig o.k./nicht perfekt, aber normal/etwas merkwürdig/ganz unmöglich?“. Mit einem solchen Fragebogendesign könnte man auch testen, inwieweit sich je nach Textsorte oder sozialem Verhältnis der Kommunikationspartner die Akzeptanz der Konstruktion ändert. Auch hier wird aber direkt nach einem Urteil über die Grammatik gefragt und der Blick der Probanden wohl auf die Wortstellung gelenkt, die ihnen sonst vielleicht gar nicht aufgefallen wäre. Das Ergebnis hat also nicht viel mit natürlichem Sprachverständnis zu tun. Näher käme man an dieses heran, wenn man in der Frage den Zusatz von der Grammatik her wegließe, auf die Gefahr hin, dass die meisten Probanden die Äußerung inhaltlich beurteilen, also bezüglich der Frage, ob ein Aufbruch um 22.30 Uhr sozial angemessen ist oder nicht. Es wäre dann gar nicht klar, was in dem Fragebogen eigentlich gemessen wurde.

Mit einem Fragebogen spontane, unbewusste Aspekte der Sprachverarbeitung zu erfassen, ist schwierig, aber zu ausgewählten Fragestellungen doch möglich. So gibt es eine Kontroverse darüber, ob ‚geschlechtergerechte‘ Doppelformen wie StudentInnen oder Student/innen wirklich notwendig sind – bei Studenten, so das Gegenargument, denkt der Mensch doch nicht bloß an männliche Studierende, sondern auch an Frauen. Würde man Probanden nun in einem Fragebogen direkt danach fragen, ob sie Frauen unter dem Ausdruck Studierende mitverstehen, wären die Antworten wohl vom Bemühen um politische Korrektheit geprägt: Männer würden, durch die Fragestellung auf das Problem gestoßen, wohl zustimmen, Frauen würden vielleicht ablehnen, um ihre Forderung nach Doppelformen zu untermauern. Ziel eines Experimentdesigns muss hier sein, die eigentliche Fragestellung zu verschleiern (d.h. die Befragten dürfen nicht bemerken, worum es tatsächlich in der Studie geht). Die Sozialpsychologinnen Dagmar Stahlberg und Sabine Sczesny gingen so vor: Sie fragten männliche und weibliche Probanden nach ihren Lieblingsmusikern, -malern, -sportlern usw. Die Probanden glaubten also, ihre Vorlieben für Prominente seien gefragt. Die unabhängige Variable war aber die Version des Fragebogens: Eine mit nur maskulinen Bezeichnungen, eine mit kurzen Doppelformen wie LieblingsmusikerIn und eine mit langer Doppelform wie Ihre Lieblingsmusikerin/Ihr Lieblingsmusiker; außerdem als zweite unabhängige Variable das Geschlecht des jeweiligen Probanden. Die abhängige Variable war die Häufigkeit der Nennung von Frauen. Es zeigte sich, dass in den Versionen mit Doppelform, egal ob kurz oder lang, mehr Frauen genannt wurden als in der nur maskulinen Version, und dies sowohl von Frauen wie von Männern (Stahlberg/Sczesny 2001). Ein technisch sehr einfaches FragebogenExperiment, das auch schon im Rahmen einer Seminararbeit zu bewältigen wäre, konnte so Aufschluss geben über unbewusste Denkprozesse, die beim Textverstehen ablaufen (s. hierzu auch Lesestudien zum Einfluss von Metaphern beim Textverstehen wie von Thibodeau/Boroditsky 2013).

Rating

semantisches Differenzial

Eine spezifische Fragenbogenuntersuchung ist das Rating (gestufte Beurteilung), bei dem über die Vorgabe von Rating-Skalen vor allem spontane Einschätzungen und Einstellungen erfasst werden sollen. So kann ein Text vorgelegt werden und die Leser sollen hinterher z.B. ankreuzen, ob sie diesen Text als „schwierig/mittelschwer/nicht schwierig“ hinsichtlich des Verständnisses empfunden haben oder ob sie seine Argumentation „überzeugend/schwach überzeugend/gar nicht überzeugend“ fanden. Oft werden bei Ratings auch Adjektivskalen benutzt (der Text ist „langweilig/spannend/ansprechend/affektiv“ etc.). Verwandt mit dem Rating ist das (methodengeschichtlich früher entwickelte) semantische Differenzial (s. Osgood et al. 1957/91975). Hier werden Einstellungen von Personen (oder die Stärke von Konnotationen) über semantische Beurteilungen erfasst, wobei drei Parameter relevant sind: Valenz (angenehm/unangenehm), Potenz (stark/schwach) und Aktivität (erregend/beruhigend). Ratings, die mit solchen semantischen Dimensionen arbeiten, können z.B. untersuchen, inwieweit sich das in der Textlinguistik beschriebene Emotionspotenzial eines Textes empirisch hinsichtlich der Emotionalisierung des Lesers auswirkt (s. hierzu Kap. 6.2).

Korpusanalyse

Die natürlichste‘ empirische Methode in der Textlinguistik ist die Korpusanalyse, denn ein Korpus macht natürliche Texte einer systematischen Analyse zugänglich: Ein Korpus (das Korpus, Plural die Korpora) ist eine Sammlung von Texten oder Textausschnitten, die zur linguistischen (oder kommunikations- oder medienwissenschaftlichen) Auswertung erstellt wurde. Dies ist etwas anderes als die Verdeutlichung von Theorien mit Beispielen, wie sie auch in diesem Buch vorgenommen wird: Hierbei wird ein Beispiel passend zur Theorie konstruiert oder (was immer besser ist) in natürlichen Texten gesucht. Um diese Beispielsuche von der Korpusanalyse abzugrenzen, kommen wir zur Erläuterung noch einmal zurück zur Hypothese d): Der Gebrauch von Anglizismen in Zeitungstexten hat in den letzten Jahren zugenommen.

Man könnte nun eine Zeitung aufschlagen, die man gerade zur Hand hat, und die Anglizismen herausschreiben, die einem dort als erstes auffallen. Wenn die Hypothese gewesen wäre: „Es gibt Zeitungen, in denen Anglizismen stehen“, dann wäre diese Methode – man könnte sie ‚explorativ‘ nennen – geeignet. Unsere Hypothese ist aber quantitativ formuliert; es wird eine zunehmende Häufigkeit eines Phänomens behauptet. Diese sollte sich in Zahlen ausdrücken lassen. Also muss die Korpusstudie auch quantitativ sein: Man hat Anglizismen pro Textmenge nachzuzählen. Zunächst einmal sollte man allerdings überlegen, welche Zeitung man untersuchen will (z.B. anspruchsvoll oder Boulevard, links oder konservativ), welche Textsorte innerhalb der Zeitung (z.B. Bericht, Kommentar oder Glosse) und welche Sparte (z.B. Politik, Wirtschaft, Feuilleton) – im Gebrauch von Anglizismen sind diesbezüglich Unterschiede zu erwarten oder zumindest denkbar, und wenn man nicht gerade Jahre Zeit oder ein Dutzend Mitarbeiter hat, sollte man nicht den Anspruch verfolgen, eine Hypothese für Zeitungstexte aller Art zu überprüfen. Die Studie kann sich nur auf eine (Unter-)Textsorte beziehen, von der man Homogenität bezüglich der getesteten Variable erwartet. Nehmen wir Berichte im Politikteil der Frankfurter Rundschau, eine Ausgabe aus dem Jahr 1995 und eine aktuelle. Erklärende Variable in unserer Studie ist also das Alter des Textes − 1995 oder aktuell; abhängige Variable ist die Häufigkeit von Anglizismen. Zur Bestimmung der Variablen wird der Korpustext ‚annotiert‘. Annotationen sind Markierungen im Text, die die Ausprägung von Variablen zeigen – in unserem Beispiel ist das einfach eine Entscheidung, ob ein Wort ein Anglizismus ist oder nicht. Die Annotation besteht darin, jeden Anglizismus zu kennzeichnen.

Es gibt Korpora, die im Internet – meist kostenlos – zur Verfügung stehen und sogar schon syntaktisch vor-annotiert sind, d.h. Wortarten, Kasus und andere syntaktische Merkmale sind im Korpus bereits gekennzeichnet und können mit spezieller Software schnell angezeigt und aufeinander bezogen werden (z.B. das Stuttgarter TiGer-Korpus). Mit solchen automatisierten Korpusanalysen können sehr große Textmengen in kurzer Zeit untersucht werden. In der Textlinguistik hat man es jedoch meist mit Variablen zu tun, die ‚Handarbeit‘ verlangen. Wir gehen den Text durch und machen für jeden Anglizismus einen Strich. Beim Auszählen der Zeitung von 1995 begegnen uns – in dieser Reihenfolge – folgende Wörter, die als Anglizismus in Frage kommen: Establishment, Selfmademan, Konzern, und hier kommt die Untersuchung schon ins Stocken: Konzern kommt aus dem Englischen, von concern, sagt das etymologische Wörterbuch. Machen wir also einen Strich für Konzern oder nicht? Was fehlt, ist die Operationalisierung des Konzeptes ANGLIZISMUS. Die Theorie-Literatur bietet uns etliche verschiedene Definitionen an, die uns zu völlig unterschiedlichen Entscheidungen führen würden. Selbst diejenige theoretische Definition, die am besten zu unserer Studie zu passen scheint, wird bei der Annotation vermutlich noch Zweifels- und Grenzfälle offen lassen, z.B.: Laptop und Notebook sind wohl ohne Zweifel Anglizismen, aber ist iPod auch einer, oder ist das ein Eigenname? Eine klare, praktisch umsetzbare Operationalisierung kann zwar willkürlich sein, sorgt aber für vergleichbare Daten.

So ausgerüstet kann man nun in ein paar Artikeln die Anglizismen zählen und durch deren Anzahl die Gesamtzahl der Wörter teilen, dann erhält man z.B. das Ergebnis, dass jedes 50. Wort ein Anglizismus ist, also zwei Prozent Anglizismus-Quote. Oder man nimmt sich von vornherein vor, pro Zeitung z.B. aus fünf Artikeln jeweils die ersten 1000 Wörter auszuwerten – dann kann man auch die absoluten Zahlen sofort vergleichen, z.B.: In der alten Zeitung sind unter den 5000 Wörtern 91 Anglizismen, in der neuen 97. Erhärtet dieses Ergebnis die Hypothese? Vermutlich nicht. Die untersuchte Textmenge ist klein und der Unterschied so gering, dass das Ergebnis vermutlich zufällig ist.

Die Gefahr, rein zufälligen Beobachtungen Relevanz zuzuschreiben, ist ein Grundproblem empirischer Forschung. Hierzu ein einfaches nicht-linguistisches Beispiel: In einer kleinen Seminargruppe sitzen 17 Studierende, nämlich neun Frauen und acht Männer. Eine Brille tragen fünf der Frauen (55,5 %), aber nur drei der Männer (37,5 %). Kein vernünftiger Mensch würde daraus die Verallgemeinerung ziehen, dass Frauen eher zur Fehlsichtigkeit neigen als Männer. In der nächsten Seminargruppe könnten die Verhältnisse ganz anders sein. Um festzustellen, inwieweit die Zahlen belastbar sind, gibt es statistische Untersuchungsverfahren, sogenannte Signifikanztests. Der Signifikanzwert gibt an, wie groß die Wahrscheinlichkeit ist, dass die Ergebnisse auf Zufall beruhen. Weniger als fünf Prozent Zufallswahrscheinlichkeit sind eine häufige Anforderung für Signifikanz, besser sind weniger als ein Prozent oder gar 0,1 Prozent („hochsignifikant“). Quantitative Korpusstudien sollten mit einem Signifikanztest abgesichert werden, wenn sie den Anspruch haben, mehr als nur Tendenzen zu zeigen.

qualitative Korpusanalyse

Jedoch verlangt nicht jede Fragestellung eine quantitative Korpusstudie. Es gibt neben den quantitativen auch qualitative Korpusanalysen, die nicht nur Vorkommenshäufigkeiten erfassen und aufeinander beziehen, sondern Texte inhaltlich betrachten und analysieren. Rein quantitative Korpusanalysen sagen nämlich nichts über die für die Textlinguistik besonders relevanten Aspekte wie z.B. Kohärenz, Informationsstruktur, Implikaturen, Verständlichkeit und Emotionspotenzial aus.

Will ich z.B. untersuchen, welche Rolle Anglizismen für die Überzeugungskraft (Persuasivität) von Texten spielen, nützt es nichts, sie einfach nachzuzählen. Die Hypothese könnte lauten „Anglizismen können Teil verschiedener persuasiver Textstrategien sein“. Nun ist eine qualitative Untersuchung angebracht. Die Entscheidung, woraus mein Korpus bestehen soll, muss hier genauso überlegt sein wie bei einer quantitativen Studie: ‚Die deutsche Sprache‘ kann nicht Gegenstand einer Korpusstudie sein. Es geht um Textsorten, die so konkret sind, dass sie mit kleinen Stichproben abgebildet werden können. Z.B. könnte man sich Persuasion durch Anglizismen in Presseerklärungen von Unternehmen am Beispiel einer bestimmten Branche ansehen. Wir achten nun nicht auf Mengenverhältnisse, sondern darauf, ob uns persuasive Textstrategien auffallen, die einander ähneln und sich somit kategorisieren und zu Mustern verallgemeinern lassen. Beispiel:

(23) Zum 18. Mal veranstaltet der IT-Distributor am 17. April seine FORUM Hausmesse und präsentiert Broadline, Value und Mobility unter einem Dach. In der Münchner Kulturhalle Zenith zeigen Tech Data gemeinsam mit über 100 Herstellern unter dem Motto „12 gute Gründe“ auf, warum Reseller das FORUM nicht verpassen sollten.

(24) Trendige Location

[…] Für eine Verschnaufspause bieten sich gemütliche Chill-Out Lounges sowie ein weitläufiger Bar- und Cateringbereich an (beide: Pressemitteilung des Technologie-Presseservices Pressebox, www.pressebox.de, 01.04.2008)

Wir können vermuten, dass im ersten Ausschnitt fachsprachliche Anglizismen verwendet werden, um dem angesprochenen Fachpublikum entsprechende Kompetenz zu zeigen. Im zweiten Ausschnitt desselben Textes sind die Anglizismen anderer Art; erkennbar daran, dass auch Nicht-Fachleute sie verstehen. Hier verbreiten sie wohl die Atmosphäre eines modernen, ‚trendigen‘ Lebensgefühls. Dies sind schon einmal zwei Beobachtungen zur persuasiven Funktion von Anglizismen. Mit weiterem Korpusstudium wird man einen Katalog solcher Funktionen erstellen und die Hypothese nicht nur erhärtet finden, sondern auch angeben können, wie solche persuasiven Textstrategien funktionieren. Anschließen könnte sich eine quantitative Studie mit der Hypothese, bestimmte Muster seien in Pressemitteilungen bestimmter Branchen häufiger (z.B.: Autobranche – Fachkompetenz; Kosmetikbranche – Lebensgefühl).

Auch im politischen Bereich liefern qualitative Korpusanalysen Hinweise zum Persuasions- und Emotionspotenzial von Texten (s. z.B. die Analysen einer DFG-Forschergruppe, die anhand eines Korpus von über 100.000 Pressetexten die gängigsten und wichtigsten metaphorischen Referenzialisierungen von Terrorismus nach 9/11 im massenmedialen Kommunikationsraum untersucht hat; Schwarz-Friesel 2013).

Zum Schluss dieses Abschnitts seien experimentelle Verfahren vorgestellt, die für die Textlinguistik von Bedeutung sind, deren Ausführung aber oft eine fachliche Spezialisierung als Psycho- bzw. Neurolinguist und eine gewisse technische Ausrüstung voraussetzt. Die Experimente werden durchgeführt, um den kognitiven Prozess des Textverstehens zu rekonstruieren. Diese Erkenntnisse helfen, bestimmte Dimensionen der Textualität (v.a. die Kohärenz) zu verstehen. Es gibt Online-Verfahren (online: „während des laufenden Prozesses“; simultan zur Textverarbeitung) und Offline-Methoden (nach dem Prozess, also wenn der Text zu Ende gelesen/gehört wurde) (s. Schwarz 32008: 33).

freie Reproduktion

Eine für die Textlinguistik wichtige Offline-Methode ist die der freien Reproduktion: Dabei werden die Probanden aufgefordert, einen Text so genau wie möglich zu reproduzieren. Die Reproduktionen des Textes werden dann mit dem Originaltext verglichen. Wurden Informationen ausgelassen, hinzugefügt, modifiziert? Die Veränderungen in dem reproduzierten Text (insbesondere die Elaborationen) werden als Resultate kognitiver Prozesse (sogenannter Inferenzen) gesehen (s. hierzu Kap. 4.3).

Online-Experiment

Bei den Online-Experimenten wird nicht ein Text als fertiges Produkt untersucht wie bei einer Korpusanalyse und auch keine Reaktion eines Probanden nach erfolgter Textrezeption gemessen wie bei Fragebogenstudien. Online-Verfahren haben vielmehr den Anspruch, mentale Vorgänge während der laufenden Textrezeption (seltener -produktion) sichtbar zu machen. Unsere anfängliche Hypothese e): Bilder erleichtern die Rezeption von Texten. ist ein Kandidat für ein solches Verfahren.

Lesezeitmessung

Ein psycholinguistischer Klassiker ist die Lesezeitmessung während der Rezeption (die durch Computertechnik ermöglicht, Unterschiede von Millisekunden zu erfassen). Die Annahme ist dabei, dass die gemessene Zeit auch tatsächlich der kognitiven Verarbeitungszeit entspricht. So kann man u.a. untersuchen, ob bestimmte kontextuelle Informationen oder spezifische Lexeme, syntaktische Besonderheiten oder semantische Deviationen (Abweichungen) die Textverarbeitung erleichtern und beschleunigen oder erschweren und verlangsamen können.

Man könnte z.B. zu Hypothese e) die Lesezeiten für Textvarianten mit und ohne Bilder messen. Mit Lesezeitmessung werden aber insbesondere Hypothesen getestet, die eine erschwerte Textrezeption oder einen höheren Verarbeitungsaufwand als abhängige Variable beinhalten. Unabhängige Variablen könnten sein:

(25) Kohärenzgrad

a) … anschließend putzte sie das Waschbecken mit einem Schwamm.

b)… anschließend putzte sie das Waschbecken mit einem Kamm.

Die Erwartung ist, dass der inkohärente b-Satz schwerer zu verarbeiten ist als der (25)a-Satz, da sich in der (25)b-Version das letzte Wort nicht glatt in das bestehende Textweltmodell integrieren lässt.

(26) Mehrdeutigkeit von Anaphern

a) Die Müllers sahen die Zugvögel, als sie nach Süden flogen.

b) Die Müllers sahen die Alpen, als sie nach Süden flogen.

Grammatisch betrachtet ist in diesem viel zitierten Beispiel (u.a. in Schwarz 1992: 93) das Pronomen sie in beiden Versionen mehrdeutig: Die Müllers, die Zugvögel und die Alpen sind Ausdrücke der 3. Person Plural und kommen gleichermaßen als Bezugsausdruck für sie in Frage. Die Variable Mehrdeutigkeit muss hier differenziert werden: Ist rein grammatische Mehrdeutigkeit entscheidend für den Verarbeitungsaufwand, oder spielt konzeptuelles Wissen (hier: dass die Alpen nicht fliegen können) sofort eine Rolle? Damit sind wir wieder bei einer Beispiel-Frage vom Anfang g): Werden bei der Rezeption von Texten zuerst grammatische Informationen und dann konzeptuelles Wissen genutzt oder beides gleichzeitig?

Wenn die Hypothese stimmen sollte, dass der Leser erst die grammatischen Informationen verarbeitet und dann erst konzeptuelles Wissen nutzt, sollte die Rezeption beider Sätze a und b erschwert sein im Vergleich zu den grammatisch eindeutigen Sätzen

(27) a) Frau Müller sah die Zugvögel, als sie nach Süden flog.

b) Die Müllers sahen den Mont Blanc, als sie nach Süden flogen.

Die grammatische Mehrdeutigkeit von a und b würde, der Hypothese nach, nicht sofort durch das konzeptuelle Wissen, dass die Alpen nicht fliegen können, ausgeräumt, sondern erst nach einem vergeblichen Auflösungsversuch auf grammatischer Ebene.

Stimmt dagegen die Hypothese, dass konzeptuelles Wissen sofort den Rezeptionsprozess beeinflusst, wäre nur die Rezeption von a entscheidend erschwert, weil hier die Mehrdeutigkeit auch durch konzeptuelles Wissen nicht aufgelöst werden kann.

Nun gehört „erschwerte Verarbeitung“ zu den Konzepten, deren Operationalisierung keine Selbstverständlichkeit ist. In der Psycholinguistik herrscht dennoch weitgehende Einigkeit: Eine längere Verarbeitungszeit ist Resultat eines größeren kognitiven Aufwandes.

Praktisch umgesetzt wird dies z.B. in einer „self-paced reading task“, auf Deutsch etwa „Leseaufgabe, deren Tempo man selbst bestimmt“. Probanden sehen den Text auf einem Bildschirm wortweise oder in kleinen Abschnitten und drücken einen Knopf, um das nächste Stück Text zu sehen. Die Zeit zwischen zwei Knopfdrücken ist die, die der Proband zum Lesen des jeweiligen Wortes oder Abschnitts gebraucht hat. Zwar ist die meiste Zeit davon gar nicht der kognitiven Aufgabe des Textverstehens geschuldet, sondern der mechanischen Handlung des Knopfdrückens, und natürlich haben Probanden unterschiedliche Reaktionszeiten. Das ist aber unerheblich, denn es kommt nur auf die Differenzen an, hier im Beispiel zwischen den a- und b-Sätzen. Wichtig ist nur, dass gleich lange und gleich geläufige Ausdrücke miteinander verglichen werden, und natürlich erhält ein Proband nicht zwei Versionen desselben Textes (wie hier (26)a und b), sondern die Variablen werden in immer neue Sätze eingebaut. So würden (28)a und (28)b dieselbe Funktion erfüllen wie oben (26)a und (26)b:

(28) a) Die Schüler bemerkten die Fußballfans, als sie nach Hause gingen.

b) Die Schüler bemerkten die Wolken, als sie nach Hause gingen.

Die benötigte Lesezeit hängt von der Länge des angezeigten Ausdrucks ab; die erwartbaren Unterschiede liegen in der Größenordnung von 50 Millisekunden. Solche Differenzen nimmt kein Leser bewusst wahr, und man kann sie nur mit spezieller Software registrieren.

Sollte ein erwarteter Lesezeit-Effekt nicht auftreten, muss das nicht bedeuten, dass die Hypothese falsch ist: Vielleicht werden zwei Textversionen zwar in der gleichen Zeit verarbeitet, aber für die schwierigere Version werden mehr Hirnareale aktiviert – so wie man Sandhaufen von einer Tonne und von zwei Tonnen Gewicht in der gleichen Zeit auf einen Lkw schippen kann, wenn man für den doppelt so großen Haufen auch doppelt so viele Leute hat. Die derzeit beliebteste Methode ist daher eine Kombination von Lesezeitmessung und neurolinguistischen Methoden, also unmittelbaren Messungen von Hirnaktivität. Die wichtigste davon ist die Messung ereigniskorrelierter Potenziale, EKP, oder englisch event-related potentials, ERP. Das Ereignis ist wiederum eine Leseaufgabe, sie wird per Software mit der Messung von elektrischer Gehirnaktivität anhand von EEG-Messungen synchronisiert. Dabei muss das relevante Signal durch komplizierte Rechenoperationen aus dem EEG isoliert werden, weil ereigniskorrelierte Hirnpotenziale eine geringere Amplitudenausprägung aufweisen als das Spontan-EEG. Solche Messungen sind z.B. bei Lügendetektoren schon lange bekannt. Folgende Operationalisierung liegt der Methode zugrunde: Bestimmte, charakteristische Veränderungen der elektrischen Hirnaktivität sind Resultat bestimmter Abweichungen vom gewöhnlichen, ungestörten Rezeptionsprozess. Generell werden Effekte ab 100 Millisekunden nach dem Ereignis – also der Präsentation des entscheidenden Ausdrucks – den kognitiven Hirnfunktionen zugerechnet, alles davor sind Stammhirnfunktionen, die nichts mit Denken zu tun haben. Ereigniskorrelierte Potenziale werden anhand von Komponenten (wie z.B. N400, P600) beschrieben, sie fassen die Eigenschaften der Kurve zusammen. Eine N400 beschreibt eine Negativierung (N) 400 ms nach einem kritischen Stimulus, eine P600 beschreibt eine Positivierung (P) 600ms nach einem kritischen Stimulus. Diese Komponenten werden u.a. bei Sprachverarbeitungsprozessen beobachtet. EKP-Messungen sind relative Messungen, d.h. dass eine kritische Bedingung immer in Relation zu einer Kontrollbedingung gewertet werden muss (siehe u.a. Marx 2011: 162) Es ist z.B. zu erwarten, dass die Kurve für einen Satz wie Die Amsel debattiert im Vergleich zur Kurve für den Satz Die Amsel singt einen deutlichen N400-Effekt hervorruft. Das bedeutet, dass diese Kurve 400 ms nach dem kritischen Stimulus debattiert einen stärkeren negativen Ausschlag zeigt als die Kurve für den Vergleichssatz 400ms nach dem kritischen Stimulus singt. Textlinguisten werden daher nach einer N 400 suchen. Dieser gilt als Indikator für Inkohärenz; ein entsprechendes Ergebnis wäre für (25)b zu erwarten (vgl. Kutas/Federmeier 2010). Übrigens wird auch die Rezeption von Witzen mit EKP-Studien erforscht. Auf diese Weise wird überprüft, inwieweit Humor-Effekte von Witzen Effekte der Inkohärenz sind (Rozengurt 2011; s. hierzu auch Kap. 5.3).

Der N400-Effekt liegt in der Größenordnung von 1 Mikrovolt (einem Millionstel Volt) und ist nicht direkt erfassbar, sondern muss durch Herausrechnen aus anderen Effekten, die nichts mit der sprachlichen Aufgabe zu tun haben, sichtbar gemacht werden.

Auch bildgebende Verfahren gehören zum Arsenal der Neurolinguistik, insbesondere f-MRT – hier wird der Sauerstoffgehalt des Blutes im Gehirn gemessen unter den Operationalisierungen: 1) Hirnaktivität: Wo viel Sauerstoff im Blut ist, ist das Hirn gerade besonders aktiv. 2) Sprachliche Prozesse: Lösen diese Hirnaktivität in unterschiedlichen Hirnbereichen aus, so sind sie unterschiedlich (z.B. Verarbeitung regelmäßiger vs. unregelmäßiger Verben). Für textlinguistische Aufgaben ist dieses Verfahren nicht unmittelbar relevant, wohl aber für die Analyse von Textverstehensprozessen (s.u.a. Bohrn et al. 2012).

Priming

Mit der Priming-Methode untersucht man den Einfluss der im Gedächtnis gespeicherten Wissensstrukturen auf die Verarbeitung sprachlicher Einheiten. Den Versuchspersonen wird ein Wort (z.B. Krankenhaus) als Prime vorgegeben; anschließend wird ein Zielwort (z.B. Chefärztin) genannt. Die Versuchspersonen sind vorher instruiert worden, so schnell wie möglich anzugeben, ob es sich bei dem Zielreiz um ein sinnvolles Wort oder lediglich um eine sinnlose Silbenfolge handelt. Die Beurteilungszeit ist kürzer, wenn das jeweilige Zielwort in einer engen semantischen Relation zu dem vorher präsentierten Prime-Wort steht (als wenn z.B. ein Wort wie Studentin oder Fahrradfahrerin nach Krankenhaus kommt). Dies spricht dafür, dass bei der Verarbeitung eines Wortes eine Art Aktivierungsausbreitung (spreading activation) im mentalen Lexikon stattfindet, wobei semantisch verwandte Wörter auch zusammen aktiviert werden bzw. zumindest eine Vor-Aktivierung der Wörter geschieht. Dieser Prozess spielt beim Textverstehen und insbesondere bei der Kohärenzetablierung eine sehr wichtige Rolle (s. hierzu Kap. 4.3.1).

Augenbewegungsanalyse

Bei der Verarbeitung schriftlicher Sprache benutzt man häufig Eyetracking-Studien. Hier wird gemessen, welchen Punkt im Text ein Proband beim Lesen mit den Augen fixiert. Die Augenbewegungsanalyse untersucht, wie lange die Augen beim Lesen auf bestimmten Textteilen bleiben und wann Blicksprünge (sogenannte regressive Sakkaden) auf bereits gelesene Textstellen vorkommen. Normalerweise beträgt die Fixationsdauer pro Wort ca. 250 Millisekunden. Bei Verständnisschwierigkeiten kann die Fixation bis zu einer Sekunde länger dauern. Rückwärtssakkaden sind vor allem bei der Rezeption mehrdeutiger oder ähnlich problematischen Textstellen beobachtet worden (s. hierzu auch Gaskell 2007).

Verbunden mit speziellen Monitoren können Eyetracker Leseprozesse sichtbar machen. Ein Beispiel für eine entsprechende Operationalisierung des Konzepts ‚erschwerte Textrezeption‘: Blicksprünge zurück im Text sind ein Indiz hierfür; etwa in (26)a vom mehrdeutigen Pronomen sie zurück auf die beiden möglichen Bezugsausdrücke Die Müllers und die Zugvögel.

Mittlerweile sind Eyetracker handliche Geräte, die die Probanden wie eine Brille tragen können (die Daten werden per Funk auf einen Rechner übertragen). Dadurch ist es möglich, nicht nur Leseaufgaben zu erfassen, sondern auch das (Blick-)Verhalten von Menschen im natürlichen Diskurs. Eine Eyetracking-Fragestellung ist z.B.: „Wie lenken Sprecher die Aufmerksamkeit anderer Menschen durch sprachliche Mittel auf bestimmte Objekte?“

Mit der Lückentest-Methode (cloze procedure) kann man untersuchen, wie leicht oder schwer verständlich ein Text ist. Es werden hier in der Regel Texte von mindestens 250 Wörtern vorgegeben, bei denen jedes fünfte Wort ausgelassen wurde und die Probanden diese Lücken nun füllen müssen (s. Christmann 2002: 85f.). Man kann aber auch variieren und nur Inhaltswörter entfernen. Die Anzahl der jeweils korrekt eingesetzten Wörter gilt dann als ein Maßstab für das Textverständnis (s. Übung 8 im Onlinematerial zu Kap.2).

Einführung in die Textlinguistik

Подняться наверх