Читать книгу VARIATIONslinguistik trifft TEXTlinguistik - Группа авторов - Страница 11

3.2 Wissenschaftshistorisches: Texteme und Allotexte, emische und etische Texte

Оглавление

An der Wende von den 1960er zu den 70er Jahren verortet man (in der Bundesrepublik Deutschland) einen sog. Linguistik-Boom. Seine wichtigste Wirkung bestand in der Reorganisation philologischer (zunächst vor allem germanistischer) Universitätsinstitute. Waren diese traditionell in eine Alte/Ältere und Neue(re) Abteilung untergliedert, so kam jetzt als drittes Untergebiet die Linguistik hinzu.

Im Rahmen solcher Prozesse sind nicht nur administrative, sondern auch bestimmte Fachtexte besonders wichtig. Dazu gehörten in der Bundesrepublik zwei 1973 erschienene Werke, nämlich einerseits das Funk-Kolleg Sprache, andererseits das Lexikon der germanistischen Linguistik (LGL) (Althaus u. a. 1973). Beide beanspruchten, den Stand der modernen Linguistik im Überblick darzustellen. Dabei war wichtig, dass sie nicht nur die strukturalistische, sondern auch die (frühe) generativistische Schule einbezogen sowie Kommunikationsmodelle, Pragma-, Sozio- und Textlinguistik.

Das Funk-Kolleg Sprache nimmt eine Sonderstellung ein. Es gehört zu einer Serie, in der Radiosender in Verbindung mit dem Deutschen Institut für Fernstudien an der Universität Tübingen (für Studien-Begleitbriefe) und Volkshochschulen (für Studien-Begleitzirkel) zusammengearbeitet haben, und zwar vor allem, um Menschen ohne Abitur den Zugang zum Studium zu ermöglichen. Entwickelt seit 1970, wurden die Sendungen ab September 1971 ausgestrahlt. Verbindlich eingeschrieben hatten sich dazu fast 17.000 Hörer, die Prüfungen ablegen konnten (organisiert durch die Kultusministerien von fünf Bundesländern). Diese Zahl ist noch relativ bescheiden, gemessen am Erfolg, den dann die (im Gegensatz zum LGL sehr preiswerte) Taschenbuchausgabe von 1973 erzielen konnte. Deren Vorwort orientiert ausführlich über die damaligen Bedingungen, zu denen insbesondere gehört, dass man noch auf kein vorliegendes Curriculum hatte zurückgreifen können, sondern dieses erst zu entwickeln war. Im Hintergrund standen folgende Voraussetzungen:

„In den nächsten Jahren ist eine grundlegende Neuordnung des Deutsch- und Fremdsprachenunterrichts zu erwarten. Damit Hand in Hand geht eine Neuorientierung des herkömmlichen Philologiestudiums. Grund ist die moderne Linguistik, die nicht mehr nach den historischen Wandlungen der Einzelsprachen fragt, sondern nach den allgemeinen Merkmalen und Strukturen des Zeichensystems Sprache.“ (Aus dem Paratext Über dieses Buch)

Das Funk-Kolleg Sprache vertritt in besonders ausgeprägter Weise die oben angesprochene Variante, nach der systemlinguistische Ansätze zwar die Grundlage der ‚modernen Linguistik‘ bilden (müssen), diese jedoch einzubetten sind in einen kommunikationswissenschaftlich orientierten Rahmen. Das erste Hauptkapitel (von insgesamt fünf) ist betitelt: Kommunikation und Sprache. Der Textlinguistik kommt in diesem Buch (besonders im Verhältnis zur Soziolinguistik) keine besonders große Bedeutung zu. Mit dem Ausdruck Textem erfolgt jedoch eine quasi konsequente Parallelisierung zur Phonem- und Morphemanalyse. Im LGL erscheint dieser Begriff dagegen nicht (auch nicht in der stark bearbeiteten 2. Auflage von 1980). Dieses Handbuch wendet sich auch viel eher an die etablierten Kreise in den Universitäten und bespricht sehr ausführlich verschiedene Ansätze und einzelne Arbeiten aus der frühen Textlinguistik. Auch hier werden jedoch von Anfang an eine auf die Langue gegenüber einer auf die Parole bezogene Sichtweise unterschieden. Während bei der zweiten übereinstimmend mit dem Funk-Kolleg die Kommunikativität thematisiert wird, soll es jedoch bei der ersten um (die Gesamtheit von) Textbildungsregeln gehen, so dass hier nicht Phonologie und Morphologie als Vorbild fungieren, sondern die Syntax.

Nun ist es relativ einfach, den Ausdruck Textem parallel zu Phonem und Morphem zu bilden, weniger klar ist allerdings, was man sich darunter vorzustellen hat. Im Glossar des Funk-Kollegs erscheinen die folgenden Erläuterungen:

Text: Sprachliche Äußerung; Ergebnis der → Realisierung eines → Textems.

Textem: Noch nicht realisierte sprachliche Struktur als Ergebnis der sprachlichen → Kodierung.

Textstruktur (= Textem): strukturierte Ketten von Sprachzeichen als Ergebnis der sprachlichen Kodierung.

Kodierung: vom Sprecher vorgenommene Umsetzung einer Vorstellung in eine sprachliche Äußerung.

Sie zeigen klar, dass Text wie Phon und Morph als konkrete/materielle Realisierung einer abstrakten (vorher nur kognitiv verfügbaren) Einheit konzipiert wird. Gewöhnlich bezeichnet man nicht materialisierte Ketten von Sprachzeichen als Wortlaut, und zwar – ebenso wie bei Morphemen und Lexemen – unabhängig von der medialen Verfasstheit: Die Frage, ob ein Morphem einer gesprochenen oder geschriebenen Einheit entspricht, stellt sich schlicht nicht; wir befinden uns auf einem Abstraktionsniveau, auf dem die Materialisierungsart keine Rolle spielt. Ein Schema (Abb. 1) zur Visualisierung wird als Versuchsanordnung bezeichnet, da alle Faktoren, die sich außerhalb des zentralen Kastens befinden, (und zusätzlich u. a. Intention, Wissens- und Sprachspeicher)

„vorübergehend außer acht gelassen werden. Wohlgemerkt vorübergehend: Wenn die kausalen Beziehungen zwischen einem ideal homogenen denotativen Kode, der von einem idealen Sprecher aktiviert wird, zum produzierten Text analysiert und beschrieben sind, werden nach und nach weitere Faktoren in die Analyse einbezogen; so wird Schritt für Schritt die Beschreibung der Komplexität des Sachverhalts angenähert. Genau wie die ideale Kompetenz kann man auch die soziale Rolle eines Sprechers isolieren und dadurch idealisieren und fragen: Welche Merkmale X, Y und Z hat ein Text, der auf der Grundlage eines bereits beschriebenen Kodes in einer bestimmten sozialen Rolle produziert wird?

Wir haben zu zeigen versucht, daß nur einschichtige homogene und also idealisierte Objekte einer präzisen Analyse zugänglich sind. Daraus folgt, daß die Komplexität realer Sachverhalte in einer wissenschaftlichen Beschreibung nur dann annähernd zu erreichen ist, wenn man schrittweise analysiert und eine Menge elementarer Ergebnisse zu einer Gesamtbeschreibung zusammenfügt. Da wir die Aktivierung des Kodes durch einen Sprecher oder Hörer für das grundlegende Ereignis sprachlicher Kommunikation halten, beginnen wir die Gesamtuntersuchung mit der Analyse der idealen Kompetenz des idealen Sprechers/Hörers.“ (Funk-Kolleg Sprache 1973: Bd. 1, 82f.):

Abb. 1:

Reduziertes Faktorenmodell für die Textbildung (nach Funk-Kolleg Sprache 1973: Bd. 1, 82)

Die Ausdrücke Lexem oder gar Lex kommen im Funk-Kolleg nicht vor, stattdessen spricht man dort von Formativen. Auch für Sätze fehlt eine entsprechende Parallele; sie werden als aus Konstituenten aufgebaut verstanden. Somit sind die Analogien auf den oberen Rängen doch nicht besonders konsequent durchgeführt. Auch kommt Textem außerhalb der zitierten Stelle nur noch einmal vor, und zwar in einem Sprachverhaltensmodell. Dieses sehr komplexe Schema setzt (im Rahmen der Studien zur gesprochenen Sprache in der Schule Hugo Stegers) Redekonstellationen und Textexemplare (statt wie früher Texte) in Beziehung (vgl. ebd.: Bd. 2, 196); weitere Erläuterungen zum Verhältnis von Text(exemplar) und Textem finden sich aber nicht.

So ist es eigentlich nicht erstaunlich, dass Textem nicht als gut etablierter Begriff gelten kann. Er erscheint zwar in manchen Fachwörterbüchern (vgl. dazu genauer Kolde 1999), u. a. bei Bußmann. Sogar Felder (2016: 34) benutzt ihn einmal; insgesamt bleibt er aber ebenso selten wie unklar.

Was die meisten davon abhält, ihn überhaupt einzusetzen, erklärt sich natürlich relativ einfach: Schon bei Sätzen rechnet man eigentlich nicht mit konkreten, d. h. im Wortlaut festgelegten Strukturen, die kognitiv gespeichert sind und in der Parole nur materialisiert werden, sondern mit viel abstrakteren Strukturen, nämlich allenfalls Satzschemata, die in Äußerungen gewissermaßen erst lexikalisch und grammatisch ‚gefüllt‘ werden. Erst recht ist es bei Texten die Ausnahme, dass sie bei der materiellen Realisierung direkt aus dem Gedächtnis abgerufen werden, dort also schon gespeichert sind. Für Morpheme gilt dagegen genau das. Diese sind mit ihrer Signifiant-Seite gewiss nicht angeboren (wie man es für syntaktische Kategorien ja teilweise unterstellt), sondern müssen einzeln gelernt werden. Sie können dann allerdings auch nach abstrakten Regeln in neue Konstruktionen eingehen, d. h. in solche, die nicht schon im Lexikon überliefert sind. So ergibt sich die ‚traditionelle Arbeitsteilung‘ zwischen Lexikon – mit Einheiten, die auch über ein Lautbild im Sinne de Saussures verfügen – und Syntax, für die das nicht gilt. Die Parallelisierung von Morphem und Textem, so könnte man den Einwand zusammenfassend formulieren, unterstellt eine Vergleichbarkeit, die schlichtweg nicht gegeben ist. Daher kann es auf der Text- genau wie auf der Satzebene nur darauf ankommen, nach abstrakteren Größen, nämlich nach Satz- bzw. Text-Bildungsregeln, zu suchen, statt zu unterstellen, dass bereits ‚kodierte‘ komplexe Einheiten im Gedächtnis gespeichert sind. Anders gesagt: Morpheme gelten als virtuelle Einheiten, die immer wieder neu realisiert werden, Sätze und Texte dagegen als erst im Äußerungsakt jeweils neu erzeugte.

Diese Vorstellung ist sehr verbreitet, entspricht aber m. E. einer Art denkstilbedingten Blindheit (vgl. Fleck 1980 und dazu Adamzik 2018b: Kap. 5.2.) gegenüber der sehr wohl möglichen Parallelisierung. Bevor dies in Kapitel 4 genauer ausgeführt wird, sollen noch einige frühe textlinguistische Ansätze vorgestellt werden, die der Vorstellung von Texten als virtuellen Einheiten am nächsten kommen (vgl. dazu ausführlicher Adamzik 2015: Kap. 2 und Adamzik 2016: Kap. 2.5.3.).

Besonders darum bemüht, die Parallelen wirklich konsequent durchzuführen, ist Walter A. Koch (1969, 1973), der zu diesem Zweck einen eigenen Begriffsapparat vorschlägt: Der Größe Wort entspricht darin ungefähr Logem, dem Satz ungefähr Syntaktem. Syntakteme sollen aus Subjekt und Prädikat bestehen, Texteme aus Topik, Thema und Komment – es handelt sich also nicht wie bei der ‚Kodierung‘ im Funk-Kolleg um eine spezifische Folge von Sprachzeichen, sondern um hochabstrakte Strukturen und eine Analyse von oben nach unten.

Roland Harweg geht dagegen umgekehrt vor und betrachtet die pronominale Verkettung aufeinanderfolgender Sätze. Er benutzt nicht den Ausdruck Textem, sondern unterscheidet etische von emischen Texten. Dies entspricht einer gewollten „Abkehr von der Performanz- und […] Hinwendung zur Kompetenzorientiertheit“ (Harweg 1968, 21979: V), und zwar in dem Sinne, dass etische Texte dem Sprachgebrauch, nämlich real vorkommenden Einheiten, gleichzusetzen sind, während es sich bei emischen Texten um wohlgeformte Satzfolgen handeln soll, die sich durch ununterbrochene pronominale Verkettung konstituieren. In diesen erkennt Harweg „ein textgrammatisches Ideal, ein Ideal, das die textuelle Wirklichkeit, die aktuell vorliegenden Texte, auch solche von sogenannten guten Autoren, nur in den seltensten Fällen erreicht“ (Harweg 1975: 377). Natürliche Texte erscheinen hier also nicht nur als Performanzphänomene, sondern als ‚schlechte‘, nämlich normalerweise (!) nicht regelkonforme Sprachwirklichkeit.

Harwegs Definition des emischen Textes und die damit verbundene Neudefinition der Kategorie Pronomen wurden bald zurückgewiesen.1 Dennoch haben seine Arbeiten einen bedeutenden Einfluss gehabt, da er in sehr systematischer Weise Nominalgruppen danach differenziert, in welche Wiederaufnahme-Relationen sie eingehen können. Solche Gliederungen bilden noch immer den Kern der Behandlung der Kohäsionsmittel (vgl. dazu weiter Adamzik 2016: Kap. 7.1.).

Noch weniger Einfluss als Harwegs terminologische Neologismen haben diejenigen von Koch gehabt. Die von ihm nur angedeutete Top-Down-Analyse stellt jedoch die zweite wesentliche Methode in der Textlinguistik dar. Besonders bekannt sind die Vorschläge von Teun A. van Dijk, der zwischen Makrostrukturen und Superstrukturen differenziert. Die ersten operieren auf Propositionen, von denen in einem rekursiven Prozess mehrere zu Makropropositionen zusammengefasst werden, bis sich auf der obersten Ebene eine Kurzfassung des Textes ergibt. Die Grundlage bilden also konkrete Texte und das Vorgehen entspricht dem Bottom-Up-Modell. Superstrukturen stellen dagegen Schemata für den Grobaufbau von Textsorten dar. Allerdings stehen dabei nicht hochstandardisierte Kleinformen (Wetterbericht usw.) im Vordergrund, sondern potenziell sehr komplexe Einheiten – besonders häufig zitiert findet sich van Dijks Schema zu Erzähltexten (vgl. van Dijk 1980: 142).

Die Superstrukturen van Dijks sind fast so abstrakt wie das Textem von Koch, der Inhalt ist nämlich überhaupt nicht spezifiziert. Makrostrukturen sind dagegen am Inhalt orientiert, sollen diesen zusammenfassen; daher umfassen sie auch die besonders wesentlichen lexikalischen Elemente bzw. Themenwörter. Bei van Dijk erscheinen Makrostrukturen als Ergebnis wissenschaftlicher Analyseverfahren. Er unterstellt allerdings, dass auch gewöhnliche Sprachteilhaber diese intuitiv anwenden, wenn sie Texte verarbeiten:

„Wir müssen uns Einsicht verschaffen in das sehr wesentliche Vermögen des Sprachgebrauchers, das ihm ermöglicht, auch bei sehr langen und komplizierten Texten Fragen zu beantworten wie ‚Wovon war die Rede?‘, ,Was war der Gegenstand des Gesprächs?‘ u. ä. Ein Sprachgebraucher kann das auch dann, wenn Thema oder Gegenstand selbst als ganzes nicht explizit im Text erwähnt werden. Er muß also das Thema aus dem Text ableiten.“ (van Dijk 1980: 45; Hervorhebung im Orig.)

Nun ist es allerdings gar nicht immer nötig, Themen ‚abzuleiten‘, weil bestimmte Themen, Motive, Stoffe, Topoi, … zum kollektiven Gedächtnis gehören und also immer wieder reproduziert werden, so dass man sie nur wiedererkennen muss. Das ist besonders an mündlich überlieferter (Volks-)Literatur, speziell Märchen, gezeigt worden. Solche Forschungen greift nun Koch (1971) in einem weiteren Aufsatz auf und erörtert an diversen Beispielen die Frage, wann es sinnvoll ist, hier von einem Textem und verschiedenen Allotexten zu sprechen und wann es angemessener erscheint, mit verschiedenen Textemen zu rechnen, die ja (im Sinne von Archetypen) auch unabhängig voneinander in verschiedenen Kulturen erscheinen können.

In vielen Fällen unterliegt es allerdings nicht dem geringsten Zweifel, dass es sich um Texte handelt, die überliefert werden, möglicherweise über Jahrhunderte oder gar Jahrtausende. Wenn sie über einen sehr langen Zeitraum überliefert werden, erscheint ‚derselbe‘ Text notwendigerweise in verschiedenen Sprachstufen. Ferner ist erwartbar, dass er in verschiedenen Varietäten vorliegt, in oral geprägten Kulturen insbesondere regionalen, aber z. B. auch in konfessionellen, wenn man etwa an die Bibel als besonders variantenreich überlieferten Text denkt. Angesichts dessen ist es schon erstaunlich, dass in der Textlinguistik das Interesse an Mustern, Textsorten-Schemata, Diskurstraditionen, kommunikativen Gattungen, …, kurz gesagt: an Einheiten sehr hoher Abstraktionsebene das an der Überlieferung konkreter Texte und Wortlaute fast vollständig überlagert.

VARIATIONslinguistik trifft TEXTlinguistik

Подняться наверх