Читать книгу Lehrwerksintegrierte Lernvideos als innovatives Unterrichtsmedium im fremdsprachlichen Anfangsunterricht (Französisch/Spanisch) - Elena Schäfer - Страница 14

3.1 Audiovisuelle Informationsverarbeitung

Оглавление

Bei der Ausstrahlung audiovisueller Dokumente findet eine Informationsübertragung mittels verschiedener Sinneskanäle statt: dem visuellen und dem akustischen. Anders als bei realen Kommunikationssituationen können Sender und Empfänger audiovisueller Inhalte einander in ihren Aussagen und ihrem Sprechtempo nicht beeinflussen. Ein Eingriff in die präsentierten Inhalte ist nicht möglich, weswegen die Informationsaufnahme einseitig durch den Rezi­pienten stattfindet. Da es sich um eine sogenannte Einwegkommunikation handelt, besteht die Aufgabe und Leistung des Hör-Sehenden zum Zeitpunkt der audiovisuellen Rezeption darin,

informative Signale, die ihm über mehrere Sinneskanäle zugeführt werden, und die zudem ganz unterschiedlichen semiotischen Systemen angehören, auf[zu]nehmen und zu sinnvollen Bewusstseinsinhalten [zu] verschmelzen (Scherer 1984, 20).

Man spricht hierbei allgemein auch von multimodaler Sprachverarbeitung, da der mentale Apparat aus verschiedenen sensorischen Modulen besteht: dem visuellen, auditiven, gustatorischen, taktilen und olfaktorischen Modul (cf. Ball­staedt 1988, 7). Die erfolgreiche Verarbeitung der wahrgenommenen Stimuli ist abhängig von dem Zusammenspiel verschiedener psychologischer, physiologischer und physikalischer Faktoren, die in gegenseitiger Wechselwirkung zueinander stehen und zu einer einheitlichen Wahrnehmung beitragen. Die zu Grunde liegenden Verarbeitungsprozesse sind allerdings derart komplex, dass insbesondere die Frage nach dem Integrationsmechanismus „auditiver und visueller sprachlicher Information […] bisher noch nicht ausreichend geklärt“ ist (Schmid 2007, 24).

Um etwaige Verarbeitungsmechanismen besser zu verstehen und die verschiedenen Areale modalitätsspezifischer Verarbeitung zu lokalisieren, lohnt sich ein Blick in den Aufbau des menschlichen Gehirns: Demnach werden visuelle Reize im Okzipitallappen des Cortex (d.h. im hintersten Teil des Großhirns) verarbeitet, wohingegen empfangene auditive Signale in den Temporallappen (d.h. in den laterobasalen Teil des Großhirns) und taktile Informationen in den Parietallappen (auch: Schläfenlappen, d.h. in den mittleren/oberen Teil des Großhirns) geleitet werden.1

Visuelle Daten werden verarbeitet, indem das Auge optische Reize in Form von einfallenden Lichtstrahlen aufnimmt. Diese werden bei Eintreten in das Auge mehrfach gebrochen und erzeugen bei einem emmetropen (normalsichtigen) Auge eine verkleinerte und umgekehrte Projektion des betrachteten Objekts auf der Netzhaut (Retina). Dort werden die optischen Informationen durch die Photosensoren (Stäbchen und Zapfen für Dämmerungs- bzw. Farbsehen) in Nervenimpulse umgewandelt und über den Sehnerven (Nervus opticus) zum Gehirn weitergeleitet (cf. Silbernagl/Despopoulos 2012, 366sq.)

Die Verarbeitung auditiver Daten erfolgt hingegen durch die Aufnahme von Schallwellen über die Ohrmuschel in den Gehörgang, wo diese über das Trommelfell und im Mittelohr über die drei Gehörknöchelchen (Hammer, Amboss, Steigbügel) an die im Innenohr gelegene Cochlea (Ohrschnecke) weitergeleitet werden. Dies führt zu einer Aktivierung der dortigen Hörsinneszellen und Entstehung von Nervenimpulsen, die über den Hörnerven (Nervus vestibulocochlearis) zum auditiven Cortex gelangen (cf. ibid. 387sqq.).

Die sensorischen Module treffen in einem übergeordneten zentralen amodalen System zusammen, das die wesentlichen verbalen und nonverbalen Informationen mit bereits vorhandenen Konzepten abgleicht und weiterverarbeitet bzw. neue Konzepte aktiviert und in Form nichtsprachlicher Schemata organisiert (cf. Ballstaedt 1988, 10). Dieses befindet sich vermutlich in dem Bereich zwischen dem visuellen, dem auditiven und dem taktilen Verarbeitungsmodul (cf. Abb. 4).


Abb. 4: Areale modalitätsspezifischer Verarbeitung im menschlichen Gehirn (Schünke/Schulte/Schumacher 2006, 378)

Neuroanatomischen Erkenntnissen zufolge geht man weiter davon aus, dass der Gyrus angularis „die Eingänge vom visuellen, akustischen und somatosensorischen Cortex [koordiniert] und […] die Wernicke-Region [beeinflusst]“ (Schünke/Schulte/Schumacher 2006, 381). Die Wernicke-Region ist für das Sprachverständnis zuständig und steht in direkter Verbindung zur Broca-Region, die für die Sprachproduktion verantwortlich ist. Beide Sprachzentren befinden sich normalerweise in der linken Hemisphäre des Gehirns und „sind durch den Fasciculus longitudinalis superior (=arcuatus) [sic] miteinander verbunden“ (ibid.) (cf. Abb. 5). Im Hinblick auf die Sprachverarbeitung geben aktuelle Studien zudem Hinweise darauf, dass sich die neuronale Aktivierung bei der Erst- (L1) und Zweitsprache (L2) teilweise voneinander unterscheidet. Dies gilt nach dem heutigen Kenntnisstand zwar nur für gewisse Teilfunktionen, könnte für die Schulung des fremdsprachlichen Hör-Seh-Verstehens aber dennoch von Bedeutung sein (cf. Mueller/Rüschemeyer/Friederici 2006, 182).


Abb. 5: Sprachregionen der normalerweise dominant linken Hemisphäre des menschlichen Gehirns (Schünke/Schulte/Schumacher 2006, 381)

Obgleich die neuronale Verarbeitung audiovisueller Stimuli – auch im Hinblick auf das fremdsprachliche Hör-Seh-Verstehen – weiterer Forschung bedarf, haben sich innerhalb der Fachdiskussion verschiedene Theorien der audiovisuellen Informationsverarbeitung herausgebildet, deren Modelle im Folgenden kurz skizziert werden. Eine ausführliche und detaillierte Gegenüberstellung kann an dieser Stelle nicht geleistet werden. Bei den Grundmodellen handelt es sich um ein dualistisches, ein monistisches sowie ein alternatives Modell der audiovisuellen Informationsverarbeitung. Allen Ansätzen ist gemein, dass sie von einem 3-Stufen-System ausgehen. Die erste Stufe beschreibt periphere Prozesse und Repräsentationen, bei der die Informationen modalitätsspezifisch aufgenommen und getrennt voneinander verarbeitet werden. Unterschiede bestehen zwischen den Modellen erst ab Stufe zwei, der Phase der repräsentationalen Informationsverarbeitung. Während Vertreter der dualistischen Theorie (e.g. Paivio) annehmen, dass eine Interaktion der Kanäle erst bei der referenziellen Informationsverarbeitung in Stufe drei stattfindet, gehen Vertreter des monistischen Modells von der Speicherung beider Sinnesmodalitäten in nur einem System aus (auch: amodales System).

Demgegenüber steht das sogenannte alternative Modell, bei dem (in Übereinstimmung mit der dualen Theorie nach Paivio) von einem „eigenständigen Repräsentationssystem für akustische und visuelle Prototypen“ (Gilmozzi 2002, 156) ausgegangen wird, bei dem Wort- und Bildstimuli im Zuge zentraler Prozesse (Stufe 2) zwar gemäß ihrer Modalität verarbeitet werden, jedoch durchaus miteinander in Verbindung treten können. Das Modell stellt somit einen Kompromiss zwischen der dualen und der monistischen Theorie dar (cf. Stachelscheid/Testrut 1997, 37). Es findet Unterstützung durch jüngste wissenschaftliche Erkenntnisse (cf. Abb. 6).


(S)= Sprachliche Information, (B)= Bildliche Information

Abb. 6: Drei Grundmodelle audiovisueller Informationsverarbeitung modifiziert nach Stachelscheid/Testrut (1997, 37)

Unter Berücksichtigung der konzeptuellen Nähe zwischen eingegangenen und vorhandenen Informationen unterscheidet Ballstaedt ferner zwischen drei Arten audiovisueller Integration, deren Verarbeitung an das jeweils vorliegende Verhältnis zwischen Text und Bild anschließt und über die Komplexität der geforderten Denkleistungen bestimmt. Diese umfassen Integration durch (1) Redundanz, (2) Komplementarität und (3) Inferenz.

Während bei redundanten Text-Bild-Beziehungen eine Aktivierung über das gleiche Konzept erfolgt, setzt die Integration durch Komplementarität voraus, dass mittels Text und Bild zwar unterschiedliche Konzepte angeregt werden, diese jedoch zueinander in Verbindung stehen und sich zu einer Botschaft ergänzen. Bei der Integration durch Inferenz findet die Integration hingegen erst durch die Aktivierung unterschiedlicher Konzepte im amodalen System statt, aus denen dann Schlussfolgerungen gezogen werden können. Bei den genannten Integrationsarten ist zu berücksichtigen, dass sie mit jeweils unterschiedlichem Vorwissen und einem unterschiedlichen Maß an Verarbeitungsaufwand verbunden sind, zumal inferente Text-Bild-Beziehungen weitaus komplexer sind als bei vorliegender Redundanz oder Komplementarität (cf. Ballstaedt 1988, 10sqq.).

Prinzipiell bedeutet der Einsatz audiovisueller Medien eine erhöhte Informationsdichte und folglich eine komplexere Verarbeitung gegenüber der einkanaligen Informationsaufnahme. Um der Gefahr einer Überforderung entgegenzuwirken, greift das menschliche Gehirn auf verschiedene Strategien zur Selektion von Informationen zurück, dank derer wir trotz Informationsfülle handlungsfähig bleiben (cf. ibid. 21sq.). Diese werden nachstehend erläutert.

Lehrwerksintegrierte Lernvideos als innovatives Unterrichtsmedium im fremdsprachlichen Anfangsunterricht (Französisch/Spanisch)

Подняться наверх