Читать книгу Dyskalkulie - Stephan Vogel - Страница 9
Оглавление1 Zahlenverarbeitung und Rechnen bei Erwachsenen
1.1 Einleitung
Gute Rechenfertigkeiten sind in unserer Gesellschaft mindestens ebenso wichtig wie gute Lesefertigkeiten. Diese Aussage gilt nicht nur für die Schulzeit, sondern auch für das Berufsleben. Wer gravierende Schwierigkeiten beim Rechnen hat, ist sowohl im Alltag (beim Einkaufen, Einparken: Schätzen, ob die Parklücke groß genug für das Auto ist, etc.) als auch in der Berufswahl erheblich eingeschränkt. Personen, die Schwierigkeiten beim Kopfrechnen haben oder solche, denen beim Lesen und Schreiben arabischer Zahlen leicht Fehler passieren, werden den Anforderungen von Berufen, die den Umgang mit (Wechsel-)Geld erfordern, nicht entsprechen können (z. B. Kassierer, Verkäufer, Bankangestellte). Auch die meisten naturwissenschaftlichen Professionen sind mathematiklastig (z. B. Physik, [Bio-]Chemie) und werden von Menschen mit Rechenschwierigkeiten meist vermieden.
Rechnen ist eine neurokognitiv hochkomplexe Leistung. Bereits intuitiv ist uns klar, dass wir die einfache Rechnung „2 + 6“ anders lösen als die komplexe Rechnung „23233 x 72“. Bei Textaufgaben besteht das Problem oft nicht in der eigentlichen Ausführung der geforderten Rechenleistung, sondern in der Entwicklung des korrekten Lösungsweges. Rechnen setzt voraus, dass wir mit Zahlen kompetent umgehen können. Eine wesentliche Erkenntnis der neurokognitiven Forschung ist, dass schon die einfache Verarbeitung von Zahlen in eine ganze Reihe von Teilkomponenten zerfällt, die im Einzelfall sehr spezifisch gestört sein können.
Der Begriff numerische Kognition umfasst all jene Denkprozesse, die mit dem Verstehen und Verarbeiten von Zahlen (gesprochene Zahlwörter, geschriebene arabische Zahlen) sowie mit dem Ausführen von Rechenoperationen (mental im Sinne von Kopfrechnungen oder beim schriftlichen Rechnen) zu tun haben. Die numerische Kognition unterscheidet sich von anderen Domänen der Kognition in vielerlei Hinsicht. Noël (2000) hebt hier vor allem drei Aspekte der Zahlenverarbeitung hervor:
(a) Zahlen stellen einen besonderen Aspekt der Realität dar (es geht um Größe bzw. Mächtigkeit);
(b) Zahlen sind Objekte spezifischer Denkprozesse, wie z. B. Rechnen, Größenvergleich, Paritätsbeurteilung; und
(c) Zahlen können in verschiedenen Formaten repräsentiert werden, nämlich als arabische Zahlen (Ziffernfolgen, wie z. B. 37), geschriebene Zahlwörter (Buchstabenfolgen, wie z. B. siebenunddreißig), gesprochene Zahlwörter (phonologische Sequenzen, wie z. B. „sieben und dreißig“), römische Zahlen (z. B. XXXVII) etc.
Teilkomponenten des Rechnens
Während sich die Forschung erst in jüngerer Zeit mit der typischen und atypischen Entwicklung der Zahlenverarbeitung und Rechenleistungen beschäftigt, gibt es eine lange und reiche Tradition der wissenschaftlichen Untersuchung der Teilkomponenten des Rechnens bei Erwachsenen. Ausgangspunkt dieser Forschungstradition war die detaillierte neuropsychologische Beschreibung von erworbenen Rechenstörungen, also Ausfällen der Rechenleistungen als Folge einer Hirnschädigung, in der ersten Hälfte des 20. Jahrhunderts. In der zweiten Hälfte des 20. Jahrhunderts ermöglichten insbesondere die detailreichen Methoden der Kognitionspsychologie zunehmend die Untersuchung der numerischen Kognition bei kompetenten Erwachsenen. Auf dieser Forschungsrichtung basieren die wesentlichen neurokognitiven Modelle der Zahlenverarbeitung und des Rechnens, mit denen wir heute arbeiten.
Einen weiteren wesentlichen Entwicklungsschub erfuhr die Untersuchung der Rechenleistungen durch die modernen Techniken der Neurowissenschaften, die durch diverse bildgebende Verfahren die Erforschung der Gehirnaktivität bei kompetenten Rechnern ermöglichen. Wesentliche Erkenntnisse dieser reichen Forschungstradition sind die Identifikation einer ganzen Reihe von Teilkomponenten der Zahlenverarbeitung und der arithmetischen Leistungen bei Erwachsenen, die zum Teil erstaunlich unabhängig voneinander funktionieren und auch sehr spezifisch gestört sein können. Diese Erkenntnisse stellen eine wichtige Grundlage für die Erstellung von Modellen der typischen und atypischen Entwicklung der Rechenleistungen dar, daher sollen sie in diesem Kapitel detailliert erläutert werden.
1.2 Erste Fallberichte von Patienten mit erworbenen Rechenstörungen
entwicklungsbedingt vs. erworben
Probleme mit der Zahlenverarbeitung und / oder dem Rechnen treten nicht nur bei Kindern in Form von entwicklungsbedingten Rechenstörungen (bzw. Dyskalkulie) auf. Auch Erwachsene mit vormals guten arithmetischen Fertigkeiten können im Zuge einer neurologischen Erkrankung (also einer erworbenen Hirnschädigung infolge eines Hirntumors, Schlaganfalls oder Schädel-Hirn-Traumas) spezifische Defizite beim Rechnen „erwerben“ (für eine Übersicht siehe z. B. Cipolotti und van Harskamp 2001; Dehaene 1999). Im Gegensatz zu den entwicklungsbedingten Rechenstörungen spricht man in diesem Zusammenhang von sogenannten erworbenen Rechenstörungen.
Akalkulie
Die ersten detaillierten und systematischen Fallberichte von Patienten mit erworbenen Rechenstörungen wurden 1919 von Henschen veröffentlicht, der auch den Begriff „Akalkulie“ einführte. Henschen konnte zeigen, dass Akalkulie sehr unterschiedliche Erscheinungsformen haben kann. Sie kann sowohl isoliert auftreten (also als einziges Symptom nach einer Hirnschädigung) als auch mit anderen Störungen wie Aphasie (erworbene Sprachstörung), Alexie (erworbene Lesestörung) oder Agraphie (erworbene Schreibstörung) einhergehen. Besonders hervorzuheben ist, dass die Arbeit von Henschen auch der erste Bericht einer spezifischen Beeinträchtigung des Erkennens und Lesens arabischer Zahlen ist, die unabhängig vom Ausführen von Rechenoperationen auftreten kann.
primär vs. sekundär
Bereits vor Henschens einflussreicher Publikation wurde in der neurologischen Fachliteratur darauf hingewiesen, dass strukturelle Hirnschädigungen Rechenstörungen bedingen können (z. B. Lewandowsky / Stadelmann 1908; Peritz 1918; Sittig 1917). Diese frühen Berichte waren jedoch meist auf die Beschreibung von Patienten mit Sprachstörungen (Aphasie) beschränkt, die zusätzlich auch Probleme beim Lesen und / oder Schreiben arabischer Zahlen oder beim Rechnen zeigten. Diese Form der erworbenen Rechenstörung, die mit anderen funktionellen Störungen wie Aphasie assoziiert ist, wurde von Berger (1926) als „sekundäre“ Akalkulie bezeichnet und folgegemäß von der „primären“ Akalkulie differenziert, die sich isoliert – also unabhängig von anderen kognitiven Defiziten – manifestiert. Berger war es auch, der erstmals berichtete, dass die Rechenfehler von Patienten mit erworbenen Hirnschädigungen nicht alle Rechenoperationen gleichermaßen betreffen müssen, sondern dass spezifische Rechenoperationen selektiv gestört sein können: So kann beispielsweise Multiplikationswissen besser erhalten sein als Subtraktionswissen. Vor allem Schädigungen der linken hinteren (posterioren) Hirnabschnitte, die häufig in Sprachstörungen resultieren, wurden auch als Ursache für Rechenstörungen erkannt.
Gerstmann-Syndrom
Gerstmann (1927; 1940) beschrieb erstmals einen Patienten, der nach einer Läsion in der Nähe des Gyrus angularis (lokalisiert im Scheitel- oder Parietallappen, der Teil hinterer Hirnabschnitte ist) eine Rechenstörung zeigte: Sie trat in Assoziation mit Fingeragnosie (defizitäres Erkennen der Finger), Agraphie (Schreibstörung) sowie Rechts-links-Desorientierung auf. Die Kombination dieser vier Symptome (Akalkulie, Fingeragnosie, Agraphie und Rechts-links-Störung) wurde nach deren Erstbeschreiber als Gerstmann-Syndrom benannt.
Eine moderne Einzelfallanalyse der Rechenleistungen eines Patienten mit Gerstmann-Syndrom findet sich z. B. bei Delazer und Benke (1997; s. Abschnitt 1.3).
konstruktive Akalkulie
In der unmittelbaren Folgezeit auf Gerstmanns Publikationen wurde allgemein die Ansicht vertreten, dass Rechenstörungen lediglich ein sekundäres Symptom von grundlegenderen visuell-räumlichen Defiziten seien (z. B. Krapf 1937; Singer / Low 1933). So prägte Krapf (1937) den Begriff der „konstruktiven Akalkulie“ für jene Art der Rechenstörung, bei der Patienten Schwierigkeiten beim Schreiben von Zahlenkolonnen bzw. deren räumlicher Anordnung aufwiesen.
Häufig wird angezweifelt, ob es sich beim Gerstmann-Syndrom um ein einheitliches Störungsbild handelt, weil viele Patienten nur eines, zwei oder drei der vier charakteristischen Symptome zeigen (Benton 1977). Nichtsdestotrotz ist das Interesse der aktuellen Forschung zur numerischen Kognition am Gerstmann-Syndrom wieder neu erwacht, vor allem im Hinblick auf einen potenziellen Zusammenhang zwischen räumlicher und numerischer Kognition (Schlagwort „Zahlenraum“). Erst kürzlich wurde ein Sonderheft einer renommierten neurowissenschaftlichen Fachzeitschrift diesem Thema gewidmet (Sonderheft von Cortex [2008]: „Number, Space, and Action“, herausgegeben von Martin Fischer und Guilherme Wood).
modalitätsspezifische Beeinträchtigungen
Von Interesse ist, dass auch das Wissen um die Bedeutung der Operationszeichen gestört sein kann: So beschrieben Ferro und Botelho bereits 1980 zwei neurologische Patienten (AL und MA), deren Rechenfehler bei einfachen Multiplikationen auf Operationsfehler zurückzuführen waren (z. B. 3 x 5 = 8 bzw. 9 x 3 = 6). Bei einem der beiden Patienten (MA) traten diese Fehler interessanterweise nur in der schriftlichen Modalität auf (also beim Bearbeiten arabischer Zahlen), nicht jedoch beim verbalen Lösen derselben Aufgaben (also beim Bearbeiten gehörter / gesprochener Rechenaufgaben). Diese Diskrepanz zeigt, dass rechnerische Fertigkeiten modalitätsspezifisch beeinträchtigt sein können: So kann die Verarbeitung arabischer Zahlen gestört, die Verarbeitung von Zahlwörtern aber erhalten sein.
1.3 Akalkulie aus der Sicht der klinischen Neuropsychologie und der kognitiven (Neuro-)Psychologie
Der Hauptverdienst der ersten neurologischen Fallberichte ist sicher darin zu sehen, dass Rechenstörungen erstmals als Folgeerscheinung von Hirnläsionen beschrieben wurden (z. B. Lewandowsky / Stadelmann 1908). Der Großteil der damaligen neuro(psycho)logischen Fachwelt war allerdings lange Zeit der Meinung, dass Akalkulie als ein Begleitsymptom von anderen Störungen anzusehen sei. So publizierten Hecaen und Mitarbeiter mehrere Arbeiten, in denen sie einen Klassifikationsversuch von Akalkulie in folgende drei Subtypen vornahmen: (a) Akalkulie infolge von Lese- und / oder Schreibstörungen (von Zahlen); (b) Akalkulie infolge von räumlichen Defiziten beim schriftlichen Rechnen; und (c) die sogenannte Anarithmetie, welche Defizite beim Ausführen arithmetischer Operationen reflektiert (Hecaen / Angelerques 1961; s. a. Luria 1973).
Dissoziation
Bereits in den frühen Falldarstellungen zeigt sich, dass Rechenstörungen von anderen kognitiven Störungen dissoziieren können, d. h. sie treten manchmal trotz intakter kognitiver Leistungen auf. Auch zwischen Teilkomponenten der numerischen und arithmetischen Fertigkeiten zeigen sich bei einzelnen Patienten Dissoziationen, die uns wesentliche Aufschlüsse über unser kognitives System geben.
Dissoziation und doppelte Dissoziation
Wenn eine Leistung A intakt ist, aber eine Leistung B defizitär, dann spricht man von einer Dissoziation. Eine doppelte Dissoziation liegt dann vor, wenn bei einem Patienten eine Leistung A erhalten, eine Leistung B jedoch defizitär ist und bei einem anderen Patienten das umgekehrte Leistungsprofil vorliegt (Leistung B ist intakt, aber Leistung A ist defizitär). Das Vorhandensein von doppelten Dissoziationen wird in der kognitiven Psychologie als Evidenz für die modulare Architektur kognitiver Systeme betrachtet (Shallice 1988). Man nimmt also an, dass die Leistungen A und B voneinander unabhängig sind, sowohl hinsichtlich ihrer funktionellen Aufgaben als auch hinsichtlich ihrer strukturellen (neuronalen) Korrelate.
Dissoziation zwischen Rechenfertigkeiten und intellektuellem Leistungsniveau: Eine Schlüsselarbeit für die aktuelle numerische Kognitionsliteratur war die von Grafman und Mitarbeitern (1982) publizierte Gruppenstudie neurologischer Patienten. Die Autoren untersuchten – erstmals mit einem standardisierten Rechentest – 76 Patienten mit Hirnläsionen (41 mit links- und 35 mit rechtsseitigen Strukturschäden) sowie 26 Kontrollpersonen. Die Befunde von Grafman und Kollegen sind hinsichtlich zweier Aspekte besonders erwähnenswert:
(a) Das Vorliegen bzw. der Schweregrad der Rechenstörung war unabhängig vom allgemeinen intellektuellen Leistungsniveau (s. a. Lewandowsky / Stadelmann 1908; Warrington 1982); und
(b) Patienten mit linksseitiger Hirnstrukturschädigung hatten relativ zu jenen mit rechtshemisphärischen Läsionen und Kontrollpersonen die gravierendsten Rechenprobleme (s. a. Jackson / Warrington 1986).
Savant Syndrom
Im Hinblick auf die intellektuelle Leistungsfähigkeit liegt eine doppelte Dissoziation vor, da auch die andere Seite der Dissoziation beschrieben wurde: nämlich Personen mit sogenanntem „Savant Syndrom“, die über sehr gute Rechenleistungen trotz niedrigem Intelligenzniveau verfügen (z. B. Kelly et al. 1997).
Dissoziation zwischen Rechenfertigkeiten und Sprachleistung: Großen Einfluss auf die moderne Zahlen- und Rechenforschung hatten auch die Arbeiten von Elizabeth Warrington. Warrington konnte bereits 1982 anhand detaillierter Einzelfallanalysen zeigen, dass verschiedene Komponenten des Rechnens modular organisiert sind.
Im Jahre 1995 beschrieben Warrington und Mitarbeiter einen Patienten, der trotz globaler Aphasie gute Leistungen hinsichtlich der Zahlenverarbeitung und des Rechnens zeigte (Rossor et al. 1995). Dieses Fallbeispiel demonstriert eindrücklich, dass gute Rechenleistungen nicht unbedingt intakte sprachliche Fähigkeiten voraussetzen (s. a. Hodges et al. 1992; Lewandowsky / Stadelmann 1908).
Dissoziation zwischen numerischem und nichtnumerischem Gedächtnis: Cappelletti und Mitarbeiter (2001) publizierten einen detaillierten Fallbericht eines Patienten (IH) mit semantischer Demenz: Das ist eine progrediente hirnorganische Erkrankung, die im Anfangsstadium meist durch beeinträchtigte Gedächtnisleistungen und Sprachstörungen charakterisiert ist. Dieser Patient zeigte erstaunlich gut erhaltene numerisch-rechnerische Fertigkeiten, jedoch gravierende Defizite bei nichtnumerischen Gedächtnisinhalten. IH verfügte über sehr gutes Additions- und Subtraktionswissen beim Rechnen mit ein- und zweistelligen Zahlen (seine Bearbeitungsgenauigkeit von Multiplikations- und Divisionsrechnungen war etwas niedriger, jedoch weit über dem Rateniveau) und zeigte exzellente Leistungen beim Platzieren von Zahlen auf einem Zahlenstrahl. Offenbar führen Gedächtnisdefizite nicht zwangsläufig zu Beeinträchtigungen der Rechenleistungen.
Dissoziation zwischen Zahlenverständnis und Zahlenproduktion sowie zwischen dem Lesen von arabischen Zahlen und Zahlwörtern: Benson und Denckla (1969) stellten zwei Patienten mit Gerstmann-Syndrom vor, die auch eine Aphasie hatten. Beide Patienten konnten einstellige Additionsaufgaben wie „4 + 5“ nicht korrekt verbal beantworten. Dennoch konnte ein Patient die richtige Lösung niederschreiben und der andere die richtige Antwort unter mehreren möglichen auswählen. Diese Arbeit war ein Eckpfeiler für die moderne Kognitionspsychologie, weil sie erstmals anhand von Dissoziationen aufzeigte, dass Zahlenverständnis- und Zahlenproduktionssysteme funktionell voneinander unabhängig sein können.
Cipolotti und Kollegen (1995; Cipolotti 1995) zeigten, dass Patienten sehr spezifische Schwierigkeiten beim Lesen arabischer Zahlen haben können. Die von Cipolotti beschriebenen Patienten hatten Schwierigkeiten beim Lesen arabischer Zahlen, nicht jedoch beim Lesen von Zahlwörtern. Die umgekehrte Dissoziation wurde ebenfalls beschrieben, so dass von einer doppelten Dissoziation zwischen den Lesemechanismen für arabische Zahlen und jenen für Zahlwörter gesprochen werden kann (s. Abschnitt 1.5.1 „Struktur des Zahlensystems“).
Dissoziation zwischen verschiedenen Rechenoperationen: Benson und Weir (1972) beschrieben – erstmals nach Berger (1926) – einen Patienten, dessen Rechenschwierigkeiten auf bestimmte Operationsarten beschränkt waren: Während Additionen und Subtraktionen intakt waren, bereiteten ihm Multiplikationen und Divisionen auffällige Schwierigkeiten. Es gibt inzwischen zahlreiche Fallberichte von Patienten mit operationsspezifischen Defiziten beim Lösen einfacher Rechnungen. Selektive Probleme beim Lösen einfacher Additionen zeigte beispielsweise Patient FS (van Harskamp / Cipolotti 2001), während Patient SS eine selektive Beeinträchtigung beim Lösen simpler Subtraktionsaufgaben zeigte.
Da auch ein Fallbericht von einem Patienten (BB) mit erhaltenem Subtraktionswissen bei defizitärem Additions- und Multiplikationswissen existiert (Pesenti et al. 1994), liegt in Bezug auf das Subtrahieren eine doppelte Dissoziation vor: Es kann sowohl selektiv erhalten als auch selektiv gestört sein. Letzteres gilt auch für das Multiplikationswissen (selektiv erhalten: Patient JG [Delazer / Benke 1997], selektiv beeinträchtigt: Patient VP [van Harskamp / Cipolotti 2001]). Diese doppelten Dissoziationen stützen die Annahme, dass das arithmetische Wissen je nach Operationsart modular organisiert ist. In anderen Worten: Die Verarbeitungsprozesse und -mechanismen für jede Operationsart scheinen unabhängig voneinander zu funktionieren.
Dissoziation zwischen arithmetischem Faktenwissen und prozeduralem Wissen: Eine grobe Differenzierung von Rechenfertigkeiten ist jene in das arithmetische Faktenwissen und das Wissen um arithmetische Prozeduren (s. a. Abschnitt 1.5.2).
Als Faktenwissen bezeichnet man einfache Rechnungen, deren Ergebnis man direkt aus dem Gedächtnis abrufen kann, ohne es „ausrechnen“ zu müssen (z. B. Einmaleins). Prozedurales Wissen umfasst alle Rechenprozeduren, die wir benutzen, um zu einem Ergebnis zu kommen. So muss man z. B. beim Lösen mehrstelliger schriftlicher Additionen wissen, wie man die Zahlen untereinander schreibt, ob man bei den Einern oder Zehnern / Hundertern mit dem Additionsprozess beginnt, wie man Überträge behandelt, wie man mit Nullen umzugehen hat etc. Die Unterscheidung zwischen Faktenwissen und prozeduralem Wissen wurde anhand von Einzelfallstudien wiederholt empirisch validiert (z. B. Delazer / Benke 1997; Hittmair-Delazer et al. 1994; 1995; McCloskey et al. 1985; Warrington 1982).
Eine der frühesten detaillierten Beschreibungen einer Dissoziation zwischen arithmetischem Fakten- und Prozedurenwissen war eine Einzelfallstudie von einem hirngeschädigten Patienten (DRC), der Probleme beim direkten Faktenabruf hatte, dieselben einstelligen Rechnungen jedoch mit Hilfe sogenannter Backup-Strategien (in diesem Falle zeitaufwändige Zählprozeduren) lösen konnte (Warrington 1982).
Einzelfallstudien zur Unterscheidung zwischen Faktenwissen und prozeduralem Wissen
Mehr als ein Jahrzehnt später wurde Warringtons Bericht einer Dissoziation zwischen arithmetischem Faktenwissen und prozeduralem Wissen von Margarete Delazer und Kollegen repliziert und sogar um die umgekehrte Dissoziation erweitert (Hittmair-Delazer et al. 1994; Delazer / Benke 1997). Patient BE war ein 45-jähriger Buchhalter, der nach einem Hirninfarkt linker subkortikaler Hirnstrukturen (Basalganglien) zusätzlich zu einer rechtsseitigen Lähmung und einer Sprachstörung auch spezifische Probleme beim Abruf von Multiplikationsfakten zeigte (einfache Additionen und Subtraktionen bereiteten ihm vergleichsweise weniger Schwierigkeiten; Hittmair-Delazer et al. 1994). Erstaunlich war, dass dieser – von Berufs wegen in Arithmetik sehr geübte – Mann seine Faktenabrufdefizite durch teils sehr komplexe prozedurale Lösungsstrategien spontan kompensierte. So konnte er zwar die Lösung von „5 x 8“ nicht direkt aus dem Langzeitgedächtnis abrufen, konnte das korrekte Resultat (40) jedoch über Umwege lösen (z. B. [8 x 10] : 2 bzw. [5 x 10] – [2 x 5]).
Ein konträres Leistungsprofil zeigte JG, eine 56-jährige Patientin, die nach einem hirnchirurgischen Eingriff zur Entfernung eines Tumors in linken parietalen Hirnarealen ein Gerstmann-Syndrom entwickelte (Delazer / Benke 1997). JG zeigte relativ gut erhaltenes Multiplikationsfaktenwissen, aber defizitäres Additions- und Subtraktionswissen. Im Gegensatz zu BE konnte JG ihr Abrufdefizit nicht durch prozedurales arithmetisches Wissen kompensieren.
Zusammenfassung
Empirische Evidenz an Erwachsenen stützt die Annahme einer modularen Architektur von Rechenleistungen. Dissoziationen zwischen Rechenleistungen und nichtnumerischen Fähigkeiten einerseits sowie Dissoziationen zwischen verschiedenen Komponenten der Zahlenverarbeitung und des Rechnens andererseits zeigen, dass (a) Zahlenverarbeitung und Rechnen unabhängig von der allgemeinen intellektuellen Leistungsfähigkeit und von nichtnumerischen Fähigkeiten wie Sprache und Gedächtnis sind; und (b) dass verschiedene Teilbereiche des Rechnens nach erworbenen Hirnschädigungen selektiv beeinträchtigt sein können (z. B. operationsspezifische Defizite).
1.4 Neurokognitive Modelle der numerischen Kognition bei Erwachsenen
Einer Vielzahl von systematischen und sehr differenzierten Einzelfall- und Gruppenstudien von gesunden Probanden und von neurologischen Patienten mit Hirnverletzungen ist es zu verdanken, dass unser aktuelles Verständnis der kognitiven Prozesse und Mechanismen, die einer intakten Zahlenverarbeitung und guten Rechenfertigkeiten zugrunde liegen, bereits recht umfassend ist. Dass es trotz des akkumulierten Wissens immer noch beträchtliche Wissenslücken und Kontroversen gibt, spiegelt sich in den im Folgenden dargestellten Rechenmodellen wider.
Modell von McCloskey und Kollegen: Das erste auf neuropsychologischen Theorien und Patientenbefunden basierende Rechenmodell, das der Differenzierung unterschiedlicher Teilkomponenten der Zahlenverarbeitung und der arithmetischen Leistungen Rechnung trägt, stammt von McCloskey und Mitarbeitern (1985; s. Abb. 1.1).
Input- und Output-system
Das Modell unterscheidet zwischen einem Inputsystem (Zahlenverständnis) und einem Outputsystem (Zahlenproduktion). Innerhalb beider Systeme findet sich jeweils eine Komponente für Verständnis / Produktion von Zahlwörtern und eine weitere Komponente für Verständnis / Produktion arabischer Zahlen. Jede dieser Repräsentationsformen von Zahlen steht mit der zentralen abstrakten semantischen Repräsentationskomponente in Verbindung. McCloskey und Kollegen (1985; McCloskey 1992) nehmen an, dass jede Zahl – in welcher Form auch immer sie präsentiert wird – eine internale abstrakte Größenrepräsentation generiert, welche ihrerseits wiederum das Outputsystem (also die Produktion) von Zahlen und Zahlwörtern aktiviert. Folglich evoziert jede Zahlenverarbeitung (Lesen / Schreiben gesprochener / geschriebener Zahlen) automatisch auch das Wissen um die numerische Größe dieser Zahl.
Abb. 1.1: Das Rechenmodell von McCloskey et al. (1985)
Rechensystem
Zusätzlich zu diesen Komponenten der Zahlenverarbeitung enthält das Modell von McCloskey ein Rechensystem, das sich wiederum in eine Reihe von Teilkomponenten zerlegen lässt. Zum einen müssen für kompetentes Rechnen die speziellen Symbole (also etwa die Rechenoperationszeichen +, –, x und :) bekannt sein. Eine weitere wichtige Unterscheidung innerhalb der Rechenfertigkeiten ist die zwischen arithmetischen Prozeduren und arithmetischem Faktenwissen. Unter prozeduralem Wissen versteht man das Wissen um Lösungsalgorithmen. Unter arithmetischem Faktenwissen versteht man einfache Rechnungen mit einstelligen Operanden, die von geübten Rechnern meist direkt aus dem Langzeitgedächtnis abgerufen werden können.
3 Zahlenmodule / -codes
Triple-Code-Modell: Das Triple-Code-Modell von Dehaene (1992; Dehaene / Cohen 1995) enthält – ebenso wie das Modell von Mc-Closkey und Autoren – unterschiedliche Komponenten für unterschiedliche Repräsentationsformen von Zahlen und Mengen, die hier als unterschiedliche „Codes“ bezeichnet werden (s. Abb. 1.2). Die visuell-arabische Zahlenform ist für die Verarbeitung von arabischen Zahlen zuständig, die verbal-(phonologische) Zahlenform verarbeitet dagegen gesprochene und geschriebene Zahlwörter. Die dritte Komponente der analogen Größenrepräsentation ist bei all jenen Zahlenverarbeitungs- und Rechenprozessen involviert, die auf die Numerosität von Mengen oder Zahlen zugreifen. Anders ausgedrückt repräsentiert diese Komponente die eigentliche Zahlensemantik, also das Wissen um die numerische Größe bzw. Mächtigkeit einer Menge oder Zahl. Beim kompetenten Erwachsenen interagieren diese drei Codes, wann immer Zahlenverarbeitung stattfindet. Jede dieser Komponenten kann aber laut Dehaene auch spezifisch beeinträchtigt sein, so dass bei Beeinträchtigung der analogen Größenrepräsentation Zahlenlesen (Übersetzung einer arabischen Zahl in ein Zahlwort) oder Zahlenschreiben (Übersetzung eines Zahlworts in eine arabische Zahl) noch möglich sein sollte, ohne dass die Bedeutung der Zahlen bzw. deren Numerosität erfasst werden könnte.
Abb. 1.2: Das Triple-Code-Modell von Dehaene (1992)
Unterschiede zum McCloskey-Modell
Mit der Annahme der funktionellen Unabhängigkeit der drei Zahlenformate unterscheidet sich Dehaenes Triple-Code-Modell vom Rechenmodell von McCloskey und Autoren, das besagt, dass jede Zahlenverarbeitung zu einer automatischen Aktivierung der internalen semantischen Größenrepräsentation führt. Ein weiterer Unterschied zwischen den zwei Modellen ist deren Implikation für die Organisation bzw. die Verarbeitung von Rechenoperationen. So gibt es im Gegensatz zum Mc-Closkey-Modell beim Triple-Code-Modell keine separate Komponente für Rechenleistungen. Vielmehr werden Leistungen der Zahlenverarbeitung und des Rechnens der Komponente zugeordnet, auf deren Repräsentationsform sie basieren. So erfordert schriftliches Rechnen mit mehrstelligen Zahlen den kompetenten Umgang mit arabischen Zahlen und ist somit der visuell-arabischen Zahlenform zugeordnet. Zählen sowie arithmetisches Faktenwissen (Addition und Multiplikation) sieht Dehaene als vorwiegend verbale Leistungen und ordnet sie daher der verbal-phonologischen Zahlenform zu. Die analoge Größenrepräsentation ist die Grundlage von approximativen Rechenprozessen wie Schätzen, Größenvergleich oder dem Subitizing (ein spezieller Zählmechanismus im kleinen Zahlenraum, s. Abschnitt 2.3.1)
Im nächsten Abschnitt werden die wichtigsten Erkenntnisse zur numerischen Kognition dargestellt, auf denen diese beiden Modelle basieren.
1.5 Zentrale Komponenten der arithmetischen Verarbeitung
Im Gegensatz zu den frühen neurologischen und klinisch-neuropsychologischen Arbeiten, die meist unsystematische und eher anekdotische Fallbeispiele berichten, beruhen die Erkenntnisse der modernen Kognitionspsychologie auf sehr detaillierten und systematischen Untersuchungen von Denkprozessen und kognitiven Fähigkeiten (Shallice 1988).
An einem einfachen Beispiel sei dies illustriert: Wenn man ein 6-jähriges Kind und einen Erwachsenen bittet, die Aufgabe „4 + 2“ zu lösen, so werden beide Personen diese Rechenaufgabe richtig lösen. Erst die exakte Erhebung der Bearbeitungszeit zeigt, dass das 6-jährige Kind viel länger braucht, um das Ergebnis zu produzieren als der Erwachsene. Daraus lässt sich schließen, dass das Kind beim Lösen dieser einfachen Rechenaufgabe komplexe, mehrstufige Lösungsprozesse in Anspruch nehmen muss (z. B. Rechnen mit Hilfe der Finger). Die meisten Erwachsenen müssen für das Lösen derselben Rechenaufgabe nicht auf rechnerische Denkprozesse zurückgreifen, sondern können die Aufgabenlösung (6) spontan nennen.
multikomponentielle Verarbeitung
Eine zentrale Erkenntnis dieser Forschungsrichtung ist, dass die arithmetische Verarbeitung multikomponentiell ist, sich also aus zahlreichen Teilkomponenten zusammensetzt. Zu unterscheiden sind die Komponenten der Zahlenverarbeitung im engeren Sinn (Lesen / Schreiben arabischer Zahlen, Vergleichen arabischer Zahlen etc.) einerseits und der Rechenfertigkeiten (Kopfrechnen, schriftliches Rechnen etc.) andererseits. Diese beiden Komponenten lassen sich in jeweils weitere Subkomponenten zerlegen, die im Folgenden im Detail dargestellt werden.
1.5.1 Basisnumerische Verarbeitung
Der Begriff basisnumerische Verarbeitung bezeichnet basale und für den Erwerb arithmetischer Kompetenzen grundlegende numerische Fertigkeiten.
Auf den ersten Blick scheint Zahlenverarbeitung sehr simpel zu sein. Schließlich führen kompetente Erwachsene entsprechende Prozesse x-mal am Tag automatisiert aus, ohne sich darüber weitere Gedanken zu machen. Die im Folgenden dargestellten detaillierten kognitionspsychologischen Analysen machen allerdings deutlich, dass es sich um einen komplexen Prozess handelt, der das effiziente Zusammenspiel einer Mehrzahl von Teilkomponenten erfordert.
Struktur des Zahlensystems
dekadisches Positionssystem
Eine Besonderheit des Zahlensystems ist, dass es auf einem Basis-10-System beruht. Der Aufbau dieses sogenannten dekadischen Positionssystems ist durch eine eindrückliche Regelhaftigkeit charakterisiert. Hervorzuheben ist jedoch, dass das verbale (gesprochene) und das arabische (geschriebene) Zahlensystem in ihrer Grundstruktur nicht identisch sind. Im arabischen Zahlencode ist die Komposition mehrstelliger Zahlen ab der Zahl 11 regelmäßig. In anderen Worten: Bei jeder Folgezahl erhöht sich die Einerstelle um eins (n + 1) und sobald wieder ein voller Zehner erreicht ist, beginnt dieser Prozess (n + 1) von neuem (z. B. 11, 12, 13 etc.; 21, 22, 23 etc. bis 91, 92, 93 etc.). Demgegenüber stellen beim Zahlwortsystem die Zahlwörter von 11 bis 19 eine besondere Wortklasse dar, weil sie nicht dieser regelhaften Komposition entsprechen (z. B. heißt es im Deutschen „elf“ und nicht „eins-zehn“ bzw. „ein-und-zehn“).
Zehner-Einer-Inversion
Eine weitere Besonderheit des deutschen Zahlwortsystems ist, dass die Zahlen von 21 bis 99 durch eine Inkongruenz zwischen Stellenwertsystem (ersichtlich aus der geschriebenen arabischen Zahl) und der verbalen Ziffernabfolge (beim Zahlwort) charakterisiert sind. Diese Unregelmäßigkeit erfordert, dass während des Lesens / Schreibens arabischer Zahlen ein Inversionsprozess stattfindet (die arabische Zahl „23“ entspricht dem gesprochenen Zahlwort „dreiundzwanzig“). Das heißt, deutschsprachige Kinder müssen zusätzlich zum komplexen Stellenwertsystem auch die dem deutschen Zahlwortsystem innewohnende Inversionsregel erlernen, was – zumindest in den ersten beiden Grundschuljahren – manchen Kindern schwerfällt (s. Abschnitt 2.5).
Stellenwertsystem
Die Verarbeitung mehrstelliger arabischer Zahlen erfordert ein Verständnis des Stellenwertsystems (für einen Überblick s. Nuerk / Willmes 2005). Beim Lesen / Schreiben mehrstelliger Zahlen beziehen die (die Gesamtzahl konstituierenden) einzelnen Ziffern ihren numerischen Wert aus ihrer Stellung in der Zahlenfolge. Am Beispiel der Ziffer 929 – und von links gelesen – heißt das, dass die Ziffer 9 einmal einen numerischen Wert von 900 und das andere Mal einen Wert von 9 darstellt.
syntaktische Struktur
Ein weiteres Charakteristikum des arabischen Zahlensystems ist seine syntaktische Struktur. Mehrstellige arabische Zahlen erhalten ihren numerischen Wert durch die Verknüpfung zweier oder mehrerer Ziffern, wobei dem Stellenwert der Ziffer innerhalb der Zahlenfolge eine wesentliche Bedeutung zukommt (29 vs. 92). Die syntaktische Struktur mehrstelliger arabischer Zahlen ist entweder additiv oder multiplikativ. Der Zahl 405 wohnen beispielsweise beide Kompositionsregeln inne, nämlich eine additive im Hinblick auf die Einerstelle (400 + 5) und eine multiplikative im Hinblick auf die Hunderterstelle (4 x 100). Während der Erwerbsphase wird gewöhnlich die multiplikative vor der additiven Kompositionsregel gemeistert (Power / dal Martello 1997; Seron / Fayol 1994).
Transkodieren
Eine wesentliche Komponente innerhalb der basisnumerischen Verarbeitung ist das Lesen und Schreiben von Zahlen, welches das Umwandeln von einem Zahlen- bzw. Notationsformat in ein anderes erfordert. Dieser Umwandlungsprozess wird als Transkodieren bezeichnet. Die Übersetzung einer arabischen Zahl in ein Zahlwort beim Lesen einer Zahl wird als visuell-verbales Transkodieren bezeichnet, die umgekehrte Übersetzung eines Zahlwortes in eine arabische Zahl beim Zahlenschreiben heißt demgemäß verbal-visuelles Transkodieren. Die Zahlen von 1 bis 9 (sowie die Zahl 0) sind die konstituierenden Elemente des Zahlensystems und begründen zugleich die Zahlwortabfolge.
Transkodierfehler
Typische Fehler beim Transkodieren betreffen entweder die syntaktische Struktur (z. B. 405 wird geschrieben als 4005) oder lexikalische Elemente (z. B. 405 wird geschrieben als 407; Deloche / Seron 1982a, b). Transkodierfehler bei erworbenen Rechenstörungen sind häufig von beiden Fehlerarten charakterisiert, wobei lexikalische Fehler vor allem dann zu beobachten sind, wenn die Rechenstörung mit einer Lese- oder Sprachstörung assoziiert ist (Cipolotti / Butterworth 1995).
Granà und Kollegen (2003) weisen darauf hin, dass die Differenzierung in lexikalisch und syntaktisch auch für die Bearbeitung der „0“ gilt. Der von den Autoren beschriebene Patient LD tendierte dazu, sogenannte „syntaktische“ Nullen auszulassen (z. B. wurde die Zahl 408 als 48 transkodiert). Dagegen unterliefen ihm bei der Produktion von „lexikalischen“ Nullen (also Nullen in einer vollen Zehnerzahl, wie z. B. bei der Zahl 40, aber auch bei der Zahl 40236) keine Fehler. Granà und Mitarbeiter interpretieren dieses spezifische Leistungsprofil als Hinweis, dass lexikalische Nullen leichter zu verarbeiten sind als syntaktische. Grund dafür sei, dass lexikalische Nullen unmittelbar mit einem numerischen Konzept (nämlich einer semantischen Größe, die auf dem Basis-10-System beruht) assoziiert werden können, was für syntaktische Nullen nicht der Fall sei.
semantisch vs. asemantisch
Eine derzeit noch sehr kontrovers diskutierte Frage ist, ob das Transkodieren von einem Zahlenformat in ein anderes immer auch erfordert, dass die entsprechende Zahl in ihrer Mächtigkeit erfasst wird. Man spricht hier auch von semantischem Transkodieren, also Transkodieren unter Zugriff auf die Bedeutung der Zahl. Asemantische Modelle gehen demgegenüber davon aus, dass Zahlenformen auch ohne jedes Verständnis für die numerische Bedeutung der Zahl transkodiert werden können (Barouillet et al. 2004; Deloche / Seron 1987; Power / dal Martello 1997). Bei gesunden Erwachsenen wird die Zahlensemantik üblicherweise automatisch aktiviert, in welchem Format auch immer Zahlen präsentiert werden. Patientenstudien weisen allerdings darauf hin, dass dies nicht zwingend der Fall ist.
Ein-Routen- vs. multiple Transkodiermodelle
Das Modell von McCloskey und Mitarbeitern (1985) postuliert, dass jeder Transkodierprozess über eine abstrakte internale (semantische) Repräsentation vonstatten geht. Es ist im Hinblick auf das Postulat von ausschließlichen – und obligatorischen – semantischen Transkodierrouten ein sogenanntes Ein-Routen-Modell. Demgegenüber postulieren sogenannte Multi-Routen-Modelle des Transkodierens sowohl semantische als auch asemantische Verarbeitungswege (Cipolotti 1995; Cipolotti / Butterworth 1995; Cohen et al. 1994; Dehaene / Cohen 1995).
So zeigte die detaillierte Untersuchung eines Patienten mit erworbener Lesestörung (Alexie) eine Dissoziation zwischen erhaltenem Lesen von Zahlen mit hohem Bekanntheitsgrad (z. B. geschichtlich bedeutsame Jahreszahlen wie 09 11 für den Terroranschlag in den USA; oder Zahlen, welche mit Markenlabels in Verbindung gebracht werden, wie z. B. 4711 für Kölnischwasser) und defizitärem Lesen von Zahlen ohne semantischer Konnotation (Cohen et al. 1994). Die Autoren interpretieren diese Dissoziation dahingehend, dass Zahlen mit hohem Bekanntheitsgrad über lexikalische Transkodierrouten verarbeitet werden, während bedeutungslose Zahlen über nichtlexikalische Routen verarbeitet werden.
Der von Cipolotti (1995) beschriebene Patient SF (mit beginnender Demenz vom Alzheimer Typ) konnte mehrstellige Zahlen nur dann lesen, wenn sie in Form eines Zahlwortes (also über die orthografische Route), nicht jedoch, wenn sie in Form einer arabischen Zahl präsentiert waren. Demgegenüber hatte ein anderer von Cipolotti beschriebener Patient Schwierigkeiten bei Transkodieraufgaben, die verbalen und schriftlichen Output erforderten. Er konnte jedoch ein- und mehrstellige Zahlen beim schriftlichen Rechnen sowie zweistellige Zahlen beim Kopfrechnen richtig zuordnen (Patient SAM: Cipolotti / Butterworth 1995). Beide von Cipolotti beschriebenen Patienten demonstrierten teilweise intaktes Zahlenverständnis: Das heißt, dass die Transkodierleistungen unabhängig vom Zahlenverständnis beeinträchtigt sein können (SF: Lesen arabischer Zahlen; SAM: Schreiben von Zahlwörtern und arabischen Zahlen).
Multi-Routen-Modell
Basierend auf diesen Einzelfallstudien entwickelten Butterworth und Cipolotti das in Abbildung 1.3 dargestellte multiple Transkodiermodell. Das Modell postuliert die Existenz von vier voneinander differenzierbaren asemantischen Transkodierrouten, die zusätzlich zu einem semantischen Transkodierweg in Aktion treten können. Zwei asemantische Transkodierrouten ermöglichen das Lesen und Schreiben arabischer Zahlen (gestrichelte Linien in Abb. 1.3). Die restlichen zwei asemantischen Transkodierrouten treten gemäß Cipolotti und Butterworth (1995) beim Wiederholen von gehörten Zahlwörtern und beim Lesen geschriebener Zahlwörter in Aktion (durchgezogene Linien in Abb. 1.3) und sind höchstwahrscheinlich nicht für Zahlen spezifisch, sondern allgemeinen Sprachverarbeitungsmechanismen zuzuschreiben.
Abb. 1.3: Das Multi-Routen-Modell des Transkodierens von Cipolotti und Butterworth (1995)
Das Multi-Routen-Modell des Transkodierens (Cipolotti / Butterworth 1995) unterscheidet sich also vom McCloskey-Modell (McCloskey et al. 1985; McCloskey 1992) in folgenden zwei Punkten: (a) Weder das Nachsprechen noch das Abschreiben von Zahlwörtern erfordern den Zugriff auf abstrakte semantische Repräsentationen (in diesem Falle also die dem entsprechenden Zahlwort inhärente Numerosität); und (b) sowohl für das Lesen als auch für das Schreiben arabischer Zahlen gibt es zusätzlich zu der semantischen Route direkte asemantische Transkodierrouten.
Zusammenfassung
Das Zahlensystem ist regelhaft aufgebaut und durch eine Basis-10-Struktur charakterisiert (dekadisches Positionssystem). Bei mehrstelligen Zahlen werden die Ziffern (0–9) durch additive und multiplikative Kompositionsregeln in Form eines Stellenwertsystems miteinander verknüpft. In der deutschen Sprache ist das verbale Zahlwortsystem im Bereich der zweistelligen Zahlen (21–99) durch das Inversionsprinzip gekennzeichnet.
Transkodieren – also die Umwandlung von einem Zahlencode in einen anderen – ist ein komplexer kognitiver Prozess. Die Befunde aktueller Patientenstudien im Hinblick auf deren Transkodierleistungen sind am besten durch multiple Routenmodelle erklärbar, die die Koexistenz von semantischen und asemantischen Transkodierrouten postulieren. Semantisches Transkodieren beinhaltet den Zugriff auf die analoge Größenrepräsentation bzw. den numerischen Wert der zu verarbeitenden Zahlen, während asemantische Routen direkt von einem zum anderen Zahlenformat (also ohne Aktivierung der Semantik) verlaufen.
Semantische (Zahlen-)Größenrepräsentation und die Metapher des mentalen Zahlenstrahls
mentaler Zahlenstrahl
Das Konstrukt des mentalen Zahlenstrahls ist eine sehr populäre Metapher in der numerischen Kognitionsliteratur und besagt, dass in der mentalen Vorstellung die Zahlen analog (nämlich linear) und räumlich von links nach rechts angeordnet sind (Dehaene 1992; s. a. Dehaene 1999). Die analoge Repräsentation ermöglicht den Zahlenvergleich, wobei numerisch weiter entfernte Zahlen (z. B. 2 vs. 6) leichter zu unterscheiden sind als numerisch benachbarte Zahlen (z. B. 2 vs. 3). Die Vorstellung der räumlichen Anordnung von Zahlen auf einer Linie basiert auf zwei wiederholt replizierten Befunden zur Verarbeitung von Zahlen, nämlich dem Distanzeffekt einerseits und dem SNARC-Effekt („spatial numerical association of response codes“ bzw. auf gut deutsch: räumlich-numerische Assoziation des Antwortcodes) andererseits.
Distanzeffekt
Der Distanzeffekt kann berechnet werden, wenn ein Proband möglichst schnell entscheiden soll, welche von zwei gleichzeitig präsentierten Zahlen die größere ist. Dabei zeigt sich, dass die Reaktionszeit systematisch sinkt, je größer die numerische Distanz zwischen den beiden Zahlen ist. Es besteht also ein negativer Zusammenhang zwischen Reaktionszeit und numerischer Distanz der zu vergleichenden Zahlen (s. Abb. 1.4a). Anders formuliert: Probanden klassifizieren numerisch benachbarte Zahlen (2 vs. 3) langsamer als numerisch weiter voneinander entfernte (2 vs. 8; Moyer / Landauer 1967). Wie aus Abbildung 1.4b ersichtlich, gilt dies auch für zweistellige Zahlen. Ein von Henik und Tzelgov (1982) postulierter und in der Folgezeit weithin etablierter plausibler Erklärungsansatz für den Distanzeffekt ist, dass relativ zu weiter entfernten Zahlen die internen semantischen Größenrepräsentationen von benachbarten Zahlen auf dem Zahlenstrahl eher überlappen und somit beim Abruf miteinander in Konkurrenz treten (interferieren).
Abb. 1.4a: Distanzeffekt bei einstelligen Zahlen (aufgrund der gewöhnlich hohen Bearbeitungsgenauigkeit wird der Distanzeffekt beim einstelligen Zahlenvergleich primär in der Bearbeitungsgeschwindigkeit ersichtlich)
b: Distanzeffekt bei zweistelligen Zahlen (modifiziert nach Dehaene et al. 1990)
logarithmische Charakteristik
Dehaene und Kollegen gehen davon aus, dass die Zahlen am Zahlenstrahl logarithmisch komprimiert sind. Logarithmisch bedeutet, dass trotz gleichbleibenden numerischen Abstands mit zunehmender Zahlengröße der subjektive Abstand zwischen zwei Zahlen abnimmt (Dehaene et al. 1990). So erscheint beispielsweise der Abstand zwischen den Zahlen 3 und 8 subjektiv größer als jener zwischen 53 und 58, obwohl die tatsächliche numerische Differenz bei beiden Zahlenpaaren gleich ist (s. Abb. 1.5a).
Dies entspricht dem sogenannten Weber’schen Gesetz für unsere Wahrnehmung, welches besagt, dass sich die subjektive Stärke von Sinneseindrücken logarithmisch zur objektiven Intensität des physikalischen Reizes verhält. Interessanterweise verarbeiten wir numerische Größe also ebenso wie physikalische Größen (z. B. Helligkeit, Lautstärke; s. Abb. 1.6). Durch die logarithmische Charakteristik des Zahlenstrahls ist es auch erklärbar, dass kleine relativ zu großen Numerositäten / Zahlen mit größerer Exaktheit bearbeitet werden können.
Abb. 1.5 a, b: Schematische Darstellung des mentalen Zahlenstrahls. Der obere Teil der Abbildung (Abb. 1.5 a) entspricht der holistischen Modellvorstellung der Zahlenverarbeitung (Dehaene et al. 1990). Eine alternative Modellvorstellung besagt, dass die Einer und Zehner bei zweistelligen Zahlen separat verarbeitet werden (Abb. 1.5 b, Nuerk et al. 2001; wir danken Hans-Christoph Nuerk für diese Abbildung)
Abb. 1.6: Distanzeffekt bei numerischen und nichtnumerischen Größen (Cohen Kadosh et al. 2005)
Der Zahlenstrahl bei Neglektpatienten
Die Hypothese der räumlichen Orientierung der Zahlen am Zahlenstrahl wird auch durch aktuelle Untersuchungen von Neglektpatienten unterstützt. Neglekt ist eine neurologische, meist temporäre, Störung, die nach (rechtshirnigen) parietalen Schädigungen auftritt und mit einer Vernachlässigung der linken Raum- und / oder Körperhälfte einhergeht (bei intakter Sehleistung). Das äußert sich beispielsweise beim Lesen und Schreiben sowie bei Alltagsaktivitäten wie dem Essen und der Körperpflege.
Ein klassisches in der Neglektdiagnostik verwendetes Verfahren sind Linienbisektionsaufgaben: Hier sollen die Patienten jeweils die Mitte von horizontal präsentierten Linien markieren. Ein systematischer Fehler von Neglektpatienten ist die Verschiebung dieser Mitte nach rechts, da sie die linke Raumhälfte – also auch die linke Seite der zu halbierenden Linie – nicht wahrnehmen. In einer viel beachteten Arbeit berichten Zorzi und Mitarbeiter (2002), dass Neglektpatienten auch bei einer verbalen Zahlenbisektionsaufgabe („Welche Zahl liegt genau zwischen 2 und 6?“) systematische Fehler unterlaufen, die analog zu den Fehlern bei der Linienbisektionsaufgabe sind: Neglektpatienten ignorieren die linke Seite des mentalen Zahlenstrahls und behaupten beispielsweise, dass 5 die numerische Mitte von 2 und 6 sei. Diese Arbeiten unterstützen eindrücklich die Hypothese, dass der mentale Zahlenstrahl räumlich (von links nach rechts) orientiert ist.
SNARC-Effekt
Ein Reaktionszeiteffekt, der die Hypothese der räumlichen Orientierung des Zahlenstrahls stützt, ist der SNARC (spatial numerical association of response codes)-Effekt. Die dem SNARC-Effekt zugrunde liegende klassische experimentelle Aufgabe ist eine Paritäts-Entscheidung: Die Probanden sehen jeweils eine (meist einstellige) arabische Zahl und sollen entscheiden, ob diese gerade oder ungerade ist. Das heißt, die numerische Größe ist bei dieser Aufgabe irrelevant. Wichtig ist, dass in der ersten Hälfte des Experiments die rechte Hand der Reaktionstaste „gerade“ zugeordnet ist und die linke Hand der Reaktionstaste „ungerade“, dass in der zweiten Hälfte des Experiments die Zuordnung aber vertauscht wird. Ein typisches und in der Zwischenzeit vielfach repliziertes Antwortmuster ist, dass numerisch kleine Zahlen schneller mit der linken Hand und numerisch große Zahlen schneller mit der rechten Hand beantwortet werden (Dehaene et al. 1993; Gevers et al. 2005; Nuerk et al. 2005). Die Erklärung für diesen Befund ist, dass kleine Zahlen auf unserem mentalen Zahlenstrahl eher links angeordnet sind, so dass die räumlich nähere Hand hier schneller reagieren kann als bei großen Zahlen, die sich räumlich auf dem Zahlenstrahl näher an der rechten Hand befinden.
Reaktionszeitdifferenz
Grafisch wird dieser Effekt dargestellt durch eine Subtraktionsmethode, wobei die Reaktionszeiten der linken Hand von jenen der rechten Hand subtrahiert werden. Wie aus Abbildung 1.7 ersichtlich, ist diese Reaktionszeitdifferenz für kleine Zahlen positiv und für numerisch große Zahlen negativ, und zwar unabhängig vom Zahlenformat. Der SNARC-Effekt ist also evozierbar bei der Präsentation von arabischen Zahlen, gehörten und geschriebenen Zahlwörtern und sogar bei Punktmustern (Nuerk et al. 2005).
In einer aktuellen Meta-Analyse von 46 Studien zum SNARC-Effekt (die insgesamt 106 Experimente und 2.206 Probanden zwischen 9 und 66 Jahren inkludierte) konnten Wood und Kollegen (2008) zeigen, dass die Stärke des SNARC-Effekts mit dem Alter linear zunimmt. Effekte von Geschlecht und Händigkeit waren weniger stark ausgeprägt, aber tendenziell vorhanden: Männer und Rechtshänder zeigten stärkere SNARC-Effekte relativ zu Frauen und Linkshändern. Wood und Kollegen betonen jedoch, dass die Ergebnisse zwischen den Studien recht variabel waren und dass nicht alle Probanden einen SNARC-Effekt zeigten. Der SNARC-Effekt ist also kein besonders robuster Effekt. Trotzdem haben seine Entdeckung und die Vielzahl der Studien, die sich in der Folgezeit mit dem SNARC-Effekt beschäftigten, einen wesentlichen Beitrag zu einem besseren Verständnis der mentalen Zahlenrepräsentationen und deren Interaktion mit der räumlichen Kognition geleistet.
Abb. 1.7: Der SNARC-Effekt (modifiziert nach Nuerk et al. 2005)
Kompatibilitätseffekt
Dehaene und Mitarbeiter (1990) postulieren, dass mehrstellige Zahlen als numerische Einheit, also holistisch verarbeitet werden. Gegen diese Annahme sprechen allerdings aktuelle empirische Befunde, die belegen, dass die einzelnen Ziffern in einer mehrstelligen Zahl separat verarbeitet werden. Nuerk und Mitautoren (2001) konnten zeigen, dass gesunde Probanden beim Größenvergleich zweistelliger Zahlen schneller waren, wenn sowohl die Einer- als auch Zehnerstellen zum gleichen Entscheidungsprozess führten. Beim Zahlenpaar 58 versus 32 ist dies der Fall, da sowohl die Einer (8 vs. 5) als auch die Zehner (5 vs. 3) jedes Mal bei derselben Zahl numerisch größer sind und die Größenvergleiche der Zehner und der Einer somit in die gleiche Richtung gehen, also miteinander kompatibel sind. Hatten die Probanden jedoch zu entscheiden, welche Zahl beim Zahlenpaar 85 versus 37 größer ist, so waren die Bearbeitungszeiten wesentlich langsamer und die Fehlerraten höher, da bei diesem Zahlenpaar die Größenentscheidung der Einer und Zehner in unterschiedliche Richtungen gehen (Zehner: 8 > 3; Einer: 5 < 7) und somit inkompatibel sind. Nuerk und Kollegen (2001) prägen für diesen Reaktionszeiteffekt den Begriff „Kompatibilitätseffekt“ und interpretieren die Ergebnisse als Beleg für die separate Verarbeitung mehrstelliger arabischer Zahlen (s. Abb. 1.5b). Wenn zweistellige Zahlen tatsächlich holistisch verarbeitet werden (wie von Dehaene et al. 1990 postuliert), dann sollten die Reaktionszeiten unabhängig von der Kongruenz der Einer- und Zehnerstellen sein. Dies ist jedoch nicht der Fall.
Der Kompatibilitätseffekt konnte sowohl für deutsch- als auch für englischsprachige Stichproben gezeigt werden, d. h. er ist unabhängig von der Irregularität der zweistelligen Zahlwörter im Deutschen. Zudem tritt er sowohl bei arabischen Zahlen als auch bei Zahlwörtern auf und ist also unabhängig vom Zahlenformat (Nuerk / Willmes 2005).
Basisnumerische Verarbeitung ist automatisch und oft nicht intentional
Zahlen-Größen-Interferenz
numerischer Stroop
Generell fällt es geübten Rechnern schwer, den mit der entsprechenden arabischen Zahl assoziierten numerischen Wert zu unterdrücken. Zahlreiche experimentelle Untersuchungen zeigen, dass der numerische Wert einer Zahl auch dann automatisch aktiviert wird, wenn er für die Lösung einer Aufgabe irrelevant oder sogar hinderlich ist. Dies ist beispielsweise der Fall, wenn Probanden die Schriftgröße zweier (einstelliger) Zahlen beurteilen sollen und die Aufgabe darin besteht, die physisch größere Zahl mittels Tastendruck auszuwählen. Die Entscheidung ist schwieriger (reflektiert in längeren Reaktionszeiten und höherer Fehleranzahl), wenn die zwei präsentierten Ziffern hinsichtlich ihrer numerischen und physischen Größe inkongruent sind (6 3). Die Entscheidungsfindung ist demgegenüber leichter (ersichtlich aus schnelleren Bearbeitungszeiten und geringeren Fehlerraten), wenn die zu vergleichenden Zahlenpaare hinsichtlich ihrer numerischen und physischen Größe kongruent sind (6 3) oder wenn die beiden Zahlen hinsichtlich ihres numerischen Wertes neutral sind (3 3). Diese Aufgabe ist auch als Zahlen-Größen-Interferenzaufgabe bzw. numerische Stroop-Aufgabe bekannt.
Größenkongruenzeffekt
Der entsprechende Reaktionszeiteffekt (schnellere Bearbeitungszeit bei kongruenten oder neutralen relativ zu inkongruenten Zahlenpaaren) wird dementsprechend Größenkongruenzeffekt genannt.
Zusammenfassung
Die Metapher des mentalen Zahlenstrahls besagt, dass die mentalen Repräsentationen von Zahlen und Mengen analog und räumlich (von links nach rechts) orientiert sind. Befunde zu Distanzeffekt und SNARC-Effekt unterstützen die Annahme der räumlichen Orientierung der Zahlen am mentalen Zahlenstrahl. Der Kompatibilitätseffekt zeigt, dass der Zugriff auf die semantische Größenrepräsentation bzw. Numerosität bei zweistelligen Zahlen nicht holistisch erfolgt, sondern separat für die Einer und Zehner. Die Aktivierung der Numerosität kann auch automatisch erfolgen: Beim physischen Zahlenvergleich kann die aufgabenirrelevante numerische Größe zu Interferenzeffekten führen.
1.5.2 Rechenfertigkeiten
Arithmetisches Faktenwissen
assoziative Netzwerke
Wie bereits erwähnt, versteht man unter arithmetischen Fakten einfache Rechnungen mit einstelligen Operanden (z. B. 4 + 2; 4 – 2; 4 x 2). Arithmetisches Faktenwissen wird direkt aus dem Langzeitgedächtnis abgerufen. Es herrscht weitgehend Übereinstimmung, dass die arithmetischen Fakten in Form von assoziativen Netzwerken organisiert sind (Ashcraft 1995). Dabei wird ein arithmetisches Problem (3 x 5) durch wiederholte Präsentation bzw. wiederholtes Üben mit der entsprechenden Antwort (15) assoziativ verknüpft. Über die Erwerbsprozesse und Schwierigkeiten beim Enkodieren oder Abruf arithmetischer Fakten wird in den Kapiteln 2 und 3 ausführlicher berichtet. An dieser Stelle soll die Organisation des Faktenwissens bei Erwachsenen erläutert werden. Besonders hervorzuheben ist, dass auch Erwachsene ohne Rechenstörung eine Vielzahl von Strategien beim Lösen einfacher arithmetischer Multiplikations- und Additionsfakten anwenden und bei weitem nicht alle als arithmetische Fakten gespeichert haben (z. B. LeFevre et al. 1996).
Multiplikationsfakten
Die klassische Form des numerischen Faktenwissens ist das kleine Einmaleins. McCloskey (1992) postuliert hier drei verschiedene Arten von Multiplikationsfakten.
(1) Regelbasierte Fakten, das sind Aufgaben, die eine 0 oder eine 1 beinhalten. Bei dieser Aufgabenart muss man nur eine Aufgabe verstanden haben, um alle Aufgaben dieser Art zu lösen. Wenn ich weiß, dass „3 x 0 = 0“ ist, dann kann ich diese Regel (nämlich n x 0 = 0 bzw. n x 1 = n) auf alle anderen Aufgaben anwenden, die eine 0 bzw. eine 1 beinhalten.
(2) Sogenannte „ties“, das sind alle Multiplikationen, bei denen die beiden Operanden identisch sind (z. B. 3 x 3; 9 x 9). Empirische Befunde zeigen, dass diese Fakten besonders gut abgespeichert und besonders schnell abrufbar sind (s. McCloskey 1992; LeFevre et al. 1996).
(3) Bei allen übrigen Multiplikationsfakten muss jede einzelne Rechnung assoziativ erlernt und abgerufen werden.
Tafelsuchmodell
Das sogenannte Tafelsuchmodell ist eine grafische Darstellung dieser assoziativen Netzwerkmodelle, anhand derer die mentale Organisation der arithmetischen Fakten sowie bestimmte Reaktionszeitphänomene und Fehlertypen beim Faktenabruf veranschaulicht werden können (Ashcraft 1995; s. Abb. 1.8).
Geübten Rechnern fällt es schwer, aufgabenirrelevantes Faktenwissen zu unterdrücken. Thibodeau und Mitarbeiter (1996) baten Probanden, zwei hintereinander präsentierte Zahlenpaare miteinander zu vergleichen und zu entscheiden, ob die Zahlenpaare identisch sind. Die Resultate zeigten, dass Probanden langsamer waren und mehr Fehler begingen, wenn auf das erste Zahlenpaar (z. B. 3 4) ein zweites Zahlenpaar (z. B. 1 2) folgt, das ein Produkt der beiden vorher gezeigten Zahlen ist (3 x 4; 12). Auch wenn die falsche Antwort das Produkt einer benachbarten Multiplikation ist (sogenannte Operandenfehler, s. folgenden Absatz), waren Interferenzeffekte – reflektiert in längeren Reaktionszeiten und höheren Fehlerraten – beobachtbar (3 x 4; 15; Galfano et al. 2003). Dagegen wird schneller und genauer geantwortet bei Ablenkern, die nicht aus der Multiplikationsreihe der beiden Stimuluszahlen kommen (3 x 5; 17). Dieser Reaktionszeiteffekt, der die automatische Aktivierung von gespeichertem Multiplikationswissen reflektiert, konnte auch bei Kindern (Kaufmann et al. 2004) sowie bei älteren Probanden und Patienten mit minimaler kognitiver Dysfunktion beobachtet werden (Zamarian et al. 2007).
Abb. 1.8: Tafelsuchmodell. Schematische Darstellung eines Operandenfehlers (gestrichelte Linie) im assoziativen Netzwerk der Multiplikationsfakten. Die korrekte Lösung ist durch durchgehende Linien gekennzeichnet
Operandenfehler
Eine sehr häufige Fehlerart beim Abruf von Multiplikationsfakten sind sogenannte Operandenfehler. Hier handelt es sich um Fehler, bei denen die falsche Lösung am Tafelsuchmodell direkt neben der richtigen Lösung liegt (also zur Multiplikationsreihe eines benachbarten Operanden gehört; z. B. 3 x 6 = 15). Operandenfehler kommen nicht nur bei Patienten mit erworbenen Rechenstörungen vor, sondern machen auch einen Großteil der Fehler bei gesunden Erwachsenen aus: gemäß Campbell (1987) bis zu zwei Drittel bzw. vier Fünftel aller Fehler. Operandenfehler sind auch bei Kindern in der Erwerbsphase häufig zu beobachten (Siegler 1988) und treten sowohl bei Produktions- als auch bei Verifikationsaufgaben auf.
Produktions- und Verifikationsaufgaben
Produktionsaufgaben sind solche, bei denen der Proband das Problem sieht / hört und die Antwort selbst generieren muss. Bei einer Verifikationsaufgabe sieht der Proband die vollständige Aufgabe (Problem mit Lösung, z. B. 3 x 7 = 24) und soll entscheiden, ob die Lösung richtig oder falsch ist. Wenn in einer solchen Verifikationsaufgabe Operandenfehler wie „3 x 6 = 15“ dargeboten werden, so werden sie generell langsamer zurückgewiesen und eher fälschlich als korrekt bewertet als sogenannte „non-table“-Fehler (das sind solche, deren Lösung nicht das Ergebnis einer Multiplikationsreihe ist: 3 x 6 = 17).
Problemgrößeneffekt
Die Auftretenswahrscheinlichkeit von Operandenfehlern wird durch den Problemgrößeneffekt (Zbrodoff / Logan 2005) moduliert. Dieser besagt, dass Aufgaben mit größeren Operanden (z. B. 7 x 8) fehleranfälliger sind und auch langsamer bearbeitet werden als Aufgaben mit kleinen Operanden (z. B. 3 x 4). Eine Sonderstellung in Bezug auf die Problemgröße nimmt die 5er-Reihe der Multiplikationen ein (z. B. 6 x 5) sowie sogenannte „ties“, das sind Multiplikationsfakten mit zwei identischen Operanden (z. B. 6 x 6). Diese Fakten sind offenbar besonders gut gespeichert und können daher besser und schneller abgerufen werden als andere (LeFevre et al. 1996). Wie bereits weiter oben erwähnt, kann das arithmetische Faktenwissen je nach Operationsart unterschiedlich beeinträchtigt sein. Dies gilt sowohl für entwicklungsbedingte Dyskalkulie (z. B. Kaufmann 2002) als auch für erworbene Rechenstörungen.
Prozedurales arithmetisches Wissen
Unter prozeduralem Wissen versteht man das Wissen um das Ausführen von Lösungsalgorithmen bzw. das Wissen um die richtige Abfolge von Lösungsschritten bei mehrstufigen und komplexen Rechnungen. Prozedurales Wissen ist wichtig beim schriftlichen Rechnen, wie beispielsweise beim Lösen von „327 + 25“. Als Erstes muss erkannt werden, dass es sich um eine Addition handelt. Dann muss man die Zahlen (räumlich) richtig untereinander schreiben, so dass die Einer unter den Einern, die Zehner unter den Zehnern usw. zu stehen kommen. Mit dem nächsten Schritt beginnt nun der eigentliche Rechenvorgang: Im Falle der Addition muss der Rechner wissen, dass er bei den Einern beginnen muss (was bei einer Multiplikation oder Division die falsche Strategie wäre). Im obigen Beispiel beinhaltet der erste Rechenschritt eine Zehnerüberschreitung (7 + 5): Das heißt man muss die Einerstelle anschreiben (die 2 von der Zwischensumme 12) und den Zehnerübertrag mitnehmen und beim Addieren der Zehnerstellen berücksichtigen (2 + 2 + 1; 5 muss angeschrieben werden, diesmal ist kein Übertrag zu berücksichtigen). Beim letzten Schritt müssen die Hunderterstellen zusammengezählt werden: da im obigen Beispiel nur die erste Zahl eine Hunderterstelle hat, bedeutet dies, dass hier eine 0 bzw. nichts dazugezählt wird. Wie aus diesem relativ einfachen Beispiel ersichtlich wird, ist eine komplexe Reihe von Lösungsschritten in der chronologisch richtigen Reihenfolge durchzuführen.
prozedurale Defizite
Prinzipiell kann man zwei Arten von prozeduralen Defiziten unterscheiden. Der erste Fehlertyp ist charakterisiert durch konsistente und systematische (also immer gleichbleibende) Fehler. Dieser Fehlertyp ist ein Hinweis für das Vorliegen von defizitärem schematischen Wissen. Girelli und Delazer (1996) berichten beispielsweise von einem Patienten (MT), der beim Subtrahieren mehrstelliger Zahlen ein sehr konsistentes Fehlermuster zeigte: Er zog immer die kleinere von der größeren Zahl ab, und zwar unabhängig davon, ob die größere Zahl in der oberen oder unteren Zeile stand (bzw. zum Subtrahenden oder Minuenden gehörte).
Ähnliche Fehlermuster sind auch bei Kindern beobachtbar und reflektieren fehlendes Verständnis für die zugrunde liegenden Rechenoperationen (z. B. Resnick 1982; van Lehn 1990).
Im Gegensatz zu diesen konsistenten und systematischen Fehlern besteht die zweite Fehlerart beim Ausführen von komplexen Lösungsalgorithmen in inkonsistenten Fehlern, die höchstwahrscheinlich durch defizitäre mentale Kontrolle des Rechenvorgangs (Monitoring) verursacht werden (Semenza et al. 1997).
Einfluss des Arbeitsgedächtnisses
Für das Lösen komplexer Rechnungen sind auch intakte Arbeitsgedächtnisleistungen wichtig (z. B. Logie et al. 1994; Tronsky 2005). Beim Arbeitsgedächtnis handelt es sich um ein Gedächtnissystem, das für die vorübergehende Speicherung und Bearbeitung von Gedächtnisinhalten zuständig ist (Baddeley 1986). Die Komponente des Arbeitsgedächtnisses, die hier vor allem zum Tragen kommt, ist die sogenannte zentrale Exekutive. Gemäß dem populären Arbeitsgedächtnismodell von Baddeley (1986; 2000) ist die zentrale Exekutive das supervisorische Kontrollsystem: Es koordiniert die Aktivitäten der beiden Speichersysteme (von denen eines verbal-phonologisches Material [phonologische Schleife] und das andere visuell-räumliches Material [visuell-räumlicher Notizblock] verarbeitet). Die Anforderungen an das Arbeitsgedächtnis sind dann besonders hoch, wenn man Zehnerüberträge bearbeiten muss und diese nicht schriftlich festhält, sondern während der Bearbeitung der nächsten Zahlenkolonne im Arbeitsspeicher hält. Überträge werden während des Ausführens der weiteren Rechenschritte in der phonologischen Schleife subvokal rezitiert. Ist die Kapazität der phonologischen Schleife reduziert, kann es leicht passieren, dass Überträge verlorengehen bzw. „vergessen werden“ und das Endergebnis – trotz fehlerfreier Anwendung der Rechenprozedur – falsch ist (z. B. Noël et al. 2001).
mangelndes Faktenwissen
Eine häufige Fehlerquelle beim Lösen komplexer Rechnungen ist, unabhängig vom prozeduralen Wissen, mangelndes bzw. fehlerhaftes Faktenwissen. So erfordert das Lösen einer mehrstelligen Rechnung, wie beispielsweise „43 x 25“, auch intaktes Faktenwissen: Zuerst muss der Multiplikand mit 2 (also 3 x 2 sowie 4 x 2) und anschließend mit 5 (3 x 5 sowie 4 x 5) multipliziert werden. Ist bereits das Faktenwissen fehlerhaft, dann ist auch das Gesamtresultat falsch.
Die Differenzierung dieser Fehlerarten kann nur durch eine qualitative Fehleranalyse erfolgen. Das heißt, es ist wichtig, nicht nur das Endergebnis der Rechnung zu kontrollieren, sondern anhand einer detaillierten Analyse der einzelnen Verarbeitungsschritte die Fehlerquellen aufzuspüren. Dies ist vor allem im Hinblick auf die Interventionsplanung wichtig, die nur dann ökonomisch und effizient ist, wenn vor Interventionsbeginn die Störungsursachen identifiziert worden sind (s. Kaufmann / Nuerk 2008).
Konzeptuelles arithmetisches Wissen
Konzeptuelles arithmetisches Wissen meint das Verständnis für arithmetische Operationen sowie für die diesen Operationen zugrunde liegenden Gesetzmäßigkeiten und Lösungsalgorithmen (Sokol et al. 1991). Dieses Wissen ist für die flexible und adaptive Anwendung numerisch-rechnerischen Wissens äußerst relevant. Das konzeptuelle Wissen wird jedoch bis dato in den Erwachsenenmodellen der Zahlenverarbeitung und des Rechnens weitgehend vernachlässigt.
Ein anschauliches Beispiel für spezifisch beeinträchtigtes konzeptuelles Wissen bietet Patient JG (Delazer / Benke 1997): Er konnte zwar einige (aber bei weitem nicht alle) arithmetische Fakten direkt aus dem Gedächtnis abrufen, zeigte jedoch keinerlei konzeptuelles Wissen. Er konnte weder arithmetische Operationen definieren noch arithmetische Verständnisaufgaben lösen, bei denen die Lösung einer zweiten Aufgabe von einer ersten Aufgabe abgeleitet werden sollte. Das Wissen, dass „12 x 4 = 48“ ist, hilft beispielsweise bei der Lösung von „4 x 12“ oder bei der Lösung von „12 + 12 + 12 + 12“. Das heißt, diese Rechnungen müssen nicht mehr prozedural unter Zuhilfenahme von Backup-Strategien gelöst werden: Geübte Rechner erkennen auf einen Blick, dass die verschiedenen Lösungsalgorithmen ein und dieselbe Rechenaufgabe repräsentieren.
Die Patientenbeschreibung von BE (Hittmair-Delazer et al. 1995) demonstriert eindrücklich, wie umgekehrt verlorenes Faktenwissen über die Anwendung teils sehr komplexer alternativer Lösungsstrategien kompensiert werden kann. BE konnte das Ergebnis von „4 x 9“ zwar nicht direkt aus dem Gedächtnis abrufen, aber kam über mehrere Zwischenschritte zum richtigen Ergebnis (der Rechenweg von BE wurde wie folgt beschrieben: (9 x 2) + (9 x 2) oder (9 x 10 : 2) – 9. Diese sehr komplexen Backup-Strategien machen deutlich, dass BE trotz des beeinträchtigten Faktenwissens über ein ausgezeichnetes Verständnis mathematischer Prinzipien wie Assoziation, Distribution und Kommutativität verfügte.
Dissoziationen zwischen prozeduralem und konzeptuellem Wissen wurden ebenfalls in der Literatur beschrieben (Girelli / Delazer 1996; Sokol et al. 1991). Mangelndes konzeptuelles Wissen äußert sich beispielsweise in unplausiblen Fehlern, also Fehlern, deren numerischer Wert von der richtigen Lösung weit entfernt ist. Wenn ein Proband etwa 3.570 als Lösung für die Aufgaben „35 x 12“ berechnet (und das Ergebnis nicht hinterfragt), dann reflektiert dieser Fehler zum einen das zumindest teilweise richtige Anwenden von Lösungsprozeduren (35 x 1 = 35, 35 x 2 = 70 → 3.570) und zum anderen mangelndes konzeptuelles Verständnis: Der Proband sollte mit Hilfe eines Schätzprozesses bzw. einer ungefähren Vorstellung der Zahlengröße erkennen, dass ein vierstelliges Ergebnis nicht richtig sein kann.
Bei Kindern in der Erwerbsphase gibt es bis dato keine systematischen Berichte über Dissoziationen zwischen prozeduralem und konzeptuellem Wissen. Resnick (1982) und van Lehn (1990) berichten zwar über systematische Fehler beim Anwenden von Lösungsprozeduren bei Kindern: diese prozeduralen Fehler sind in der Erwerbsphase jedoch auch meist mit mangelndem konzeptuellen Wissen assoziiert.
Zusammenfassung
Arithmetische Fakten sind Rechnungen mit einstelligen Operanden, die bei geübten Rechnern direkt aus dem Langzeitgedächtnis abgerufen werden können und keine willentlichen Rechenprozesse mehr erfordern. Sogenannte arithmetische Regeln sind Multiplikationsfakten, bei denen ein Operand eine 0 oder eine 1 ist. Bei kompetenten Rechnern wird das Faktenwissen sogar dann automatisch aktiviert, wenn es für die Aufgabenbearbeitung irrelevant ist. Das Faktenwissen ist in Form von assoziativen Netzwerken gespeichert. Der sogenannte Problemgrößeneffekt reflektiert die Aufgabenschwierigkeit: Fakten mit größeren Operanden werden langsamer abgerufen als solche mit kleinen Operanden.
Prozedurales Wissen (also das Wissen um die richtige sequenzielle Anordnung von Lösungsalgorithmen) kann rein schematisch, ohne zugrunde liegendes Verständnis der dahinterstehenden Rechenoperation angewendet werden. In diesem Falle sind die Fehlermuster meist konsistent und systematisch. Ein anderes Fehlermuster, das durch inkonsistente Fehler charakterisiert ist, reflektiert eher mangelnde Monitoring-Mechanismen. Beim Lösen komplexer (mehrstelliger) Rechnungen sind auch intaktes Faktenwissen sowie gute Arbeitsgedächtnisleistungen relevant. Defizitäres Faktenwissen oder schlechte Arbeitsgedächtnisleistungen können die Leistung beim Lösen komplexer Rechnungen beeinträchtigen: Dies ist jedoch nicht gleichzusetzen mit einer Störung des prozeduralen arithmetischen Wissens!
Konzeptuelles arithmetisches Wissen bzw. arithmetisches Verständnis ist für die flexible und adaptive Anwendung numerisch-rechnerischer Leistungen unerlässlich. Das konzeptuelle Wissen wurde jedoch – wie auch das prozedurale Wissen – in den populären Rechenmodellen vernachlässigt. Sowohl das arithmetische Faktenwissen als auch das prozedurale arithmetische Wissen können ohne zugrunde liegendes Verständnis rein schematisch angewendet werden.
1.6 Neuronale Grundlagen der Zahlenverarbeitung und des Rechnens
Methoden der Hirnforschung
Die Erforschung des Zusammenhangs zwischen Gehirnfunktionen und -strukturen ist eine klassische Domäne der Neuropsychologie. Im Englischen existiert dafür der kernige Begriff der „Brain-Behaviour Relationship“. Wie bereits oben erwähnt, hat die Neuropsychologie vom Technikboom der letzten Jahrzehnte sehr profitiert. Das wohl eindrücklichste Beispiel hierfür sind die bereits weiter oben erwähnten bildgebenden Verfahren. Techniken wie die funktionelle Magnetresonanztomografie (fMRT) und die funktionelle Nahinfrarotspektroskopie (fNRIS) erlauben es uns, die am Lösen einer Aufgabe beteiligten Hirnregionen zu visualisieren. Im Falle der fMRT bedeutet dies, dass mit Hilfe von Magnetresonanz die Sauerstoffsättigung des Blutes gemessen werden kann, und zwar während die Probanden bestimmte Aufgaben lösen. Jene Hirnregionen, die beim Lösen der Aufgaben aktiviert werden, verbrauchen mehr Sauerstoff als inaktive Regionen. Mit Hilfe aufwändiger Datenverarbeitungs- und Analysetechniken kann man die Veränderung im Sauerstoffverbrauch visualisieren und erhält so kortikale Aktivierungsmuster mit guter räumlicher Auflösung (im Millimeterbereich).
Eine Einschränkung der fMRT-Methode ist, dass sie für Kleinkinder nicht gut geeignet ist, da die Probanden für die Dauer des Experiments (mindestens 20 Minuten) still liegen müssen und die MRT-Umgebung zudem sehr laut ist (die Lärmbelastung wird zumindest teilweise durch das Tragen von Kopfhörern gemildert). Die meisten fMRT-Untersuchungen im Entwicklungsbereich werden daher erst bei Kindern ab 6 bis 7 Jahren durchgeführt und erfordern spezielle Anwendungstechniken für die Datenerhebung (Vogel et al. 2016). Neben der Darstellung von Aktivitätsmustern im Gehirn spielt die Erhebung anatomischer Gehirnstrukturen mittels MRT eine zunehmend wichtige Rolle bei der Erforschung von Gehirnfunktionen. Hervorzuheben ist hier die Diffusions-Tensor-Bildgebung (abgekürzt DTI von englisch diffusion tensor imaging), welche durch die Diffusionsbewegung von Wassermolekülen den strukturellen Aufbau von Nervenfaserbündeln misst. Nervenfasern ermöglichen die Erregungsleitung zwischen Nervenzellen und ganzen Gehirnregionen. Individuelle Unterschiede im strukturellen Aufbau von Faserbündeln konnten bereits mit individuellen Unterschieden in diversen kognitiven Leistungen assoziiert werden, etwa im Bereich des Lesens (Klingberg et al. 2000) und des Rechnens (Überblick bei Matejko / Ansari 2015). Ein Vorteil dieser Methode ist, dass die Messung relativ rasch erfolgt und die Probanden keine aufwendigen Aufgaben im Scanner durchführen müssen.
Eine gute Alternative zur Visualisierung von Gehirnaktivierungen bei (Klein-)Kindern bietet die funktionelle Nahinfrarotspektroskopie. Das NIRS-System besteht primär aus einer Haube mit Sensoren (sogenannten Optoden) und Detektoren, die direkt an der Schädeloberfläche montiert werden. Die Sensoren messen über die Absorption von Nahinfrarotlicht Veränderungen im Sauerstoffmetabolismus und somit kortikale Aktivierungen. Da die Sensoren direkt an der Schädeldecke angebracht sind, müssen die Probanden bei der Untersuchung nicht still liegen und können sich relativ frei bewegen. Zudem ist die Apparatur portabel und erzeugt keine lauten Geräusche, was einen sehr flexiblen Einsatz in natürlichen Umgebungen ermöglicht (etwa im Klassenzimmer). Aufgrund dieser wichtigen Eigenschaften erfreut sich fNIRS besonders für die Untersuchung von Kindern und Kleinkindern zunehmender Beliebtheit. Der zentrale Nachteil dieser Methode liegt allerdings in der begrenzten räumlichen Signalauflösung. Im Vergleich zum fMRT können kortikale Aktivierungen nur sehr grob identifiziert werden und Aussagen über die präzise Lokalisation der Aktivierung sind nur begrenzt möglich (Lloyd-Fox et al. 2010).
Eine andere häufig verwendete Methode der Neurowissenschaften basiert auf dem Elektroenzephalogramm (EEG). Das EEG erfasst die elektrophysiologische Tätigkeit des Gehirns und wird wegen seiner sehr guten zeitlichen Auflösung der Hirnaktivierung geschätzt. Eine spezielle, für die Neurowissenschaften interessante Anwendung ist die Methode der ereigniskorrelierten Potenziale (EKP). Mit Hilfe der EKP-Methode werden die elektrophysiologischen Parameter direkt im Anschluss an eine Stimuluspräsentation gemessen. Die Probanden sollen beispielsweise Bilder ansehen oder bestimmte Aufgaben mental lösen. Die Forscher können dann anhand der EEG-Kurvenverläufe Rückschlüsse auf die zugrunde liegenden neuronalen Erregungsmuster ziehen. Ein Nachteil von EEG-basierten Methoden ist, dass primär Aktivierungen erfasst werden, die direkt unter den Elektroden (bzw. dem Schädelknochen) liegen. Das heißt, elektrophysiologische Methoden erlauben nur bedingt Aussagen über die kortikale Erregungsleitung in tieferen Hirnstrukturen.
Eine weitere Methode, die für die Zahlenforschung sehr interessante Resultate erbrachte (Cohen Kadosh et al. 2007), ist jene der transkraniellen Magnetstimulation (TMS). Hier werden mit Hilfe eines starken Magnetfeldes bestimmte (vorher mittels struktureller MRT individuell definierte) Hirnregionen stimuliert, was dazu führt, dass diese temporär „außer Gefecht“ gesetzt werden bzw. funktionell stillgelegt werden. Dies erlaubt es den Forschern, die Funktionsfähigkeit des restlichen Gehirns im Hinblick auf die interessierenden Fragestellungen zu erfassen.
Abb. 1.9: Neuronale Korrelate der Zahlenverarbeitung und des Rechnens (modifiziert nach Dehaene / Cohen 1995)
Wie bereits zu Beginn dieses Kapitels beschrieben, betonen schon die frühen klinisch-neurologischen Fallberichte einen Zusammenhang zwischen erworbenen Rechenstörungen und linken posterioren (hinteren) Hirnregionen (z. B. Henschen 1919; Lewandowsky / Stadelmann 1908). Unter Verwendung bildgebender Verfahren wie der fMRT konnte man diese relativ grobe Lokalisation von Rechenleistung zu posterioren Hirnregionen noch verfeinern. In der aktuellen numerischen Kognitionsliteratur herrscht Übereinstimmung dahingehend, dass gute Rechenleistungen von der Intaktheit des Parietallappens abhängen (Überblick bei Kaufmann / Nuerk 2007 und Vogel / Ansari 2012).
anatomisch-funktionelles Rechenmodell
Das wohl einflussreichste anatomisch-funktionelle Rechenmodell ist dasjenige von Dehaene und Cohen (1995), das auf dem ebenfalls von Dehaene erstmals im Jahre 1992 postulierten rein funktionellen Triple-Code-Modell beruht (s. Abb. 1.2). Basierend auf einer Vielzahl von Patientenstudien und den ersten Ergebnissen der bildgebenden Verfahren macht das anatomisch-funktionelle Rechenmodell folgende Vorhersagen hinsichtlich der Lokalisation der im Triple-Code spezifizierten Module (s. Abb. 1.9):
(a) Das neuronale Korrelat der analogen Größenrepräsentation ist der intraparietale Sulcus (IPS) (mit Sitz im Parietallappen);
(b) die verbal-phonologische Zahlenform bzw. die diesem Modul zugeordneten Funktionen wie Zählen und arithmetischer Faktenabruf werden durch Hirnregionen moduliert, die auch für Sprachfunktionen wichtig sind (nämlich die sogenannte perisylvische Furche), und zudem von subkortikalen Hirnregionen wie den Basalganglien;
(c) die visuell-arabische Zahlenform und die diesem Modul zuordbaren Funktionen wie schriftliches Rechnen werden unterstützt durch okzipitale Hirnregionen (das sind Regionen im Hinterhauptslappen; überlappende Hirnareale sind auch beim Lesen von Wörtern und Buchstaben relevant und demgemäß als „visuelles Wortformareal“ bekannt).
Weiterhin postuliert dieses Modell, dass komplexe Rechenleistungen zusätzlich von der Intaktheit frontaler Hirnregionen (Stirnhirn) abhängen, weil diese oft hohe Anforderungen an das dort lokalisierte Arbeitsgedächtnis stellen (Dehaene / Cohen 1995). Das Arbeitsgedächtnis ist besonders bei mehrstufigen Aufgabenlösungen relevant, die das kurzfristige Erinnern von Zwischenergebnissen (während man simultan andere Bearbeitungsschritte ausführt) oder das Überwachen einer Lösungsprozedur (Monitoring) erfordern (Baddeley 1986; 2000).
parietale Netzwerke
Im Hinblick auf die semantische (analoge) Größenrepräsentation nehmen Dehaene und Mitarbeiter (2003) eine weitere Differenzierung vor und postulieren die Existenz von „drei parietalen Netzwerken“, die in benachbarten und teils überlappenden Regionen des IPS lokalisiert sind (s. Abb. 1.10). Gemäß den Autoren ist das neuronale Korrelat der Mengenverarbeitung im engeren Sinn das horizontale Segment des IPS (HIPS); die räumliche Orientierung auf dem mentalen Zahlenstrahl wird durch den posterioren superioren Parietallappen (PSPL) moduliert; und verbal-phonologisches rechnerisches Wissen wie beispielsweise die Repräsentation von überlerntem und automatisiertem Faktenwissen ist im Gyrus angularis anzusiedeln (s. Abb. 1.10). Während letzteres Modul nur in der linken Hirnhälfte vorfindbar ist (da verbale Verarbeitungsmechanismen gewöhnlich linkshemisphärisch organisiert sind), sind die beiden ersteren von Dehaene und Kollegen (2003) postulierten parietalen Netzwerke in beiden Hirnhälften angelegt.
Abb. 1.10: Schematische Darstellung der von Dehaene et al. (2003) postulierten drei parietalen Netzwerke der Zahlenverarbeitung
Cohen Kadosh und Mitarbeiter (2007) berichten, dass gute Rechner nach Applikation von TMS (transkranieller Magnetstimulation, die dazu führt, dass die entsprechende Hirnregion vorübergehend dysfunktional bzw. stillgelegt ist) im IPS Defizite hinsichtlich der automatischen Aktivierung der Zahlengröße zeigten. Die Autoren verwendeten die weiter oben beschriebene physische Stroop-Aufgabe (s. Abschnitt 1.5.1) bei der die Probanden zwei Zahlen hinsichtlich ihrer Schriftgröße vergleichen sollen. Vor TMS-Applikation konnten die Probanden bei physisch und numerisch kongruenten Zahlenpaaren (z. B. 8 3) schneller die physisch größere Zahl auswählen als bei numerisch neutralen Zahlenpaaren (z. B. 8 8), d. h. sie aktivierten die aufgabenirrelevante numerische Größe der Zahlen automatisch. Unmittelbar nach TMS-Applikation konnten dieselben Personen diesen Zahlen-Größen-Interferenzeffekt allerdings nicht mehr generieren. Cohen Kadosh und Kollegen (2007) interpretieren diese Ergebnisse dahingehend, dass die Stilllegung des IPS dazu führt, dass die Probanden keinen Zugriff mehr auf die numerisch-semantische Größenrepräsentation haben oder andersherum, dass ein dysfunktionaler IPS Probleme in der Zahlenverarbeitung evozieren kann.
ATOM-Hypothese
Hervorzuheben ist, dass der Parietallappen nicht ausschließlich für die Zahlenverarbeitung und das Rechnen zuständig ist. Vielmehr handelt es sich hier um eine wichtige Hirnregion für viele nichtnumerische Funktionen wie räumliche Fähigkeiten, Aufmerksamkeit etc. (Hubbard et al. 2005; Simon et al. 2002). Im Jahre 2003 erschien eine sehr einflussreiche Arbeit von Vincent Walsh, in der der Autor die ATOM-Hypothese („A theory of magnitude“) formuliert. Diese Hypothese besagt, dass der Parietallappen nicht zahlenspezifisch ist, sondern dass Zahlenverarbeitung nur ein Aspekt einer umfassenderen Größenrepräsentation im Parietallappen ist, die zusätzlich zur numerischen Größe auch räumliche und zeitliche Größe inkludiert. Seit Walshs Publikation gibt es nun etliche empirische Befunde, die für die Gültigkeit der ATOM-Hypothese sprechen. Dazu gehört auch die in Abschnitt 1.5.1 „Semantische (Zahlen-)Größenrepräsentation und die Metapher des mentalen Zahlenstrahls“ dargestellte Arbeit von Cohen Kadosh und Mitarbeitern (2005): Sie zeigt, dass der Distanzeffekt nicht nur beim Zahlenvergleich, sondern auch beim Vergleich physischer (räumlicher) Größen sowie beim Vergleich von Helligkeiten (Luminosität ist ebenfalls eine physikalische Größe) zutage tritt (s. a. Abb. 1.6).
Ergebnisse bei Kindern
Die bisher vorliegenden Ergebnisse von bildgebenden Studien bei Kindern sind spärlich und kontrovers, was teilweise durch methodische Unterschiede im Untersuchungsdesign erklärbar ist (Kaufmann / Nuerk 2007). Während einige Arbeitsgruppen vergleichbare Aktivierungen bei Kindern und Erwachsenen beim Lösen von numerischen oder rechnerischen Aufgaben berichten (Cantlon et al. 2006; Kucian et al. 2005; Temple / Posner 1998), zeigen andere Studien, dass die Stärke der zahlenspezifischen Aktivierungen im Parietallappen mit dem Alter zunimmt (also bei Kindern weniger ausgeprägt ist als bei Erwachsenen; Ansari et al. 2005; Ansari / Dhital 2006; Holloway / Ansari 2010; Kaufmann et al. 2006; Vogel et al. 2015). Des Weiteren belegen etliche Befunde eine linkshemisphärische Spezialisierung im Entwicklungsverlauf, besonders für die Repräsentation von Zahlensymbolen wie arabischen Zahlen (Bugden et al. 2012; Emerson / Canton 2014; Vogel et al. 2015). So konnten etwa Vogel und Kollegen (2015) in einer fMRT Studie mit Kindern im Alter von 6–14 Jahren zeigen, dass die neuronale Aktivität des linken IPS beim Betrachten und Verarbeiten arabischer Zahlenmengen mit dem Alter zunimmt.
Zusammenfassung
Die neuronalen Grundlagen der Zahlenverarbeitung und des Rechnens sind komplex. Gute Rechenleistungen sind von der Intaktheit sehr unterschiedlicher Hirnregionen abhängig, die über das gesamte Gehirn verteilt sind. In anderen Worten: (a) Die Funktionen des Parietallappens sind nicht auf die Zahlenverarbeitung und das Rechnen beschränkt; und (b) Zahlenverarbeitung / Rechnen werden auch von Regionen außerhalb des Parietallappens moduliert. Aktuelle Fragestellungen der numerischen Kognitionsforschung betreffen unter anderem den potenziellen Zusammenhang zwischen numerischer und räumlicher Kognition sowie die Relevanz fingerbasierter Zähl- und Rechenmechanismen für das Erlernen arithmetischer Fertigkeiten. Diese Fragestellungen bzw. deren Konsequenzen sind nicht nur für die Grundlagenforschung von Interesse, sondern können auch für die Mathematikdidaktik und die Intervention von Dyskalkulie relevant sein.
Überprüfen Sie Ihr Wissen
1. Worauf begründen sich die aktuellen Annahmen und Modellvorstellungen der dem Rechnen zugrunde liegenden Denkprozesse?
2. Nennen Sie die Hauptkomponenten des McCloskey-Modells.
3. Nennen Sie die Hauptkomponenten des Triple-Code-Modells von Dehaene.
4. Was ist das Hauptunterscheidungsmerkmal zwischen den Rechenmodellen von McCloskey und Kollegen (1985) und Dehaene (1992; Dehaene / Cohen 1995)?
5. Was versteht man unter doppelten Dissoziationen?
6. Worauf basiert die Erkenntnis, dass Transkodieren auch asemantisch, also ohne Zugriff auf die numerische Größenrepräsentation bzw. Numerosität, vonstatten gehen kann?
7. Zeigen Sie anhand eines Beispiels, wie man aus Fehlern (z. B. Transkodier- oder Faktenabruffehler) Rückschlüsse über die diesen Fehlern zugrunde liegenden kognitiven Prozesse ziehen kann.
8. Nennen und erläutern Sie Reaktionszeiteffekte, die die Hypothese des mentalen Zahlenstrahls stützen.
9. Woran kann man erkennen, dass jemand automatischen Zugriff auf die Zahlensemantik hat?
10. Erläutern Sie die Begriffe arithmetisches Fakten- und Prozedurenwissen.