Читать книгу Mensch, Musik, Bildung - Michael Dartsch - Страница 9
Оглавление2.2 | Anthropologische Orientierungen |
2.2.1 | Zur Notwendigkeit anthropologischer Orientierung |
Bevor im weiteren Verlauf des Textes Überlegungen angestellt werden sollen, die im engeren Sinne didaktisch genannt werden können, ist es angezeigt, sich mit einem weiteren Gebiet zu befassen, das für jede Pädagogik als grundlegend angesehen werden kann. Bot die Ethik Orientierungen über das „Sollen“, über das sittlich Gebotene im pädagogischen Handeln, so gilt es nun, auch das „Sein“ in Blick zu nehmen. In der Pädagogik geht es um Menschen. So kommt sie nicht umhin, über den Menschen nachzudenken, sich ein Bild vom Menschen zu machen.
Ein solches Bild vom Menschen liegt – ausgesprochen oder unausgesprochen – jeder Pädagogik, jeder Auffassung von Erziehung und Bildung zu Grunde (vgl. Wulf 2001, S. 8, 192). Dabei kann der Bezug auf ein Menschenbild in zwei unterschiedlichen Richtungen erfolgen: Zum einen kann ein Bild vom Menschen als Zielvorstellung für Erziehungs- und Bildungsprozesse herangezogen werden. Hartmut von Hentig warnt vor den Gefahren eines solchen Vorgehens: Das Bild im Kopf des Erziehers legt den Menschen, dem Bildung zuteil werden soll, in eine bestimmte Richtung fest, engt ihn ein, tut ihm Gewalt an. Zudem müsste es, um wirksam sein zu können, breite Zustimmung [58]finden, müsste zum gesellschaftlichen Bewusstsein passen und unabhängig von Argumenten und Gefühlen akzeptiert werden. Ob irgendeinem Menschenbild diese allgemeine Akzeptanz in einer der westlichen Gesellschaften zukommen könnte, kann jedoch bezweifelt werden. Relativ gute Chancen hätte vielleicht das Bild des autonomen, frei über sich verfügenden und entscheidenden Menschen. Dies jedoch führt zu dem Paradoxon, dass diesem Menschen auch zugestanden werden müsste, selbst ein für sich leitendes Menschenbild zu wählen. Damit aber ist die Frage, ob ein Menschenbild als Zielvorstellung für Bildungsprozesse zu bemühen ist, von neuem aufgeworfen (vgl. Hentig 1999, S. 22ff.).
Die zweite Richtung eines Bezugs auf ein Menschenbild scheint hingegen unausweichlich, auch wenn sie vielleicht nicht vollkommen von der ersten Richtung getrennt werden kann. Ging es bei dieser um pädagogische Ziele, so berührt jene eher den Weg des Erziehens, den Prozess selbst. Pädagogik muss sich orientieren, womit sie es zu tun hat. Als ein Geschäft, das sich um den Menschen dreht, muss sie den Menschen in den Blick nehmen, um sich auf ihn einstellen, an ihm Maß nehmen zu können. So basiert etwa die Waldorf-Pädagogik Rudolf Steiners auf der Lehre der vier Leiber – des physischen Leibes, des Ätherleibes, des Astralleibes und des Ich-Leibes – und der Lebensjahrsiebte. Jeder der Leiber verlangt nach Steiner während der Heranreifung in einem der Jahrsiebte eine ihm entsprechende besondere pädagogische Behandlung (Steiner 1996). Für die Pädagogik Maria Montessoris sind das Verständnis des Kindes als eines „geistigen Embryos“ und die Lehre der „sensiblen Phasen“ zentral. Hieraus lässt sich das geforderte Erzieherverhalten klar ableiten, das darin besteht, dem Kind zu helfen, seine Entwicklung nach seinem eigenen Tempo und mit selbst gewählten Beschäftigungen voranzutreiben (vgl. Montessori 1987). Felix von Cubes viel zitiertes Motto „Fordern statt Verwöhnen“ wiederum geht aus seinem verhaltensbiologischen Ansatz hervor, der es nahe legt, darauf zu achten, dass Kinder ihre biologischen Potentiale zur Triebbefriedigung in Form von „stellvertretenden“ Aktionen ausleben können (vgl. Cube, Alshuth 1996). Kinderbilder, die der neueren Vorschulpädagogik zugrunde liegen, darunter das „postmoderne Kinderbild“, diskutiert Gerd E. Schäfer für seinen offenen Bildungsplan für das Land Nordrhein-Westfalen (Schäfer 2005c, S. 30ff.).
Auch psychologische Theorien implizieren Menschenbilder (vgl. Groeben, Erb 2002; Fahrenberg 2004; Hampden-Turner 1982). Dies gilt unterschiedslos für die verschiedenen Teildisziplinen der Psychologie, etwa für die Klinische Psychologie, die Lernpsychologie oder die Entwicklungspsychologie. Es liegt auf der Hand, dass die Trieblehre Sigmund Freuds, in der der Mensch als grundlegend von sexueller Triebenergie angetrieben gesehen wird (vgl. Freud 1989a; Elhardt 1972; Fahrenberg 2004, S. 15ff.), von ebenso großer anthropologischer Bedeutung ist wie etwa der Behaviorismus eines Watson, Thorndike oder Skinner (vgl. Watson 1968a–b; Thorndike 1970; Skinner 1973b, 1978; vgl. auch: Fahrenberg 2004, S. 96ff.; Friedrich 2005, S. 43ff., 62ff.), der das Verhalten des Menschen mit Konditionierungsprozessen erklärt, die gerade nicht vom menschlichen Denken – geschweige denn von einer geistigen Dimension – geprägt sind. Auch die Entwicklungspsychologie transportiert ein je eigenes Bild vom Menschen, indem sie ihn selbst als aktiveres oder passiveres Element seiner Entwicklung konzipiert und [59]einer wiederum aktiveren oder passiveren Umwelt gegenüberstellt (vgl. Montada 2002b, S. 5ff.). Auch wenn soziologische Perspektiven stärker in den Vordergrund treten – wie etwa in der Sozialisationsforschung –, finden sich anthropologische Konzeptionen, so das „produktiv realitätsverarbeitende Subjekt“ Klaus Hurrelmanns (Hurrelmann 1983).
Mithin kann auch für die Didaktik eine anthropologische Orientierung gefordert werden. Wilhelm H. Peterßen sieht hinter den Verschiedenheiten der didaktischen Theorien gemeinsame Strukturmomente (vgl. Peterßen 1973, S. 23) und fordert für didaktische Theorien grundsätzlich drei Strukturebenen: Neben der pragmatischen Ebene, die Übersetzungsmöglichkeiten in die Unterrichtspraxis bieten soll, nennt Peterßen die legitimatorische Ebene, auf der sich ethische Begründungen finden lassen müssten, und die paradigmatische Ebene. Letztere beinhaltet ein wissenschaftliches Grundverständnis, eine Sichtweise, in der letztlich alle theoretischen Annahmen wurzeln. Nur mit einem solchen expliziten Paradigma ist eine didaktische Theorie für Peterßen als vollständig zu bezeichnen (Peterßen 1996, S. 26ff., 35ff.; vgl. auch: Friedrich 2005, S. 20ff.). Der Begriff „Paradigma“ ist dabei von Thomas Kuhn übernommen, der damit wissenschaftliche Leistungen bezeichnet, die als Beispiele erfolgreicher Wissenschaft eine Gemeinschaft von Wissenschaftlern begründen, indem sie deren Forschung und Theoriebildung leiten (Kuhn 1967, S. 28f.; 1977b, S. 390, 414). In wissenschaftlichen „Revolutionen“ werden diese Paradigmen jeweils durch neue Positionen abgelöst (Kuhn 1967, S. 128ff.; 1977a, S. 309ff.). In der Pädagogik weisen solche Paradigmen – ihrem Gegenstandsbereich gemäß – auch anthropologische Züge auf. Eine didaktische Theorie muss somit, wenn von ihr eine paradigmatische Komponente gefordert wird, auch eine anthropologische Position suchen, von der sie ausgeht.
Für den Bereich der Musikalischen Früherziehung legt Schwabe im Unterrichtswerk Spiel und Klang zu Beginn aller theoretischen Grundlagen ebenfalls ein Menschenbild dar, das den Ausgangspunkt des gesamten Konzeptes bildet (Schwabe 1998a, S. 11f.). Innerhalb des gebotenen Rahmens kann hier über die Offenlegung der eigenen Überzeugung hinaus kaum eine argumentative Stützung oder gar theoretische Herleitung geleistet werden. Ein Ansatz dazu findet sich für die Elementare Musikpädagogik in dem Text Elementare Musikpädagogik im anthropologischen Bedingungsfeld (Dartsch 2002a) und vorher freilich auch in dem Klassiker von Juliane Ribke, dessen erster Teil mit „Elementare Musikpädagogik im anthropologischen Bezug“ überschrieben ist (Ribke 1995). Für die Suche nach einem tragfähigen Bild des Menschen soll hier noch einmal – zunächst ganz unabhängig von Musikpädagogik – weit ausgeholt werden.
Soll eine solche Suche nach anthropologischen Orientierungen bewusst, nachdenklich und systematisch in Angriff genommen werden, so bietet es sich an, den Stand der Wissenschaft zum Thema „Mensch“ abzuklopfen. Selbstverständlich tut sich hier ein schier unübersehbares Feld auf. Den Durchgang durch dieses Feld werden hier zwei Anhaltspunkte leiten: Zum ersten werden verschiedene Wissenschaftsdisziplinen der Reihe nach nach Erträgen abgesucht. Die Suche beginnt bei den Naturwissenschaften, fokussiert mehr und mehr den Menschen und führt über die Neurowissenschaften und die Kognitionswissenschaft schließlich zur Psychologie, zur Erziehungswissenschaft und zur Soziologie. Zum zweiten sollen in erster Linie dynamische Prozesse in den [60]Blick genommen werden: Prozesse der Veränderung, der Entwicklung, des Wachsens, des Lernens. Damit wird die Suche zwangsläufig ein Moment des Kursorischen bekommen. Alle dabei angerissenen Themenfelder könnten weit tiefer und breiter behandelt werden. Das Dilemma liegt darin, dass eine anthropologische Orientierung geboten scheint, eine solche aber heute nicht an einer Sichtung der verschiedenen Disziplinen vorbeikommt. Vergegenwärtigt man sich allerdings die Gefahr, sich in den Problemen der Einzeldisziplinen zu verheddern, erscheint der hier eingeschlagene Weg der Konzentration auf dynamische Prinzipien sachdienlich und akzeptabel.
2.2.2 | Anthropologische Orientierungen in den Naturwissenschaften |
2.2.2.1 | Zur Zuständigkeit der Naturwissenschaften |
Das Nachdenken über den Menschen ist sowohl im Alltag als auch im Rahmen der Philosophie mehr und mehr durch die „Fundamentalkategorie“ Natur geprägt (Irrgang 2001, S. 329; vgl. S. 9, 16). Der Mensch wird dabei als Naturwesen, als spezielles Tier, das wie alle Tiere den Gesetzen der Natur unterliegt, verstanden. In der Gesellschaft ist diese Sichtweise sicher durch die schwindende Prägekraft religiöser Weltbilder, durch die Fortschritte von Medizin und Genetik sowie durch die Verbreitung naturwissenschaftlicher Erkenntnisse in der Schule, in den Medien und in der populärwissenschaftlichen Literatur (vgl. zum Beispiel Bublath 2001; Morrison, Morrison, Studio von Charles und Ray Eames 1985) bedingt. In der Philosophie zeichnete sich ab den Siebzigerjahren ein „naturalistic turn“ ab, der die Dominanz sprachanalytischer Philosophiekonzepte beendete (Irrgang 2001, S. 16). Der Philosoph Gerhard Vollmer spricht in diesem Zusammenhang vom „Naturalismus“ und bezeichnet diesen salopp als „eine naturphilosophisch-anthropologische Auffassung, nach der es überall auf der Welt mit rechten Dingen zugeht“. Dabei erhebt der Naturalismus einen universellen Erklärungsanspruch und lässt zur Erklärung der Welt nur wenige Mittel zu. Sein Programm umreißt Vollmer wie folgt:
„Er fordert und entwirft ein kosmisches Gesamtbild, ein ‚Weltbild‘.
Er schreibt auch dem Menschen einen bestimmten Platz im Universum zu (der im Ergebnis eher bescheiden ist).
Er bezieht dabei alle Fähigkeiten des Menschen ein, auch Sprechen, Erkennen, wissenschaftliches Forschen, moralisches Handeln, ästhetisches Urteilen, sogar den religiösen Glauben.
Er fordert und entwickelt auf dieser Grundlage insbesondere
- | eine naturalistische Anthropologie |
- | eine naturalistische Erkenntnistheorie |
- | eine naturalistische Methodologie der Forschung |
- | eine naturalistische Ethik |
- | eine naturalistische Ästhetik“ (Vollmer 2003, S. 281). |
Insgesamt lässt sich eine Tendenz feststellen, die als „reduktionistisch“ bezeichnet werden kann: Wird zur Erklärung und Beschreibung des menschlichen, auch des psychischen Lebens mehr und mehr die Biologie herangezogen, so ist die Biologie ihrerseits immer mehr durch die Chemie geprägt. Chemische Vorgänge wiederum reichen bereits [61]nahe an die Physik der Elementarteilchen heran. Die Hierarchie von Physik, Chemie, Biologie und Psychologie stellt einen Ausschnitt aus Franz Fischers systematischer Gliederung der Wissenschaften dar. In dieser ist über der Physik wiederum die Mathematik angesiedelt, über dieser die Logik und über dieser schließlich die Semantik, die Worten Bedeutungen zuweist. Unterhalb der Psychologie ordnet Fischer der Reihenfolge nach die Soziologie, die Geschichte, die Jurisprudenz, die politische Wissenschaft, die Kunst und endlich die Religion an (Fischer 1975, S. 112ff.; vgl. Benner 1996, S. 242f.). Hier klingt auch Nicolai Hartmanns „Schichtenstruktur des realen Seins“ an, in der vom Anorganischen, vom Organischen, vom Seelischen und vom Geistigen die Rede ist (vgl. Eigen, Winkler 1978, S. 284; Hediger 1980, S. 19).
Reduktionismus zeichnet sich allgemein dadurch aus, dass komplexe Gegenstände in Einzelbestandteile und deren Beziehungen zueinander zerlegt werden, womit ein Wechsel der Betrachtungsweise einhergeht (Beckenkamp 1995, S. 25; vgl. auch: Feinberg 2002, S. 250); Behauptungen hinsichtlich einer bestimmten Klasse von Fakten werden durch Behauptungen hinsichtlich einer anderen Klasse von Fakten verifiziert (Putnam 1982, S. 84). Wenn nach John Searle Reduktionismus impliziert, dass Dinge „nichts als etwas anderes“ sind (Searle 1992b, S. 112ff.; vgl. Feinberg 2002, S. 182f.), dann hieße das in der Anwendung auf Fischers Stufenfolge, dass Religion nichts als Kunst sei – etwa eine Form der Poesie oder der Inszenierung –, dass Kunst zur Gänze in politischem Leben aufgehe, dass dieses wiederum sich ganz auf zugrunde liegende Rechtssysteme zurückführen ließe, dass solche Rechtssysteme vollständig durch geschichtliche Entwicklungen, diese wiederum durch die Soziologie erklärt werden könnten, dass die Gesellschaft ganz durch Psychologie, die Psychologie durch Biologie, diese durch Physik erklärt werden könne; die Physik ginge letztlich ganz in Mathematik auf, die Mathematik fuße vollständig auf der Logik, und diese habe ihren letzten Grund in der Zuweisung von Bedeutungen.
Innerhalb der Naturwissenschaften kommt also als Bezugsdisziplin reduktionistischer Erklärungen die Physik in Frage. So betont zum Beispiel der Physiker Richard Feynman die zentrale Stellung der Physik im Wissenschaftskanon und ihre grundlegende Bedeutung für alle Phänomene auch anderer Fachgebiete (Feynman 2005, S. 97ff.). Auch der Anspruch seines Kollegen Erwin Schrödinger, das Leben „mit den Augen des Physikers“ zu betrachten und natürlich auch zu erklären, weist in diese Richtung (Schrödinger 1951). Aber auch der Philosoph Rudolf Carnap dachte in diese Richtung, wenn er die physikalische Sprache als eine „Universalsprache der Wissenschaft“ bezeichnete (Carnap 1931) und sich überzeugt zeigte, „daß jeder Satz der Psychologie in physikalischer Sprache formuliert werden kann“ (Carnap 1932, S. 107).
Gegen reduktionistische Sichtweisen wurden gleichwohl immer wieder auch Einwände vorgebracht. Diese argumentieren nicht selten mit dem Konzept der „Emergenz“. Der Begriff der Emergenz umschreibt das Auftauchen neuartiger Phänomene im Verlauf der Evolution (vgl. Irrgang 2001, S. 320). Auf einer höheren Hierarchieebene erscheinen dabei neue Merkmale, die mehr beinhalten als die Summe einzelner Merkmale der Ebene darunter, sodass sie nicht auf diese reduziert werden können (Feinberg 2002, S. 246). So ließe sich etwa behaupten, mit der Entstehung von Leben auf der Erde [62]sei etwas qualitativ Neues auf der Bildfläche erschienen, das mehr sei als die Summe seiner chemischen Grundbestandteile. Analog dazu kann der menschliche Geist als emergente Eigenschaft aufgefasst werden, die wiederum nicht in den biologischen Abläufen und Bausteinen, also etwa den Nervenzellen und den neuronalen Prozessen innerhalb des Gehirns, aufgehe. Vertreter einer solchen Auffassung sind zum Beispiel der Psychologe Roger W. Sperry und der Mathematiker Alwyn Scott (Sperry 2007; Scott 1995; vgl. Feinberg 2002, S. 185ff.; Sprockhoff 1996, S. 101ff.). Der Verhaltensforscher Konrad Lorenz benutzte für die Entstehung neuer Eigenschaften in der Evolution anstelle des Emergenzbegriffes den Begriff der „Fulguration“ (Lorenz 1973, S. 47ff.). In diesem Zusammenhang ist die Kritik Reinhard Löws zu beachten, der darauf hinweist, dass die Neuartigkeit eines Merkmales nicht als eindeutig definierte Eigenschaft gelten kann. Vielmehr hänge das Urteil, ob etwas „neu“ und damit ein Fulgurationsprodukt sei, unweigerlich vom Betrachter und dessen Kenntnisstand und Wertung ab. Möglicherweise war der Hund das erste Wesen der Naturgeschichte, das bellte; ist aber das Bellen deshalb eine emergente Eigenschaft? Wenn sich solcherlei Fragen nicht zweifelsfrei beantworten lassen, kann man Phänomene wie Leben oder Geist letztlich nicht von anderen Merkmalen wie etwa Bellen abgrenzen. Folgt man Löw, so lässt sich sagen, dass das Emergenz-Konzept sich nicht in jedem Fall deutlich vom Reduktionismus abhebt (vgl. Löw 1983, S. 347ff.).
Todd E. Feinberg benennt drei Elemente einer Theorie der Emergenz, die geeignet scheinen, den Begriff zuzuspitzen: zum ersten die Emergenz selbst, das Hervorgehen neuer und unvorhergesehener Eigenschaften aus materiellen Prozessen ab einem gewissen Komplexitätsgrad; zum zweiten den „Zwang“, der darin besteht, dass Einheiten auf einer niedrigeren Ebene der Kontrolle höherer Ebenen unterliegen, also beispielsweise ein Organ die einzelnen Zellen oder ein Körper die einzelnen Organe zu bestimmten Aktivitäten nötigt – hier ließe sich auch an eine Art „Befehlsgewalt“ des Geistes über den Körper denken –; zum dritten schließlich die Nichtreduzierbarkeit, womit der Gegensatz zum Reduktionismus auf den Punkt gebracht ist (Feinberg 2002, S. 179ff.).
Gegen den Reduktionismus argumentiert auch Hubert Markl. Er wendet sich gegen die „ebenso verbreiteten wie falschen Formulierungen, daß alles Leben Chemie sei, alle Chemie Physik, alle Physik Mathematik und alle Mathematik reine Philosophie“, warnt davor, „die Wurzel mit einer ganzen Pflanze, die Fundamente mit einem Bau, die Voraussetzungen mit den Konsequenzen oder ganz drastisch das Ei mit dem Huhn [zu]verwechseln“, „die Tatsache der evolutionären Emergenz neuer Phänomene [zu] leugnen oder [zu] mißachten, die doch der wichtigste Ausdruck der schöpferischen Kraft der Natur ist, von der Entstehung der Gestirne bis zu der des Lebens, von der Entstehung der Arten bis zu der von Kultur und Geist“, und bekräftigt: „Das, woraus sich etwas Neues entwickelt, ist nicht identisch mit dem Neuen selbst“ (Markl 2004, S. 124). Alfred Gierer fragt sich in einem Gedankenexperiment, ob ein Computer, dem man die Gesetze der Physik einprogrammiert hätte, ableiten und berechnen könnte, „daß es in der physikalischen Welt ‚Leben‘ gibt oder geben kann und welche Merkmale es hat“. Er mutmaßt, „der Computer könnte nicht alle denkbaren Begriffssysteme und Szenarien nacheinander so durchspielen, daß er aus sich heraus eine Beschreibung [63]des Lebens mit seinen wesentlichen Eigenschaften ausdrucken würde“, und schließt, physikalische Gesetze seien zwar „Erklärungsgrundlage für biologische Vorgänge“, die Erklärung selbst sei jedoch „ohne ein subjektives Vorverständnis von ‚Leben‘, ohne Anschauung und begriffliche Erfassung der realen Lebensvorgänge nicht möglich“ (Gierer 1998, S. 102). Heinz Penzlin schließlich resümiert: „Es gibt kein physikalisches Gesetz, das im Lebewesen außer Kraft gesetzt werden kann. Es gibt aber Gesetzmäßigkeiten, die nur den komplexen lebendigen Systemen […] eigen sind und in der anorganischen Welt fehlen. “ (Penzlin 1993, S. 48–64)
Der Philosoph Peter Janich kritisiert endlich generell die Dominanz des naturalistischen Wissenschaftsverständnisses hinsichtlich der menschlichen Kognition und beklagt diesbezüglich den Mangel an geistes- oder kulturwissenschaftlichen Ansätzen (Janich 1998, S. 374). Der naturwissenschaftliche Beitrag zum Verständnis des Menschen sei „unabweisbar im Kontext kultürlicher Bestimmungen von Kognition“ anzusiedeln (S. 392).
In der vorliegenden Arbeit sollen dementsprechend die Erklärungsgrundlagen, die die Naturwissenschaften zu leisten vermögen, gesichtet werden, bevor dann auch Wissenschaften wie Psychologie und Erziehungswissenschaft inklusive eines „kultürlichen Kontextes“ zur anthropologischen Orientierung herangezogen werden.
2.2.2.2 | Prinzipien aus Physik und Chemie |
Fragt man in der Klassischen Physik nach dynamischen Prozessen, so stößt man zunächst auf das Prinzip der Kausalität. Jeder Veränderung muss eine Ursache zugeordnet werden können. Jeder Bewegung liegt eine verursachende Kraft zugrunde. In der Mechanik gilt: „Um einen Körper in Bewegung zu setzen, muss eine Kraft K für eine bestimmte Zeit t auf ihn einwirken“ (Zentner 2006, S. 201). Auch für jede Veränderung einer schon bestehenden Bewegung, etwa für Beschleunigung, Richtungsänderung oder Abstoppen, ist eine Kraft erforderlich: „Das Trägheitsprinzip fordert, dass ein Körper seinen Zustand der Ruhe oder Bewegung nur dann ändert, wenn auf ihn eine Kraft einwirkt. Die Änderung dieses Zustandes ist dann der Größe der einwirkenden Kraft proportional und erfolgt in der Richtung, in der die Kraft wirkt“ (S. 200).
Im Idealfall kann jedes mechanische Ereignis mit einer entsprechenden Ursache begründet und erklärt werden. Bei genauer Kenntnis der Ursache kann auch die Wirkung mit den einschlägigen physikalischen Formeln genau berechnet werden. Große Fortschritte hierfür gehen auf Isaac Newton zurück (vgl. Newton 1963). Aus der Erklärbarkeit und Berechenbarkeit mit Hilfe der Mathematik folgt schließlich auch die Vorhersehbarkeit und Planbarkeit dynamischer Prozesse. Gesetze der Physik können gewissermaßen in den Dienst menschlicher Bedürfnisse gestellt werden, indem ihre Kenntnis dazu genutzt wird, Prozesse zu steuern, um gezielt Wirkungen hervorzubringen (vgl. Löw 1983, S. 341). Schon einfacher Werkzeuggebrauch basiert auf der Nutzung physikalischer Gesetze, etwa der Hebelwirkung bei der Kraftübertragung. Im Verlauf der technischen Entwicklung wurde schließlich eine immer größere Machbarkeit und Steuerbarkeit in vielerlei Bereichen erreicht.
[64]Im zwanzigsten Jahrhundert ist die Physik jedoch an die Grenzen der klassischen Mechanik gestoßen, sodass sogar vom „postmechanistischen Paradigma“ gesprochen wird (vgl. Davies, Gribbin 1995, S. 7ff.). Die Quantenmechanik löste im Bereich der Elementarteilchen die klassische Mechanik ab (vgl. Bohr 1924; Feynman 2005, S. 175ff., 82) und untergrub den Glauben an die Berechenbarkeit und Prognostizierbarkeit von zukünftigen Zuständen nachhaltig. Das Wort „Quanten“ drückt dabei aus, dass im Mikrobereich keine beliebig kleinen Portionen von Energie gefunden werden können, sondern gewissermaßen Mindestportionen von Energie ein Elementarteilchen jeweils auf ein neues Energieniveau heben (vgl. Davies, Gribbin 1995, S. 182ff.; Fischer 2003a, S. 166ff.). Besonders populär wurde die „Unschärferelation“, die von dem Physiker Werner Heisenberg erstmals beschrieben wurde und in der populärwissenschaftlichen Literatur noch immer gern diskutiert wird (Heisenberg 1927; 2007b, S. 174ff.; vgl. Schrödinger 2007a, S. 809; Feynman 2005, S. 200ff., 82f.; Penrose 1991, S. 241f.; Edelman 1992, S. 29, 308f.; Gierer 1998, S. 78f.; Barrow 2001, S. 42ff.; Benz 2001, S. 78ff.; Fischer 2003a, S. 182ff.). Sie besagt, dass Ort und Impuls (Masse x Geschwindigkeit) eines Elementarteilchens nicht gleichzeitig präzise angegeben werden können. Je präziser man eines von beiden erfasst, umso mehr entzieht sich das andere dem Zugriff. Als Grund dafür lässt sich anführen, dass der Messvorgang selbst durch die Signale, die den zu messenden Zustand anzeigen sollen, den Zustand des Elementarteilchens beeinflusst. Will man den Ort eines Elektrons oder Protons optisch bestimmen, benötigt man Licht, dessen Teilchen auf das Elementarteilchen treffen müssen und dabei zwangsläufig dessen Impuls verändern (vgl. Fritzsch 1994, S. 20f.; Fischer 2003a, S. 182f.). Es träfe jedoch nicht den Kern der Sachlage, wollte man behaupten, dass die Messenden die Unschärfe verursachten. Vielmehr haben sie nach den Worten des Physikers Arnold Benz bloß daran teil (Benz 2001, S. 81). Ort und Impuls sind prinzipiell so lange unbestimmt, bis sie durch lokale Wechselwirkungen – etwa mit Licht – gewissermaßen „verwirklicht“ werden. Die Konzepte Ort und Impuls – oder auch Zeit und Energie, für die die Unschärferelation ebenfalls gilt – beinhalten per se eine Festlegung im Sinne einer Verwirklichung. Ohne diese kommt ihnen keine Realität im klassischen Sinne zu. Die Feststellung einer der Größen hat dabei im Bereich der Elementarteilchen die Unschärfe einer anderen zur Folge (vgl. Barrow 2001, S. 43f.).
Analog dazu kann man sagen, dass Zustände im Bereich der Elementarteilchen nicht nur lediglich mit einer gewissen Wahrscheinlichkeit angegeben werden können, sondern auch nur in Form von Wahrscheinlichkeiten beziehungsweise mathematischen Zustandsfunktionen, die diese Wahrscheinlichkeiten angeben (vgl. Benz 2001, S. 78f.), existieren. Bei Ernst Peter Fischer liest sich das so: „Es trifft nicht zu, wie man meinen könnte, dass ein Elektron bzw. Photon bestimmte Eigenschaften hat, die nur unbekannt bleiben, solange sie nicht gemessen worden sind. Die Eigenschaften von Elektronen bzw. Photonen bleiben so lange unbestimmt, bis jemand nach ihnen fragt und das entsprechende Experiment macht. Elektronen bzw. Photonen an sich stellen keine Wirklichkeit dar, vielmehr bieten sie uns verschiedene Möglichkeiten für die Erfassung der Realität, und es liegt an uns, zwischen ihnen zu wählen“ (Fischer 2003a, S. 182). Als Vergleich wählt Fischer ein Ratespiel, bei dem eine ratende Person Mitspielern Fragen [65]zu einem Begriff stellt, die die jeweils Befragten mit Ja oder Nein beantworten müssen, wobei sie sich – und das ist das Entscheidende – nicht vorher auf einen Begriff einigen, sondern während der Fragen jeweils einen Begriff ersinnen, der mit allen Antworten verträglich ist, sodass der Begriff erst durch den Frageprozess selbst entsteht – so wie die Eigenschaften der Teilchen durch den Prozess des Befragens der Wirklichkeit im Messen (S. 191f.). Im makroskopischen Bereich treten mit Ort, Geschwindigkeit, Zeit und Energie keine Schwierigkeiten auf; will man diese begrifflichen Konzepte jedoch in die Welt der mikroskopischen Prozesse übernehmen, so bleibt nur die Wahl, sie in Form von Wahrscheinlichkeiten zu fassen (vgl. Fritzsch 1994, S. 18f.). Einen ähnlichen Gedanken verfolgt Fischer, wenn er von einer „semantischen Grenze des Wissens“ spricht und erläutert: „Was die Wissenschaft erklären will – den Aufbau des Periodensystems und die Eigenschaften der Materie –, kann nicht mehr mit den intuitiven Konzepten verstanden werden, die den Worten zu Grunde liegen, mit denen wir alltäglich umgehen und uns verständigen. […] Eigentlich können wir über Atome und noch kleinere Einheiten der Physik überhaupt nicht mehr reden. […] Auf jeden Fall bleiben uns die Formeln […]“ (Fischer 2002, S. 12).
Festgelegt sind also die Möglichkeiten, nicht deren Realisierung als Fakten (vgl. Görnitz, Görnitz 2002, S. 12) beispielsweise durch eine Beobachtung beziehungsweise Messung. Materie geht so verstanden in einer mathematischen Struktur mit unterschiedlichen Realisierungsmöglichkeiten auf (vgl. Cramer 1993, S. 238), was wiederum einer reduktionistischen Rückführung der Physik auf Mathematik entspräche. Durch die Wahrscheinlichkeiten ist der Berechenbarkeit und Prognostizierbarkeit eine prinzipielle Grenze gesetzt, sodass man folgerichtig den Einzug des Zufalls in die Physik proklamieren kann (vgl. dazu: Eigen, Winkler 1978, S. 36ff.). Der Physiker Pascual Jordan spricht von „Freiheit als Naturerscheinung“ und von „echte[r] Spontaneität“ (Jordan 1971, S. 97, 103). All dies gilt im Grunde für jeden physikalischen Körper, fällt aber bei größeren Körpern für den Menschen nicht ins Gewicht. Winzige Abweichungen vom erwarteten oder berechneten Verhalten eines Körpers trüben die Zuverlässigkeit der Formeln aus der klassischen Mechanik nicht sonderlich, winzige Unbestimmtheiten können Messvorgänge nicht beeinträchtigen, sodass sich sagen lässt, dass die klassische Mechanik hier nach wie vor gute Dienste tut.
Begibt man sich hingegen in die Welt der Elementarteilchen, so fallen weitere Uneindeutigkeiten auf: Materie ist wie auch Licht weder ausschließlich als Teilchen noch als Welle beschreibbar, sondern vereint Eigenschaften beider Modelle in sich und verhält sich je nach „Befragung“ im Experiment als Teilchen oder Welle (vgl. Heisenberg 2007a; Feynman 2005, S. 85f.; Davies, Gribbin 1995, S. 187ff.; Walther 2001; Stuewer 2001; Fischer 2003a, S. 162ff.). Schließlich vermag die Physik der Elementarteilchen – auch unter Zuhilfenahme der Speziellen Relativitätstheorie Albert Einsteins (Einstein 1969, S. 38ff.; vgl. Feynman 2006, S. 105ff.) – zu erklären, wie beim Vorhandensein entsprechender Energie und bei einem hinreichend großen elektrischen Feld Teilchen völlig neu entstehen (vgl. Fischer 2003a, S. 191f.) beziehungsweise verschwinden können (vgl. Caldwell, Kamionkowski 2002, S. 16; Feynman 2006, S. 130ff.; Fritzsch 1994, S. 40f.).
[66]Die Zustände zweier Elementarpartikel, die aus der Spaltung eines Teilchens hervorgehen, bleiben bemerkenswerter Weise auch dann voneinander abhängig, wenn sich die beiden Partikel in großen Entfernungen voneinander befinden, was als „entanglement“, im Deutschen nach dem Physiker Erwin Schrödinger als „Verschränkung“ bezeichnet wird (Schrödinger 2007b, S. 827; 2007c; vgl. Zeilinger 2001). Zwar üben die Partikel keine direkten Einflüsse aufeinander aus, dennoch korrelieren ihre Zustände in der Weise, dass die Realisierung eines Zustandes des einen Teilchens auch die Realisierungsmöglichkeiten des anderen bestimmt. Der Quantenwelt eignet somit eine gewisse Ganzheitlichkeit; anstatt von Einzelpartikeln müsste man korrekter von Quantensystemen sprechen, wie es die Physiker Albert Einstein, Boris Podolsky, Nathan Rosen und Niels Bohr in ihrer Auseinandersetzung über diesen Sachverhalt auch tun (Einstein, Podolsky, Rosen 2007; Bohr 2007; vgl. Fischer 2003a, S. 187ff.; Penrose 1991, S. 272ff.; vgl. zum Beispiel auch: Görnitz, Görnitz 2002, S. 82ff.). Schrödinger stellt fest: „Maximale Kenntnis von einem Gesamtsystem schließt nicht notwendig maximale Kenntnis aller seiner Teile ein, auch dann nicht, wenn dieselben völlig voneinander abgetrennt sind und einander zur Zeit gar nicht beeinflussen.“ (Schrödinger 2007b, S. 826).
Nach dem zweiten Weltkrieg griff wissenschaftsübergreifend der Systemgedanke auch im Makrobereich Platz (vgl. Simon 2006, S. 12). Norbert Wiener brachte 1948 den Begriff der „Kybernetik“ in die Diskussion, der vom griechischen Wort für „Steuermann“ herkommend mit der Steuerung des Verhaltens von Gegenständen zu tun hat (Wiener 1992). Im Unterschied zur Anwendung der klassischen Mechanik geht es hier jedoch nicht um eine direkte Steuerung von Prozessen durch den Menschen, sondern um wechselseitige Einflüsse von mehreren Einheiten – oder um Wirkungen von Ereignissen, die über ihre Folgewirkungen wieder auf die ursprünglichen Wirkungsursachen zurückwirken, also um zirkuläre Kausalitäten, bei denen letztlich die Unterscheidung in Ursachen und Wirkungen hinfällig wird. Die miteinander zusammenhängenden Einheiten werden mit dem griechischen Wort für „zusammengesetzt“ als „System“ bezeichnet. Theoretische Konzepte, die sich mit Systemen und ihren Eigenschaften befassen, firmieren außer unter dem Begriff der „Kybernetik“ auch unter den Bezeichnungen „Systemtheorie“, „Chaostheorie“ oder „Komplexitätstheorie“ (vgl. Simon 2006, S. 13ff.).
Nach Fritz B. Simon (Simon 2006, S. 17ff.) lassen sich Systemtheorien dreier verschiedener Typen unterscheiden, die sich mit drei verschiedenen Arten von Systemen befassen: Systemtheorien der ersten Stufe betrachten Systeme, welche aus vorgegebenen unbelebten Einheiten zusammengesetzt sind Die Kybernetik technischer Rückkopplungssysteme ist ein Beispiel für diese Stufe. Bei einem Thermostaten etwa regelt eine sensorgesteuerte Heizung die Raumtemperatur, die Raumtemperatur aber wird vom Sensor erfasst und steuert so ihrerseits die Aktivität der Heizung. Über die Interaktion solcher Rückkopplungssysteme kann ein Gleichgewichtszustand, etwa eine einigermaßen konstante Raumtemperatur, kontrolliert hergestellt werden.
Theorien der zweiten Stufe beschäftigen sich mit komplexen Systemen aus vorgegebenen belebten oder unbelebten Elementen, wobei hier Ungleichgewichtsmodelle konzipiert werden. Theorien dieser Stufe machen wiederum deutlich, dass die klassische [67]Mechanik praktisch nur für einen eng umgrenzten oder idealisierten Weltausschnitt nützlich ist. Es genügen einfache Beispiele aus dem Alltag, um zu zeigen, wo Systemzusammenhänge die Nützlichkeit der klassischen Mechanik untergraben: So sind etwa genauere Prognosen zukünftiger Wetterlagen zum Scheitern verurteilt. Auch die Flugbahn eines Blattes beim Fall vom Baum im Herbst lässt sich ebenso wenig vorhersagen wie die Position, in der das Blatt am Boden zu liegen kommen wird. Dies ändert sich auch dann nicht, wenn eine Maschine das Blatt in einem Raum ohne Luftzug computergesteuert auswirft. In beiden Beispielen addieren sich winzigste Abweichungen vom erwarteten Zustand im Verlauf der Entwicklung zu immer größeren Abweichungen auf. Auch müssten die Anfangsbedingungen hinreichend genau – letztlich unendlich genau – bekannt sein, was aus praktischen und auch quantenmechanischen Gründen unmöglich ist (vgl. Penrose 1991, S. 168; Kauffman 1998, S. 33). Phänomene dieser Art sind bei näherem Hinsehen weit verbreitet und werden von der so genannten „Chaostheorie“ durchleuchtet, die einen wichtigen Anstoß durch Edward N. Lorenz bekam. Dieser sprach allerdings anstatt von „Chaos“ noch von „Nichtperiodizität“ und lieferte die mathematischen Grundlagen mit Funktionen, welche selbst wieder in der Funktionsbeschreibung vorkommen, also „selbstbezüglich“ sind (Lorenz 2007). Alle Prozesse in chaotischen Systemen werden vollkommen von Naturgesetzen des Makrobereiches beziehungsweise der zugrunde liegenden Mathematik bestimmt – man spricht auch vom „deterministischen Chaos“ (vgl. Kratky 1990, S. 10f.) – und wären von daher prinzipiell berechenbar. Die Unberechenbarkeit resultiert jedoch aus der unüberschaubaren Menge und Schnelligkeit von Rückkopplungsprozessen, die bewirken, dass anfänglich minimale Differenzen im Endeffekt zu maximalen Differenzen werden.
Sind solche Systeme von der Umwelt isoliert sich selbst überlassen, so können sich – manchmal von einem gewissen Punkt an – Muster und Ordnungen herausbilden (vgl. Simon 2006, S. 29). Solche Muster, in die chaotische Systeme einmünden können, werden auch als „Attraktoren“ bezeichnet. Generell hat sich für die Herausbildung von Strukturen aus gegebenen Anfangsbedingungen heraus der Terminus „Selbstorganisation“ etabliert. Er beschreibt die Entstehung von Strukturen „allein durch das Wechselspiel der wirksamen Kräfte. Die Interaktion der Teile führt dazu, dass das durch sie gebildete Ganze Eigenschaften aufweist, die nichts mehr mit den Eigenschaften der Teile zu tun haben“ (S. 23). Wie das Zusammenspiel von unterschiedlichen Kräften Ordnungen hervorzubringen vermag, ist inzwischen an vielen Phänomenen erforscht worden. Die Entstehung der Sterne und Sonnensysteme etwa lässt sich als Prozess der Selbstorganisation interpretieren, der aus den Anfangsbedingungen eines Urknalls heraus vor 14 bis 15 Milliarden Jahren zur Bildung der Materie führte. Ausgehend von Dichtefluktuationen im Raum organisierte diese sich sodann in Prozessen gravitationsbedingter, wirbelartiger Verdichtung zu Sternen, in deren Zentrum die chemischen Elemente entstanden (vgl. Sedlmayr 2001; Hasinger 2001; Henning 2001; Herten 2001; Rolfs 2001; Stachel 2001; Jantsch 1982; Benz 2001, S. 22ff.; Ebeling 1989, S. 5ff.). Als eine Frucht dieser Selbstorganisation kann die Entstehung der Erde vor vier bis fünf Milliarden Jahren gelten. Im Kleinen können sich zum Beispiel charakteristische Muster bilden, wenn [68]eine Substanz in eine andere diffundiert (vgl. Ben-Jacob, Shochet, Kupferman 1994; Wieser 1998, S. 9ff.; vgl. auch: Rice, Gray 1965).
Die Herausbildung von Strukturen in abgeschlossenen Systemen scheint auf den ersten Blick dem so genannten zweiten Hauptsatz der Thermodynamik zu widersprechen, der besagt, dass in abgeschlossenen Systemen eine unumkehrbare Tendenz zur Unordnung, das heißt zur Auflösung von Strukturen der Materie und zum Verbrauch von Energie, etwa zu deren Umsetzung in Wärme, besteht. Hierfür steht der Begriff der „Entropie“, der aus dem Griechischen kommend etwa mit „Energieumwandlung“ übersetzt werden könnte. Zur Aufrechterhaltung oder zum Aufbau von Strukturen benötigt das System Energie, mit zunehmendem Verbrauch von Energie nähert sich das System wieder dem undifferenzierten „Gleichgewichtszustand“, der auch als wahrscheinlichster Zustand bezeichnet werden kann. Demgegenüber müssen Strukturen stets als Sonderfall gelten.
Dass die Selbstorganisation dennoch mit den Gesetzen der Physik vereinbar ist, demonstriert der Physiker Hans Graßmann an folgendem Beispiel: In einem heißen Stück Eisen herrscht eine größere Entropie als in einem kalten; gegenüber dem singulären Fall eines Stückes Eisen ohne Wärmeenergie lassen sich nämlich im heißen Stück vielerlei Verteilungen der vielen Energiequanten denken. Wenn es aber viele denkbare Fälle gibt, bei denen jeweils immer ein heißes Eisenstück resultiert, dagegen jedoch nur einen Fall eines absolut kalten Stückes, so wird der Fall eines heißen Stückes häufiger eintreten, womit er als wahrscheinlicher und also auch ungeordneter angesehen werden kann. Hierbei ist ein Stück Eisen ohne jede Wärmeenergie natürlich lediglich eine Idealisierung; auch ein Stück Eisen mit nur wenigen Energiequanten besitzt aber aus den dargelegten Gründen eine geringere Entropie als ein heißes. Bringt man nun ein heißes und ein kaltes Eisenstück miteinander in Berührung, so wird das heiße Stück mit der Zeit einen Teil der Wärme an das kalte abgeben, sodass zwei warme Stücke resultieren. Ein thermodynamisches Gleichgewicht ist erreicht. Dies tritt theoretisch umso sicherer ein, je länger man wartet, da es die wahrscheinlichste Entwicklung ist, während das Verbleiben aller Wärme in dem heißen Stück ein unwahrscheinlicher Sonderfall wäre. Während sich nun aber im Gesamtsystem die Unordnung erhöht, indem sich die Struktur der Differenz eines heiß-kalten Gegensatzpaares auflöst, wird die Entropie im heißen Stück gleichzeitig vermindert, da der Wärmeumsatz hier zurückgeht und sich das Stück dem Sonderfall eines kalten Stückes graduell annähert. Graßmann folgert: „Damit sich die Entropie eines geschlossenen Systems erhöhen kann, muss sich die Entropie eines offenen Teilsystems erniedrigen“ (Graßmann 2002, S. 83ff., 93).
Sobald also eine Offenheit von Teilsystemen besteht, sobald ein Energieaustausch möglich ist, lässt sich Selbstorganisation also im Einklang mit der Thermodynamik erklären. Systeme, die Energie von außerhalb ihrer selbst beziehen und dort zum Aufbau von Ordnung nutzen, werden nach dem lateinischen Wort für „vernichten“ als „dissipative Systeme“ bezeichnet, da sie freie Energie gewissermaßen vernichten, nämlich unumkehrbar in Strukturen umsetzen (vgl. Simon 2006, S. 22). Solche dissipativen Systeme lassen sich nun auch auf dem Gebiet der Chemie beobachten. Bekannt geworden ist beispielsweise die so genannte „Belousov-Zhabotinsky-Reaktion“, bei der es sich um eine chemische Reaktion eines organischen Substrates in einer schwefelsauren [69]Lösung handelt. Hierbei lassen sich blaue konzentrische Kreise oder rotierende Spiralen beobachten (Belousov 1987a–b; Zhabotinsky 1987; Zaikin, Zhabotinsky 1987; vgl. Müller 1994a–b; Prigogine 1992, S. 41; Wieser 1998, S. 12f.). Inzwischen sind vielerlei Muster bildende chemische Prozesse bekannt (vgl. Dress, Huson, Müller 1994; Müller 1994a–b; Ouyang, Swinney 1994).
Von besonderer Bedeutung sind chemische Netzwerke, welche Reaktionen katalysieren, die zu ihrer eigenen Herstellung oder Aufrechterhaltung notwendig sind, und so eine zyklische Entwicklung in Gang setzen. So genannte „autokatalytische“ Molekülverbände werden als aussichtsreiche Kandidaten für eine Vorstufe des ersten Lebens auf der Erde angesehen (vgl. Kauffman 1998, S. 77ff.; Prigogine 1992). Manfred Eigen hat in diesem Zusammenhang das Modell des „Hyperzyklus“ eingeführt. „Ein Hyperzyklus stellt eine zyklische Verknüpfung von sich selbst reproduzierenden Einzelzyklen dar“ (Eigen, Schuster 1979; vgl. Eigen, Winkler 1978, S. 260). Für die „Frühstadien der Lebensentwicklung“ gehen Eigen und Ruth Winkler davon aus, dass Proteine und Nukleinsäuren zusammen Hyperzyklen bildeten. Damit wurde das Problem gelöst, dass Proteine zwar ausgezeichnete katalytische Eigenschaften besitzen und sich darüber hinaus mittels halbdurchlässiger Membranschichten an der Außenseite von der Umwelt abgrenzen konnten, ihnen aber die Fähigkeit der Selbstduplikation fehlt. Nukleinsäuren wiederum vermögen dies zwar, sind aber ohne katalysierende Zwischenstufen nicht zu einer evolutiven Entwicklung fähig, da sie sich selbst stetig weiter produzieren und so auch keine mutationsbedingten „Fehler“ korrigiert werden können. Im Hyperzyklus werden nun beide Elemente zum Vorteil miteinander verknüpft: Eine Nukleinsäure stellt zunächst selbst einen reproduktiven Zyklus dar, ist also in der Lage, sich selbst zu duplizieren. Daneben erzeugt sie ein Protein, das katalytisch die Entstehung eines weiteren selbstreproduktiven Nukleinsäurezyklus begünstigt. Auch dieser hat – neben seiner Selbstreproduktivität – wieder ein Protein zum Ergebnis, welches seinerseits einen weiteren Nukleinsäurezyklus katalysiert. Nach einer Reihe von Nukleinsäurezyklen und Proteinen muss schließlich das Ausgangsprodukt wieder erreicht sein. Hier schließt sich der Kreis der Rückkopplungen, sodass man von einem Hyperzyklus sprechen kann (vgl. S. 259ff.; Sengbusch 2007b; Cramer 1993, S. 127ff.).
Der Begriff der Selbstorganisation wird einerseits als Ausdruck einer wissenschaftlichen Revolution im Sinne Thomas Kuhns (vgl. Kuhn 1967, S. 128ff.; 1977a, S. 309ff.; → S. 59) verstanden (Prigogine 1979, S. 12f.; Krohn, Küppers, Paslack 1987; vgl. Kratky 1990; Krohn, Küppers 1990, S. 1; Klüver 1990, S. 201; Paslack 1990, S. 279). Erich Jantsch sieht ein im Entstehen begriffenes Paradigma (Jantsch 1987, S. 159ff.) und eine „Selbsterneuerung der Wissenschaft“ (Jantsch 1982, S. 27ff.), Wolfgang Krohn und Günter Küppers sprechen von einem „Gestaltwechsel“ gegenüber klassischen Vorstellungen (Krohn, Küppers 1990, S. 10). Johann Götschl arbeitet die Implikationen der Theorie der Selbstorganisation für Natur- und Selbstverständnis heraus und konstatiert, dass die Naturwissenschaften und die Geisteswissenschaften nicht mehr als kategorial verschieden oder unvereinbar gelten können, da Natur und Mensch „kohärente Konstrukte“ seien (Götschl 1990, S. 188). Der Begriff der Materie werde insofern „pluralisiert“, als [70]er auf den Menschen als „physikalisch-chemisch-biologisches System“ ebenso zu beziehen sei wie auf den Menschen als „sozio-kulturell-psychisches System“ (S. 190).
Andererseits wird jedoch bestritten, dass der Begriff der Selbstorganisation überhaupt ein hilfreiches Erklärungskonzept darstellt. Friedrich Cramer hält ihn für „überstrapaziert“ (Cramer 1993, S. 224), Gerhard Roth für mystisch und unglücklich, „denn niemand wird in einem Enzymmolekül irgend ein ‚Selbst‘ finden, das sich organisiert“. Wenn vom Elementarteilchen bis zum Universum alles „selbstorganisiert“ sei, so sei der Begriff überflüssig; sinnvoll zu verwenden sei er dementsprechend, wenn die spontane Entstehung hochkomplexer und stabiler Ordnungen sich von einer vergleichsweise weniger komplexen und weniger stabilen Umgebung absetzt (Roth 1990, S. 169; vgl. Friedrich 2005, S. 187). Rainer Paslack bringt den Siegeszug des Begriffes in Zusammenhang mit den zu gleicher Zeit entstandenen sozialen Bewegungen, deren Forderungen nach mehr Demokratie und ökologischer Orientierung sowie nach Abbau von Staatsgewalt und Autorität mit einer Theorie einer von innen her selbst verursachten Organisation korrespondierten (Paslack 1990, S. 291f.). Wolfgang Wieser schließlich hält den Anspruch der Neuartigkeit für nicht gerechtfertigt und verweist auf die Naturphilosophie Wilhelm Ostwalds aus dem Jahr 1902 (Wieser 1998, S. 14, 4f.). Darin spricht Ostwald bereits von stationären Zuständen, die auf Selbstregulierung beruhten (Ostwald 1902, S. 271ff.).
2.2.2.3 | Prinzipien aus Biologie und Neurowissenschaften |
Auch in der Biologie sind vielerlei Muster bekannt, die als Ergebnisse von Prozessen der Selbstorganisation untersucht worden sind, so etwa die Honig- und Pollenmuster in Bienenkörben (Camazine 1994), der Goldene Schnitt in der Blattstellung höherer Pflanzen (Richter, Dullin 1994), die spiralförmige Ausbreitung von Signalstoffen bei Schleimpilzen (Siegert, Steinbock 1994), die Sporenmuster beim Schimmelpilz (Deutsch 1994b), bestimmte Bakterienformationen (Ben-Jacob, Shochet, Tenenbaum 1994), die Gestaltbildung der Riesenalge (Goodwin, Brière 1994) sowie das Wachstum und die Wanderung bestimmter Zellen (Pelcé, Denet, Sun 1994; Grahn, Sundén, Olsson, Deutsch, Löfberg 1994). Dabei besitzen nach Andreas Deutsch „ähnliche Prinzipien, die der Strukturbildung unbelebter Systeme zugrunde liegen – physikalischer und chemischer Prozesse eben –, auch in der Welt des Lebendigen ihre Gültigkeit“ (Deutsch 1994a, S. 1). Konsequenterweise könnten dann auch Formen des Lebens als Resultat von Selbstorganisation angesehen werden.
Theorien, welche sich mit Organismen, mit psychischen oder mit sozialen Systemen beschäftigen, die jeweils die Elemente, aus denen sie zusammengesetzt sind und von denen sie produziert werden, wiederum selbst produzieren, bilden in der Systematik Fritz Simons den dritten Typ von Systemtheorien (Simon 2006, S. 17; → S. 66ff.). Während Systeme, mit denen Theorien des zweiten Typs befasst sind, vorgegebene Elemente zu einer Struktur ordnen, liegt der Schwerpunkt bei Organismen auf der Erhaltung ihrer selbst. Dafür produzieren Organismen ihre Bauteile, etwa Zellen, selbst. Die einzelnen Zellen sterben ab und werden vom Organismus nachgebildet. Auch Strukturen können sich je nachdem verändern, man denke etwa an die durchgreifenden Gestaltwandlungsprozesse [71](Zeller 1952), die der menschliche Körper von der befruchteten Eizelle über das Embryonal- und Fötalstadium, das Baby, das Kleinkind, das Schulkind, die Pubertät und Jugend bis hin zum Erwachsenenalter und Alter durchläuft (vgl. etwa Wendt 1997, S. 70ff., 313, 342ff., 400ff.). „[W]as konstant bleibt, ist das (abstrakte) Muster der Prozesse, die dafür sorgen, dass die Elemente reproduziert und in eine bestimmte Relation zueinander gebracht werden, d. h. ihre Organisation“ (Simon 2006, S. 32).
Den theoretischen Rahmen für die Beschreibung lebendiger Systeme lieferten die chilenischen Biologen Humberto Maturana und Francisco Varela mit dem Konzept der „Autopoiese“. Der Begriff entspricht im Griechischen dem Wort „Selbsterzeugung“ und beinhaltet zunächst einmal die Herstellung der eigenen Bestandteile. Lebewesen verwirklichen dies im Stoffwechsel. Dazu muss die Konstitution eines Randes, einer Grenze zur Außenwelt kommen, ohne die der Organismus keine zusammenhängende Einheit bilden könnte Für die Zelle ist dies die Zellmembran, für den Körper die Haut einschließlich der Schleimhaut in den Körperöffnungen. Dieser Rand aber ist zugleich Bedingung und Resultat des Stoffwechsels, wie umgekehrt der Stoffwechsel zugleich den Rand ermöglicht und durch ihn ermöglicht wird (vgl. Maturana 1985, S. 280; Maturana, Varela 1987, S. 50ff.). Nach Maturana und Varela ist es also „[d]ie eigentümliche Charakteristik eines autopoietischen Systems […], daß es sich sozusagen an seinen eigenen Schnürsenkeln emporzieht und sich mittels seiner eigenen Dynamik als unterschiedlich vom umliegenden Milieu konstituiert“ (S. 54).
Autopoietische Systeme lassen sich als „operational geschlossen“ bezeichnen: Alle systeminternen Operationen – im Körper also biochemische Prozesse – schließen an ebensolche Operationen an; es ergibt sich für die gesamte Lebenszeit gewissermaßen ein unaufhörlicher Fluss von Prozessen der Systemerzeugung, wobei jeweils einer aus dem anderen hervorgeht (vgl. Simon 2006, S. 34, 48). Nichtsdestoweniger können Materie und Energie durch die Membran in das System hineingelangen. Organismen sind zwar operational geschlossene, aber dennoch energetisch offene Systeme: Sie stehen in Austausch mit ihrer Umwelt, aus der sie Energie, etwa in Form von Sonnenlicht oder Nahrung, gewinnen. Außerdem sind „Zustandsveränderungen“ des Systems auch durch äußere Einflüsse möglich. Alle Interaktionen des Systems mit seiner Umwelt, die solche Veränderungen auslösen, bezeichnen Maturana und Varela als „Perturbationen“, was aus dem Lateinischen mit „Störungen“, „Umwälzungen“ oder „Erregungen“ übersetzt werden kann. Umwelteinflüsse können das System nicht nur stören, sondern schlimmstenfalls auch zer-stören, sodass der Fluss der Selbsterzeugung mit dem Tod des Organismus endet (vgl. Maturana, Varela 1987, S. 108).
Der Begriff der Störung drückt hier aus, dass etwas von außen in das System „eingreift“. Keinesfalls muss dies jedoch mit negativen Folgen für das System verbunden sein. So sind etwa die Sinneswahrnehmungen eines Tieres durchaus als Perturbationen aufzufassen. Was da von außen in das System hineinkommt, bewirkt eine kleinere oder größere Neuorganisation innerhalb des Organismus, ändert aber nichts an der Art und Weise von dessen Binnenorganisation. Eine entscheidende Tatsache ist darin zu sehen, dass der Organismus diese Neuorganisation voll und ganz selbst bewerkstelligt. Die entsprechenden Prozesse werden durch die Perturbation nicht determiniert oder instruiert, [72]sondern nur ausgelöst (S. 85) beziehungsweise angeregt (vgl. Simon 2006, S. 49, 51ff.), wie es die Übersetzung des Wortes „Perturbation“ mit „Erregung“ nahe legt.
Maturana und Varela beschreiben Interaktionen eines Systems mit seinem Milieu, bei denen die Struktur des Milieus „Strukturveränderungen“ im System auslöst, bei denen umgekehrt aber auch die Struktur des Milieus sich durch den Einfluss des Systems verändert, mit dem Terminus „strukturelle Koppelung“. Die strukturelle Koppelung mit ihrem Milieu stellt für jede Zelle eine Existenzbedingung dar, denn schon die Nährstoffzufuhr kann als strukturverändernde – etwa wachstumsfördernde – Interaktion mit dem Milieu betrachtet werden (Maturana, Varela 1987, S. 85f.). Treten nun Zellansammlungen auf, bei denen die autopoietischen Zellen strukturell miteinander gekoppelt sind, also gegenseitig das Milieu füreinander darstellen, so bilden sie ein „autopoietisches System zweiter Ordnung“: einen „Metazeller“, zum Beispiel einen Organismus oder eine Zellkolonie. Maturana und Varela erwägen hier die Möglichkeit, Organismen gleichzeitig auch als Einheiten erster Ordnung anzusehen (S. 98ff.). Wenn nun Organismen miteinander in eine strukturelle Koppelung eintreten, entstehen in der Terminologie von Maturana und Varela Einheiten „dritter Ordnung“ oder „soziale Systeme“ (vgl. S. 196ff., 209), etwa ein Insektenvolk, eine Herde von Huftieren, eine Klein- oder Großgruppe von Menschen.
Auch der Begriff der Autopoiese birgt die Gefahr einer Scheinerklärung von Phänomenen (vgl. Roth 1990, S. 170). Maturana und Varela verstehen ihren Vorschlag zur Charakterisierung des Lebens mit dem Begriff „autopoietisch“ als Alternative zu dem für sie erfolglosen Unternehmen, nach Eigenschaften des Lebens zu suchen, deren Aufzählung es ausreichend charakterisieren könnte. Sie betrachten ihren Ansatz als „radikal verschieden“, da er nicht auf inhaltlich konkrete Merkmale – wie etwa Wachstum, Fortpflanzung oder Ernährung – abhebt, sondern auf die Organisationsform von Leben (Maturana, Varela 1987, S. 49, 56). Sie gestehen dabei durchaus ein, dass die Kenntnisse der Wissenschaft über die molekularen Prozesse, die die Autopoiese eines Organismus tragen, noch vergleichsweise ungenau seien (S. 99). Allerdings ist auch an dieser Stelle auf die Naturphilosophie Ostwalds hinzuweisen, die bereits 1902 den Gedanken einer Bestimmung des Lebens durch Autopoiese vorwegnimmt, wenn es heißt: „In dieser Fähigkeit der Selbsterhaltung werden wir die wesentlichste Eigenschaft der Lebewesen zu erkennen haben.“ (Ostwald 1902, S. 314).
Ein weiteres Zentralkonzept der Biologie ist seit Charles Darwin (Darwin 1952a) die Theorie der „Evolution“. Der Begriff selbst wäre aus dem Lateinischen etwa mit „Herauswicklung“ zu übersetzen und beschreibt tatsächlich einen Prozess der Entwicklung. Darwin hat ihn auf die Entwicklung der biologischen Arten bezogen. Zwar mutmaßt Lee Smolin, es könne eine Evolution des Universums gegeben haben, in deren Verlauf mehrere Universen mit unterschiedlichen Naturkonstanten aus so genannten Schwarzen Löchern entstanden sein könnten (Smolin 2007; vgl. Barrow 2001, S. 197), im Allgemeinen jedoch ist der Begriff für die Biologie reserviert, da der Evolutionsprozess auf Veränderungen im Erbgut, so genannten „Mutationen“, aufbaut (vgl. Barrow, S. 259; Osche 1973).
[73]Mutationen weisen keine bestimmten Tendenzen auf, sondern unterliegen dem Zufall. So vermutet Benz, dass kosmische Elementarteilchen, wie sie zahlreich auf die Erde einströmen, auf Gene in der Keimzelle eines Lebewesens auftreffen und Mutationen auslösen könnten (Benz 2001, S. 81). Auch Röntgenstrahlen können direkte Auswirkungen auf Chromosomen haben. Während spontane Mutationen eher selten auftreten, können bestimmte chemische Substanzen die Häufigkeit dafür erhöhen. Allgemein können Fehler beim Kopieren der Desoxyribonukleinsäure (DNA), die die Erbinformation trägt, zu Mutationen führen (vgl. Nüsslein-Volhard 2004, S. 56, 48).
Schon bei Bakterien ist der Austausch von Genen über Proteine, Viren oder eigens ausgebildete Verbindungsbrücken anzutreffen (vgl. Margulis, Sagan 1999, S. 73ff.). Im Rahmen der sexuellen Fortpflanzung kommt es zur Neukombination genetischen Materials; für jedes Gen fällt die Entscheidung zu Gunsten der mütterlichen oder der väterlichen Gen-Ausprägung, sodass insgesamt eine individuelle Gen-Ausstattung resultiert (vgl. Kauffman 1998, S. 246ff.). Wenn man unkalkulierbare mikroskopische Vorgänge gemäß der Quantenphysik auch für diejenigen Moleküle und Atome veranschlagt, die die menschliche Erbinformation tragen, wirkt der quantentheoretische Zufall im Rahmen der geschlechtlichen Fortpflanzung auch innerhalb des Evolutionsprozesses (vgl. Monod 1971, S. 149ff.; Gierer 1998, S. 79; Benz 2001, S. 81f.; Kauffman 1998, S. 33). Tatsächlich spielt der Zufall eine wesentliche Rolle innerhalb der Evolutionstheorie (vgl. Duve 1995, S. 141ff.; Fischer 2003a, S. 312). Neben der quantentheoretischen Variante kann man den Zufall hier auch im Sinne eines Zusammentreffens verschiedenster Ereignisse betrachten. Wenn etwa das Driften eines Erdteils zu klimatischen Veränderungen und dadurch zu Konsequenzen für das Verhalten einer Tierart führt, dann treffen an diesem Punkt eine geografische und eine biologische Entwicklungslinie gewissermaßen „zufällig“ zusammen.
Verschiedene Gen-Ausstattungen, so genannte „Genotypen“, stellen nun „Variationen“ innerhalb einer biologischen Art dar. Träger unterschiedlicher Variationen vermehren sich unter Umständen unterschiedlich zahlreich. Vermehrung aber ist die Voraussetzung für die weitere Verbreitung einer bestimmten Gen-Ausprägung. Stellt man in Rechnung, dass Lebewesen auch sterben können, ohne sich vermehrt zu haben – beispielsweise durch Feinde oder Krankheiten –, so wird klar: Nur Gen-Ausprägungen, deren Träger sich ausreichend häufig vermehren, werden im Verlauf der Naturgeschichte bestehen bleiben können. „Differentielle Reproduktion“, also unterschiedlich zahlreiche Vermehrung, wird in der Evolutionstheorie unter dem Begriff der „Selektion“ gefasst (Fischer 2003b), der allerdings suggeriert, dass ein Subjekt zwischen Varianten auswähle. Was also bei ausreichender Vermehrung bestehen bleibt und gewissermaßen selektiert wird, ist nicht das einzelne Individuum, zunächst auch nicht eine bestimmte biologische Art, sondern es sind Gene, wie Richard Dawkins in seinem bekannten Buch Das egoistische Gen herausstellt (R. Dawkins 1994; vgl. auch Dawkins 1992).
Organismen, die zunächst so lange überleben, bis sie sich fortpflanzen, und die dann auch zahlreiche Nachkommen haben, können als ausreichend an ihre Umgebung angepasst angesehen werden. Im Vergleich zu Individuen, die dies nicht oder in geringerem Maße vermögen, ist ihnen eine höhere „Fitness“ zu attestieren. Fitness ist damit ein [74]Maß für die Wachstumsrate einer Gruppe von Lebewesen, so genannter „Populationen“, und kann bei Berechnungen der Populationsentwicklung als Logarithmus der Wachstumsrate konzipiert werden. Es leuchtet nun ein, dass die Selektion Fitness begünstigt, dass weniger gut angepasste Arten geringeren Fortpflanzungserfolg erzielen und möglicherweise aussterben. Hierin liegt der evolutionäre „Wettbewerb“ (vgl. Wiegert 1974). Bestimmte Genotypen werden jedoch weitervererbt, ohne unbedingt eine höhere Fitness als andere zu besitzen. Das zeigt sich schon an der Fülle gleichzeitig bestehender Arten, die auch innerhalb einer bestimmten Umwelt angetroffen werden können. Manche Genotypen verdanken ihre Entstehung insofern dem Zufall, als dass sie etwa der Isolation von Konkurrenten durch natürliche Barrieren oder im Gegenteil der Einwanderung anderer Arten in die Population zu verdanken sind (vgl. Sengbusch 2007a). Schließlich ist Fitness immer in Bezug zu einer bestimmten Umgebung zu setzen. Arten, die sich auf spezielle Umgebungen spezialisieren, können in ihrer Nische unter Umständen relativ konkurrenzlos überleben und sich vermehren. Der Biologe Wilhelm Ludwig prägte hierfür den Begriff der „Annidation“, der „Einnischung“ (Ludwig 1950). Fischer weist schließlich auf das Phänomen der Doppelfunktionen hin: Körperliche Errungenschaften, die zunächst eine bestimmte Funktion erfüllten, können im Laufe der Evolution andere Funktionen übernehmen und sich damit als hilfreich für das Überleben einer Art erweisen. So sind lichtempfindliche Körperstellen zunächst vorteilhaft zur Energieproduktion von Einzellern gewesen, konnten jedoch später der Orientierung dienen und sich zum Auge weiterentwickeln (Fischer 2003b, S. 27ff.).
Wie genetische Ausstattungen zufällig in verschiedenste Richtungen „driften“ können, verdeutlichen Maturana und Varela am Bild von Wassertropfen, die man einen Berg hinunterfließen lässt. Das Bild ist ohne weiteres auf kleine, rollende Kügelchen übertragbar: Sie werden, auch wenn sie immer genau am Gipfel angestoßen würden, doch stets an unterschiedlichen Stellen am Fuße des Berges zu liegen kommen. Unzählige Verzweigungsmöglichkeiten, so genannte „Bifurkationen“, ergeben sich auf ihrem Weg an Hindernissen wie kleinen Steinchen oder Unebenheiten. So gelangen sie an unterschiedliche Stellen, so wie die Entwicklung vom Einzeller ausgehend zu unterschiedlichsten Lebensformen geführt hat (Maturana, Varela 1987, S. 119ff.; vgl. Cramer 1993, S. 158f., 217f.; zur Artenbildung auch: Meyer 2003).
Die Entstehung des Lebens wird auf die Zeit vor knapp vier Milliarden Jahren datiert und ist nach wie vor nicht vollkommen rekonstruierbar. Als Modell ist der Eigensche Hyperzyklus (→ S. 69) denkbar. Möglicherweise ist in Ribonukleinsäuren (RNA), die zunächst ohne Proteine existierten, eine Vorstufe zu sehen (vgl. Fusz, Eisenführ, Srivatsan et al. 2005). Der Chemiker Walter Gilbert spricht in diesem Zusammenhang von einer RNA-Welt (Gilbert 1986). Der Zellforscher Christian de Duve verkehrt gewissermaßen das Bild vom Wassertropfen, wenn er feststellt, dass zwei Bäche an einem Berghang zwar niemals den gleichen Verlauf nähmen, aber dennoch beide im selben Tal endeten. So geht Duve davon aus, „daß eine anfängliche RNA-Welt in vielen Fällen schließlich in eine RNA-Protein-Welt münden wird, die der unseren ähnelt“, und Leben eine „kosmische Zwangsläufigkeit“ darstelle (Duve 1995, Zitat: S. 142; vgl. auch: Ebeling 1989, S. 102ff.).
[75]Der rekonstruierte Verlauf der Evolution des Lebens lässt sich in vielen populärwissenschaftlichen und wissenschaftlichen Veröffentlichungen sowohl im Überblick als auch ausführlicher nachlesen und sei hier nur kurz skizziert (vgl. beispielsweise: Stein 1984; Roland, Verlagsredaktion von MSM 2006; Duve 1995; Wieser 1998; Reichholf 2003b; Margulis, Sagan 1999; Kauffman 1998, S. 297ff.): Als erste Lebewesen dürfen Bakterien ohne Zellkern, so genannte „Prokaryoten“, gelten. Photosynthese ist für die Zeit vor etwa dreieinhalb Milliarden Jahren belegt; als Abfallprodukt gelangte eine wachsende Menge von Sauerstoff in die Atmosphäre. Mikroorganismen, die zur Photosynthese fähig waren, hatten gegenüber anderen Organismen nicht nur den Vorteil des leichten Energiegewinns, sondern schadeten ihrer Konkurrenz auch mit dem Sauerstoff, der für die Mehrzahl der existierenden Lebensformen hochgiftig war. So konnten sie sich immer mehr ausbreiten. Um die Mitte der zweiten Jahrmilliarde vor heute entwickelten sich das Reich der so genannten „Protoctisten“ – einer Lebensform, der Amöben und Algen zugehören – sowie auch die Zellteilung, die sexuelle Fortpflanzung und der Tod des Individuums. Während das Leben von Bakterien nur „gewaltsam“ beendet werden kann, macht nun die „Elterngeneration“ der Einzeller für die neuen Gen-Ausstattungen ihrer Nachkommen Platz. Aus Einzellern, die sich gegenseitig einverleiben, entsteht die „eukaryotische“ Zelle, die auch dem menschlichen Körper zugrunde liegt und einen Kern sowie weitere Funktionseinheiten besitzt. Mit den Cyanobakterien tritt vor circa 1,4 Milliarden Jahren das erste Leben außerhalb des Wassers auf. Für Organismen, die über Photosynthese Energie bezogen, war der Landgang vorteilhaft, weil das Sonnenlicht dort ohne den Filter des Wassers auf die Zelle traf; zudem fand sich an Land eine vergleichsweise große Menge von Mineralstoffen. Das Reich der Tiere wird mit den ersten Mehrzellern für die Zeit vor etwa 600 Millionen Jahren angesetzt. Zwar gab es auch vorher schon Kolonien von Bakterien; jetzt aber kam es zur Arbeitsteilung verschiedener Zellen und zur Gliederung der Organismen in unterschiedliche Organe. Dabei verwirklichen die Einzelzellen nicht mehr das ganze Programm ihrer genetischen Möglichkeiten, sondern spezialisieren sich auf bestimmte Funktionen. Es entwickelten sich zunächst Würmer und Schwämme. Die so genannte „Kambrische Explosion“ vor ungefähr 550 Millionen Jahren brachte eine große Diversität von Mehrzellern und etwa gleichzeitig die neuen Reiche der Pflanzen und Pilze; nur wenig später entstanden wirbellose Tiere mit harter Schale, wie die von fossilen Funden her bekannten Trilobiten. Vor circa 400 Millionen Jahren folgten die ersten Fische, etwa hundert Millionen Jahre später die Amphibien. Der Landgang war schließlich auch für Tiere lohnend, da sich mittlerweile eine Fülle pflanzlichen Lebens dort etabliert hatte und Nahrung bot. Reptilien lassen sich auf die Zeit vor etwa 250 Millionen Jahre datieren. Zu ihnen zählten bald auch die Dinosaurier. Kaum später erschienen die Säugetiere auf der Bildfläche; die Vögel folgten vor etwa 150 Millionen Jahren.
Über die Entwicklung des Menschen liegen ebenfalls zahlreiche Publikationen vor, die sich teilweise auch an ein breites Publikum richten (vgl. etwa: Gamlin, 1997; Henke, Rothe 2003; Reichholf 1997, 2003a; Fletcher 2004b; Groves 2004b; Burenhult 2004a–b; Rowley-Conwy 2004b; Mania 2006a–d; Bosinski 2006a–e; Gore 2006a–e; Nakott 2006b; Morwood, Sutikna, Roberts 2006). Auch die Paläoanthropologie hat [76]das allgemeine Bild vom Menschen geprägt Schon Darwins Veröffentlichung der „Abstammung des Menschen“ (Darwin 1952b) barg Zündstoff für das Selbstverständnis des Menschen. Heute liegen eine Fülle von Fossilfunden und Theorien vor, die allerdings keine lückenlose Rekonstruktion der Evolution des Menschen erlauben. Hier soll nun in aller Kürze auf sechs Zeiträume ein besonderer Scheinwerfer gerichtet werden:
Der erste Fokus betrifft die Zeit vor ungefähr acht bis fünf Millionen Jahren. Hier setzt man den Beginn des so genannten Pliozän an, der letzten Epoche des Erdzeitalters Tertiär. Etwa zeitgleich mit dem Einsetzen einer antarktischen Eiszeit begannen sich in Afrika die Linie der Affen und die Linie, die schließlich zum Menschen führen sollte, auseinander zu entwickeln (vgl. Groves 2004b–c; Mania 2006b). Es entstanden Arten wie „Sahelanthropus tchadensis“, auch „Toumai“ genannt, und etwas später „Orrorin tugenensis“. Ihr Skelett wies bereits einige menschenähnliche Merkmale auf (vgl. Brunet, Guy, Pilbeam et al. 2007; Wood 2007; Zollikofer, Ponce de León 2007a–c; Wolpoff, Hawks, Senut et al. 2007; Aiello, Pickford, Senut 2007), sodass wohl auch vor ungefähr sechs Millionen Jahren beim Orrorin bereits der zweifüßige Gang entwickelt war (Richmond, Jungers 2008). Ebenso wie bei den vier bis fünf Millionen Jahre alten Funden einer Gattung namens „Ardipithecus“ (vgl. White, Suwa, Asfaw 1994, 1995; Wood 1994; Semaw, Simpson, Quade et al. 2007) sind die genauen Stammbäume nach wie vor Spekulation. Dies gilt auch für die Gattung der „Australopithecinen“ – übersetzbar mit „Südaffen“ –, deren älteste Überreste circa vier Millionen Jahre alt sind (vgl. Henke, Rothe 2003, S. 24ff.). Vom Leben in den Bäumen her brachten alle diese Arten einen verschließbaren Kehlkopfdeckel – damit das Eigengewicht beim Hangeln nicht die Luft aus den Lungen drückt –, eine darauf aufbauende Fähigkeit zur Produktion klangvoller Laute, eine gute tiefenscharfe Fernsicht sowie lange, schlanke Arme und – dank einer beweglichen Daumenwurzel – griffsichere Hände mit (vgl. Reichholf 2003a, S. 106; Pritzel, Brand, Markowitsch 2003, S. 289). Der aufrechte Gang auf zwei Beinen, der auch Affen kurzzeitig zur Verfügung steht, löste immer mehr das Leben in den Bäumen ab, beides dürfte aber lange nebeneinander im Repertoire des Australopithecus geblieben sein (vgl. dazu auch: Verhaegen, Puech, Munro 2008). Dennoch belegen die bei Laetoli in Tansania gefundenen, in Vulkanasche eingeprägten Fußspuren eines Erwachsenen und eines Kindes die Fähigkeit zu längerem zweifüßigem Gang. Der prominenteste Fund eines Australopithecus-Skeletts dürfte „Lucy“ sein; an den Ausgrabungen war unter anderem der Archäologe Donald C. Johanson beteiligt (vgl. Johanson 2006; Mania 2006d; Groves 2006b). Neuerdings wird allerdings auch bezweifelt, dass es sich wirklich um ein weibliches Individuum gehandelt hat (Gore 2006c).
Der zweite Scheinwerfer soll hier auf die Zeit vor etwa 2,6 Millionen Jahren gerichtet werden: Eine arktische Eiszeit setzte ein, und mit dem unteren Paläolithikum begann der erste Abschnitt der Steinzeit (vgl. Bosinski 2006b). Nun kann man von einem dauerhaften Laufen auf zwei Beinen mit aufgerichtetem Körper ausgehen. Als bevorzugte Fortbewegungsart erschloss der aufrechte Gang neue Möglichkeiten: Die Arme waren frei für das Hantieren mit Stöcken und Steinen oder für das Tragen des Nachwuchses, was zusammen mit einer ausgeprägten Lauffähigkeit lange Wanderungen begünstigte und eine Unabhängigkeit von bestimmten Orten bedeutete. Solchermaßen disponiert [77]erschloss sich der Urahn die offene Savanne, deren vulkanische Böden reichlichen Grasbewuchs boten und somit auch Herden Gras fressender Großtiere aufwiesen. Diese wurden zur neuen Nahrungsquelle, enthielten sie doch gegenüber dem Nahrungsangebot der Wälder wertvolle tierische Eiweiße. Mittels der Beobachtung von Geiern konnten Kadaver ausfindig gemacht werden. Es galt, schnell vor Ort zu sein, um das Fleisch noch frisch vorzufinden und nicht vollständig den Raubkatzen zu überlassen. Hier half dem Vormenschen seine gute Laufdisposition, die durch das Zurückbilden des Felles und die damit gewonnenen Fähigkeit des Temperaturausgleichs durch Schwitzen zusätzlich gefördert wurde. Markknochen, deren Inneres länger genießbar blieb, öffnete man wahrscheinlich mit Steinen (vgl. Reichholf 1997, 2003a). Von Flusskieseln wurden in großer Zahl Splitterstücke abgeschlagen, die wohl ebenso wie die Ausgangssteine mit ihren scharfen Kanten als Werkzeuge Verwendung fanden (vgl. Toth 1987). Nach einer ergiebigen Fundstelle werden diese Werkzeuge als „Olduwai-Industrie“ bezeichnet (vgl. Fletcher 2004a; Burenhult 2004a). Neben dem „Paranthropus“, der aufgrund seines starken Kiefers auch „Nussknackermensch“ genannt wird und wohl ein Nachfahre des Australopithecus war, tauchten vor rund zwei Millionen Jahren die „Habilinen“ auf, deren Name vom lateinischen Wort für „geschickt“ herrührt und die von manchen Forschern bereits der Gattung „Homo“ zugerechnet werden (vgl. Burenhult 2004a; Mania 2006c). Als erste zweifelsfreie Vertreter dieser Gattung gelten „Homo ergaster“ und sein früher Verwandter „Homo georgicus“, der – wie Funde aus dem georgischen Dmanisi nahe legen (vgl. Anderson 2007; Gore 2006e) – vor circa zwei Millionen Jahren aus Afrika auswanderte – möglicherweise auf der „Flucht“ vor der Tsetse-Fliege, der Überträgerin der Schlafkrankheit (vgl. Reichholf 1997, S. 244f.; 2003a, S. 117ff.).
Als Drittes sei die Zeit vor circa 1,6 Millionen Jahren fokussiert. Für diese Zeit etwa wird der Beginn eines neuen Erdzeitalters, des Quartär und seiner ersten Epoche, des Pleistozäns, angesetzt. Nun traten die so genannten „Erectinen“, die „Aufgerichteten“, auf den Plan (vgl. Burenhult 2004a; Mania 2006c). Mit den Faustkeilen begründeten sie eine neue Werkzeugkultur, die nach einer Fundstelle in Frankreich als „Acheuléen“ bezeichnet wird. „Homo erectus“ wärmte sich mit Tierhäuten und wusste um den Nutzen des Feuers; vor knapp einer Million Jahren verließ auch er Afrika und erreichte schließlich Asien und Europa (vgl. Reichholf 1997, S. 171ff.; Bosinski 2006b; Fiedler, Sandmeyer 2002; Gore 2006d).
Vor ungefähr hundertdreißigtausend Jahren – dies der vierte Fokus – nahm die letzte größere Eiszeit ihren Anfang und der „moderne Mensch“, „Homo sapiens“, erschien auf der Bildfläche. Wenig später beginnt das mittlere Paläolithikum (vgl. Bosinski 2006e; Gore 2006b). Die Werkzeugindustrie erreicht mit der Herstellung von Schabern und Spitzen, so genannten „Schildkrötenkernen“, eine neue Qualität. Nach den Fundorten spricht man von der Kultur des „Levalloisien“ und des „Moustérien“. Auch wenn über die genauen Datierungen nach wie vor Unklarheiten und Uneinigkeiten herrschen, kann man davon ausgehen, dass Hütten, Feuerstellen und Jagd nun etabliert waren und eine Begräbniskultur entstand. Vor etwa hunderttausend Jahren wanderte auch „Homo sapiens“ aus Afrika aus (vgl. Burenhult 2004e).
[78]Der fünfte Scheinwerfer beleuchtet sein Erscheinen in Europa als so genannter „Cro-Magnon-Mensch“ vor etwa vierzig- bis dreißigtausend Jahren zu Beginn des oberen Paläolithikums (vgl. Burenhult 2004b; Bosinski 2006c; Gore 2006a). Langsam verdrängte er wohl den Neandertaler, der als Nachfahre der Erectinen schon mindestens zwanzigtausend Jahre lang dort lebte (vgl. Groves 2004a; Burenhult 2004a; Nakott 2006a; Rowley-Conwy 2004c). Der moderne Mensch fertigt nun Klingen aus Stein, deren Stadien nach den Fundstellen als „Aurignacien“, „Gravettien“, Solutréen“ und „Magdalénien“ bezeichnet werden (vgl. Henke, Rothe 2003, S. 110f.; Burenhult 2004b, S. 89; vgl. auch: Rust 1973). Er lagert unter Felsvorsprüngen und in Höhlen (vgl. Nougier 2004). Höhlenmalereien und Skulpturen weiblicher Körper entstehen. Sie werden überwiegend mit Riten der entsprechenden Menschengruppen in Verbindung gebracht (vgl. Burenhult 2004c–d, f; Clottes, Courtin 2004; Nougier 2004; Gély 2005; Masvidal, González 2006). William F. Allman vermutet, dass die Zunahme künstlerischkreativer Aktivitäten in einem starken Zusammenhang mit dem immer differenzierteren Leben in der sozialen Gruppe steht. Die soziale Differenzierung wiederum sieht er als Konsequenz der nötigen Betreuung der Kinder an, die aufgrund des allmählich immer größeren Gehirns und Kopfes relativ unfertig geboren werden müssen, um den Geburtskanal noch passieren zu können (→ S. 55f.). Auch gerade ältere Mitglieder der Gruppe können bei der Kinderbetreuung eine wichtige Rolle einnehmen. Insgesamt begünstigte dies alles eine soziale Differenzierung. Schmuck und Kunst waren vor diesem Hintergrund Mittel zur „Definition“ einer Identität des Einzelnen oder der Gruppe (Allman 1999, S. 260ff.). Dementsprechend ist die Sprache spätestens jetzt sicher ausgebildet, ebenso die Religion. Damit waren wiederum neue Möglichkeiten erschlossen: Nach Maturana und Varela bestimmt nun die Bedeutung, die Interaktionspartner der Interaktion zuschreiben, den Verlauf derselben. Sprachliche Unterscheidungen können sich wiederum auf sprachliche Unterscheidungen beziehen, Begriffe beschreiben andere Begriffe; es wird dem Menschen möglich, sich selbst und die Umstände seiner Existenz zu beschreiben, zu bedenken. Die „Rückbeugung“ auf sich selbst – die „Reflexion“ – und ein davon geprägtes Bewusstsein erscheinen. Sprache dient der Koordination von Handlungen mehrerer Individuen; indem sie sich auf sich selbst beziehen kann, werden also sprachliche Koordinationen von Handlungen wiederum sprachlich koordiniert. So wird der Bereich der Sprache Teil des Milieus, in dem sich der Mensch von nun an entwickelt (Maturana, Varela 1987, S. 223ff.). Das heißt nun nicht, dass vorher keine lautliche Verständigung möglich gewesen sei. Vielmehr ist anzunehmen, dass sich die Sprache langsam und allmählich von Signallauten mit klaren Funktionen, wie sie bei Affen nachgewiesen wurden (vgl. Cheney, Seyfarth 1994, S. 141ff.), über rudimentär strukturierte Lautsysteme, die auch bereits den frühen Arten des „Homo“ zur Verfügung gestanden haben dürften, bis zur komplexen Sprache mit ausgefeilter Semantik, Grammatik und Syntax entwickelt hat (vgl. Henke, Rothe 2003, S. 112ff.; Allman 1999, S. 209ff.).
Ein sechster Fokus gilt dem Beginn der Sesshaftigkeit vor rund zehntausend Jahren (vgl. Strahm 2006a; Bosinski 2006d; Palmqvist 2004; Rowley-Conwy 2004a/d; Broadbent, Burenhult, Maxwell 2004) Josef H. Reichholf glaubt den Grund dafür in kultischen [79]Feiern größerer Menschengruppen auszumachen, die vom großen Reichtum der Fauna und von der Entdeckung der Gärung von Getreide – und damit einer Art urzeitlichen Biers – profitierten (Reichholf 2008). An Orten, die besonders gute Voraussetzungen aufwiesen, lohnte es sich, feste Unterkünfte zu errichten. Sesshafte Menschengruppen begannen zur Sicherung des Nahrungsangebotes mit der Kultivierung von Wildpflanzen. Mit der Aussaat von Gräsern, deren reife Samen möglichst lange auf dem Halm stehen blieben, nahm der Ackerbau seinen Anfang, mit dem der Mensch in den Gang der botanischen Evolution eingriff und das Gesicht der Erde auf Dauer nachhaltig veränderte. Man mag auf den Gedanken kommen, diese Entwicklung mit dem biblischen Sündenfall zu assoziieren. Mit dem Landbesitz nahmen wahrscheinlich auch Hierarchien und Konflikte zu; für die bewusste Kontrolle der Nahrungsbeschaffung zahlte der Feldbauer den Preis, dass er dafür im Vergleich zum Jagen und Sammeln sicher mehr Zeit „im Schweiße seines Angesichts“ aufzuwenden hatte. Jedenfalls zeigt sich hier ein Grundcharakteristikum menschlicher Tätigkeit: das Bestreben, seine Umweltbedingungen nach den eigenen Vorstellungen zu beeinflussen. Tiere und Pflanzen, nach denen er sich bisher weitgehend zu richten hatte, gerieten mit dem Aufkommen von Ackerbau und Viehzucht allmählich unter die Kontrolle des Menschen (vgl. Gamlin 1997, S. 104 ff.; Liljegren 2004). Zu dieser Zeit ging die letzte größere Eiszeit zu Ende, und in Europa begann das so genannte Mesolithikum – andernorts spricht man vom Epipaläolithikum. Für diese Zeit setzt man schließlich auch den Beginn eines neuen Erdzeitalters, des Holozän, an.
Die Betrachtung der Menschheitsentwicklung hat damit von der Biologie auf das Terrain von Geschichte und Kulturwissenschaft geführt. In Anatolien fanden sich in jüngerer Zeit Reste einer rund zwölftausend Jahre alten steinernen Kultstätte, in der wohl die Anfänge der Zivilisation auszumachen sind (Zick 2008, S. 12ff.). Die Nutzung von Ton in der Töpferei findet sich schon vor der Sesshaftigkeit; die ersten Belege stammen aus Japan und sind gut zwölftausend Jahre alt. Mindestens tausend Jahre jünger sind die ersten Funde aus gediegenem Kupfer oder der Kupferverbindung Malachit. Nach weiteren dreitausend Jahren hatte man begonnen, Kupfer aus Erzen zu gewinnen; auch die Verwendung von Gold ließ nicht mehr lange auf sich warten. In der Bronzezeit vor gut viertausend Jahren wurde bereits mit Zinn, teilweise auch mit Blei legiert. Mit der Verarbeitung von Eisen, die kaum später einsetzte und sich im ersten Jahrtausend vor Christus zunehmend durchsetzte, erfuhr die Metallproduktion abermals eine Ausweitung. Neben frühen Umweltbelastungen war eine weitere soziale Differenzierung durch Besitz von Metallgegenständen die Folge dieser Entwicklungen (vgl. Gamlin 1997, S. 92 ff., 155; Burenhult 2004e; Harding, 2004, S. 316f.; Palmqvist 2004, S. 240; Strahm 2006b; Zimmermann 2006a–c). Die Schrift als System sichtbarer Symbole der sprachlich-akustischen Symbole wurde vor gut fünftausend Jahren in Sumer entwickelt (vgl. Palmqvist 2004, S. 247), kurze Zeit später dann auch in Elam (Ifrah 1993, S. 185ff.). Sie blieb aber bis in die Neuzeit hinein nur Teilen der Bevölkerung vorbehalten. Im Jahr 2000 konnten 84 Prozent der männlichen und 74 Prozent der weiblichen Erwachsenen auf der Erde lesen. Selbstverständlich gibt es hier starke Unterschiede zwischen den Regionen und Nationen: in Südasien waren nur 62 Prozent der Männer und 42 Prozent [80]der Frauen alphabetisiert. Am unteren Ende der Nationen lag das afrikanische Niger mit 24 Prozent bei den Männern und 9 Prozent bei den Frauen (Bellamy 2004, S. 204, 200). Mathematische Symbolsysteme gebraucht der Mensch schließlich seit rund dreitausend Jahren (vgl. Stern, Grabner, Schumacher 2005, S. 112), Zahlzeichen finden sich allerdings bereits vor etwa fünftausend Jahren in der sumerischen und der ur-elamitischen Schrift sowie in Ägypten (Ifrah 1993, S. 187, 545). Schließlich wurden auch vor vier- bis fünftausend Jahren in einer altperuanischen Kultur buchhalterische Informationen mittels Knoten in Wollfäden, so genannten „Quipus“, kodiert (Mann 2005; Urton, Brezine 2005, 2008; vgl. Ascher, Ascher 2008a–b).
Es zeigt sich, dass die Entwicklung des Menschen in großem Maße von äußeren Faktoren wie Klima und Umwelt abhing; diese wiederum sind als Folgen langsamer Verschiebungen von Erdteilen und daraus resultierender Veränderungen der Meeresströmungen zu verstehen. Solche Einflüsse zeigen sich darin, dass klimatische Veränderungen häufig mit neuen Entwicklungen in der Geschichte des Menschen einhergingen (vgl. Berglund, Björck 2004; Gore 2006c, S. 54). Gerade auch das menschliche Verhalten hat sich demnach in Anpassung an die Gegebenheiten der jeweiligen Umwelt entwickelt und ist als evolutionäres Erbe anzusehen (vgl. Fletcher 2004b; Schiefenhövel 2004; Allman 1999; Schnabel, Sentker 2004, S. 56ff.). Dabei bildete der Mensch mit der sich immer weiter ausdifferenzierenden Kultur einen bedeutenden Teil seiner eigenen Umwelt aus. Winfried Henke und Hartmut Rothe gehen von „subtile[n] Wechselbeziehungen zwischen Mensch, Kultur und Umwelt“ aus und ziehen Parallelen zur Selbstverstärkung physikalischer und chemischer Prozesse: „Wir müssen in unserer eigenen Evolutionslinie mit autokatalytischen Prozessen rechnen, die zu einer starken Beschleunigung der selbstorganisatorischen Entwicklung beigetragen haben“ (Henke, Rothe 2003, S. 49).
So wird auch das menschliche Verhalten als Frucht der biologischen Evolution zum Gegenstand der Biologie, genauer: der Ethologie (vgl. Eibl-Eibesfeldt 2004, 2000), die auch die Beobachtung von so genannten „Naturvölkern“ in ihre Forschungen einbezieht, um Wurzeln menschlichen Verhaltens zu rekonstruieren und kulturübergreifende Gemeinsamkeiten zu entdecken (vgl. Müller 2006; Fiedler, Sandmeyer 2002, S. 24ff.). Häufig stehen soziale Umgangsformen im Zentrum des Interesses, dabei gerät beispielsweise auch das Verhältnis der Geschlechter in den Blick (vgl. dazu: Lampl 2004; Leutenegger 2004). Tendenziell werden früher als „prinzipiell“ bezeichnete Grenzen zwischen Tier und Mensch zunehmend in Frage gestellt. Hier konkurriert wiederum ein biologischer Reduktionismus mit einer Sichtweise, die die Emergenz neuer Qualitäten beim Menschen akzentuiert. In ausgedehnten Versuchen fanden sich bei Menschenaffen Fähigkeiten zum Umgang mit Zahlen und zum Symbolgebrauch und damit ansatzweise eine „Sprachfähigkeit“ (vgl. Premack 1971; Rensch 1973; Linden 1981; Rumbaugh, Savage-Rumbaugh 1990; Fouts, Fouts 1996; Miles 1996; Patterson, Gordon 1996). Schimpansen lernten, sich selbst im Spiegel (Gallup 1970), ja sogar in Zerrspiegeln (Kitchen, Denton, Brent 2009) und Live-Videos (Hirata 2009) zu erkennen, und bewiesen damit eine Form des Selbstkonzeptes. Die intellektuelle Leistungsfähigkeit von Menschenaffen zeigt sich weiter in Problemlöseverhalten, plötzlicher Einsicht (Lethmate 1977), der Fähigkeit zum – wenn auch „averbalen“ – Schlussfolgern (vgl. Lethmate 2007b), im [81]Werkzeuggebrauch und im Planen zukünftiger Aktionen – so etwa, wenn ein Schimpanse im Zoo Materialien sammelt, um später Besucher damit zu bewerfen (Osvath 2009). Regeln des Zusammenlebens, die man als „Moral“ bezeichnen könnte, lassen sich schließlich ebenso beobachten wie das Tradieren von Verhaltensweisen von einer auf die andere Generation, also gewissermaßen auch regionale „Kulturen“ (vgl. Köhler 1963; Lethmate 1977, 2007a/c; Ghiglieri 1985; Goodall 1996, S. 20ff., 236ff.; Waal 2002; Hediger 1980, S. 265ff.; M. S. Dawkins 1994; Sprockhoff 1996, S. 65ff., 89; Schnabel, Sentker 2004, S. 29ff.). Für Menschenaffen wurden demgemäß bereits die Menschenrechte eingefordert (vgl. Häyry, Häyry 1996; Sapontzis 1996; Cavalieri, Singer 1996).
Auch das Verhalten des Kindes wird aus dem Blickwinkel der Biologie thematisiert, so publiziert etwa Bernhard Hassenstein über die „Verhaltensbiologie des Kindes“ (Hassenstein 2001; vgl. auch: Hassenstein, Hassenstein 1990; Largo 1996). Verhaltensweisen des Kindes können unter diesen Vorzeichen als evolutionär bewährt zur Begünstigung der Entwicklung angesehen werden. Dezidiert kommen dafür das Aufbauen von Bindungen an Bezugspersonen, das Spiel, das Erkunden (vgl. Eibl-Eibesfeldt 2004, S. 788ff.), das Nachahmen, das Abwandeln und Erfinden sowie das ausgiebige Bewegen in Frage (vgl. Hassenstein, Hassenstein 1990). Aber wiederum werden Neugierverhalten, individuelles Spiel und Fantasie auch bereits Tieren zugeschrieben (Rensch 1973, S. 218ff., 222–224).
Von großem Einfluss auf das Menschenbild in den Wissenschaften wie in der Gesellschaft sind schließlich auch die Ergebnisse der Neurowissenschaften. Zunächst lässt sich das Hirn, das seinerseits ein Teil des Zentralnervensystems ist, in fünf ineinander geschachtelte Hauptbereiche einteilen: Der evolutionsgeschichtlich jüngste Teil wird als Endhirn oder Telencephalon bezeichnet und umfasst links und rechts jeweils unter anderem die vier Lappen des Neocortex, der das Hirn umhüllenden Rinde: nämlich den Stirn- oder Frontallappen, den Scheitel- oder Parietallappen, den Schläfen- oder Temporallappen und den Hinterhaupts- oder Occipitallappen. Als zweiter Hauptbereich ist das Zwischenhirn oder Diencephalon zu nennen, zu dem Teile des Thalamus und der Hypothalamus gehören, Hirnkerne, die als „Schaltstellen“ zur Verarbeitung und Weiterleitung von Sinneseindrücken, aber auch von motorischen Impulsen und Gedächtnisinhalten fungieren. Der dritte Hauptbereich, das Mittelhirn oder Mesencephalon, beinhaltet Fasern und Kerne, die in den Wahrnehmungsprozess eingebunden sind; beispielsweise haben Nichtsäuger hier ihr oberstes Sehzentrum. Das Hinterhirn oder Metencephalon enthält als vierter Bereich unter anderem das Kleinhirn; hier werden etwa unbewusste Prozesse im Bereich der Motorik und des Gleichgewichts geregelt. Das Nachhirn oder Myelencephalon stellt das verlängerte Rückenmark dar und kontrolliert Atmung, Kreislauf, Schlaf und motorische Reflexe (vgl. Pritzel, Brand, Markowitsch 2003, S. 15ff.; vgl. auch: Birbaumer, Schmidt 1997a; Penrose 1991, S. 365ff.).
Schließlich lässt sich das Gehirn auch in zwei Hälften, so genannte „Hemisphären“, unterteilen, zwischen denen es in Teilen auch Asymmetrien gibt. Dennoch wäre es entgegen populärer Ansichten nicht sinnvoll, zwischen Funktionen der rechten und der linken Hirnhälfte strikt zu unterscheiden, denn in aller Regel ist ein starker Informationsaustausch zwischen beiden durch ein Faserbündel, das als „Balken“ oder „Corpus callosum“ bezeichnet wird, gegeben. Gleichwohl lässt sich bei fast allen Rechtshändern [82]und bei immer noch gut zwei Dritteln der Linkshänder die Kontrolle der Sprachproduktion der linken Hemisphäre zuschreiben. Nur bei Verletzungen der linken Hirnhälfte in der frühesten Kindheit kann die vollständige Sprachfunktion dann noch von der rechten Hemisphäre übernommen werden. Nicht vergessen werden sollte aber in diesem Zusammenhang die generelle Bedeutung der rechten Hemisphäre für die sprachliche Kommunikation, werden doch die das Sprechen begleitende Gestik und Mimik, die Sprachmelodie und das Verständnis des Ausdrucks und der Emotionen besonders mit dieser in Verbindung gebracht. Verletzungen der rechten Hirnhälfte gehen daher mit einem verminderten Verständnis des emotionalen Gehalts von Mimik, Gestik und Prosodie beziehungsweise mit Verlusten beim Einsatz nonverbaler Kommunikationsmittel einher. Visuelle Reize mit vergleichsweise vielen Details werden schneller links verarbeitet, flächigere Bilder schneller rechts. Schnelle feinmotorische Bewegungen steuert wiederum bevorzugt die linke Hemisphäre. Während wohl für die meisten Bewegungen Symmetrien als evolutionär vorteilhaft gelten können und sich diese auch über eine symmetrische Steuerung verwirklichen lassen, könnten Asymmetrien bei der Verarbeitung höherer mentaler Aktivitäten sich evolutionär bewährt haben (Pritzel, Brand, Markowitsch 2003, S. 282ff.; Ross 1981; vgl. Dichgans 2004, S. 222ff.). Bei der Verarbeitung von Musik deuten die Befunde daraufhin, dass Laien stärker zu einer rechtshemisphärischen Gehirnaktivität neigen, also besser mit dem linken Ohr wahrnehmen, während sich bei Musikern ein besseres Hören mit dem rechten Ohr herausstellte, was bei letzteren auf eine stärker analytische Verarbeitung hindeuten könnte (Bever, Chiarello 1974; vgl. Fassbender 2002; Gruhn 2005, S. 14).
Hinterhirn und Nachhirn enthalten große Teile dessen, was man als „Reptilienhirn“ bezeichnet hat, um zu verdeutlichen, dass diese Teile im Verlauf der Evolution bei den Reptilien ausgebildet waren, während bei ihnen zum Beispiel der Neocortex nur rudimentär entwickelt ist. Bleibt man in diesem Bild, dann wird man das so genannte „limbische System“, das sich vom Cortex bis zum Mittelhirn erstreckt, als Hirn der urzeitlichen Säugetiere bezeichnen. Im Laufe der Evolution überlagerte es die älteren Hirnteile und ermöglichte gewissermaßen eine „Abpufferung“ und gleichzeitig eine Steuerung des instinktiven Verhaltens Es repräsentiert nämlich emotionale und motivationale Funktionen und arbeitet an der Übertragung von Informationen in das so genannte Langzeitgedächtnis mit. Emotion und Motivation geben zweifellos eine Richtung für das Verhalten vor, der man sich nicht leicht entziehen kann. Gegenüber dem Repertoire des Reptilienhirns aber fallen die Reaktionen differenzierter und damit gezielter aus. Der jüngste Teil des Gehirns, der Cortex, schließlich puffert noch einmal auf seine Art ab, indem er das Abwägen von Verhaltensalternativen erlaubt (vgl. Hüther 2007, S. 13ff.; Hampden-Turner 1982, S. 72). Generell lässt sich sagen, dass stammesgeschichtlich ältere Hirnstrukturen ähnliche Aufgaben wahrnehmen wie jüngere, allerdings bewerkstelligen die jüngeren Strukturen dies auf eine differenziertere Art und Weise. In „Schaltstationen“ des Hirns werden Informationen neu gebündelt und weitergeleitet. Oftmals nehmen sie dabei gleichzeitig verschiedene Wege und werden etwa in älteren und neueren Bereichen parallel verarbeitet.
[83]Wie schon aus der Grobgliederung zu ersehen ist, zeigten sich im Zuge intensiverer Forschung – zuerst vor allem auch an kranken Menschen – immer mehr Bereiche des menschlichen Gehirns, die in besonderer Weise für bestimmte Funktionen von Bedeutung sind. In sehr grober Darstellung lassen sich dann etwa Funktionseinheiten für Erinnerung und Emotion – der Hippocampus und das limbische System – tief innen im Hirnzentrum ausmachen, darunter Einheiten für Hören, Schmecken und Riechen, vorne hinter der Stirn Einheiten für die Planung von Handlungen, etwas tiefer liegend für das Sozialverhalten und die Motivation, oben unter dem Scheitel die Bewegungsausführung, dahinter – sich über den Hinterkopf erstreckend – die Körperwahrnehmung, weiter unten dann das Sehen. Gegen eine strenge und ausschließliche Zuweisung von bestimmten Leistungen an bestimmte Gehirnbereiche steht allerdings die Tatsache, dass das Gehirn bereits bei relativ einfachen Funktionen hochgradig multipel vernetzt arbeitet. Dabei finden synchrone und aufeinander abgestimmte Nervenzellreaktionen statt – man spricht hier auch von „induzierten Rhythmen“ –, die über weite Bereiche des Hirns „verstreut“ sind (vgl. Malsburg, Schneider 2007; Başar 1998, S. 148ff.; Schnabel, Sentker 2004, S. 182ff.). Im Laufe des Lebens können sich bestimmte Bereiche außerdem hinsichtlich ihrer „Zuständigkeit“ verändern, können Funktionen aufgeben oder neue übernehmen.
Hiermit sind bereits zentrale Eigenschaften des Gehirns angesprochen. Große Teile der Struktur desselben sind zeitlebens „plastisch“, das heißt in Abhängigkeit von Erfahrungen formbar und veränderbar. In der Frühphase des Lebens spielt die so genannte „erfahrungserwartende“ Plastizität eine große Rolle: Detaillierte neuronale Muster bedürfen äußerer Anregungen, um sich zu organisieren. So entwickeln sich motorische und sensorische Zentren wohl in Abhängigkeit von tatsächlich erfolgenden Bewegungen und Sinneseindrücken. Es bildet sich zunächst eine große Menge von Signalübertragungswegen unter den Nervenzellen aus. Hiervon gehen allerdings diejenigen wieder verloren, die nicht genutzt werden, während die durch Erfahrungen aktivierten Verbindungen als Ergebnis eines Selektionsprozesses erhalten bleiben. Die Möglichkeit, Hirnstrukturen an der Umwelt gewissermaßen zu justieren, birgt dabei die Gefahr lebenslanger Schädigung bei ausbleibenden Anregungen (vgl. Stern, Grabner, Schumacher 2005, S. 66ff.). So genannte „sensible Perioden“, in denen bestimmte Anregungen unbedingt erfolgen müssen, um endgültige Verluste zu verhindern, sind allerdings bisher nur für wenige Bereiche gefunden worden. Der Hirnforscher Wolf Singer nennt die Verschaltungen in der Sehrinde, die Wahrnehmung von Sprachlauten sowie den Erwerb motorischer Fertigkeiten und vermutet darüber hinaus, dass auch bestimmte soziale Verhaltensweisen – etwa auch aus dem Bereich des geschlechtstypischen Verhaltens – nur in frühem Alter gelernt werden. Für sensible Phasen in der Jugendzeit nennt Singer die Stichworte Selbstkonzept, Wertgefüge sowie das Abwägen und Aufschieben von Handlungen (vgl. Singer 2002, S. 88ff.; vgl. auch: Singer 2007; Kossut, Singer 2007). Allerdings fallen diese Stichworte, wenngleich sie mit bekannten Inhalten der Entwicklungspsychologie korrespondieren, hier nicht sehr trennscharf aus. Für Elsbeth Stern, Roland Grabner und Ralph Schumacher stellt die Frage nach besonders lernsensiblen [84]Phasen in der Entwicklung des Kindes noch immer eine offene Forschungsfrage dar (Stern, Grabner, Schumacher 2005, S. 120).
Von ebenso großer Bedeutung ist die „erfahrungsabhängige“ Plastizität des Gehirns. Sie geht damit einher, dass sich Menschen während ihres Lebens immer wieder veränderten Umwelten anpassen, also dazulernen können. Die Basis der Plastizität liegt in der Funktion der Nervenzellen, der so genannten „Neuronen“. Neben seinem Zellkörper, dem so genannten „Soma“, besitzt ein Neuron Verästelungen, die so genannten „Dendriten“, über die es chemische Signalstoffe empfangen kann. An den Dendriten finden sich Ausstülpungen, die als „Dornen“ oder „Spines“ bezeichnet werden. Schließlich besitzt das Neuron einen längeren Fortsatz, das „Axon“, das noch einmal Verzweigungen aufweisen kann und wie ein Kabel elektrische Signale weiterleitet. Am Ende der Axonzweige befindet sich das Endknöpfchen. In diesem verschmelzen bei Eintreffen eines elektrischen Signals als Folge elektrochemischer Reaktionen winzige Bläschen, die mit chemischen Substanzen – den so genannten „Transmittern“ – gefüllt sind, mit der Zellmembran. Durch Poren in der Membran werden die Transmitter somit freigesetzt, und zwar in einen Spalt, der etwa den dreißigtausendsten Teil eines Millimeters breit ist und das Axon von einem anderen Neuron trennt. Meist ist die Anschlussstelle des anderen Neurons ein Dendrit, es kann jedoch auch ein Soma oder wiederum ein Axon sein. Es kommt nun zu einer Bindung der Transmittersubstanz an die „Rezeptoren“, spezielle Makromoleküle in der Membran des aufnehmenden Neurons. Diese Bindung bewirkt direkt oder indirekt eine Öffnung von so genannten „Ionenkanälen“. Elektrisch geladene Teilchen können ein- oder ausströmen und das Ladungsverhältnis zwischen innen und außen verändern. Die im Ruhezustand negative Ladung einer Neuronmembran, das so genannte „Membranpotential“, kommt durch die Verteilung von Kalium-, Natrium-, Chlor- und Calciumionen zustande und lässt sich als elektrisches Ungleichgewicht kennzeichnen. Durch die Öffnung von Ionenkanälen kann es zu einer „Depolarisation“ kommen, elektrisch geladene Teilchen können ein- und ausströmen und streben einem Gleichgewichtszustand zu. Der gesamte Bereich der Transmitterübertragung wird nach Charles Sherrington als „Synapse“ bezeichnet (vgl. Sherrington 1953, S. 211). Neben den beschriebenen chemischen Synapsen sind selten auch elektrische Synapsen zu finden, bei denen sich Axon und Rezeptormembran berühren und der elektrische Impuls direkt übertragen wird.
In der Rezeptorzelle wird entweder eine elektrische Erregung oder aber eine Hemmung elektrischer Impulse veranlasst, das so genannte „postsynaptische Potential“, das im Falle der Erregung als „exzitatorisches Potential“, im Falle einer hemmenden „Hyperpolarisation“ als „inhibitorisches Potential“ bezeichnet wird. Zunächst regen die Transmitter wie erwähnt die Öffnung bestimmter Ionenkanäle an; Ionen passieren und es ändern sich für wenige Millisekunden die Leitfähigkeit der Membran und in der Folge das Membranpotential an der entsprechenden Stelle. Davon bleibt auch die benachbarte Region nicht unberührt, und das Potential wird in der Zelle fortgeleitet, nimmt aber in diesem Verlauf ab. Die Chance, dass es schließlich das Axon der entsprechenden Zelle erreichen kann, steigt mit der Anzahl der aktivierten Synapsen, denn je mehr [85]Synapsen von Transmitterbindungen betroffen sind, umso größer fällt das postsynaptische Potential aus.
Im Axon kommt es nun durch die Änderung des Membranpotentials zur Öffnung weiterer, darauf sensibel reagierender Ionenkanäle und zum Einstrom positiv geladener Natriumionen; die resultierende zunehmende Depolarisation bewirkt die Öffnung weiterer Kanäle, die wiederum die Depolarisation weiter beschleunigen, und es kommt so zu einer Selbstverstärkung, die schließlich zu einem „Spitzenpotential“ führt. In der Folge dieser Prozesse jedoch strömt auch Kalium aus, der Natriumeinstrom verringert sich, und die Zelle erreicht wieder ihre negative Polarisation. Die Öffnung der Natriumkanäle beträgt dabei nur eine Millisekunde. Danach sind sie zunächst unerregbar und können erst nach einer so genannten „Refraktärphase“ wieder uneingeschränkt erregt werden. Das Aktionspotential erregt gleichzeitig die benachbarte Region, in der nun ebenfalls eine Depolarisation veranlasst wird. So wird der Impuls durch das Axon weitergeleitet, es fließt Strom zum Axonende. Dadurch, dass bereits erregte Stellen eine kurze Zeit lang nicht auf weitere Reize aus ihrer Umgebung reagieren, ist die Gegenrichtung gewissermaßen blockiert und die Richtung zum Ende hin gewährleistet. Als Folge der Selbstverstärkungsprozesse herrscht im Axon ein „Alles-oder-Nichts-Prinzip“: entweder fließt Strom oder nicht. Die Intensität eines Reizes hängt hier von der Anzahl und der Frequenz der ausgelösten Aktionspotentiale ab.
Mit dieser kompliziert anmutenden, aber optimal präzise und störungsfrei funktionierenden Signalübertragung gewinnt nun das Gehirn die es auszeichnende Lernfähigkeit. Durch das „Feuern“ zwischen zwei Neuronen wird nämlich der synaptische Kontakt zwischen ihnen auch für weitere Signalübertragungen „gestärkt“, wie der Psychologe Donald O. Hebb schon früh vermutete (vgl. Hebb 1967, S. 159ff.; 1982a–b). Dies geschieht zum ersten dadurch, dass durch die Bindung der Transmittersubstanzen in der aufnehmenden Membran auch Proteine aktiviert werden, welche ansonsten durch Magnesium inaktiviert sind. Erreicht die elektrische Spannung jedoch einen gewissen Schwellenwert, so lassen diese Rezeptorproteine Calciumionen einströmen, welche wiederum andere membrangebundene Proteine so verändern, dass sie die Membran als Ganzes in Sekundenschnelle empfänglicher für die Signalaufnahme machen. Weiter können sie auch die Proteinsynthese des Neurons insgesamt so beeinflussen, dass dieses durch die nun produzierten Proteine von vorneherein bessere Rezeptoreigenschaften gewinnt. Möglicherweise kann schließlich sogar resultieren, dass die aufnehmende Zelle einen bestimmten Botenstoff freisetzt. Dieser Stoff wirkt dann auf die aussendende Zelle so zurück, dass dort über bestimmte Enzyme eine erhöhte Ausschüttung von Transmittern in Gang gehalten wird. Endlich kann es nach einigen Stunden oder Tagen auch zum Wachstum neuer Dornen am aufnehmenden Neuron kommen, was wegen der Erhöhung der Anzahl potentieller Synapsen die Chance erhöht, dass elektrische Signale das Axon erreichen und weiter passieren können (vgl. Pritzel, Brand, Markowitsch 2003, S. 37ff.; Merker 2002; Hick 2002, S. 406f.; Dudel 1997a–b; Birbaumer, Schmidt 1997b, S. 163ff.; Başar 1998, S. 24ff.; Squire, Kandel 1999, S. 30ff.; Penrose 1991, S. 379ff.).
[86]Alle diese Mechanismen erlauben eine „Verstärkung“ derjenigen Signalübertragungswege, die häufiger benutzt werden, also eine erfahrungsabhängige Plastizität des Gehirns. Dazu kommt, dass sich auch Stoffwechsel und Blutversorgung zur Unterstützung häufig gebrauchter Hirnbereiche verbessern können (vgl. Stern, Grabner, Schumacher 2005, S. 69). Die Ummantelung häufig gebrauchter Wege mit einer Substanz namens „Myelin“, die eine schnellere und effizientere Signalübertragung bewirkt, kann sich ebenfalls im Verlauf mehrerer Wochen verbessern. Das ansonsten normale Absterben von Neuronen kann über die Jahre hinweg verringert werden. Aktivitäten, die ein Mensch überdurchschnittlich häufig ausführt, werden schließlich auch von vergleichsweise größeren Hirnbereichen kontrolliert. Da dabei jedoch das Gehirn als Ganzes in seinem Umfang konstant bleibt, heißt das letztlich auch, dass für andere Funktionen weniger Platz bleibt. So sind bei Musikern Vergrößerungen entsprechender Felder, die etwa die Bewegung der Hand, visuell-räumliche Wahrnehmung oder das Hören betreffen, festgestellt worden. Gleichzeitig war in solchen Bereichen auch die Dichte der Neuronen größer. Auch waren im die beiden Hirnhälften verbindenden Balken Faserstränge, die die Hörregionen beider Hälften verbinden, vergleichsweise stärker ausgeprägt (vgl. Schlaug, Jäncke, Huang, Steinmetz 1995; Jäncke 2001; Gaser, Schlaug 2007; Altenmüller 2006, S. 63ff.).
Neben den grundlegenden Mechanismen, auf denen das Lernen aus Erfahrungen basiert, bietet die Hirnforschung auch die Gelegenheit, Gehirnaktivitäten zu untersuchen, die speziellen Lernprozessen zugrunde liegen. So zeigte sich, dass bei der Wahrnehmung von Aktivitäten bereits auch Hirnareale „feuern“, die für die Motorik zuständig sind. Hierfür kursiert seit einigen Jahren der Begriff der „Spiegelneuronen“. Mit ihrer Hilfe legt das Gehirn die Basis für eine Imitation und das dafür notwendige „Verständnis“ der wahrgenommenen Aktivitäten. Wenn wir also Aktivitäten beobachten, „wissen“ wir bis zu einem bestimmten Grade bereits, wie wir uns bewegen müssen, um diese Aktivitäten zu imitieren – eine Tatsache, die gerade auch für das Bewegungslernen etwa im Instrumentalunterricht von großer Bedeutung ist (vgl. hierzu: Fadiga, Fogassi, Gallese, Rizzolatti 2008; Rizzolatti, Fogassi, Gallese 2008; Kohler, Keysers et al. 2008; Ferrari, Gallese, Rizzolatti, Fogassi 2008; Iacoboni, Molnár-Szakács, Gallese et al. 2008).