Читать книгу Eckpfeiler einer reifen Weltsicht - Michael Merkel - Страница 21
Оглавление9 Vom Problem zum Modell
Der Kern wissenschaftlicher Methodik
Jede Wissenschaft hat eine Hypothese, die ihr zum Grunde liegt, und die man als gewiß voraussetzen muß. HENRY THOMAS BUCKLE
Wissenschaft besteht aus Fakten wie ein Haus aus Backsteinen, aber eine Anhäufung von Fakten ist genausowenig Wissenschaft wie ein Stapel Backsteine ein Haus ist. HENRI POINCARÉ
Haben Sie schon einmal Fledermäuse beim Fliegen beobachtet? Vor allem laue Sommernächte mit klarem Himmel bieten sich an, die Flugkünste der nachtaktiven Säuger zu bestaunen. Kurz nach Sonnenuntergang tauchen sie gewöhnlich auf und machen Jagd auf Insekten. Sie zeichnen sich als lautlose Schatten vor dem Nachthimmel ab, wenn sie plötzlich aus der Dunkelheit auftauchen und ihre eleganten Flugbahnen vollführen. Nicht selten steuern Fledermäuse mit hoher Geschwindigkeit auf einen Baum oder eine Hausmauer zu, um dann im letzten Moment scharf abzudrehen. Es ist ein beeindruckendes Schauspiel, wie sich die kleinen Säugetiere trotz Dunkelheit so schnell bewegen und sämtlichen Hindernissen geschickt ausweichen können.
Wir alle wissen heute, welchen Mechanismus sich Fledermäuse bei der Navigation im Dunkeln zunutze machen. Aber einmal angenommen, dies wäre noch nicht bekannt. Wie würde sich dann ein Wissenschaftler diesem Thema nähern? Wie wäre beispielsweise ein Naturforscher wie Galileo Galilei im 16. Jahrhundert vorgegangen, um das Phänomen zu erklären?
Die ungewöhnliche Eigenschaft der Fledermäuse ist ein einfaches Beispiel für die typische Situation, vor der ein Wissenschaftler gewöhnlich steht: Es existiert ein wissenschaftliches Problem, weil auf den ersten Blick unklar ist, wie ein bestimmtes beobachtbares Phänomen zustande kommt. Im vorliegenden Fall besteht das Rätsel darin, wie es den Fledermäusen gelingt, sich bei absoluter Dunkelheit mit hoher Geschwindigkeit zielsicher zu bewegen. Und dies, obwohl Fledermäuse, anders als beispielsweise Eulen, nur sehr kleine Augen haben.
Ganz allgemein startet jede wissenschaftliche Tätigkeit mit einem Problem. Dieses stellt für den forschenden Geist des Wissenschaftlers eine inakzeptable Situation dar und verlangt eine erklärende Theorie.
— Der wissenschaftliche Dreischritt
Der Kern wissenschaftlicher Methodik
Betrachten wir nun den Prozess, wie eine wissenschaftliche Theorie entsteht. Wir erinnern uns: Die beiden Hauptmethoden zur Erkenntnisgewinnung, Deduktion (Rationalismus) und Induktion (Empirismus), haben jeweils ihre besonderen Stärken und Schwächen. Während im Rationalismus die logische Verstandeskraft über alles gestellt, aber die Erfahrung vernachlässigt wurde, baute der Empirismus auf Erfahrungstatsachen, betrachtete aber Logik und Mathematik als nachrangig.
Die Synthese von Induktion und Deduktion
Im Rahmen der modernen wissenschaftlichen Vorgehensweise, die von Galilei begründet und insbesondere von Newton verfeinert wurde, gelang es, die Stärken beider Ansätze miteinander zu verknüpfen. In seinem Monumentalwerk Philosophiae Naturalis Principia Mathematica schaffte Newton die erfolgreiche Synthese beider Methoden, indem er erkannte, dass weder Erfahrungstatsachen ohne systematische Deutung noch eine Deduktion aus allgemeinen Prinzipien ohne experimentelle Grundlage zu einer verlässlichen Theorie führen können. Capra erläutert: »In seinen systematischen Experimenten ging er über Bacon und in seiner mathematischen Analyse über Descartes hinaus; damit vereinigte Newton beide Trends und entwickelte die Methodologie, auf der seither die Naturwissenschaft beruht.«69 Mit diesem Schritt war die Grundlage für die moderne Wissenschaft und ihre Methodik gelegt.
Der amerikanische Physiker Richard Feynman (1918-1988) beschreibt die wissenschaftliche Vorgehensweise zur Entdeckung neuer Gesetze wie folgt: »Im allgemeinen gehen wir dabei folgendermaßen vor. Erst stellen wir eine Vermutung auf. Dann berechnen wir die Konsequenzen, um zu sehen, welche Folgen ein solches Gesetz überhaupt hätte. Danach vergleichen wir das Ergebnis mit der Natur, mit dem Experiment oder der Erfahrung, das heißt, wir vergleichen es direkt mit der Beobachtung, um zu sehen, ob wir damit hinkommen. Stimmt es mit dem Experiment nicht überein, war die Annahme falsch. So einfach ist das; damit haben wir schon den Schlüssel zur Naturwissenschaft.«70
Das grundlegende Vorgehen zur Entwicklung einer wissenschaftlichen Theorie besteht damit aus drei miteinander verzahnten Schritten:
1 Konstruktion einer Erklärung (Theorie/Modell)
2 Konkretisierung durch logische Ableitung spezieller Konsequenzen
3 Kritische Prüfung der theoretischen Vorhersage
Der wissenschaftliche Dreischritt
In Abbildung 13 ist veranschaulicht, wie die beiden statischen Ansätze von Deduktion und Induktion durch den »wissenschaftlicher Dreischritt« zu einem dynamischen Lernprozess verschmolzen sind.
Abb.13: Der wissenschaftliche Dreischritt
Der erste Schritt ist induktiver Natur, wenn ausgehend vom Problem ein erklärendes Modell konstruiert wird. Im zweiten Schritt werden aus dem Modell konkrete Schlussfolgerungen deduktiv abgeleitet. Das so erzeugte spezifische Modell wird schließlich einer kritischen Prüfung, beispielsweise in Form eines Experiments, unterzogen. Hierdurch werden die beiden ersten Schritte zusammengeschweißt. Der wissenschaftliche Dreischritt bildet das Herzstück und den Motor eines dynamischen Lernprozesses, in dessen Verlauf ein Modell schrittweise entwickelt und verfeinert wird.
Die Qualität unserer wissenschaftlichen Modelle korrespondiert mit unserem Verständnis der Realität. Der wissenschaftliche Lernprozess bewirkt, dass die entwickelten Modelle die Realität zusehends besser widerspiegeln. Nach Aussage des deutschen Physikers Albert Einstein (1879-1955) entspricht in diesem Sinne »die Aufstellung einer neuen Theorie nicht dem Abreißen einer alten Bretterbude …, an deren Stelle dann ein Wolkenkratzer aufgeführt wird; sie hat vielmehr eher etwas mit einer Bergbesteigung gemeinsam, bei der man immer wieder neue und weitere Ausblicke genießt und unerwartete Zusammenhänge zwischen dem Ausgangspunkt und seiner reichhaltigen Umgebung entdeckt. Dabei ist der Punkt, von dem wir losmarschiert sind, natürlich nach wie vor vorhanden. Man kann ihn stets liegen sehen, wenn er auch scheinbar immer kleiner wird und schließlich nur noch einen winzigen Teil unseres weitgespannten Rundblicks ausmacht, den wir uns dadurch verschafft haben, dass wir die auf unserem abenteuerlichen Aufstieg liegenden Hindernisse unerschrocken meisterten.«71
Der durch den wissenschaftlichen Dreischritt induzierte Lernprozess ändert nichts an der Tatsache, dass eine wissenschaftliche Theorie zu jedem Zeitpunkt als vorläufig, hypothetisch und unvollständig erachtet werden muss. Nach wie vor bleibt unklar, inwieweit eine gefundene Erklärung der Realität tatsächlich nahekommt. Die wissenschaftliche Methode bietet jedoch ein kritisch-konstruktives Verfahren, bei dem hypothetische Theorien ständig verbessert werden und dadurch der Einblick in die Realität stetig vertieft wird.
— Das Fledermaus-Problem
Wie würde Galilei vorgehen?
Das geschilderte Grundprinzip der wissenschaftlichen Vorgehensweise lässt sich anhand des eingangs erwähnten Fledermaus-Problems gut illustrieren.72
Erste Modellentwürfe
Zur Lösung dieses Problems könnte man in Schritt 1 (Konstruktion) einen ersten Erklärungsversuch in Form folgender Hypothese aufstellen:
Auch mit sehr kleinen Augen ist es möglich, sich bei Dunkelheit schnell und zielsicher zu bewegen.
Hieraus ergibt sich in Schritt 2 (Konkretisierung) durch eine logische Schlussfolgerung die These:
Fledermäuse, deren Sicht behindert ist, haben Orientierungsprobleme.
Diese These kommt einer konkreten Vorhersage gleich, die es in Schritt 3 (kritische Prüfung) im Lichte der Realität zu überprüfen gilt. Hierfür bietet sich die Durchführung eines Experiments an, bei dem das Flugverhalten von Fledermäusen, deren Augen verbunden sind, beobachtet wird. Solch ein Experiment wurde vom italienischen Naturphilosophen Lazzaro Spallanzani (1729-1799) im Jahre 1793 durchgeführt. Es zeigte, dass der Eingriff keine Auswirkung auf das sichere Flugverhalten der Fledermäuse hatte. Diese Beobachtung widerlegte die theoretische Vorhersage und damit den Erklärungsansatz.
Aufbauend auf der neuen Erkenntnis, dass die Augen der Fledermäuse offenbar keine Bedeutung für deren Flugverhalten haben, könnte ein erneuter Erklärungsversuch lauten:
Es ist möglich, sich mithilfe des Gehörs bei Dunkelheit schnell und zielsicher zu bewegen.
Eine konkrete logische Folge wäre in diesem Fall die Vorhersage:
Fledermäuse, deren Gehör beeinträchtigt ist, haben Orientierungsprobleme.
Auch diese Schlussfolgerung lässt sich experimentell überprüfen, indem man das Hörvermögen von Fledermäusen entsprechend beeinträchtigt und die Konsequenzen beobachtet. Der Schweizer Naturforscher Louis Jurine (1751-1819) führte im Jahre 1794 ein entsprechendes Experiment durch, bei dem er die Ohren der beobachteten Fledermäuse mit Wachs versiegelte. Es zeigte sich, dass die Fledermäuse nun vollkommen orientierungslos waren und Hindernissen nicht mehr ausweichen konnten. Diese Beobachtung stützt den zweiten Erklärungsansatz.
Weitere Verbesserungen der Erklärung
Ausgehend von der Erkenntnis, dass bei der Navigation von Fledermäusen das Gehör offenbar eine entscheidende Rolle spielt, tritt nun aber ein neues Problem auf, das es zu erklären gilt: Wie genau funktioniert der Mechanismus, den die Fledermäuse nutzen? Hindernisse wie Äste und Mauern senden schließlich keine Signale aus, welche man hören könnte. Ein kluger und kreativer Kopf könnte nun hierzu eine erweiterte Erklärung in Form von folgender Modellvorstellung vorschlagen:
Fledermäuse navigieren, indem sie Laute ausstoßen, deren Echo registrieren und darauf entsprechend reagieren.
Dies bedeutet, dass der Navigationsprozess von Fledermäusen sowohl von deren Gehör als auch von deren Fähigkeit, Laute auszustoßen, gesteuert wird. Dies führt wiederum zu einer überprüfbaren Vorhersage:
Fledermäuse, die daran gehindert werden, Laute auszustoßen, haben Orientierungsprobleme.
Auch diese Schlussfolgerung konnte im Rahmen entsprechender Experimente bestätigt werden. Damit war die sogenannte »Echoortung« entdeckt, die später auch bei Walen und anderen Tieren nachgewiesen wurde. Offenkundig stellt der aktuelle Modell-Entwurf eine deutliche Verbesserung gegenüber den vorangegangenen Erklärungen dar.
Anhand dieses sehr einfachen Beispiels lässt sich erkennen, dass in der Regel der erste Wurf einer Theorie die Erfahrungstatsachen noch nicht angemessen und präzise genug wiedergibt. Erst durch einen intelligenten Prozess aus Versuch und Irrtum, in dessen Zentrum der wissenschaftliche Dreischritt steht, entwickelt sich schrittweise eine gute Theorie. Betrachten wir nun die drei Schritte Konstruktion, Konkretisierung und kritische Prüfung noch etwas detaillierter.
— Die zündende Idee
Die Konstruktion eines Modells
Vergegenwärtigen wir uns noch einmal die Lage, in der sich ein Wissenschaftler gewöhnlich befindet.
Problemverständnis
Ausgangspunkt ist immer ein Problem in Form eines Phänomens, das es zu erklären gilt. Dies kann eine Beobachtung sein, deren Ursache noch nicht bekannt ist oder umgekehrt eine theoretische Vorhersage, die sich nicht bestätigen lässt. Ebenso kann das Problem darin bestehen, dass sich ein bestehendes Modell als fehlerhaft herausstellte und daher modifiziert werden muss. Möglich ist auch, dass verschiedene Theorien unvereinbare Sichten auf denselben Gegenstandsbereich liefern.
Allen diesen Problemen ist gemeinsam, dass es immer darum geht, ein Modell zu finden, das die Realität im Lichte aller bekannten Sachverhalte bestmöglich erklärt. Da die Realität vielfach nicht direkt erkennbar ist, gilt es herauszufinden, welche Gesetzmäßigkeiten hinter der sichtbaren Kulisse verborgen liegen. Einstein schilderte diese typische Situation einmal sehr bildhaft: »Bei unseren Bemühungen, die Wirklichkeit zu begreifen, machen wir es manchmal wie ein Mann, der versucht hinter den Mechanismus einer geschlossenen Taschenuhr zu kommen. Er sieht das Zifferblatt, sieht, wie sich die Zeiger bewegen, und hört sogar das Ticken, doch hat er keine Möglichkeit, das Gehäuse aufzumachen. Wenn er scharfsinnig ist, denkt er sich vielleicht irgendeinen Mechanismus aus, dem er alles das zuschreiben kann, was er sieht, doch ist er sich wohl niemals sicher, dass seine Idee die einzige ist, mit der sich seine Beobachtungen erklären lassen.«73
Einstein erläutert hier das bereits vorgestellte Problem der Abduktion, also die Aufgabe, auf einen hinter den Tatsachen verborgenen Mechanismus zu schließen.74 Es gilt, aus theoretisch unendlich vielen Erklärungsmöglichkeiten der beobachtbaren Fakten, diejenige zu finden, welche die Realität bestmöglich widerspiegelt. Wie bereits erörtert, gibt es hierfür grundsätzlich keine logische Lösung, weil das Problem durch die beobachtbaren Tatsachen unterbestimmt ist. In den Worten Einsteins: »Höchste Aufgabe des Physikers ist also das Aufsuchen jener allgemeinsten elementaren Gesetze, aus denen durch reine Deduktion das Weltbild zu gewinnen ist. Zu diesen elementaren Gesetzen führt kein logischer Weg, sondern nur die auf Einfühlung in die Erfahrung sich stützende Intuition.«73
Am Anfang des Prozesses wird ein Wissenschaftler zunächst versuchen, ein möglichst klares Bild vom eigentlichen Problem zu bekommen. Neben einer klaren Definition der Problemstellung helfen hierbei das Sammeln und Kategorisieren von Fakten mit vermeintlichem Bezug zum untersuchten Phänomen. Alle diese Vorarbeiten haben zum Ziel, das Problemumfeld soweit transparent zu machen, dass es gelingt, auf dieser Basis eine erklärende Abduktion herbeizuführen. Die Abduktion stellt den entscheidenden verallgemeinernden Schritt dar, der zu einem hypothetischen Modell führt. Der gesuchte Erkenntniswert offenbart sich erst mit diesem Modellentwurf, weil er die hinter den sichtbaren Erscheinungen liegenden unsichtbaren Bande mit den sichtbaren Wirkungen der Wirklichkeit verknüpft.
Die Rolle der Intuition
Die Auswahl, welche Fakten im Hinblick auf eine Erklärung relevant, und welche nebensächlich sind, kann in aller Regel nicht rein rational erfolgen. Hierfür sind sowohl die Erfahrung des Wissenschaftlers als auch seine Intuition sehr hilfreich. Da es für die Modellkonstruktion grundsätzlich kein systematischzwingendes Verfahren gibt, ist hier die zündende Idee des wissenschaftlichen Geistes gefragt. Schon im simplen Fledermaus-Beispiel war der Schluss auf das Echolot-Modell alles andere als naheliegend. In jenem Fall waren weniger Logik als vielmehr Inspiration und Intuition der Schlüssel zum Erfolg. Weil unser Universum voller unerwarteter Phänomene ist, sind Fantasie und Vorstellungsgabe nicht selten der Schlüssel zu seinen Geheimnissen. Bewährt hat sich auch das Denken in Analogien, da hinter verschiedenen Phänomenen häufig ähnliche Muster verborgen zu sein scheinen. Ob Kreativität, Vorstellungskraft, Intuition oder Denken in Analogien - alles was hilft, eine mögliche Erklärung zu konstruieren, ist legitim und willkommen.
Es ist bemerkenswert, dass bei der Modellkonstruktion vor allem subjektiven und konstruktiven Elementen eine besondere Rolle zukommt. Das Induktionsproblem stellt in dieser Phase kein Hindernis dar, weil induktives Denken hier nicht für eine Begründung von Beobachtungstatsachen, sondern lediglich für das Auffinden einer denkbaren Erklärung genutzt wird. In den Worten Freys: »Wenn man auch den Begründungscharakter der sogenannten Induktionsschlüsse mit Recht in Frage gestellt hat, so wird man die generalisierende Induktion als Auffindungsmethode genereller Hypothesen kaum ablehnen können.«76
Für die Güte einer Theorie ist es völlig unerheblich, auf welche Weise der Modellentwurf zustande gekommen ist. Eine Erklärung ist nicht deshalb schlechter, weil sie anstatt am Schreibtisch in der Badewanne oder infolge eines Traums entdeckt wurde. Die Rechtfertigung erfolgt erst in den beiden nächsten Schritten. Dort muss sich zeigen, ob eine Theorie tatsächlich erfolgversprechend ist.
— Prophezeiungen eines Modells
Die Ableitung konkreter Konsequenzen
Ein allgemeines Gesetz kann nicht direkt durch entsprechende Beobachtungen oder Experimente bestätigt werden. Daher ist ein Zwischenschritt, die Konkretisierung in Form eines spezifischen Modells, notwendig.
Die Ableitung spezifischer Modelle
Die Voraussetzung für die Ableitung eines spezifischen Modells ist, dass das allgemeine Modell in einer angemessenen Sprache formuliert wird, die sowohl die konkreten und sichtbaren als auch die abstrakten Elemente des betroffenen Gegenstandsbereiches in angemessenen Begriffen zu fassen vermag. Das kann, wie in den Naturwissenschaften üblich, die Mathematik sein, muss es aber nicht.
Gemäß dem Ideal des HO-Schemas sind überdies sämtliche Annahmen in Form grundlegender Gesetzmäßigkeiten und geltender Rahmenbedingungen präzise zu beschreiben. Auf Basis dieser expliziten und vollständigen Darstellung sämtlicher Bestandteile des Modells gelangt man dann je nach Festlegung verschiedener spezieller Rahmenparameter zu einer Reihe spezifischer Modelle. Sofern deren spezielle Eigenschaften sichtbar sind, bieten sie sich als praktische Überprüfungsmerkmale des allgemeinen Modells an.
Um beispielsweise die Theorie der Schwerkraft zu überprüfen, muss man das Gravitationsgesetz auf spezielle Gegenstände und Rahmenbedingungen anwenden. Ein im Einfluss der Schwerkraft vom Turm fallender Stein entspricht dann der Konkretisierung auf ein spezifisches Modell. Dieses spezifische Modell hat spezielle Eigenschaften, die beobachtet werden können, zum Beispiel die Zeitdauer bis zum Aufschlag des Steins auf dem Boden.
Die Notwendigkeit sichtbarer Vorhersagen
Die Eigenschaften eines spezifischen Modells können sich auf bekannte wie auch auf unbekannte Phänomene beziehen. Letztere sind besonders interessant und bedeutsam, da sie Vorhersagen von etwas Neuem, bisher Unbekannten sind. Durch die Konkretisierung auf verschiedene spezifische Modelle wird von den Wissenschaftlern herausgearbeitet, was alles in der allgemeinen Theorie steckt. Diese speziellen Eigenschaften des Modells haben den Charakter theoretischer Prophezeiungen.
Allerdings sind nur die sichtbaren Eigenschaften für eine intersubjektive Beurteilung dieser Prophezeiungen und somit die Überprüfung des Modells relevant. Von einem guten Modell muss daher erwartetet werden, dass sich ausreichend sichtbare Wirkungen ableiten lassen. Ein Modell ohne sichtbare Merkmale gilt in der Wissenschaft zu Recht als wertlos, da es keinerlei Ansatzpunkte für eine Überprüfung bietet. Eine Theorie, welche die Bewegung eines Planeten beispielsweise dadurch erklärt, dass unsichtbare »Engel« den Planeten gemäß der beobachtbaren Bahn durchs Weltall lenken würden, ist aus wissenschaftlicher Sicht unbrauchbar. Es sind vorrangig die sichtbaren Eigenschaften eines spezifischen Modells, welche die Grundlage einer objektiven Überprüfung darstellen und zeigen, ob das Modell in der Lage ist, die verschiedenen Facetten der betrachteten Phänomene geeignet wiederzugeben.
Im Unterschied zur Konstruktion einer Erklärung, bei der Intuition und Kreativität eine große Rolle spielen, ist dieser zweite deduktive Schritt der Konkretisierung eher technischer Natur. Nicht Inspiration, sondern Transpiration ist hier die Losung. Für einen Wissenschaftler, der sein Handwerk versteht und die notwendigen mathematisch-logischen Prinzipien und Formalismen diszipliniert nutzt, mag die Konkretisierung eines Modells mit Mühe und Anstrengung verbunden sein, stellt jedoch keine grundsätzliche Herausforderung dar.
— Bewährungsprobe
Die kritische Prüfung einer Theorie
Im dritten Schritt, der systematischen und kritischen Prüfung, trennt sich schließlich die Spreu vom Weizen. Hier wird die Tauglichkeit einer Theorie offenbar. Nun zeigt sich, ob die Theorie als vorerst bewährt gelten darf oder in der vorliegenden Form zu verwerfen ist. Als wichtiger Maßstab für die kritische Prüfung gelten Tatsachengerechtigkeit, Konsistenz und Kohärenz.
Tatsachengerechtigkeit
Da Wissenschaft die Wirklichkeit beschreiben will, müssen ihre Erkenntnisse auch mit unserer Erfahrung korrespondieren. Aus diesem Grund gilt die Tatsachengerechtigkeit (auch empirische Konsistenz genannt), welche die augenscheinliche Übereinstimmung der Theorie mit der Realität bezeichnet, als das zentrale Wahrheitskriterium. Ein Modell kann noch so einleuchtend, ästhetisch reizvoll oder wünschenswert sein, letztlich muss es die Realität angemessen widerspiegeln. Hierzu muss es sich an der Erfahrung messen lassen. Die Realität ist in diesem Sinne der gerechte und zugleich unbarmherzige Richter eines jeden Modells.
Zur Feststellung der Tatsachengerechtigkeit werden die aus der Theorie abgeleiteten Vorhersagen, also die Eigenschaften eines spezifischen Modells, mit den tatsächlichen Gegebenheiten verglichen. Dieser Schritt erfolgt durch konkrete Beobachtungen oder Messungen im Rahmen eines Experiments. Die Prüfung im Experiment umfasst die Herstellung spezieller Bedingungen, bei denen gemäß den theoretischen Vorhersagen des Modells bestimmte Effekte auftreten müssten. Werden die Vorhersagen tatsächlich beobachtet, wird dies als ein Hinweis auf die Brauchbarkeit des Modells gewertet. Manchmal gibt es ein fundamentales Schlüsselexperiment (»experimentum crucis«), dessen Ergebnis im Hinblick auf die Akzeptanz einer Theorie als entscheidend angesehen wird. Im Allgemeinen ist die kritische Überprüfung aber eher als Prozess zu sehen. Je allgemeiner ein Modell ist, desto mehr spezifische Modelle lassen sich im Laufe der Zeit ableiten, die ihrerseits Anlass zu neuen überprüfbaren Vorhersagen geben.
In der Praxis ist ein Experiment häufig alles andere als einfach aufzubauen und durchzuführen. Beispielsweise werden in der Teilchenphysik die Experimente immer aufwendiger, je tiefer wir in die Materie hineinblicken. So sind zur Erforschung der Grundbausteine der physikalischen Welt mittlerweile riesige Hochbeschleunigeranlagen notwendig, um Bedingungen zu erzeugen, unter denen die kleinsten bekannten Teilchen beobachtet werden können. Die Existenz vieler theoretisch vorhergesagter Elementarteilchen wurde in derartigen Experimenten nachgewiesen und dadurch die physikalischen Modelle erhärtet.
Interne Konsistenz
Eine Theorie, die in sich nicht schlüssig ist, kann nicht tatsachengerecht sein. Das Kriterium der internen oder inneren Konsistenz, welche die innere Widerspruchsfreiheit einer Theorie bezeichnet, trägt dieser Gefahr Rechnung. Wie wichtig es ist, dass ein logisches System widerspruchsfrei ist, wurde bereits ausführlich diskutiert. Daher ist unbedingt zu prüfen, ob die im Modell enthaltenen Gesetze und Randbedingungen miteinander verträglich sind. Die Widerspruchsfreiheit ist die formale Voraussetzung einer jeden Theorie, auch wenn sie gemäß der Gödel’schen Unvollständigkeitssätze nicht bewiesen werden kann. Aus praktischen Gründen wird daher die innere Konsistenz bis auf Weiteres angenommen, solange keine Widersprüche auffällig geworden sind. Dieser Pragmatismus ist aber nur dann zu rechtfertigen, wenn das Modell zuvor auf Herz und Nieren bezüglich möglicher Inkonsistenzen geprüft wurde. Sobald logische Widersprüche auftreten, ist jedoch Alarmbereitschaft geboten.
Externe Konsistenz
Ein drittes wichtiges Prüfkriterium ist die externe oder äußere Konsistenz. Diese stellt sicher, dass eine Theorie im Einklang mit anderen etablierten Theorien steht. Gemäß der äußeren Konsistenz dürfen in den Bereichen, in denen sich unterschiedliche Modelle überschneiden, keine widersprüchlichen Aussagen bestehen. Wäre dies der Fall, so müsste mindestens eines der betroffenen Modelle überarbeitet werden. Manchmal kann die Konsistenz einer neuen Theorie mit einer bereits mehrfach getesteten und bewährten Theorie als Verkürzung der empirischen Prüfung genutzt werden. So erübrigt sich selbstverständlich der Nachweis eines vorhergesagten Effekts, wenn dieser bereits bekannt ist oder im Rahmen einer anderen Theorie empirisch bestätigt wurde.
Kohärenz
Innere und äußere Konsistenz sind die notwendige Voraussetzung für ein weiteres wichtiges Wahrheitskriterium: die Kohärenz. Kohärenz, aus dem Lateinischen »cohaerere« (zusammenhängen), geht über die Konsistenz hinaus, indem zusätzlich zur internen und externen Widerspruchsfreiheit auch noch ein inhaltlicher Zusammenhang der Aussagen gefordert ist. Der Grundgedanke ist, dass die Konsistenz eines Aussagensystems in dem Maße an Bedeutung gewinnt, in dem es sich nicht nur um unabhängige Aussagen handelt, sondern diese inhaltliche Überschneidungsbereiche aufweisen.
Betrachten wir hierzu die Aussage: »Letzte Woche sind in einem Münchner Biergarten mehrere Menschen durch einen Blitzeinschlag verletzt worden.« Wenn es auch kein Beleg ist, so wird der Wahrheitsgehalt dieser Aussage zum Beispiel durch die Pressemitteilung »In der letzten Woche wurde Oberbayern von schweren Gewittern heimgesucht« gestützt. Gleiches gilt für die Aussage: »In der letzten Woche hatte die Münchner Feuerwehr doppelt so viele Einsätze wie im Jahresdurchschnitt.« Alle drei Aussagen sind nicht nur widerspruchsfrei, sondern zudem kohärent, weil sie in die »gleiche Richtung« weisen und sich dadurch gegenseitig stützen.
— Der Teufel steckt im Detail
Fehldeutung von Belegen und Widersprüchen
So klar und einleuchtend die genannten Prüfungskriterien für sich genommen sind, so schwierig kann sich deren Anwendung in der Praxis gestalten. Dies betrifft insbesondere die Überprüfung der empirischen Konsistenz einer Theorie. Da der Teufel hier im Detail steckt, gestalten sich seriöse Studien und Experimente häufig sehr aufwendig und kostspielig.
Praktische Probleme bei der Prüfung empirischer Konsistenz Die Schwierigkeit besteht darin, dass sich die Tatsachengerechtigkeit einer Theorie nur zuverlässig prüfen lässt, wenn die Beobachtung unter exakt den Bedingungen stattfindet, die im Modell angenommen wurden. Daher ist sicherzustellen, dass sämtliche äußeren Einflüsse, welche die Beobachtung der untersuchten Gesetzmäßigkeit verfälschen könnten, ausgeschlossen oder zumindest hinreichend minimiert wurden. Ob in einem konkreten Fall die wesentlichen Störfaktoren tatsächlich erkannt und eliminiert wurden, ist bei komplexen Modellen nicht immer klar. Je nach Situation kann sogar der subjektive Einfluss der experimentierenden Wissenschaftler den zu untersuchenden Kontext ungewollt verändern.
Um das Risiko unzulässiger Verfälschungen gering zu halten, wurden im Rahmen der verschiedenen wissenschaftlichen Disziplinen im Laufe der Zeit spezielle Verfahren und Messgeräte entwickelt. In Psychologie und Medizin sind beispielsweise Doppelblindversuche üblich, um sicherzustellen, dass der Versuchsleiter die Reaktion der Probanden nicht beeinflusst. Statistische Verfahren helfen dabei, aus einer Vielzahl individueller Beobachtungen fehlerhafte Ausreißer auszufiltern und den Blick auf gemeinsame Merkmale und Muster freizulegen.
Darüber hinaus muss die Gefahr einer kollektiven Täuschung der beteiligten Wissenschaftler bedacht werden. Dem wird üblicherweise dadurch entgegengewirkt, dass der Kontext der Beobachtungen systematisch verändert wird. Dies bedeutet, dass die Gesetze der Theorie auf unterschiedliche Situationen angewendet, also genügend unterschiedliche spezifische Modelle zur Überprüfung abgeleitet werden. Weiter wird insbesondere in den Naturwissenschaften, wann immer möglich, die menschliche Wahrnehmung von der Beobachtung abgekoppelt, indem geeignete Messgeräte benutzt werden. Hierbei wird der zu beobachtende Effekt in physikalische Größen »transformiert«, die für alle Beteiligten eindeutig sind. Angenommen, es soll ein von der Theorie vorhergesagter Wärmeeffekt nachgewiesen werden, dann wird man sich nicht auf den Tastsinn der Beobachter verlassen, sondern ein normiertes Gerät verwenden. An einem Thermometer lässt sich die Temperatur unabhängig vom individuellen Wärmeempfinden der Wissenschaftler zweifelsfrei ablesen.
Fehldeutung von Belegen und Widersprüchen
Selbst wenn Wissenschaftler auf der theoretischen wie auch der praktischen Ebene systematisch und mit höchster Sorgfalt arbeiten, sind Fehleinschätzungen bei der Prüfung einer Theorie nicht auszuschließen. Sowohl Übereinstimmungen als auch Widersprüche zwischen theoretischer Hypothese und Beobachtung können falsch gedeutet werden. Dieser Sachverhalt ist in der folgenden Abbildung in Form eines »stochastischen Quadrats« veranschaulicht.
Abb.14: Beobachtung und Wahrheit
Wie das Schaubild zeigt, gibt es zwei kritische Fälle, bei denen es zu einem Irrtum bei der Prüfung einer Hypothese kommen kann. Der erste Fall liegt vor, wenn die Beobachtung darauf schließen lässt, dass eine Hypothese richtig ist, diese in Wirklichkeit aber falsch ist. In solch einem Fall wird das Modell zu Unrecht erhärtet. Ein Beispiel hierfür war die Ansicht der Philosophen in der Antike, dass ein Körper sich genau dann gleichförmig bewegt, wenn eine konstante Kraft auf ihn einwirkt. Befestigt man einen schweren Felsbrocken an einer Kette und schleift ihn über die Straße, so scheint die Erfahrung diese Hypothese zu stützen. In Wahrheit entsprechen in diesem Fall die Bedingungen des Experiments nicht der theoretischen Vorstellung. Es wurde nämlich übersehen, dass zusätzlich zur Zugkraft auch eine bremsende Reibungskraft wirkt, die diese bei einer gleichmäßigen Bewegung des Steinbrockens genau aufwiegt. Erst viele hundert Jahre später wurde das Modell der alten Griechen als falsch entlarvt und im Rahmen der Newton’schen Physik revidiert. Fortan wusste man, dass ein Körper in Ruhe bleibt oder sich gleichförmig bewegt, wenn in Summe keine Kraft auf ihn einwirkt.
Die zweite Möglichkeit einer falschen Prüfungsbewertung tritt auf, wenn eine Hypothese zwar richtig ist, sich aber aufgrund unerkannter Seiteneffekte ein empirischer Widerspruch ergibt. Auch hierzu ein Beispiel aus der klassischen Physik. Diese lehrt, dass die Bewegung aller Gegenstände, unabhängig von ihrer jeweiligen Masse, im Schwerefeld der Erde gleichartig verläuft. Was aber geschieht, wenn man gleichzeitig einen Luftballon und eine Eisenkugel von einem Turm fallen lässt? Wie die Beobachtung zeigt, kommt die Eisenkugel deutlich früher am Boden an. Von gleicher Bewegung keine Spur! Aufgrund dieses negativen Versuchsergebnisses müsste man die Richtigkeit des Modells ernsthaft anzweifeln. In diesem Fall aber zu Unrecht, denn tatsächlich gilt die theoretische Vorhersage genau genommen nur in einem Vakuum. Diese wichtige Bedingung der Theorie ist im genannten Experiment nicht erfüllt, weil hier der Luftwiderstand nicht vernachlässigbar ist. Für eine sachgerechte Überprüfung muss der Versuch in einer Vakuumröhre durchgeführt werden. Dort zeigt sich eindrucksvoll, dass Luftballone, Vogelfedern, Büroklammern, Blütenblätter und Metallkugeln exakt die gleiche Zeit benötigen, um aus einer bestimmten Höhe zu Boden zu fallen.
Wie funktioniert die Prüfung komplexer Theorien?
Die eben erläuterte doppelte Möglichkeit des Irrtums sollte klargemacht haben, dass der Schritt der systematischen Prüfung in vielen Fällen alles andere als trivial ist. Um zu verstehen, wie der wissenschaftliche Erkenntnisprozess und der mit ihm verbundene Fortschritt angesichts dieser Problematik dennoch funktioniert, ist eine vertiefte Betrachtung erforderlich.
Angesichts der vielfältigen Irrtumsmöglichkeiten bei der Modellprüfung stellen sich insbesondere bei komplexen Theorien verschiedene Fragen: Was bedeutet es, wenn sämtliche bisherigen Prüfungen das Modell gestützt haben? Kann man dann einer Theorie bis auf Weiteres vertrauen? Wie ist damit umzugehen, wenn eine bewährte Theorie eine hohen Erklärungskraft hat, aber in Teilbereichen versagt? Was ist zu tun, wenn nach einiger Zeit Widersprüche zu einer etablierten Theorie auftauchen? Ist die Theorie dann sofort zu verwerfen?
Um diese und ähnliche Fragen geht es im nächsten Kapitel. Zuvor jedoch noch ein kurzer Exkurs, welcher sich mit dem Verhältnis von Wissenschaft und Technik befasst.
— Exkurs Technik
Von der Theorie zur praktischen Anwendung
Nach der Erläuterung der grundlegenden wissenschaftlichen Methodik widmet sich dieser Abschnitt dem Verhältnis von Wissenschaft und Technik. Wenn Wissenschaft die Disziplin ist, die der Realität ihre Geheimnisse entlockt, dann ist Technik diejenige, welche diese Geheimnisse nutzbar macht. Die Wissenschaft ist quasi die Mutter und die Technik die Tochter. In diesem Sinne hat nicht nur die Naturwissenschaft, sondern jede Wirklichkeitswissenschaft ihre »Technik«. Im Falle von Medizin und Psychologie entsprechen beispielsweise die verschiedenen Therapieformen der Technik.
Die Umkehrung des wissenschaftlichen Dreischritts
Wenn auch die Zielsetzung von Wissenschaft und Technik unterschiedlich sind, so bestehen in ihrer grundlegenden Methodik hohe Gemeinsamkeiten. So nutzt auch die Technik den wissenschaftlichen Dreischritt, allerdings in umgekehrter Form. Während bei der Wissenschaft der kreative Sprung vom zu erklärenden Phänomen (Explanandum) auf die Erklärung (Explanans) erfolgt, bildet bei der Technik der wissenschaftliche Erkenntnisfundus in Form bestehender Erklärungen die Ausgangsbasis. Auch hier ist Kreativität gefordert - allerdings nicht, um Probleme zu erklären, sondern um geeignete Anwendungsgebiete für bereits verstandene Phänomene zu entdecken und die entsprechenden Rahmenbedingungen herzustellen, in der die bekannten Effekte in einer praktisch nutzbaren Art und Weise auftreten.
Beim technischen Entwicklungsprozess bildet immer ein praktisches Problem den Startpunkt. Die Frage lautet am Anfang oft: Welches bekannte Phänomen (Naturgesetz) könnte bei der Erfüllung eines speziellen Anwendungswunsches helfen? Der Prozess beginnt daher häufig mit der Beschäftigung mit bereits erforschten Phänomenen, deren Gesetzmäßigkeiten in einem speziellen Kontext nutzbar sein könnten. Die Kenntnis der theoretischen Grundlagen und diverser spezifischer Modelle ist hier sehr hilfreich. Wenn klar ist, welche Gesetzmäßigkeit technisch genutzt werden soll, erfolgt die Konstruktion der Rahmenbedingungen, unter denen der gewünschte Effekt in geeigneter Weise auftritt. Das Herstellen dieser Bedingungen ist sehr ähnlich zum Aufbau eines Experiments. Es dient hier jedoch nicht zur Überprüfung der Theorie, sondern zur praktischen Nutzung der im speziellen Kontext auftretenden Wirkung.
Dieser Schritt stellt hinsichtlich Kreativität und Geschick eine hohe Herausforderung dar. Analog der Suche des Wissenschaftlers nach der besten Erklärung, gilt es hier unter unzähligen denkbaren Varianten die besten Rahmenbedingungen zu finden. Je nach Ergebnis der Konstruktion, wird auch bei diesem Schritt solange verbessert, bis eine zufriedenstellende Lösung gefunden ist.
Anwendungsfälle
Abhängig vom Anwendungsfeld kann man zweierlei Arten von Technik unterscheiden. Im ersten Falle geht es vornehmlich darum, einen gewünschten Effekt in standardisierter, praktischer »Verpackung« nutzbar zu machen, also um die Herstellung eines »Gerätes« im weitesten Sinne. Ein Beispiel hierfür ist die Lichterzeugung über eine Glühwendel. Für die Prüfung des Prinzips der elektrischen Erzeugung von Licht reicht es vollkommen aus, eine Glühwendel mit einer Stromquelle zu verbinden. Das ist Wissenschaft. Für eine effektive Nutzung des Phänomens bedarf es jedoch einer für jedermann handhabbaren Form. Wir kennen diese als Glühbirne, bestehend aus Glühwendel nebst Schutzglas und Gewinde, sowie einer dazu passenden Lampe inklusive Fassung, Lichtschalter und Stecker. Das ist Technik.
Die andere Form von Technik besteht darin, Verfahren zu schaffen, die mehreren komplexen Phänomenen bestmöglich Rechnung tragen. Dies trifft beispielsweise für psychologische Therapien oder pädagogische Konzepte zu. Hier geht es vornehmlich darum, anhand von Modellen der menschlichen Psyche oder des menschlichen Lernens, Therapie- oder Lernmethoden zu entwickeln, die diesem Verständnis Rechnung tragen.
Das fruchtbare Zusammenspiel von Wissenschaft und Technik
Aufgrund ihrer engen Verwandtschaft stehen Wissenschaft und Technik in einem fruchtbaren Wechselspiel. Das Fortschreiten der Wissenschaft führt über kurz oder lang automatisch zu neuen technischen Anwendungen und Instrumenten. Diese ermöglichen neuartige Beobachtungen und Erfahrungen, die wiederum Anlass zur Forschung bieten und mit der Zeit zu neuen oder umfassenderen Theorien führen.
Zum Beispiel führte die Entdeckung der optischen Gesetze in der Physik dazu, dass optische Geräte wie beispielsweise das Mikroskop entwickelt werden konnten. Damit ließen sich für das bloße Auge unsichtbare Phänomene, zum Beispiel Bakterien, beobachten. Diese Entdeckung bereicherte und beschleunigte wiederum die Entwicklung von Biologie und Medizin.
Orientierungs- und Verfügungswissen
Lange schien es gerechtfertigt zu sein, die Wissenschaft als weitgehend wertfrei zu bezeichnen, da sie lediglich bestehende Gesetzmäßigkeiten aufzeigt, also Orientierungswissen liefert. Durch die starke Verknüpfung mit der Technologie sieht das heute jedoch anders aus. Mit dem Erkennen einer Gesetzmäßigkeit stellt sich unweigerlich auch die Frage nach entsprechenden Nutzungs- und Anwendungsmöglichkeiten. Dieses Verfügungswissen kann positiv oder negativ verwendet werden. So kann der Effekt der Kernspaltung zur Bestrahlung in der Krebstherapie, zur Stromerzeugung in Atomkraftwerken oder als Waffe in Form von Atombomben genutzt werden. Spätestens beim Einsatz von Technik werden ethische Fragen relevant.
Dürr fasst die Beziehung der beiden menschlichen Motive Erkenntnisgewinn und Anwendung schön zusammen: »Traditionell versteht sich Wissenschaft im Sinne des ersten Motivs als ein Teil der Philosophie, der es primär um Erkenntnis und Wahrheit geht. Diese Betrachtungsweise bestimmt auch heute noch weitgehend das Selbstverständnis eines Wissenschaftlers an der Universität. Die tatsächliche Situation scheint dies jedoch kaum mehr zu rechtfertigen – wenigstens in der Naturwissenschaft nicht. Die eigentliche Beschäftigung der Naturwissenschaft hat vielmehr direkt oder indirekt mit dem zweiten Motiv, nämlich mit den praktischen Anwendungen dieser Wissenschaft zu tun, wie sie insbesondere in der Technik zum Tragen kommt. Hier ist Wissen nicht mehr primär ein Promotor von Erkenntnis, von Einsicht und Weisheit, sondern Wissen wird hier zum Know-how, Wissen wird hier zu einem hochpotenten Mittel der Macht, einer ungeheuer ambivalenten Macht, deren vernünftige Handhabung unbedingt einer geeigneten Bewertung erfordert.«77
KURZFASSUNG
Der grundlegende methodische Mechanismus, der zur Entwicklung einer wissenschaftlichen Theorie führt, besteht in einem systematisch angewendeten Dreischritt: Konstruktion eines erklärenden Modells, Konkretisierung durch Ableitung spezifischer Modelle und die beide Schritte verbindende, systematische und kritische Prüfung. Dieses einfache Grundprinzip wissenschaftlicher Tätigkeit ist deshalb so erfolgreich, weil dabei die Stärken deduktiver und induktiver Methodik effektiv miteinander kombiniert und gleichzeitig deren Schwächen eliminiert werden. Die vielfältigen menschlichen Fähigkeiten wie Kreativität, Vorstellungskraft und Intuition auf der einen, wie auch Systematik, Analytik und Logik auf der anderen Seite, werden gleichermaßen genutzt und in ein strukturiertes Vorgehen integriert.
Die sichtbaren Eigenschaften der aus einem allgemeinen Modell abgeleiteten, spezifischen Modelle bilden die wesentliche Basis einer objektiven Überprüfung. Die Eigenschaften des spezifischen Modells entsprechen theoretischen Prophezeiungen, die anhand der Realität beurteilt werden können und müssen. Neben der auf diese Weise feststellbaren Tatsachengerechtigkeit spielen bei der kritischen Prüfung auch noch die Kriterien der internen und externen Konsistenz sowie der Kohärenz eine wichtige Rolle. Nicht die Art und Weise, wie ein Modell entsteht, sondern ausschließlich das Ergebnis der kritischen Prüfung, die häufig in Form systematischer Experimente durchgeführt wird, entscheidet über die Güte einer Theorie. In der Prüfung muss sich zeigen, ob eine Theorie akzeptiert werden kann oder verworfen werden muss. Bei komplexen Theorien sind Prüfung und Bewertung in aller Regel kein einmaliger Akt, sondern ein fortlaufender Prozess. Mit neuen Modellspezifikationen ergeben sich neue Vorhersagen, die wiederum neue Möglichkeiten dafür schaffen, die Richtigkeit der Theorie zu überprüfen.
So grundlegend der wissenschaftliche Dreischritt ist, er reicht noch nicht aus, um den wissenschaftlichen Erkenntnisprozess und den mit ihm verbundenen Fortschritt vollständig zu erklären. Angesichts der vielfältigen Irrtumsmöglichkeiten bei der Modellprüfung stellen sich vor allem bei komplexen Theorien verschiedene Fragen: Was bedeutet es, wenn sämtliche bisherigen Prüfungen das Modell gestützt haben? Kann man dann der Theorie bis auf Weiteres vertrauen? Wie ist damit umzugehen, wenn eine bewährte Theorie einen hohen Erklärungswert hat, aber in Teilbereichen versagt? Was ist zu tun, wenn nach einiger Zeit Widersprüche zu einer etablierten Theorie auftauchen? Ist die Theorie dann umgehend zu verwerfen?
→ Nach der Untersuchung der strukturellen Eigenschaften einer Theorie und den Grundlagen der Modellbildung stellt sich die Frage nach der Dynamik, die zu immer besseren Theorien führt. Im folgenden Kapitel werden dazu verschiedene Akzeptanz- und Verwerfungsstrategien vorgestellt.