Читать книгу Analytische Philosophie - Michael Otte - Страница 15
I.9
ОглавлениеBei den Experimenten am CERN gehe es doch um Fakten, wird eingewendet. Das Problem der Fakten besteht bloß darin, dass sie immer zu viele anstatt zu wenige Erklärungen zulassen oder gar suggerieren. Fakten sind am Ende auch bloß Instrumente zu bestimmten Zwecken. Niemand hat davon mehr Gebrauch gemacht als die analytische Philosophie. Wieso hätte sonst deren Stammvater Leibniz behaupten können, dass alle Erkenntnis schließlich analytisch sei. »Es gibt nichts Komplizierteres als Tatsachen. Die Fähigkeit, Tatsachen unbefangen zu beschreiben, kann nur zweierlei verraten: völlige Ignoranz oder einen überaus fein strukturierten Apparat von Begriffen« (P. Hacks, Werke, Berlin 2003, Bd. 13, S. 119).
Und bereits in dem Umbruch der exakten Wissenschaften zu Ende des 19. Jahrhunderts war deutlich geworden, dass jedes Experiment, welches uns neue Fakten liefern soll, selbst ein ganzes Bündel theoretischer und technischer Voraussetzungen besitzt und in seinen Ergebnissen von den benutzten theoretischen Mitteln und technischen Werkzeugen abhängig ist (vgl. dazu ein sehr informatives Gespräch zwischen Einstein und Heisenberg: W. Heisenberg, Der Teil und das Ganze, 9. Auflage, München 2012, S. 79–83).
Nicht, dass Daten und Informationen unwichtig wären, ganz im Gegenteil. Daten und Erklärungen oder Theorien gehören jedoch zu unterschiedlichen Realitätsebenen, ebenso wie Dinge und Zeichen, das bereits genannte Cordon Bleu eben und die Speisekarte. Und die Beziehungen dieser unterschiedlichen Ebenen zueinander sind komplex und uneindeutig. Im Rahmen der analytischen Philosophie hat das vor allem Quine herausgestellt und in zwei vieldiskutierten und zusammenhängenden Thesen zum Ausdruck gebracht – die eine ist die These von der »Unterbestimmtheit« unserer Theorien durch Daten und die andere die These von der »Unbestimmtheit der Übersetzung« (vgl. Kapitel VII.). Quine ist auch der einzige Philosoph aus dem logisch-analytischen Lager, der die Bedeutsamkeit des Begriffs der Theorie und das damit verbundene Problem des Bedeutungsholismus anerkannt hat. Wegen seines Selbstverständnisses als Logiker hat er jedoch dem sogenannten »context of justification« so viel Gewicht beigemessen, dass er nicht zu einer »komplementaristischen« Semantik gekommen ist, sondern auf einer rein extensionalen Semantik beharrt hat. Er gesteht zwar zu, dass es nichts »Grundlegenderes für das Denken« gibt als »unser Ähnlichkeitsgefühl. Der allgemeine Term […] verdankt normalerweise seine Allgemeinheit einer Ähnlichkeit zwischen den Dingen, über die er spricht«, aber er findet die Sache für die Logik der Wissenschaften nicht bedeutsam genug (W. V. O. Quine, Ontologische Relativität und andere Schriften, Stuttgart 1975, S. 160; vgl. dagegen: J. D. Sneed, The Logical Structure of Mathematical Physics, Dordrecht, 1971; C. Castonguay, Meaning and Existence in Mathematics, New York 1972).
Die wissenschaftliche Verallgemeinerung ist eine Suche nach einem angemessenen Kontext und ist andererseits verbunden mit der Notwendigkeit des Denkens, allzu umfassende Zusammenhänge und allzu direkte Verbindung zwischen Wissen und Wirklichkeit abzuschneiden. Fakten sind immer zunächst Fakten einer Theorie, denn jede Erkenntnis verlangt eine Parzellierung und eine perspektivisch einseitige Darstellung. Der reale Widerstand, den die Welt als Ganze unseren Erkenntnisbemühungen entgegenstellte, wäre unendlich. Folglich wird eigentlich die Theorie in erster Linie entwickelt statt bloß getestet.
Es gibt beispielsweise drei Formulierungen der klassischen Mechanik, die von Newton (1643–1727), von Lagrange (1736–1813) und von Hamilton (1805–1865). Nun hat Dirac deutlich gemacht, dass wir erst an den mathematischen Formen dieser Theorien arbeiten müssen, um zur Quantenphysik zu gelangen, und dass dafür die Hamilton’sche die einzige geeignete scheint. »In fact, without using Hamiltonian methods one cannot solve some of the simplest problems in quantum theory« (P. Dirac, Lectures on Quantum Mechanics, New York 1966, p. 3; vgl. auch weiter Kapitel V.).
Theorien einerseits und Fakten oder Gegenstände andererseits sind also zirkulär aufeinander verwiesen. Und Gleiches gilt, konsequenterweise, für eine andere Separation, die dem Positivismus wie der analytischen Philosophie teuer ist, die nämlich zwischen Entdeckung und Begründung, denn selten entdeckt man etwas ohne vorherige, theoretisch begründete Hypothesen. Man muss ja seine Apparaturen irgendwie konstruieren und seine Experimente einrichten. Auch die Wissenschaftler am CERN wussten schon vorher, was sie suchten.
Seit etwa einem halben Jahrhundert haben sich beispielsweise theorieferne, synthetische Ansätze zur Erhebung und Analyse von Daten verbreitet. Man nennt das entsprechende Vorgehen »explorative Datenanalyse«, kurz EDA. John Tukey (1915–2000) der Begründer der EDA hat sie einmal wie folgt beschrieben: »Zur Datenanalyse gehören meiner Meinung nach unter anderem Verfahren zur Analyse von Daten, Techniken für die Interpretation der Ergebnisse solcher Verfahren und Möglichkeiten der Planung der Datenerhebung, um die Analyse einfacher, präziser oder genauer zu machen« (vgl. auch J. Tukey, Exploratory Data Analysis, München 1977). In der Statistik benennt EDA ein Verfahren zur Analyse von Daten-Sets, das ihre wichtigsten Merkmale oft mit visuellen und graphischen Methoden zusammenzufassen sucht. Das Hauptziel ist es, zu sehen, was die Daten »sagen«. EDA wird verwendet, um unerwartete Muster in Daten zu suchen. Es ist ein Ansatz zur Datenanalyse, der die üblichen Annahmen darüber, welche Art von Theorie oder Modell den Daten zugrunde liegt, verschiebt, um herauszufinden zu versuchen, welche Struktur oder welches Modell die Daten selbst anzeigen könnten.
Die explorative Datenanalyse und die Entwicklung der statistischen Programmiersprachen erleichterte vielen die Arbeit an wissenschaftlichen und technischen Problemen, wie die Herstellung von Halbleitern und das Verständnis von Kommunikationsnetzen, für die keine sinnvollen Theorien gegeben waren. Der Hinweis auf den konkreten Kontext der Daten und ihrer Verwendung ist hier wesentlich, d. h. man verfügt eigentlich von vorneherein über ein erfahrungsgeprägtes Modell. Man arbeitet gewissermaßen auf der Grundlage von Gedankenexperimenten statt einer bloß formellen Auswertung der Daten.
Beispielsweise wird behauptet, es hätte keine EURO-Krise und ähnliche ökonomische Desaster ohne den Einsatz der Computer gegeben. Informationen verlangen stets weitere Informationen, eben weil sie an sich und isoliert nichts bedeuten. Und das führt zu einer Flut, die dann nur noch Computer bewältigen können. An der Börse gibt es in der Regel keine sinnvollen Informationen zur eigentlichen Natur der Daten und daraus ergibt sich tendenziell eine Verwechslung von Daten und Wirklichkeit. Tatsächlich ist die Welt, so wie sie auf dem Computerbildschirm erscheint, zunächst nichts anderes als eine neue empirische Realität und es ist kein cartesischer Gott in der Nähe, der uns hilft, Traum und Realität zu unterscheiden. So kann dann der Autor, die Bankenkrise kommentierend, sagen: »Ohne den Computer […] wäre er (der homo oeconomicus) immer nur ein Modell geblieben; eine Theorie, die den Vorteil hatte […] nichts anderes zu sein als das« (F. Schirrmacher, EGO, München 2013, S. 30). Soll nun der Computer schuld sein?
Vermag man andererseits den Daten eine konkrete Funktion in pragmatischen Kontexten zu verschaffen, ist die Datenerhebung und Analyse sehr hilfreich und die Verfügbarkeit von Computern potenziert die Möglichkeiten. Verschiedene amerikanische Städte, wie New York oder Chicago, sind dazu übergegangen, die vielen Daten, die sie erheben, öffentlich zugänglich zu machen, und sie haben damit für viele Leute neue Orientierungen und Handlungsmöglichkeiten geschaffen. Beispielsweise hat man in Chicago festgestellt, dass wenn eine Immobilie mit einem Steuer-Pfandrecht belegt ist, dadurch die Wahrscheinlichkeit einer Brandkatastrophe um das Neunfache erhöht ist. Oder wenn die Stadtverwaltung aus einem bestimmten Stadtviertel gehäuft Telefonbeschwerden zu Mülltonnenproblemen erhält, weiß sie, dass sich dort in der darauffolgenden Woche ein Rattenproblem einstellen wird (The Economist vom 27. 4. 2013).