Читать книгу Lexikon der Erkenntnistheorie - Группа авторов - Страница 48
Fallibilismus
ОглавлениеUnter dem Begriff F. fasst man in der Erkenntnis- und Wissenschaftstheorie eine Gruppe von Positionen zusammen, nach denen alle nichttautologischen Aussagen (oder gewisse Untergruppen von ihnen) insofern unsicher sind, als Behauptungen hinsichtlich der objektiven (intersubjektiven) Geltung dieser Aussagen prinzipiell scheitern können (Popper 1994, Einleitung und Kap. 1). Der F. behauptet nicht, dass wir über kein Wissen (wahre Sätze) verfügen – der logische Negator erlaubt uns sogar, Paare von wahren und falschen Sätzen in unendlicher Anzahl zu produzieren –, aber er besteht darauf, dass wir wahre von falschen Sätzen oft nicht sicher unterscheiden können.
Vom F. als epistemischer Einstellung gegenüber Wissensansprüchen ist die Falsifikation als methodisches Verfahren zu unterscheiden, mit dessen Hilfe ein Wissensanspruch in einem geregelten Überprüfungsverfahren zurückgewiesen werden kann. Eine Falsifikation beruht auf einem Beschluss des sich als kompetent erachtenden Teils der „wissenschaftlichen Gemeinschaft“ und ist bei Veränderung der Beschlusslage selbst revidierbar. Als Verfahren zur Sicherung von Wahrheits- oder Falschheitsbehauptungen ist Falsifikation somit fallibel (Popper 1969; Losee 2005).
Eine frühe fallibilistische Position vertritt Xenophanes in Fragment 34: „Nimmer noch gab es den Mann und nimmer wird es ihn geben, der die Wahrheit erkannt von den Göttern und allem auf Erden. Denn auch, wenn er einmal das Rechte vollkommen getroffen, wüsste er selbst es doch nicht. Denn Wähnen nur ist uns beschieden.“ Der Begriff „fallibilism“ wird erstmals von Ch. S. Peirce in seinen Principles of Philosophy verwendet.
Der F. kann in verschiedenen Schattierungen auftreten. Radikale skeptische Positionen (Pyrrhon) lassen keine Unterschiede in der vermuteten Fehlerhaftigkeit von Erkenntnisansprüchen zu und sind daher vom F. abzugrenzen. Ein F. in Bezug auf das Allgemeine (z.B. Universalien, Gesetze) kann mit einer Infallibilismusbehauptung in Bezug auf das Besondere (z.B. Beobachtungen, ↗ Sinnesdaten) einhergehen. Beispiele hierfür bieten die Empiristen, Konventionalisten und Instrumentalisten des 19. und 20. Jahrhunderts, die in Beobachtungen („das Gegebene“, „Protokollsätze“ etc.) das Fundament der Wissenschaft sahen, während sie dem theoretischen Überbau nur eine systematisierende Funktion zuschrieben. Theoretische Systematisierungen der intendierten Art waren insofern infallibel, als ihr Gehalt nicht über den ihrer Beobachtungsbasis hinausgehen sollte. Eine andere Spielart des F. dehnt den Bereich der Unsicherheit auch auf die Beobachtungssätze (Neurath 1934; Popper 1969 u.a.) und sogar auf die Sätze der Logik und der Mathematik aus (Quine 1953, S. 42f.). Radikal fallibilistische Positionen hinsichtlich der Erkenntnis werden vom Konstruktivismus (H. von Foerster, E. von Glasersfeld u.a.) und vom Pragmatismus (Ch. S. Peirce, R. Rorty u.a.) vertreten. (↗ Konstruktivismus, ↗ Pragmatismus).
Der F. bestreitet nicht, dass es individuelle Gewissheiten, persönliche Erleuchtungserlebnisse oder subjektive Offenbarungserfahrungen geben kann (Duerr 1981), aber er besteht darauf, dass ein solcherart erworbenes Wissen individuengebunden ist und erst dadurch zu einer allgemeinen Erkenntnis werden kann, dass es intersubjektiv validiert wird. Dies schließt alle erkenntnistheoretischen Ansätze, die auf Evidenzerlebnisse oder Überzeugungen rekurrieren, aus dem Spektrum der hier betrachteten Positionen aus. Zur Abgrenzung zum subjektiven F. im Sinne der Fehlbarkeit persongebundener Überzeugungen könnte man die hier im Zentrum stehenden Positionen als objektiven F. bezeichnen. Der objektive F. beruht auf der Prämisse, dass Wissen, das mit dem Anspruch auf allgemeine (intersubjektive) Geltung auftritt (wie die Wissenschaft), nicht aus individuengebundenen psychischen Elementen (Erfahrungen, Intuitionen, Sinnes- oder Vernunftevidenzen), sondern nur aus mitteilbaren Entitäten (in einem intersubjektiv verständlichen Code gefassten Informationen, z.B. Sätzen einer Sprache) bestehen kann. Erfahrungen, Erlebnisse und Überzeugungen (etwa: „Ich sehe jetzt einen weißen Tisch“) können Sätze („Es existiert ein weißer Tisch“) nicht logisch begründen, weil es zwischen Erfahrungen und Erfahrungssätzen keine logische, sondern nur eine psychologische (unter Umständen auch eine kausale) Beziehung gibt. Sie können folglich auch seine Wahrheit nicht garantieren. Dieses Argument trifft auch neuere Formen des ↗ Reliabilismus (Charpa 2001, Kap. 3), in denen der Begriff des Wissens an die persönlichen Überzeugungen und Eigenschaften des Wissenden geknüpft wird. Auch in den Diskussionen um eine Lösung des ↗ Gettierproblems spielen die Überzeugungen von Personen eine wesentliche Rolle (Cohen 1988).
Der F. bestreitet auch nicht, dass es gut begründete Sätze (doxa) oder heuristische Methoden zur systematischen Erzeugung von solchen (Holland et al. 1987; Mayo 1996) gibt, aber er beharrt darauf, dass diese erst dann als sichere Erkenntnisse (epistêmê) gelten können, wenn bewiesen worden ist, dass sie unabhängig von besonderen Umständen, Zeit, Person, Kultur, paradigmatischer Bindung, Kontext, sozialem Milieu etc., gültig sind. Die Kernfrage, wie solche Gültigkeitsbeweise geführt werden oder wie derartige Begründungen aussehen könnten – wie wissenschaftliche Objektivität unabhängig von Kontextbedingungen möglich ist (Daston/Galison 2007) –, wurde allerdings bisher nicht in einer Weise, die wiederum den gerade genannten Maßstäben für eine Klassifizierung als sichere Erkenntnis genügen würde, beantwortet. Der F. ist eine Antwort auf diesen Zirkel, der sehr wohl ein vitiöser sein könnte. In der Geschichte der Erkenntnistheorie wurde er bisher vor allem in Gestalt eines Trilemmas diskutiert, das unter verschiedenen Bezeichnungen auftaucht: „Agrippas Trilemma“, „Fries’sches Trilemma“, „Münchhausen-Trilemma“ (Albert 1991, Kap. 1).
„Agrippas Trilemma“ und Möglichkeiten seiner Überwindung. In „Agrippas Trilemma“ scheitert das Programm der Begründung des Wissens
1) an einem intrinsischen logischen Zirkel (indem im Begründungsverfahren auf Sätze rekurriert wird, die selbst begründungsbedürftig sind),
2) an der Einführung von Konventionen oder Dogmen, die als Erkenntnisse missdeutet werden, aber tatsächlich unbegründet sind, oder
3) am Abbruch des Verfahrens an einem Punkt, der fälschlicherweise als unproblematisch angesehen wird. (↗ Skepsis [pyrrhonisch, akademisch])
Ein Ausweg aus dem Trilemma ist noch nicht gefunden (Stegmüller 1969, Kap. III und IV), aber auf verschiedene Weise denkbar. Es wäre vorstellbar, dass empirisch gehaltvolle Sätze gefunden werden können, die selbst nicht durch andere Sätze begründet werden müssen, weil ihr Wahrheitswert aufgrund
a) ihrer syntaktischen Eigenschaften,
b) ihrer Quelle,
c) der Art oder des Verfahrens ihrer methodischen Begründung,
d) ihres Verhältnisses zu anderen Teilen des Wissens,
e) ihrer externen Stützung
von allen kompetenten Benutzern der betreffenden Sprache sicher erkannt werden kann. ad a) Die Existenz von Sätzen, die aufgrund ihrer syntaktischen Eigenschaften wahr sind, wird von nahezu allen Personen mit logischer Kompetenz akzeptiert. Man bezeichnet solche Sätze als analytisch. Ihr Nachteil ist, dass sie keine Informationen über die Wirklichkeit beinhalten. ad b) Dass es Quellen von Informationen über die Welt gibt, erscheint trivial, doch nicht alle der behaupteten Quellen (Vernunft, Sinne, Experiment, Tradition, mystische Erleuchtung, göttliche Offenbarung, Regenten usw.) werden einmütig als solche akzeptiert. Die bevorzugten Quellen wechseln je nach philosophischer Schule, paradigmatischer Bindung, sozialem Netzwerk oder religiösem Hintergrund (Collins 2000). Strittig bleibt auch, wie zuverlässig die jeweils akzeptierten Quellen sind und ob es infallible Quellen gibt. Eine Erkenntnisquelle, die von allen philosophischen Schulen gleichermaßen als autoritativ akzeptiert würde, existiert nicht (Rescher 1985) (↗ Quellen der Erkenntnis).
ad c) Sofern die Wissenschaft auf das Allgemeine (Universalien, Gesetze, Theorien) zielt, muss sie dieses nach üblicher Auffassung aus Sätzen über Besonderes gewinnen. Angenommen, Letztere seien in Form von „Protokollsätzen“ durch einen kausalen Prozess der Wechselwirkung unserer Sinnesorgane mit der Außenwelt erzeugt worden (Carnap 1932), dann bleibt der Schluss von ihnen auf ein allgemeines Gesetz oder auf eine Theorie dennoch logisch ungültig. Eine solche Generalisierung führt, wie bereits D. Hume in Enquiry Concerning Human Understanding gezeigt hat, nicht zu infalliblem Wissen, sondern bestenfalls zu erfolgreichen Gewohnheiten bzw. vorläufig bestätigten Hypothesen und Theorien. Naturgesetze können aufgrund ihres universellen Charakters aus einer endlichen Menge von Einzelbeobachtungen nicht logisch erschlossen werden und bleiben empirisch unbegründbar (hypothetisch). Logisch gesehen ist dieses Problem mit dem Problem der Konstituierung von Universalien äquivalent. Sätze, die Allgemeinbegriffe enthalten, sind aus einer endlichen Menge von Beobachtungssätzen, die nur Partikularausdrücke enthalten, nicht ableitbar. Dies gilt z.B. auch für den Satz „Hier steht ein Glas Wasser“, weil dieser Satz auf die Universalien „Glas“ und „Wasser“ Bezug nimmt (Popper 1969, Anhang X).
Gegen die Kritik der induktiven Methode könnte man einwenden, dass sie davon ausgeht, dass das zu suchende Allgemeine immer eine unendliche Menge von Instanzen umfasst. Es gibt verschiedene kosmologische Modelle, die diese Voraussetzung nicht stützen. Die Schwierigkeiten der induktiven Methode wirken sich auch auf die Fallibilität wissenschaftlicher Erklärungen und Prognosen aus. Selbst dann, wenn es in der Realität abgeschlossene Systeme gäbe, könnten wir nicht wissen, ob die induktiv erschlossene Regelmäßigkeit, die wir einer Erklärung oder einer Prognose zugrunde legen, ein echtes Gesetz darstellt. Im Allgemeinen stellt jedoch die Offenheit von Systemen und damit die Möglichkeit des Intervenierens unbekannter Faktoren das größere Problem dar. Ein generelles Argument gegen die Möglichkeit, durch induktive Schlüsse „echte“ Gesetze von zufälligen Generalisierungen abzugrenzen, stammt von N. Goodman („Goodman-Paradox“ – Goodman 1988, Kap. 3).
Eine besondere Form der Begründung wurde von J. Habermas vorgeschlagen (Habermas 1984, V. Vorlesung). Er sieht in der Institutionalisierung idealer Gemeinschaften, deren Hauptmerkmal die Abwesenheit jeder Deformation des in ihnen stattfindenden Diskurses (etwa durch Macht und Gewalt) ist, die beste Möglichkeit zur Verringerung der Fallibilität des Wissens (oder sogar eine reale Chance zur Wahrheitsfindung). Dagegen könnte man einwenden, dass das Verfahren insofern zirkulär ist, als ein Erkenntnisprozess, der die zweifelsfreie Identifikation einer idealen Diskursgemeinschaft leisten könnte, bereits die Existenz einer solchen idealen Gemeinschaft voraussetzt.
ad d) Aus der Unterbestimmtheit jeder spezifischen Theorie durch die Erfahrung (Induktionsproblem) ergibt sich ein Begründungsdefizit, das ein Einfallstor für methodische Substitutkriterien sowie für außermethodische Wirkungsfaktoren öffnen kann. Unter den methodischen Substitutkriterien ist vor allem die Kohärenz eines Satzes mit anderen Teilen des akzeptierten Wissens zu nennen (Bartelborth 1996, Kap. IV–V). Argumente zugunsten bestimmter und zuungunsten anderer Sätze ergeben sich somit aus dem Netzwerk- bzw. Systemcharakter des Wissens. Je besser ein Satz in dieses Netzwerk eingebettet ist und je zentraler seine Position im System des akzeptierten Wissens ist, desto weniger fallibel erscheint er (Rescher 1979, S. 30). Weitere nichtempirische (teils methodische, teils metaphysische) Substitutkriterien, die in Abwesenheit wahrheitsgarantierender Verfahren als Indikatoren für (mögliche) Wahrheit verwendet werden (und somit die Fallibilität von Sätzen verringern sollen), sind Einfachheit, (mathematische) Schönheit, Kompatibilität mit anderen Theorien, Übereinstimmung mit tief verwurzelten metaphysischen, ontologischen und normativen Annahmen (Naturalismus, Symmetrieprinzipien etc. – Goodman 1984).
Die Netzwerkauffassung des Wissens hat wichtige Konsequenzen für die Prüfung von Hypothesen. Eine dieser Konsequenzen wurde in der Wissenschaftstheorie unter dem Titel „Duhem-Quine-Problem“ diskutiert. Fallibel ist nicht der einzelne Satz, sondern das Satzsystem. Bei einem Konflikt zwischen Theorie und Beobachtung oder zwischen verschiedenen Theorien gibt es immer mehrere Möglichkeiten, wieder Konsistenz herzustellen. Logisch betrachtet, lassen uns die Beobachtungen stets die Wahl zwischen verschiedenen theoretischen Systemen (Duhem 1978, Kap. 10–11). Die Entscheidung zwischen diesen kann nur aufgrund nichtempirischer Kriterien getroffen werden, die sich oft im Zusammenspiel mit außermethodischen Wirkungsfaktoren Geltung verschaffen.
Methodische Substitutkriterien verringern offensichtlich die wahrgenommene Fallibilität von Sätzen (Wissen), aber es ist umstritten, wie sie im Einzelnen zu bewerten sind („Ist mathematische Schönheit ein Indikator für Wahrheit?“ „Muss eine wahre Theorie eine naturalistische Theorie sein? “ etc.) und ob sie einen Ausweg aus Agrippas Dilemma eröffnen.
ad e) Außermethodische Wirkungsfaktoren können empirische Sätze (Beobachtungssätze und theoretische Hypothesen) stützen oder unterminieren und auf diese Weise ihre wahrgenommene Fallibilität verringern oder vergrößern. Wirkungsfaktoren dieser Art sind:
1) Mechanismen der Stützung oder Unterminierung von empirischen Sätzen, die durch die jeweilige paradigmatische Gruppe (Kuhn 1967), ein soziales Netzwerk (Latour 1987), das institutionalisierte Bewertungssystem, durch Wissenskulturen (Knorr Cetina 2002), lokale oder nationale Forschungsmilieus (Goldberg 1984), ökonomische Interessen (Resnik 2007) oder politisch gewollte Forschungsprogramme und Leithypothesen getragen werden.
2) Kognitive Mechanismen wie das Streben nach kognitiver Konsistenz, falsche Erinnerungen („Rückschau-Fehler“), systematische Effekte menschlichen Urteilens (Nisbett/Ross 1980), hypothesengeleitete Wahrnehmung, gestalthaftes Sehen und Gestaltwandel, experimentelle Artefakte (Rosenthal 1966) etc.).
3) Die kulturelle Einbettung des Forschungsprozesses, durch die bestimmte Basisannahmen, Hypothesen, Werte, Praktiken, Verfahren, Methoden unabhängig von epistemischen Erwägungen gestützt oder unterminiert werden (Pickering 1992; Nisbett 2003; Douglas/Wildavsky 1982).
Faktoren der genannten Art involvieren kausale Mechanismen, die Individuen zu dem Glauben bringen, die von ihnen bevorzugten Hypothesen seien empirisch besser gestützt als andere, die den genannten kausalen Mechanismen nicht unterliegen, meinen. Dabei ist zu berücksichtigen, dass diese Faktoren nicht nach dem Alles-oder-nichts-Prinzip wirken, sondern skalierbar sind. Unter ihrer Dominanz löst Agrippas Trilemma sich in einen nicht mehr durch Argumente und Gründe, sondern durch die in der jeweiligen Diskurssituation wirkenden kausalen Faktoren bestimmten (natürlichen) Prozess auf.
Einige Beispiele sollen dies verdeutlichen.
ad 1) In der wissenschaftshistorisch begründeten Theorie von Th. S. Kuhn (Kuhn 1967) hält der in eine paradigmatische Gruppe A eingebundene Wissenschaftler Argumente gegen das von der Eigengruppe vertretene Hypothesensystem samt seiner empirischen Basis ceteris paribus für weniger stichhaltig als Argumente gegen ein alternatives System, das von einer konkurrierenden paradigmatischen Gruppe B vertreten wird. Die kognitiven Folgen der sozialen Stützung durch das Netzwerk der paradigmatischen Gruppe sowie der damit verbundene dominierende Einfluss affirmativer, d.h. paradigmakonformer Informationen und Kommunikationen verhindern in der nach Kuhn für den Wissenschaftsprozess zentralen Phase der „normalen Wissenschaft“ (im Zusammenspiel mit weiteren kognitiven Mechanismen – vgl. Punkt 2), dass falsifizierende Evidenz als solche wahrgenommen und gewertet wird. Gerät ein Paradigma in eine Krise, so verliert dieser Mechanismus der Verhinderung von Falsifikationen mit der Desintegration des sozialen und kommunikativen Netzwerks der paradigmatischen Gruppe allerdings seine wichtigste Stütze. Auch in der vorparadigmatischen Phase der Wissenschaft greift der beschriebene Mechanismus aufgrund der noch nicht voll ausgebildeten Netzwerke nur unvollkommen.
Die soziale Aushebelung des F. in der Normalwissenschaft wirkt über eine Vielzahl von Mechanismen. Dazu gehört auch das institutionalisierte Bewertungssystem („Peer Review System“), das nach empirischen Befunden auch jenseits allgegenwärtiger paradigmabedingter Effekte Arbeiten mit positiven und konventionellen gegenüber solchen mit kontroversen Ergebnissen bevorzugt („confirmation bias“).
Zu den Erscheinungen, anhand derer sich die zumindest temporäre Suspendierung einer fallibilistischen Einstellung gegenüber dem wahrgenommenen wissenschaftlichen mainstream, gegenüber Fremdinteressen unterschiedlicher Art oder gegenüber impliziten Weltbildannahmen der eigenen Kultur dokumentieren lassen und die hier nur genannt werden können, gehören:
– die sehr selektive und unterschiedliche Akzeptanz fundamentaler Theorien und Entdeckungen mit Weltbildrelevanz in verschiedenen Ländern oder in unterschiedlichen religiösen, kulturellen oder politischen Kontexten, wie zum Beispiel der Evolutionstheorie, der Quantentheorie oder der speziellen und allgemeinen Relativitätstheorie (zur Relativitätstheorie Goldberg 1984; Glick 1987; zur Quantentheorie Forman 1994; zur Evolutionstheorie Kohn 1985);
– der Verlust einer kritischen Einstellung gegenüber Hypothesen, deren Vermarktung eine gute Rendite verspricht, in einer hauptsächlich vom ökonomischen Imperativ bestimmten Forschungslandschaft (Krimsky 2003; Resnik 2007);
– komplementär dazu: eine hyperkritische Einstellung gegenüber gut gesicherten Ergebnissen der Forschung, die eigenen oder adoptierten ökonomischen und politischen Interessen widersprechen (Oreskes/Conway 2010);
– eine durch wissenschaftsfremde Motive bestimmte Bevorzugung eines bestimmten Paradigmas in politisch gesteuerten oder überformten Bereichen der Forschung (Klima, Energie, Risikoeinschätzung etc.) – als abgemilderte Form einer Erscheinung, die man in deutlicherer Ausprägung in totalitären Systemen oder in Systemen mit religiösem Deutungsmonopol findet;
– die diskussionslose Ignorierung oder undifferenzierte Ablehnung von Ergebnissen, die fundamentalen (aber selbst als fallibel zu bewertenden) Weltbildannahmen des wissenschaftlichen mainstream widersprechen (Hasted 1981; Wallis 1979; Collins/Pinch 1982);
– komplementär dazu: die unkritische Übernahme von Ideen, Hypothesen und Ergebnissen, die mit fundamentalen Weltbildannahmen des wissenschaftlichen mainstream konform gehen;
– das Einknicken vor dem „Zeitgeist“, das oft erst im Rückblick als solches wahrgenommen wird.
ad 2) Die kognitiven Systeme des Menschen sind ein Ergebnis der Evolution. Dies bedeutet, dass sie daraufhin optimiert wurden, die Individuen der Spezies zu befähigen, ihre Gene weiterzugeben. Sie stehen folglich im Dienste des Überlebens der Art, nicht im Dienste des Ziels, eine im wissenschaftlichen Sinn korrekte Repräsentation der Realität zu liefern (Gigerenzer 2000; Gigerenzer/Selten 2001). Beide Ziele können, wie sich anhand der Forschungsergebnisse zeigen lässt, sogar im Konflikt stehen. Eine Vielzahl von Befunden der Kognitionsforschung zeigt, dass das Bild der Wirklichkeit ein Konstrukt des Gehirns ist und durch die Funktionsweise der kognitiven Systeme und die Eigenheiten des Konstruktionsprozesses geformt wird (Gregory 1990; Hoffman 2000). Für den F. sind jene Aspekte von Bedeutung, die die Wahrnehmung falsifizierender Evidenz hinsichtlich der aktuell bevorzugten Hypothesen oder das Aufkommen von Alternativen zur gewohnten Sichtweise behindern oder erleichtern könnten (Nisbett/Ross 1980; Shermer 2011). Die Konsequenzen für den Wissenschaftsprozess sind erheblich und reichen von Wahrnehmungstäuschungen aller Art, Wunschdenken („Marskanäle“), artifiziellen Bestätigungen („Kluger-Hans“-Effekt), wissenschaftlichen „Hystorien“ (Showalter 1997), gutgläubiger Ablehnung des Neuen bis zum Dogmatismus „reinen Gewissens“ jeglicher Couleur.
ad 3) Die Kultur, in der der Wissenschaftler verwurzelt ist, nimmt auf sein Denken einen größeren Einfluss, als ihm bewusst ist. Wenn die kognitive Grundeinstellung von Angehörigen des asiatisch-chinesischen Kulturkreises eine ganzheitlich-synthetische ist, in der nicht die Dinge und Prozesse als solche, sondern vor allem deren Kontextbedingungen als wichtig erachtet werden, dann hat dies nicht nur Einfluss auf den Prozess der Theorien- und Hypothesenbildung, sondern auch auf die Bewertung der Relevanz und sogar der Apriori-Wahrscheinlichkeit und somit der vermuteten Fallibilität von alternativen Hypothesen, die auf Analyse, Differenzierung und Vereinzelung von Dingen und Prozessen zielen (Nisbett 2003).
Ein weiterer im vorliegenden Zusammenhang wichtiger Befund besteht darin, dass die Wahrnehmung und Bewertung von Risiken durch Umwelt, Chemikalien, Krankheiten oder eigenes Verhalten einer starken kulturellen (subkulturellen, milieubedingten) Varianz unterliegen. Risiken, die im kulturellen Kontext A von hoher Bedeutung sind oder gefürchtet werden, können im kulturellen Kontext B ignoriert oder belächelt werden (Douglas/Wildavsky 1982).
Entsprechende Aussagen und Hypothesen, denen im Kontext A eine hohe Apriori-Wahrscheinlichkeit und eine geringe Fallibilitätschance zugeschrieben werden, können im Kontext B als äußerst unwahrscheinlich oder sogar als abwegig eingeschätzt werden.
Fazit. Der F. impliziert eine radikale darwinistische Umdeutung des Begründungsproblems (dazu Lorenz 1973). Die vom F. vollzogene Umkehr der Beweislast zieht die Lehre aus dem Umstand, dass in der Geschichte der Wissenschaften viele ehemals erfolgreiche Theorien später gescheitert sind. Einige radikale Fallibilisten vertreten diesen Standpunkt auch hinsichtlich der Methoden der Wissenschaft (Neurath 1934; Feyerabend 1976). Aufgrund der Unsicherheit induktiver Schlüsse können diese Beobachtungen jedoch nicht zum Gesetz erhoben werden. Der F. muss deshalb offen für die Möglichkeit bleiben, dass einige der bisher nicht verworfenen Gesetze und Theorien wahre Beschreibungen der Wirklichkeit sein könnten. Da wir dies (wiederum aufgrund der Unsicherheit induktiver Schlüsse) niemals mit Sicherheit wissen werden, verlangt der F. nicht mehr eine Fundierung des Wissens (sie wird aufgrund der o. g. Argumente als unmöglich angesehen), sondern nur mehr die Bereitschaft zur Suche nach Fehlern und zur Ausmerzung dieser. Es ist Aufgabe empirischer Forschung, diesen Prozess der Fehlererkennung und -beseitigung zu erforschen und zu optimieren (Gigerenzer 2000). Logische Basis der Identifikation fehlerhafter Hypothesen ist die Schlussfigur des modus tollens. Diese Einsicht wird in einem Teil der Literatur K. R. Popper zugeschrieben. Sie könnte jedoch wesentlich älter sein. Schon im Physikkommentar des Johannes Philoponos aus dem 6. Jh. n. Chr. finden wir eine Passage, die eine Übersetzung der logischen Denkfigur des modus tollens in die übliche Sprache darstellt. Sie lautet: „Sobald nämlich aus irgendeiner Hypothese etwas folgt, was nicht geschehen kann, dann widerlegt sich die Hypothese aus der Unmöglichkeit des Gefolgerten“ (Böhm 1967, S. 108).
Lit.: Albert, Hans: Traktat über kritische Vernunft, Tübingen: Mohr Siebeck, 51991.
Bartelborth, Thomas: Begründungsstrategien, Berlin: Akademie-Verlag, 1996.
Baumann, Peter: Erkenntnistheorie, Stuttgart/Weimar: J.B. Metzler, 2006.
Böhm, Walter: Johannes Philoponos. Grammatikos von Alexandrien, Paderborn/Wien: Schöningh, 1967.
Carnap, Rudolf: „Über Protokollsätze“, in: Erkenntnis III, 1932. S. 215–228.
Charpa, Ulrich: Wissen und Handeln, Stuttgart/Weimar: J. B. Metzler, 2001.
Cohen, Stewart: „How to be a Fallibilist“, in: Philosophical Perspectives, Vol. 2: Epistemology 1988. S. 91–123.
Collins, Harry M./Pinch, Trevor J.: Frames of Meaning. The Social Construction of Extraordinary Science, London: Routledge, 1982.
Collins, Randall: The Sociology of Philosophies, Cambridge/London: Harvard University Press, 2000.
Daston, Lorraine/Galison, Peter: Objektivität, Frankfurt a. M.: Suhrkamp, 2007.
Douglas, Mary/Wildavsky, Aaron: Risk and Culture. An Essay on the Selection of Technological and Environmental Dangers, Berkeley: University of California Press, 1982.
Duerr, Hans Peter (Hg.): Der Wissenschaftler und das Irrationale, 2 Bde., Frankfurt a. M.: Suhrkamp, 1981.
Duhem, Pierre: Ziel und Struktur der physikalischen Theorien, Hamburg: Meiner, 1978 (Leipzig 1908).
Feyerabend, Paul: Wider den Methodenzwang, Frankfurt a. M.: Suhrkamp, 1976.
Forman, Paul: „Weimarer Kultur, Kausalität und Quantentheorie 1918–1927“, in: Karl v. Meyenn (Hg.): Quantenmechanik und Weimarer Republik, Braunschweig/Wiesbaden: Vieweg 1994.
Gigerenzer, Gerd: Adaptive Thinking. Rationality in the Real World, Oxford: Oxford University Press, 2000.
Gigerenzer, Gerd/Selten, Reinhard (Hg.): Bounded Rationality. The Adaptive Toolbox, Cambridge/Mass.: MIT Press, 2001.
Gilbert, G. Nigel/Mulkay, Michael: Opening Pandoras Box. A Sociological Analysis of Scientist’s Discourse, Cambridge: Cambridge University Press, 1984.
Glick, Thomas F. (Hg.): The Comparative Reception of Relativity, Dordrecht: Reidel, 1987.
Goldberg, Stanley: Understanding Relativity. Origin and Impact of a Scientific Revolution, Boston/Basel/Stuttgart: Birkhäuser, 1984.
Goodman, Nelson: Weisen der Welterzeugung, Frankfurt a. M.: Suhrkamp, 1984.
Goodman, Nelson: Tatsache, Fiktion, Voraussage, Frankfurt a. M.: Suhrkamp, 1988.
Gregory, Richard L.: Eye and Brain. The Psychology of Seeing, Oxford: Oxford University Press, 1990.
Habermas, Jürgen: „Vorlesungen zu einer sprachtheoretischen Grundlegung der Soziologie“ (1970/71), in: ders., Vorstudien und Ergänzungen zur Theorie des kommunikativen Handelns, Frankfurt a. M.: Suhrkamp, 1984.
Hasted, John: The Metal-Benders, London: Routledge, 1981.
Hoffman, Donald D.: Visuelle Intelligenz. Wie die Welt im Kopf entsteht, Stuttgart: Klett-Cotta, 2000.
Holland, John H. et al. (Hg.): Induction. Processes of Inference, Learning, and Discovery, Cambridge: MIT Press, 1987.
Knorr Cetina, Karin: Wissenskulturen, Frankfurt a. M.: Suhrkamp, 2002.
Kohn, David (Hg.): The Darwinian Heritage, Princeton: Princeton University Press, 1985.
Krimsky, Sheldon: Science in the Private Interest, Lanham: Rowman and Littlefield, 2003.
Kuhn, Thomas S.: Die Struktur wissenschaftlicher Revolutionen, Frankfurt a. M.: Suhrkamp, 1967.
Latour, Bruno: Science in Action, Milton Keynes: Open University Press, 1987.
Lorenz, Konrad: Die Rückseite des Spiegels, München/Zürich: Piper, 1973.
Losee, John: Theories on the Scrap Heap. Scientists and Philosophers on the Falsification, Rejection and Replacement of Theories, Pittsburgh: University of Pittsburgh Press, 2005.
Mayo, Deborah G.: Error and the Growth of Experimental Knowledge, Chicago: University of Chicago Press, 1996.
Neurath, Otto: „Pseudorationalismus der Falsifikation“, in: Erkenntnis V, 1934. S. 353–365.
Nisbett, Richard E.: The Geography of Thought, New York: The Free Press, 2003.
Nisbett, Richard/Ross, Lee: Human Inference: Strategies and Shortcomings of Social Judgement, Englewood Cliffs: Prentice-Hall, 1980.
Oreskes, Naomi/Conway, Erik M.: Merchants of Doubt, New York: Bloomsbury Press, 2010.
Pickering, Andrew: Science as Practice and Culture, Chicago: University of Chicago Press, 1992.
Popper, Karl: Logik der Forschung (1934), Anhang X, Tübingen: Mohr Siebeck, 1969.
Popper, Karl, Vermutungen und Widerlegungen (1963), Tübingen: Mohr Siebeck, 1994.
Quine, Willard V. O.: „Two Dogmas of Empiricism“, in: ders.: From A Logical Point of View, New York: Harper and Row, 1953. S. 20–46 (dt. Frankfurt a. M./Wien 1979).
Rescher, Nicholas: Cognitive Systematization, Oxford: Blackwell, 1979.
Rescher, Nicholas: The Strife of Systems, Pittsburgh: Pittsburgh University Press, 1985.
Resnik, David B.: The Price of Truth. How Money Affects the Norms of Science, Oxford: Oxford University Press, 2007.
Rosenthal, Robert: Experimenter Effects in Behavioral Research, New York: Appleton-Century-Crofts, 1966.
Shermer, Michael: The Believing Brain, New York: Times Books, 2011.
Showalter, Elaine: Hystorien. Hysterische Epidemien im Zeitalter der Medien, Berlin: Berlin Verlag, 1997.
Stegmüller, Wolfgang: Metaphysik, Skepsis, Wissenschaft, Berlin: Springer, 21969.
Wallis, Roy: On the Margins of Science. The Social Construction of Rejected Knowledge (Sociological Review Monograph 27), University of Keele, 1979.
K.F.