Читать книгу Herausforderungen der Wirtschaftspolitik - Dirk Linowski - Страница 20

Exkurs: Zum täglichen Umgang mit Zahlen und Statistik

Оглавление

Warum so viel Statistik?

Statistische Erhebungen und Auswertungen werden im öffentlichen Raum von Akteuren aus Wirtschaft, Politik, Gesundheitswesen usw. primär aus dem Grund verwendet, um die Glaubwürdigkeit der eigenen Aussagen zu erhöhen bzw. die Sinnhaftigkeit oder Alternativlosigkeit der eigenen Handlungen zu begründen. Im günstigen Fall sollten Statistiken dabei dem Verständnis der wesentlichen inneren Strukturen und der natürlichen zeitlichen und räumlichen Veränderungen von wirtschaftlichen und/oder politischen Einheiten vieler Menschen oder „Gemeinwesen“ dienen.

Obwohl mindestens ein Viertel der erwachsenen Deutschen durch ihr Studium und ihre berufliche Praxis mit den Grundkonzepten der deskriptiven und der Inferenzstatistik vertraut sein sollte, gibt es wenig Widerrede oder Fragen zum fragwürdigen bis falschen Einsatz von Statistik im öffentlichen Diskurs. Mutmaßungen, warum dem so ist, können dem in den Redaktionen antizipierten Wunsch der Leser, dass Komplexität reduziert werden soll, Rechnung tragen. Ebenso plausibel ist, dass die meisten Redakteure auch renommierter Medien Absolventen von Studiengängen sind, die weitgehend statistikfrei sind. Diese Vermutung läßt sich relativ einfach verifizieren: Vgl. z.B. https://www.faz.net/redaktion/ und https://www.spiegel.de/impressum.

Wenn Sie über das Bonmot von Des MacHale „Der durchschnittliche Mensch hat einen Busen und einen Hoden“ lachen, sollten Sie sich an die bereits erfolgte Erörterung der Sinnhaftigkeit der Aussage „Die Lebenswartung in Deutschland beträgt 81 Jahre“ erinnern (noch besser ist 80,99 Jahre). Nachfolgend ein paar „Bullet Points“, die Sie ggf. im Hinterkopf behalten sollten, wenn Sie Texte, die statistische Informationen beinhalten, lesen. Am Ende dieses Exkurses finden Sie eine kurze Liste guter „Unterhaltungsbücher“ zu Statistik und Wahrscheinlichkeitslehre.

Datenerhebung

Intuitiv einleuchtend ist, dass Sie keine sinnvollen Aussagen zu den Lesegewohnheiten der deutschen Gesamtbevölkerung generieren können, wenn Sie Ihre Befragungen am Eingangstor einer Universität durchführen: Ebenso wird Ihnen sofort einleuchten, dass es keine gute Idee ist, die Körperlängen der Spieler der Basketballnationalmannschaft zu messen und von diesen Daten auf die deutsche (männliche) Gesamtbevölkerung zu schließen. Diese „Beispiele“ mögen Ihnen albern vorkommen, aber genau hier liegt oft das grundsätzliche Problem: Wann immer Statistiken sinnvoll verwendet werden, sollte klar sein, wer gemessen hat, wie gemessen wurde, welche Daten intrapoliert und welche Daten extrapoliert wurden.

Damit kommt die Illusion der Präzision ins Spiel, die ein psychologisches Bedürfnis zu bedienen scheint. Für die meisten Menschen glaubwürdig sind exakte Zahlen (bei relativen Werten gern mit mehreren Nachkommastellen), obwohl selten hinreichend geklärt ist, wie das zugrunde liegende Datenmaterial erhoben wurde oder ob es „passt“. Denken Sie zum Beispiel einmal über die Sinnhaftigkeit der Aussage „In China lebten im Jahr 2019 1.401.764.328 Menschen.“ nach.

Wenn im Frühjahr oder Sommer 2020 von Corona-Infektionszahlen in unterschiedlichen Staaten oder auch Bundesländern die Rede war, so wurden diese auf der Basis unterschiedlichster Testhäufigkeiten und Verfahren ermittelt. Statistiker bemühen bei Zahlen, deren zugrundeliegenden Rohdaten unterschiedlich erhoben werden, das Bild der Unmöglichkeit, sinnvoll „Äpfel mit Birnen zu vergleichen“.

Ein weiteres grundsätzliches Problem besteht darin, dass die Zahlen, die verwendet werden, oft nicht sinnvoll eingeordnet werden können. Dazu bieten sich, bei allen Schwächen, die überschlagsmäßige Ermittlung von Durchschnittswerten und bei zeitlichen Vergleichen von durchschnittlichen Wachstumsraten an.

Wenn Sie wieder an die Frühphase der Coronakrise im März und April 2020 zurückdenken, wurden damals u.a. Begriffe wie exponentielles Wachstum, tägliche Neuinfektionen, die relativen Veränderungen der Neuinfektionen, Verdoppelungszeiträume von Infizierten und Reproduktionsfaktoren ins Feld der Diskussion geführt. Oft verwendet wurde auch der den meisten Deutschen bis dato nicht bekannte Begriff der Überschusssterblichkeit. Dieser ist allerdings durch ein Problem charakterisiert, das wir bereits bei der Fertilität kennengelernt haben. Weitgehend richtig ermitteln können wir die Überschusssterblichkeit nur für die bereits vergangene Zeit. Zudem ist hier mit kausalen Ausssagen jeder Art Vorsicht geboten. Wir sehen also nicht einmal im Rückspiegel genau, ob die schwedische Regierung klüger handelte als die deutsche, die chinesische oder die US-amerikanische. Interessant zu beobachten wird sein, inwieweit der zumeist nicht hinreichend erläuterte Sprung von einer zu einer anderen Kennzahl das Vertrauen oder besser die Nachfrage nach statistischen Zahlen zukünftig verändern wird. Bereits erwähnt wurde, dass damit offensichtlich vor allem ein psychologisches Bedürfnis der Empfänger der statistischen Botschaft bedient wird. Zudem wird damit eine vermeintliche Sicherheit bzw. Objektivität transportiert.

Der Gebrauch des arithmetischen Mittels

Die eine alles erklärende Maßzahl gibt es nirgendwo. Sonst bräuchten wir auch keine Statistik (und ein Kochbuch mit den ultimativen Rezepten und eine Philosophie täten es vermutlich auch).

Denken Sie hier zum Beispiel an die zahlreichen Kennzahlen, die in der Unternehmensbewertung Verwendung finden oder an das Kurs-Gewinn-Verhältnis, das Gewinnwachstum, die Dividendenrenditen, den freien Cash-Flow usw. bei der Aktienanalyse. Selbst die Kombination mehrer „guter“ Kennzahlen schützt Sie nicht vor Fehleinschätzungen und damit Fehlentscheidungen.

In jedem Grundkurs der Statistik, der diesen Namen verdient, werden Sie mit den Maßen der sogenannten zentralen Tendenz Mittelwert, Median und Modalwert, diversen Streuungs- oder Dispersionsmaßen sowie Maßen für Symmetrie oder Spitzgipfligkeit einer Verteilung bekannt gemacht. In den Medien ist es aber das arithmetische Mittel, das trotz beschränkter Aussagekraft zumeist im Alleingang verwendet wird.

Nehmen Sie zum Beispiel an, dass im Jahr 2018 das durchschnittliche Einkommen eines Bürgers einer deutschen Großstadt mit 250.000 Einwohnern 40.000 Euro betrug. Die Aussagen, dass das Gesamteinkommen dieser Stadt mit 250.000 Einwohnern 10.000.000.000 Euro (10 Milliarden Euro) beträgt und dass das durchschnittliche Einkommen 40.000 Euro beträgt, sind äquivalent. Sie stellen lediglich unterschiedliche Perspektiven dar. Zu dieser Bevölkerung gehören natürlich Kinder, Empfänger von Transferleistungen usw.

Nehmen Sie nun an, dass Bill Gates, Microsoft-Gründer, Multimilliardär und Chef der Bill und Melinda Gates-Stiftung,1 in diese Stadt zieht. Sie können leicht verifizieren (Google ist diesem Fall wirklich Ihr Freund), dass Bill Gates’ Einkommen (Dividenden, Wertzuwachs von Microsoft- Aktien und anderen Anlangen) im Jahr 2018 etwa 10 Milliarden Euro betrug. Wenn Sie also das neue Durchschnittseinkommen Ihrer Großstadt ermitteln, werden Sie 20 Mrd. Euro durch 250.001 dividieren und folglich auf Grund des einen Ausreißers einen Wert von näherungsweise 80.000 Euro Durchschnittseinkommen ermitteln. Nur hat sich das durchschnittliche Einkommen (wie dieser Durchschnitt zustande gekommen ist, wissen wir hier übrigens auch nicht) der ursprünglichen 250.000 Menschen nicht geändert. Der Effekt wäre natürlich noch beeindruckender gewesen, wenn Bill Gates in ein Dorf gezogen wäre: Je kleiner die Populationsanzahl, umso größer ist der Bias (auf deutsch Verzerrung), auch wenn sich für fast alle Menschen nichts geändert hat. Auch ohne Bill Gates gilt jedenfalls, dass mehr als die Hälfte einer Bevölkerung weniger als das Durchschnittseinkommen verdienen. Wieviele das sind, hängt von der Einkommensverteilung ab.

Bemerkung:

Aus Gründen der besseren Interpretierbarkeit ziehen Statistiker im Normalfall den Einkommensmedian, das ist der Wert, für den die eine Hälfte der Bevölkerung ein niedrigeres und die andere Häfte ein höheres Einkommen erzielt, dem BIP per capita bzw. dem Pro-Kopf-Einkommen vor. Im Jahr 2019 betrug das Pro-Kopf-Einkommen in Deutschland 41.342 Euro, während der Einkommensmedian bei „nur“ 2.503 Euro pro Monat, also ca. 30.000 Euro pro Jahr lag. Diese Werte sind zwar nicht direkt vergleichbar: Jenseits von Arbeitgeberbeiträgen zur Sozialversicherung wird der Unterschied aber noch größer, wenn man berücksichtigt, dass bei der Berechnung des Pro-Kopf-Einkommens die Gesamtbevölkerung und beim Medianeinkommen nur die arbeitende Bevölkerung gezählt wird. (In Deutschland befanden sich 2018 mit 51,8 Mio. Menschen etwa 60% der Bevölkerung im erwerbsfähigen Alter, von denen mit 44,6 Mio. Menschen auch nicht alle arbeiten.)[31]

Seit Ende der 1970er und Anfang der 1980er Jahre sind in allen wichtigen Industrieländern die Einkommen des oberen Fünftels der Einkommenspyramide bedeutend stärker gestiegen als die des „Restes“. Dass wir quantitativ zwar keine amerikanischen Verhältnisse – bereits 2016 verdienten amerikanische Spitzenmanager mehr als das 300-fache eines durchschnittlichen (!) Arbeiter- oder Angestelltengehaltes – haben, uns aber offensichtlich auch an obszöne Gehälter von Angestellen in der Spitzengruppe gewöhnt haben, können Sie leicht nachprüfen, indem Sie die öffentlich zugänglichen Vorstandgehälter von VW, Siemens, BASF usw. mit normalen guten Gehältern vergleichen. Sehr empfohlen sei Ihnen Nobelpreisträger Joseph Stiglitz’ Buch „Der Preis der Ungleichheit“.

Arbeiten mit geschätzten Durchschnittswerten

Natürlich bleibt die Ermittlung von Durchschnitten sinnvoll. Jedenfalls in einem ersten Schritt. Echte Statistiker mögen sich wegen der Hemdsärmlichkeit des Vorgehens bei den folgenden Beispielen die Haare raufen und zahlreiche methodische Einwände erheben: Hier geht es aber einzig und allein darum, „vernünftige“ und interpretierbare Schätzwerte bezüglich der Dimension der in Frage stehenen Größen zu ermitteln. Beachten Sie, dass die Input-Zahlen stets bewusst einfach gewählt wurden.

Wenn Sie zum Beispiel einen schnellen Schätzwert für die durchschnittliche Anzahl der Todesfälle pro Tag in Deutschland ermitteln wollen, bietet sich an, die Gesamtbevölkerung durch die approximative Lebenserwartung zu dividieren, um eine erwartete Anzahl von Todesfällen pro Jahr zu schätzen: Wir nehmen bei 80 Millionen Menschen in Deutschland eine durchschnittliche Lebenserwartung von 80 Jahren an; ermitteln 1.000.000 Todesfälle pro Jahr und dividieren großzügig aufgerundet durch 400 als Näherungswert für die Anzahl der Tage im Jahr, auch um die Abweichung von der Gleichverteilung der Jahrgänge etwas zu korrigieren. Unser Schätzwert beträgt 2.500 Tote pro Tag in Deutschland und ist damit nicht sehr weit vom „echten“ Wert entfernt. Statista gibt für das Schaltjahr 2018 954.874 Todesfälle in Deutschland und damit durchschnittlich 2.608,945 Tote pro Tag an. Unsere Schätzung ist mit etwas weniger als 5% Abweichung von diesem wahren Wert also ganz brauchbar. (Beachten Sie, dass es saisonale Unterschiede gibt: Der Monat mit den durchschnittlich höchsten Todeszahlen war in den letzten Jahrzehnten in Deutschland der März).

Bei Geldbeträgen fehlt uns zumeist die Vorstellungskraft, was große absolute Summen für ein Gemeinwesen bedeuten. Wenn also berichtet wird, dass Deutschland bei der Finanzierung des WHO-Haushaltes „in dem Zweijahreshaushalt 2016/17 mit rund 158,5 Millionen US-Dollar pro Jahr einen Anteil von 6,4%“ trägt, bedeutet dies, dass der Beitrag Deutschlands zur WHO bei weniger als 1 US-Dollar pro Bundesbürger und Jahr lag. Da sich der Wechselkurs zwischen Euro und US-Dollar in dieser Zeit zwischen 1,08 US-Dollar und 1,24 US-Dollar pro Euro bewegte, erschwert eine exakte Angabe; unabhängig davon landen wir aber bei weniger als einem Euro pro Person und Jahr. Wenn Deutschland 525 Millionen Euro für die internationale Zusammenarbeit bei der Entwicklung von Impfstoffen und Medikamenten gegen das Coronavirus bereitstellen will (Nachricht vom 5. Mai 2020), sind dies etwas mehr als 6 Euro pro Person und Jahr usw.

Als im Jahre 2018 von 12 bis 15 Milliarden Euro die Rede war, die Deutschland auf Grund des Brexits mehr pro Jahr an den EU-Haushalt überweisen sollte, entsprach dies immerhin schon 150 bis 180 Euro pro Person (Kinder und Rentner eingeschlossen) und Jahr. Überlegen Sie selbst, ob z.B. die Aussage, dass es sich um 231,48 Euro pro Erwerbstätigen in Deutschland und Jahr handelte, zielführender ist und welche Annahmen (Gleichsetzung von Teilzeitbeschäftigen und Vollzeitbeschäftigten u.v.m.) dahinständen.

Unabhängig von der Sinnhaftigkeit dieser Zahlungen wird leicht ersichtlich, dass es sich hier um volkswirtschaftlich nicht wirklich dramatische Größen handelt. Diese qualitative Aussage kann so nicht gemacht werden, wenn die staatlichen Kredite und Garantien in Folge der Corona-Krise betrachtet werden, die sich fast ausnahmslos im fünfstelligen Eurobetrag pro Person bewegen.

Arbeiten mit Wachstumsraten

Wir sind es gewöhnt, WachstumWachstum vorauszusetzen. Dies betrifft das BIPBIP, die Bevölkerung, und die reale „Vermehrung“ von GeldGeld, die auf ertragreichen Investitionen beruht.

Auch wenn die meisten Menschen in der Euro-Zone seit ca. 10 Jahren kaum noch wissen, was nominale Zinsen sind bzw. waren, haben fast alle schon einmal die Zinseszinsformel gesehen.

Wir ersetzen nun den Zins verallgemeinernd durch eine durchschnittliche Wachstumsrate g. Dann lautet die allgemeine Wachstumsformel


wobei V0 den Startwert zum Zeitpunkt t = 0 und VT den Wert der Variable V nach T Perioden darstellen. Die durchschnittliche Wachstumsrate g ermittelt sich durch Umstellen von (*).


Laut Statista waren in den Studienjahren 2009/10 2.121.190 Studierende und 2019/2020 2.897.336 Studierende an deutschen Hochschulen eingeschrieben. Wir erhalten somit für den Zeitraum von 2009/2010 bis 2019/2020 ein durchschnittliches jährliches Wachstum der Anzahl der Studierenden in Höhe von 3,16%. Um dieses sinnvoll einordnen zu können, benötigen wir allerdings weitere Informationen: Wie entwickelte sich insbesondere die Teilpopulation, zu der die Studienanfänger gehören, insgesamt? Wir abstrahieren nun vom Sondereffekt des Zuzuges von mehr als 1 Million überwiegend junger Flüchtlingen seit 2015 und vergleichen vereinfacht die Anzahl der Geburten im ersten gesamtdeutschen Jahre 1991 mit der Anzahl der Geburten im Jahre 2001 (die 2019 ein Studium hätten aufnehmen können): Hier fand ein Rückgang von 830.019 auf 734.475 statt. Die Anzahl der Studierenden stieg also von 2009 bis 2019 „auf Kosten des Restes“ um mehr als 4% pro Jahr.

Fehler 1. und 2. Art und statistische Tests

Nehmen Sie an, dass Sie Kreditsachbearbeiter bei einer Bank sind. Sie können nun zwei Arten von Fehlern machen. Sie genehmigen einen Kredit an einen Kunden, der sich später als schlechter Kunde erweist und Sie verweigern einem Kunden, der ein guter Kunde gewesen wäre, den Kredit. Zwischen Ihrer Entscheidung und der Erkenntnis, ob Ihre Nullhypothese „Der Kunde ist ein guter Kunde.“2 korrekt war oder nicht, liegt eine Zeitperiode.

Sie können also, wie überall im Leben, das Falsche tun und das Richtige nicht tun. Beobachten können Sie allerdings nur den sogenannten Fehler 1. Art, wenn sie später feststellen, dass Ihr Kunde nicht vertragsgemäß zurückzahlt, dass Sie also das Falsche getan haben. Von einem Kunden, dem Sie den Kredit verweigert haben, können Sie nur ahnen, dass er vielleicht doch ein guter Kunde gewesen wäre und dass Sie somit das Richtige nicht getan haben.

Tatsächlich sind aber beide Fehler interdependent: Um dies zu verstehen, genügt es zu fragen, wieviele Kunden Ihre Bank haben wird, wenn Sie absolut sicher sein wollen, keinen schlechten Kunden zu haben? Die Antwort ist, dass Sie keinen Kunden haben werden. Je kleiner der Fehler 1. Art, die Bereitschaft, etwas falsch zu machen, um so größer ist also der Fehler 2. Art, das Richtige nicht zu machen.

Die Werte von α = 1% oder α = 5%, die im Allgemeinen bei wissenschaftlichen Studien und Meinungsumfragen verwendet werden, sind dabei lediglich Konventionen. Tatsächlich sollte der Fehler 1. Art Ihre Fehlertoleranz in einem speziellen Fall widerspiegeln. Diese wird bei Sicherheitssystemen von Kraftwerken und Schnellzügen sicherlich nicht 1% sein können und bei Investments in Startups gern oberhalb von 50% liegen können.

Freiheit und Fehler(toleranz)

In der westlichen Philosophie werden seit Aristoteles die „Freiheit von …“ und die „Freiheit für …“ unterschieden. Erstere zielt auf die Abwesenheit von Zwang, letztere auf die tatsächliche Umsetzung dessen, was ohne Zwang oder Unterdrückung getan und unterlassen wird. Versuchen Sie sich „Ihre persönliche Brücke“ der beiden Freiheiten zu den beiden Fehlern, das Falsche zu tun und das Richtige nicht zu tun, zu bauen!

Kommen wir zu einer Anwendung der Interpretation eines Tests. Im Zuge der Corona-Krise wurde regelmäßig über getestete und nichtgeteste Personen geschrieben: Dabei wurde mitunter auch erwähnt, dass Tests fehlerhafte Resultate lieferten. Tatsächlich liegt der Teufel aber auch hier in den Grundproblemen eines jeden statistischen Tests.

Stellen Sie sich vor, gerade aus dem Urlaub nach Hause zurückgekommen zu sein. Zufällig erfahren Sie, dass in der Gegend, in der Sie Ihren Urlaub verbracht haben, eine seltene, aber sehr gefährliche Krankheit grassierte. Sie entscheiden sich, einen Arzt aufzusuchen und sich einem medizinischen Test zu unterziehen. So ein Test hat nun zwei mögliche Ergebnisse: positiv (der Test klassifiziert Sie als infiziert) und negativ (Sie sind laut Test nicht infiziert). Ihr Test ist nun so gut, dass er 99 Infizierte von 100 Infizierten identifiziert und lediglich zwei Nichtinfizierte von 100 Gesunden fehlerhaft als infiziert einstuft. Es handelt sich dabei um einen aus medizinischer Sicht wirklich guten Test.

Ihr Arzt präsentiert Ihnen nun Ihr Testergebnis: Sie wurden positiv getestet. Unabhängigig von Ihrer nervlichen Belastung: Was können Sie mit dieser Aussage anfangen? Zunächst einmal überhaupt nichts! Nicht bekannt ist nämlich bisher, wieviele Menschen in der betreffenden Gegend tatsächlich infiziert waren. Diese Prävalenz, also die Rate der Erkrankten, betrage nun annahmegemäß 1:1.000.3 Nun können Sie sich die Lösung Ihres Problems, sich einer Antwort auf die Frage „Gibt es Grund zur Panik?“ über bedingte Wahrscheinlichkeiten nähern (s. Box). Intuitiv einleuchtend funktioniert dies ebenso bei ausschließlicher Verwendung der Grundrechenartenarten unter der sich rasch erhellenden Annahme, dass wir es mit 100.100 Personen zu tun haben, wie folgt:

Alle Teilnehmer Positiv getestet Negativ getestet
In % Absolut In % Absolut In % Absolut
Infiziert Ca. 0,1 100 99 99 1 1
Nicht infiziert Ca. 99,9 100.000 2 2.000 98 98.000
Summe 100% 100.100 2.099 98.001

Die Schätzung der Wahrscheinlichkeit, dass Sie bei einem positiven Testergebnis tatsächlich infiziert sind, ermittelt sich nun als Ergebnis von 99/2.099 und korrespondiert damit zu weniger als 5%. Jenseits des kleinen Rundungstricks bei der Aufteilung der fiktiven 100.100 Personen in 100 Infizierte und 100.000 Nichtinfizierte ist die Interpretation Ihres Testergebnisses zwar so überraschend wie erfreulich; gesamtwirtschaftlich ist so zu testen aber auch sehr teuer.

Bedingte Wahrscheinlichkeiten und die Bayes’sche Formel

Wenn wir die Wahrscheinlichkeiten kennen, dass ein Test einerseits einen Infizierten nicht identifizieren und andererseits einen Gesunden fälschlicherweise als infiziert einstufen kann, wissen wir also nichts von unserem Unglück, wenn wir als Infizierte im Test „durchgerutscht“ sind. Relevant ist für uns die Frage, mit welcher Wahrscheinlichkeit wir infiziert sind, sofern der Test uns als infiziert klassifiziert hat. Es handelt sich hier eine bedingte Wahrscheinlichkeit, deren Berechnungsprinzip mit dem Namen von Thomas Bayes, Pfarrer und Mathematiker im England des 18. Jahrhunderts, verbunden ist. Sie können oft bemerken, dass mathematisch formal hochgebildete Menschen keinen Zugang zur der Wahrscheinlichkeitstheorie haben. Was technisch relativ einfach aussieht, erforderte von Bayes ein bewundernswertes Abstraktionsniveau. Auch hier sind wir, nach einem Gleichnis von Bernhard von Chartres aus dem frühen 12. Jahrhundert, Zwerge auf den Schultern von Riesen (hier den Schultern des Riesen Thomas Bayes).

Wir werden zunächst einige Bezeichnungen einführen:

: Wahrscheinlichkeit, dass ein Mensch infiziert ist. Im Beispiel ist .

: Wahrscheinlichkeit, dass ein Mensch nicht infiziert ist. Dies ist das Komplement zu . Im Beispiel ist = 0,999.

sei die Wahrscheinlichkeit, dass ein Mensch positiv getestet wird, unter der Bedingung, dass er infiziert ist. Dies ist annahmegemäß 0,99. Damit ist das Komplement

die Wahrscheinlichkeit, dass der Patient nicht positiv getestet wird, obwohl er infiziert ist. Im Beispiel ist . Dies ist der Fehler „fehlender Alarm“.

bezeichne die Wahrscheinlichkeit, dass nicht positiv getestet wird, wenn der Patient nicht infiziert ist. Der Test hat also richtig klassifiziert. Im Beispiel ist . ist das Komplement bei den Nichtinfizierten, der Fehler „falscher Alarm“. Im Beispiel ist dieser 0,02.

Die Wahrscheinlichkeit, dass Sie infiziert sind, wenn Sie positiv getestet wurden, berechnet sich nun nach dem Schema „passende Fälle dividiert durch mögliche Fälle“ wie folgt:


Numerisch erhalten wir mit


das bereits bekannte Ergebnis, dass die Wahrscheinlichkeit, dass wir bei einem positiven Testergebnis infiziert sind, weniger als 5% beträgt.

Ob wir einen solchen Tests schlussendlich einsetzen, hängt davon ab, welchen Wert wir einem einzelnen Leben, das wir (temporär) retten können, und den Opportunitätskosten beimessen. Dies ist aber keine statistische, sondern eine Wertefrage.

So ist die Aussage des Robert Koch-Instituts, dass Ende April 2020 in Deutschland 6.288 Menschen an Covid-19 gestorben sind, von denen 2.269 jünger waren als 80 Jahre, deskriptiver Natur. Welcher „Aufwand“ bezüglich der Eindämmung von Corona betrieben werden sollte, um einzelne Leben zu retten bzw. zu verlängern, ist davon unberührt.

So wie Bill Gates am 3. April 2015 die Gefahr und die Konsequenzen einer kommenden weltweiten Pandemie in einem öffentlichen Vortrag skizzierte[32], erörterte Yaval Noah Harari, ebenfalls 2015, in seinem Buch “Homo Deus. Eine Geschichte von Morgen“ prinzipielle Fragen von Leben und Tod, deren frühzeitige Beschäftigung uns bei Ausbruch der Corona-Krise hätte helfen können.

„Für moderne Menschen ist der Tod ein technisches Problem, das wir lösen können und lösen sollten.“ (S. 26). Und weiter: „Selbst wenn Menschen bei einem Hurrikan, bei einem Autounfall oder im Krieg sterben, betrachten wir dies gern als technisches Versagen, das man hätte verhindern können und müssen. Hätte die Regierung nur eine bessere Politik verfolgt, hätte die Kommune ihre Aufgaben angemessen erfüllt, hätte der Militärbefehlshaber eine klügere Entscheidung getroffen – dann wäre der Tod zu verhindern gewesen. […] Weil aber Alter und Tod die Folge von nichts anderem als spezifischen Problemen sind, gibt es keinen Punkt, an dem Ärzte und Forscher aufhören. […] Die Allgemeine Erklärung der Menschenrechte spricht nicht davon, die Menschen hätten ein ‚Recht auf Leben bis 90 Jahre‘. […] Dieses Recht kennt kein Verfallsdatum.“ (S. 36) Explizit weiter geht der australische Biologe David A. Sinclair, Professor an der Harvard University: Für ihn ist Altern eine Krankheit.[33]

Literatur:

Gero von Randow: Das Ziegenproblem: Denken in Wahrscheinlichkeiten, Rororo, 2004.

Walter Krämer: So lügt man mit Statistik, Campus, 2015.

Walter Krämer: Statistik verstehen, Piper, 2001.

Hans-Peter Beck-Bornholdt und Hans-Hermann Dubben: Der Schein der Weisen. Irrtümer und Fehlurteile im täglichen Denken, Rororo, 2003.

Hans-Peter Beck-Bornholdt und Hans-Hermann Dubben: Der Hund der Eier legt. Erkennen von Fehlinformationen durch Querdenken, Rororo, 2006.

Herausforderungen der Wirtschaftspolitik

Подняться наверх