Читать книгу Der Macht-Code - Alexander Ross - Страница 8
3 DER ZAHLEN-SCHWURBEL Ein rundes Ergebnis kann nie stimmen.
Oder: Warum benutzt man Zahlen, damit wir den Durchblick verlieren?
ОглавлениеSind Sie zahlenblind? Nein? Vielleicht wissen Sie es nur nicht. Denn Zahlenblindheit ist nicht so leicht zu erkennen wie andere Fehlsichtigkeiten. Den Begriff der Zahlenblindheit prägte der US-amerikanische Mathematiker John Allen Paulos schon Ende der 80er-Jahre in seinem gleichnamigen Buch und brachte analog zum Analphabetismus, auf Englisch „Illiteracy“ den Begriff „Inumeracy“ auf. Dabei geht es nicht in erster Linie um Rechenschwäche, sondern um die Unfähigkeit, die Bedeutung von Zahlen und ihre Beziehung zueinander zu erfassen und zu verstehen. Das ist besonders fatal in einer Welt, die uns neben den Worten vor allem mit Zahlen umgibt – denn für viele ist es eine Einladung, diese Schwäche bei anderen gezielt auszunutzen.
„Chef, ich will mehr Geld!“ – „Das haben Sie auch verdient. Was halten Sie von einer Erhöhung um ein Drittel?“ – „Nee, so einfach wird das nicht – ich will mindestens ein Viertel mehr.“ – „Also gut, ausnahmsweise …“ So oder ähnlich soll vor Längerem das Gespräch zwischen einem damals sehr erfolgreichen Fußballer und seinem Vereinspräsidenten gelaufen sein. Nun waren es hier Bruchzahlen, die den guten Kicker ins Rutschen brachten, doch auch Prozentzahlen und absolute Zahlen sind immer wieder gut für erstaunliche Fehleinschätzungen. Etwa über den Reichtum und ab wann man in Deutschland zu den Besserverdienenden gehört.
„Wie viel Haushaltsnettoeinkommen ist nötig, um zu den reichsten fünf Prozent in Deutschland zu gehören?“ Diese Frage stellt der Politikwissenschaftler Klaus Schroeder von der Freien Universität Berlin als kleines Experiment immer wieder in seinem Bekanntenkreis und bei seinen Studenten. Was er dabei so an falschen Zahlen hört, erzählte er dem Magazin Brand eins: „Dann kommen oft Zahlen wie 50 000 Euro, 75 000 Euro und mehr – im Monat wohlgemerkt. Die Realisten schätzen 15 000 Euro. In Wirklichkeit sind es etwa 5 000 Euro.“
Denn über 41 Prozent des ganzen Geldes, das der Staat mit der Einkommenssteuer einnimmt, kommen von gerade mal fünf Prozent der Bevölkerung. Und die oberen zehn Prozent der Einkommen stehen für 53 Prozent der Einkommenssteuer gerade. Zehn Prozent Reiche zahlen die Hälfte des Steueraufkommens, wie das Institut der Deutschen Wirtschaft für 2005 ermittelte. Warum dennoch immer wieder eine besondere Reichensteuer gefordert wird, überrascht Schroeder nicht, ebenso wie die Ansicht der sozialen Schere, die sich immer weiter öffnet. Für ihn ist dieses Bild eine Fehlwahrnehmung, hervorgerufen durch die besondere Konzentration in den Medienberichten auf Superreiche, seien es Fernsehstars, Sportler, US-CEOs oder Vorstände deutscher DAX-Unternehmen. Dabei sei deren Anteil an der Gesamtbevölkerung eher im Promillebereich. Dennoch glauben wir, unser Leben hätte mit diesen Menschen direkt zu tun. Schroeder stellt dies bei seinen ostdeutschen Studenten fest, die den durchschnittlichen Reichtum noch stärker überschätzen, vor allem den im Westen der Republik. Gleichzeitig orientieren sie sich daran, was für Schroeder deren besondere Frustration erklärt.
Wer heute etwa Mitte 40 ist, kennt dieses Gefühl – aber aus einem ganz anderen Grund. Der Jahrgang 1964 war der geburtenstärkste der Nachkriegszeit, und er hat sich bisher auf die Stabilität der staatlichen Altersvorsorge verlassen. Dafür zahlt er jetzt dreifach – die Sandwich-Generation sorgt für ihre Eltern durch die Rentenbeiträge, die einfach an die heutigen Rentner weitergereicht werden, sie zahlt für ihre Kinder Kitagebühren und künftig Studienbeiträge – und ganz nebenbei soll sie für den eigenen Lebensabend Vorsorgen. Der Grund dafür: Verantwortliche Politiker können seit über 40 Jahren nicht rechnen – und wenn doch, dann mit falschen Ergebnissen. So wurde bereits 1972 im Deutschen Bundestag die Rentenreform behandelt. Dem folgenden Beschluss lag ein Bericht zugrunde, nach dem der Rentenüberschuss in den nächsten 15 Jahren auf 200 Milliarden Mark anwachsen würde. Diese Zahlen wurden auf der Basis einer idealen weiteren Entwicklung geschätzt: hohes Wirtschaftswachstum, hohe Beschäftigung, jährliche Lohnsteigerungen von acht Prozent. Zahlen, die eine solche Faszination ausübten und als Zahlen, Daten, Fakten so exakt wirkten, dass Regierung und Opposition an diese Angaben glaubten und einträchtig das Fundament für unsere heutige Misere des Sozialversicherungssystems legten. Und etwas durchaus Vergleichbares vollzieht sich derzeit beim Thema Klimawandel, wenn sich herausstellt, dass die drastischsten Aussagen auf hochkomplexen Computermodellierungen mit zahlreichen Variablen basieren, wo bereits kleine Abweichungen der Nebenbedingungen das künftige Ergebnis erheblich verändern können. Kann man wirklich annehmen, dass so das Klima über die nächsten 30 bis 50 Jahre steuerbar ist, wo schon die Vorstellungskraft für so etwas vergleichsweise einfach zu Berechnendes wie die künftige Rente nicht ausreicht?
Zahlen geben nur vordergründige Sicherheit, gerade wenn sie genau sind. „Jedes dritte Kind in Schweden ist psychisch gestört!“, so die Schriftstellerin Gabriele Kuby in der Christiansen-Talkshow zum Thema „Kinderkrippen“. Eine solche Aussage kann man nicht direkt prüfen, sie wirkt aber präzise und damit richtig. Viele Zuschauer haben diesen Satz gehört und halten ihn dann für wahr. Eine spätere Nachrecherche von Journalisten ergab, dass es keinerlei Studien gibt, die diese Zahlen belegen.
Dabei zeigt sich immer wieder: Manipulatoren arbeiten gerne mit Zahlen, die die gemachte Behauptung belegen sollen. In der Regel kann man die Angaben nicht oder nur aufwendig überprüfen, die Zahl hat gut und plausibel geklungen und damit ihre Wirkung entfaltet. Konkrete Angaben sind eben unschlagbar: Zahlen, Daten und Fakten, aus der Tageszeitung, einer Meinungsumfrage oder aus einer wissenschaftlichen Untersuchung.
Und das, obwohl wir von der Anlage unserer Denkprozesse her denkbar schlecht ausgestattet sind, Zahlen richtig wahrzunehmen und zu evaluieren. Zahlen, die uns ja den Anschein von Exaktheit und Objektivität vermitteln, entsprechen unserem Steuerungsempfinden. Sie machen uns glauben, dass wir den Sachverhalt dahinter verstanden haben und dass wir ihn kontrollieren können. Dabei sind solche objektiven Ergebnisse immer abhängig vom Mess- und Beobachtungsverfahren (wie wir spätestens durch die heisenbergsche Unschärferelation wissen). Auch ein Meter, selbst mit einem modernen Lasergerät gemessen, ist nur eine kulturell verankerte Vereinbarung über die Bestimmung von Längen. Aber immerhin. Eine Bilanz („nach HGB oder nach US-GAAP oder IFRS-Richtlinien“), ein Fragebogen („jeder dritte Deutsche“), eine Diagnose („Sie fallen in die Kategorie X“) oder andere vergleichbare Verfahren sind immer stark subjektiv geprägt. Und doch glauben wir den Zahlen, wenn sie erst einmal ermittelt und kommuniziert wurden.
Noch schwieriger wird es, wenn wir uns mit Sachverhalten befassen, in denen die Wahrscheinlichkeit eine Rolle spielt. Wir verschätzen uns systematisch, wenn wir die Häufigkeit von Ereignissen einschätzen sollen. Wir orientieren uns dabei bevorzugt an der wahrgenommenen Präsenz, weniger an der tatsächlichen Häufigkeit. So werden beispielsweise die absolute und die relative Häufigkeit von Delikten in der Bevölkerung systematisch falsch eingeschätzt. Nach der Kriminalstatistik bleibt die prozentuale Häufigkeit von Delikten über Jahre hinweg nahezu gleich. In der Bevölkerung wird jedoch mehrheitlich ein starkes Ansteigen vermutet. Ebenso wird die Wahrscheinlichkeit, einem Mord oder anderen vergleichbaren brutalen Delikten zum Opfer zu fallen, systematisch überschätzt. Eine der Ursachen dieser Fehleinschätzung ist die starke Präsenz solcher Delikte in den Medien. Ebenso ist Krebs als Krankheit in den Medien präsenter als Herz-Kreislauf-Erkrankungen und dementsprechend haben die meisten Deutschen mehr Angst, an Krebs zu sterben. In Wahrheit sterben doppelt so viele Deutsche an Erkrankungen des Herz-Kreislauf-Systems.
Hinzu kommt das grundsätzliche Problem, solche Zahlen zu interpretieren, selbst bei alltäglichen Erscheinungen wie dem Wetter. Denn was bedeutet es eigentlich, wenn der Wettermann uns informiert, dass für den morgigen Tag eine 30-prozentige Wahrscheinlichkeit von Regen besteht? Heißt es, dass es morgen während 30 Prozent des Tages regnen wird? Na? In Wirklichkeit bedeutet diese Aussage, dass an 30 von 100 Tagen, die klimatisch so sind wie der Tag morgen, dann auch Regen fallen wird. Wer dennoch ohne Regenschirm aus dem Haus geht, wird in den Augen manch anderer schnell zur Spielernatur – dabei kann er einfach nur mit Wahrscheinlichkeiten rechnen.
Aus solchen fehlerhaften Interpretationen, unzureichenden Informationen und anderen Problemen machen wir weitere Fehler: Professor Walter Krämer, ein renommierter Statistiker und Autor („Der Panikmacher“), stellt fest, dass wir uns auf der Basis dieser Fehleinschätzungen oft aus den falschen Gründen Sorgen machen: Als Beispiel nennt er die Gefahr, an BSE zu erkranken. Selbst dann, wenn man nichts unternommen hätte, wären aller Wahrscheinlichkeit nach in ganz Deutschland pro Jahr etwa 50 Menschen der Creutzfeldt-Jakob-Krankheit zum Opfer gefallen. Nun ist dies ohne Frage eine tragische Krankheit und für jeden der Betroffenen eine Katastrophe. Doch Krämer stellt die richtige Frage: Was ist das aber verglichen mit den mehr als 800 Deutschen, die jedes Jahr an verschluckten Fischgräten sterben – sollte man deswegen den Genuss von Fischen verbieten oder die Grätendealer Metro, Nordsee, Gosch und andere bestrafen? Immerhin verbreiten sie diese tödliche Ware.
Freiwillig übernommene Risiken werden in der Regel um den Faktor 100 unterschätzt. Und ebenso werden natürliche Risiken akzeptiert und systematisch unterschätzt. Beispiel dafür ist der Vergleich der von Menschen gemachten Schadstoffe mit den natürlich vorkommenden Substanzen. 99,9 Prozent aller Schadstoffe in unserer Nahrung sind natürlichen Ursprungs, das heißt, sie sind ohnehin in den Pflanzen und Tieren enthalten, die wir verzehren.
Ebenso werden unsere Wahrnehmungen der uns umgebenden Realität vorwiegend auf anekdotischem Weg gebildet. Das bedeutet, dass wir viel mehr auf einzelne, aber plakative Ereignisse achten und diese zur Grundlage unserer Entscheidungsfindung machen. Die tatsächlichen Fakten und Zahlen treten dabei in den Hintergrund und verlieren an Wert. Das verführt uns dazu, Lotterielose zu kaufen, obwohl die Gewinnchancen doch so erbärmlich schlecht sind. Und ebenso führt es dazu, dass viele Menschen Angst davor haben, bei einem Flugzeugabsturz zu sterben, obwohl die Wahrscheinlichkeit dafür äußerst gering ist. Ein Flugzeugabsturz mit den vielen Toten bei diesem allerdings seltenen Ereignis macht natürlich andere Schlagzeilen in vielen Medien als die Vielzahl von Einzelereignissen, bei denen Menschen aus anderen Gründen zu Tode oder zu schwerem Schaden kommen – Haushalts- und Arbeitsunfälle, Verkehrs- und Sportunfälle. Dramatische Ereignisse dominieren in diesen Fällen unsere Wahrnehmung. Ein anderes aktuelles Beispiel: Ganz Amerika leidet mit den toten Soldaten im Irak, kaum jemand zeigt sich gleichermaßen irritiert durch die deutlich höhere Zahl von Mordopfern im eigenen Land.
Trotzdem – oder vielleicht gerade deswegen – hören wir immer wieder solche Aussagen: „90 Prozent unserer Kunden sind mit unserem Service zufrieden.“ – „Die Untersuchung belegt, dass unsere Methode eine 30-prozentige Ertragssteigerung garantiert.“ – „Es ist uns gelungen, die Fehlerquote auf unter ein Prozent zu drücken.“ Diese Fakten sollen uns beeindrucken. Diese Erfolge machen Sie auch sprachlos? Schauen wir jetzt einmal etwas genauer hin: Wie viele Kunden stehen hinter „90 Prozent“? – Mit welcher Technik wurde die Untersuchung durchgeführt? – Wie viel Ausschuss steht quantitativ hinter „ein Prozent“? Oder ist gar die Prüfmethode „aufgeweicht“ worden? Ist die Methode der Auswertung bei dem erhobenen Datenmaterial überhaupt zulässig?
Die gleiche Skepsis ist bei bildhaften Darstellungen – auf den allseits so beliebten Folien – angebracht. Eine Steigerung des Index von 5 000 auf 5 600 sieht sehr beeindruckend aus, wenn ich die Grundlinie bei 5 000 ansetze – und recht bescheiden, wenn die Grundlinie bei null beginnt.
Zahlen sind oft Schall und Rauch und mit Statistiken, Untersuchungen oder Zertifikaten lässt sich beinahe jede Veränderung belegen. Beweise finde ich bei genügend intensiver Suche für viele Thesen – oder auch dagegen. Vorsicht also bei Zahlen – stellen Sie kritische Fragen und schalten Sie Ihr Gehirn nicht aus, sobald Sie mit schlüssigen Zahlen konfrontiert werden. Gestatten Sie sich eine gesunde Skepsis – und trauen Sie sich, diese gegebenenfalls auch vor anderen zu formulieren. Der aufmerksame Teilnehmer lässt sich nicht durch – scheinbar – erdrückende Zahlenbelege einlullen. Stellen Sie kritische Fragen und beharren Sie auf einer Antwort:
Wer hat die Untersuchung veranlasst oder sogar finanziert? Nicht selten ist der Auftraggeber der Studie mit dem Ergebnis „verbunden“. Unschön ist, wenn beispielsweise die Produkte des Tochterunternehmens den Test als Beste absolvieren.
Welche Methode wurde angewandt? Die Befragung einer Zielgruppe kann sehr unterschiedlich ausfallen, wenn ich anhand eines strukturierten Fragebogens Interviews durchführe oder wenn ich den Personen Fragebögen zusende.
Wer hat die Untersuchung durchgeführt? Ein erfahrener Interviewer wird andere Ergebnisse erzielen als ein nach Zeit oder Zahl der Befragten bezahlter Anfänger.
Welche Zielgruppe wurde untersucht? Kunden einer Institution urteilen anders als eine bunt zusammengewürfelte Zielgruppe.
Wie groß war die Stichprobe? Zehn befragte Personen ergeben eine andere Datenqualität als 100 oder 1 000 Probanden.
Wo wurde die Untersuchung durchgeführt? Ergebnisse aus den Vereinigten Staaten oder Thailand lassen sich nicht direkt auf die Verhältnisse in Deutschland übertragen.
Wann wurde untersucht? Eine Untersuchung aus den 80er-Jahren werde ich anders bewerten als eine aktuelle Umfrage. Kunden kann ich zu einem günstigen Zeitpunkt oder in einem schwierigen Moment befragen.
Mit welcher Methode wurden die Daten analysiert? Nicht alle statistischen Verfahren sind für alle Daten geeignet. Nicht jede Analysemethode ist zulässig.
Wie werden die Daten abgebildet? Eine Skala, die bei 8 000 beginnt, lässt eine Steigerung um 200 Punkte von 8 100 auf 8 300 erheblich spannender aussehen, als eine Skala, die bei null beginnt.
Sind die Daten zugänglich? In Ergebnisse, die sich gegebenenfalls überprüfen lassen, setze ich mehr Vertrauen als in Daten, die unter Verschluss gehalten werden.
Werden die Schlussfolgerungen durch die Daten gestützt? Zahlen belegen nicht jede gewünschte Aussage oder Schlussfolgerung. So ist der – statistisch nachweisbare – Zusammenhang zwischen dem Rückgang der Storchenpopulation und dem Sinken der Geburtenrate eben kein Beweis dafür, dass der Storch die Kinder bringt.
Wenn Sie selber Zahlen, Daten und Fakten als Beleg heranziehen, so prüfen Sie genau, ob das Material Ihren Anforderungen entspricht. Nichts ist peinlicher, als vor Zuhörern zugeben zu müssen, dass Ihr „Beweis“ nicht stichhaltig ist. Wenn Ihnen das trotz aller Sorgfalt passiert, so geben Sie am besten Ihren Irrtum zu, entschuldigen sich für die mangelnde Sorgfalt und fahren fort.
Es sei denn, Sie wollen sich ein Beispiel an der Regierung von Mexiko nehmen. Als man vor einigen Jahren dort feststellte, dass die Autobahnen mit ihren zwei Spuren den vielen Verkehr nicht mehr bewältigen konnten, sollten sie um eine Fahrspur verbreitert werden. Nun kostet das nicht nur in Deutschland viel Zeit und vor allem Geld – beides hatte Mexiko nicht. So kam man auf die Idee, durch drei statt bisher zwei Spuren die Kapazität der Autobahnen schlagartig zu erweitern – um sage und schreibe 50 Prozent! Dumm nur: Die Autos, die darauf fuhren, waren immer noch so breit wie vorher – viele Unfälle waren die Folge. Nach wenigen Monaten wurde die Maßnahme rückgängig gemacht, es gab wieder zwei Spuren pro Fahrbahn.
Doch nun war ein potemkinsches Dorf aus Zahlen errichtet, die den Erfolg und die Sinnhaftigkeit des Manövers belegen sollten. Der Ausbau hatte ja bereits 50 Prozent gebracht, doch wegen der Unfälle fiel die dritte Spur wieder weg – ein Minus von 33 Prozent. Verkündet wurde, worauf niemand sonst gekommen wäre: ein Kapazitätszuwachs von 17 Prozent – und das ohne nennenswerten Aufwand. Es rechnete auch niemand nach, bis auf einen Journalisten des britischen Economist.
Das funktioniert auch sehr gut im Kleinen, etwa in einer Kantine. In einem Fall einer besonders lausigen Betriebsküche eines großen Hauses in Berlin kam der Pächter auf die an sich gute Idee, seine Gäste zu befragen. Das Ergebnis war vernichtend. Die wesentlichen Zahlen gab er, leicht zusammengefasst, mit einem Aushang bekannt: „Über 90 Prozent unserer Gäste sind mit den Leistungen der Kantine sehr gut oder gut zufrieden oder essen woanders.“ Inzwischen ist die Kantine unter neuer Leitung, und die tut das einzig Richtige – sie kocht besser.
„Zahlen, Daten, Fakten – mehr braucht man nicht!“
Zahlen sind oft abhängig von der Messmethode – andere Methoden, andere Ergebnisse.
Viele Aussagen beruhen auf mathematischen Modellen, die die Zukunft beschreiben – ändern sich einzelne Parameter nur geringfügig, komme ich zu vollkommen anderen Ergebnissen.
Zahlen sind für die meisten Menschen nur schwer vorstellbar.
Wenn es um Häufigkeit und Wahrscheinlichkeit geht, verschätzen wir uns systematisch.
Unsere Einschätzung von Chancen und Risiken wird von der subjektiven Wahrnehmung stärker beeinflusst als von der Realität.
Deshalb prüfen Sie konsequent:
Welche Daten liegen zugrunde?
Wie wurden die Daten erhoben?
Sind die Ergebnisse repräsentativ und auf den konkreten Fall anwendbar?
Sind die Ergebnisse in Tests überprüft worden?
Wer ist der Auftraggeber und was sind seine Absichten?