Читать книгу Klimahysterie - was ist dran? - Michael Limburg - Страница 13
Die aktuelle Entwicklung
ОглавлениеSei es wie es sei: Bis 1979 waren alle Experten auf ungenaue und zu hohe Temperaturmeßreihen angewiesen, seit dieser Zeit nicht mehr. Das folgende Bild zeigt daher die bis etwa 1860 nur indirekt erforschte, danach mit vielen Unstimmigkeiten gemessene und seit 1979 genauer gemessene Temperaturkurve der Erde.
Abb. 1: Der Temperaturverlauf der letzten 1200 Jahre
Wie man sieht, gab es einen dicken Buckel im Mittelalter. Die Experten streiten sich noch, ob dieser Buckel etwas höher oder etwas niedriger als +2 °C über unserer heutigen Durchschnittstemperatur lag. Genau weiß es keiner, auch die nicht, die mit allerlei Proxydaten versuchen, die indirekten Belege für Temperaturen auszuwerten und in Globalwerte umzurechnen. Darüber lag er auf jeden Fall, wie Hunderte von Proxydaten zeigen, die weltweit peer reviewed in angesehenen Wissenschaftsmagazinen erschienen sind. Man erinnere sich an die Schulzeit, als uns beigebracht wurde, wie die Wikinger im Jahre um 980 Grönland besiedelten. Immerhin war es dort so warm, daß Besiedlung und Ackerbau (in Grünland) möglich waren. Oder so warm, wie Gavin Menzies in seinem Buch 1421 – The Year China Discovered the World (2002) berichtet, daß die Chinesen um 1420 mit ihren Erkundungsflotten auch das arktische Meer befuhren und daß sie dort kaum Eis vorfanden. Im norwegischen Trondheim wurde Wein angebaut, Datteln wuchsen am Rhein, und in den Alpen waren die Baumgrenzen ein paar hundert Meter höher als heute. Es war schön warm, die Ernten reichlich, die Menschen konnten überwiegend gut leben. Man nennt diese Zeit das mittelalterliche Klimaoptimum! Die Temperatur – wärmer als heute – war für Mensch und Tier optimal.21
Die große Frage ist: Wie haben es die Menschen im ausgehenden Mittelalter geschafft, die Globaltemperatur zu beeinflussen? Durch das Kohlendioxid ihrer Kamine, ihrer Lagerfeuer? Industrie und Verkehr in heutiger technologischer Ausprägung und Menge gab es ja noch nicht.
Alles stand wunderbar im Einklang mit der Natur. Das ist ein großes Rätsel, für das das IPCC bisher keine so richtige Erklärung fand.
Um das Jahr 1900 begann dann eine Entwicklung, wie sie detailliert in der folgenden Grafik gezeigt wird.
Abb. 2: Der Temperaturverlauf und die CO 2 -Entwicklung der letzten 1000 Jahre
Hier sehen wir den vom IPCC 2001 im dritten Sachstandsbericht veröffentlichten Kurvenverlauf des Kohlendioxidgehalts zusammen mit dem Temperaturverlauf der Atmosphäre. Letzteren hatte ursprünglich ein Dr. Michael Mann 1998 errechnet. Manns Originalkurve, die sogenannte Hockeystickkurve (die weiter unten gezeigt wird), wurde im IPCC-Bericht von 2001 mehr als 70 mal aufgeführt, zeigte jedoch das mittelalterliche Klimaoptimum nicht. Kurze Zeit später und gegen viele Widerstände wurde sie deshalb von den kanadischen Wissenschaftlern Stephen McIntyre und Ross McKitrick korrigiert. Gezeigt wird hier deren korrigierte (rote) Kurve.
Die Hockeystickkurve hat eine eigene denkwürdige Geschichte, die ich dem Leser nicht vorenthalten will. Doch zuerst schauen wir uns den Verlauf beider Kurven an. Wir sehen starke Schwankungen der Temperatur, aber so gut wie keine Schwankungen des Kohlendioxidgehaltes der Atmosphäre. In keiner erkennbaren Weise verknüpft oder korreliert dieser mit dem Temperaturverlauf. Nur im letzten Teilstück, gegen 1920, steigt die Temperatur an (der Anstieg wirkt hier stärker, weil durch den Maßstab verzerrt), wie auch der Kohlendioxidanteil. Sollte plötzlich die Physik Kapriolen schlagen und das Kohlendioxid auf die Temperatur heftig wirken lassen? Oder war es vielleicht umgekehrt?
Ich komme noch darauf zurück. Vorher wollen wir jedoch die bodennahe Temperaturentwicklung bis zur Gegenwart verfolgen. Das Goddard Institute for Space Studies (GISS) in den USA hat diese Werte ermittelt, wie gesagt, mithilfe der eingangs erläuterten bodennahen, ungenauen und unzuverlässigen Meßstationen.
Abb. 3: Die Globaltemperatur nach GISS (Bodenmessungen)
Wir sehen einen Abfall ab 1880, dann einen recht starken Anstieg von +0,5 °C bis 1940, dann wieder einen deutlichen Abfall bis 1976 – obwohl in diesem Zeitraum die Kohlendioxid-Emissionen um 400 Prozent anstiegen! – und von dort einen Anstieg bis 1998, dem Jahr mit der höchsten Spitze aufgrund von El Niño-Kapriolen, und weiter bis 2005. Der Abfall bis 1976 veranlaßte übrigens damals den immer noch berühmten IPCC-Forscher Prof. Stephen Schneider, eine fürchterliche Eiszeit ab 2000 vorherzusagen. Heute prognostizieren er und mit ihm die UN eine mindestens ebenso fürchterliche Warmzeit.
Wie stark die Ungenauigkeiten der zusammengefaßten Trendmeldungen sich auswirken können, zeigt die Kurve der Temperaturentwicklung für die USA, wo Hunderte mehr oder weniger gut gewartete Wetterstationen die folgenden Werte für das 20. Jahrhundert zeigen:
Abb. 4: Die US-Temperaturentwicklung nach GISS (Bodenmessungen, 2005 korrigiert)
Man sieht viel, nur keine bedrohliche Erwärmung (außer der El Niño-Spitze von 1998), vor der inzwischen auch – Al Gore sei Dank – die Amerikaner so viel Angst haben wie wir.
Obwohl die beiden zuletzt gezeigten Grafiken vom GISS stammen, hielt das Prof. James Hansen, den Direktor dieser Einrichtung, nicht davon ab, sie auf eine dreiste Weise zu manipulieren, weil sie ihm zu undramatisch erschienen.
Denn ursprünglich, bis Anfang 2001, wurde auf der Website des GISS ein Temperaturverlauf der USA gezeigt, der selbst die oben gezeigte Minierwärmung nicht zeigte (Bild links unten). Wenn man genau hinsieht, dann ist da sogar eine Abkühlung zu sehen. Das durfte aber nicht sein. Also wurden diese Daten flugs zu Rohdaten umettikettiert und mit Abschlägen in den 30er Jahren versehen, als es sehr warm war.
Abb. 5: Alte US-Temperatur (bis 2000) und Korrektur durch GISS
Ab 1960 wurden und werden sie dagegen mit Zuschlägen versehen, damit der Trend von da an wie Erwärmung aussieht (Bild rechts oben). Nur so paßt es: Die Temperaturkurve der USA (Abbildung 4) zeigt nun auch ab den siebziger Jahren den ersehnten Erwärmungseffekt, der zudem höher war, als der in den 30er Jahren.22
Begründet wird diese Manipulation mit neuen Erkenntnissen, die man seitdem gewonnen hätte. Wie sich dann aber herausstellte, lagen alle diese Erkenntnisse schon vor 1999 vor. Da waren sie aber offensichtlich noch nicht so wichtig.
James Hansen ist derjenige, der in den 80er Jahren bei tropischen Temperaturen im sommerlichen Washington den Senatoren den Treibhauseffekt nahebrachte und bis heute Erhöhungen des Meeresspiegels von etwa sechs Metern voraussagt.
Erst 2007 mußten das GISS und dessen Chef Hansen die Verlaufskurve der US-Temperaturen erneut nach unten korrigieren, weil ihnen der Statistiker Steven McIntyre umfangreiche methodische Fehler in der Aufbereitung der statistischen Daten nachgewiesen hatte. Seitdem ist nun nicht mehr das Jahr 1998 das wärmste bisher gemessene in den USA, sondern das Jahr 1934.23 Ups!
Ähnliche Änderungen ergaben sich für eine Reihe weiterer Jahre. Nach der erneut korrigierten Rangliste gehören jetzt vier Jahre aus den 30ern (1934, 1931, 1938 und 1939), nur zwei aus den 90ern (1998, 1999) und nur eines danach (2006) zu den Top Ten der heißesten Jahre. Natürlich erfolgte auch diese Korrektur ohne jede Erklärung oder Entschuldigung für die Irreführung der Öffentlichkeit.
Um dem Leser einen Einblick zu geben, was und wie alles die bodennahen Messungen beeinflußt, folgt hier eine Grafik aus einem Vortrag von Prof. Timothy Patterson von der kanadischen Carleton University.
Abb. 6: Der Einfluß des urban heat effect auf Bodenmessungen (rural – ländliche, ungenutzte Flächen, suburban – Vorstadt, downtown – Innenstadt, farmland – landwirtschaftliche Nutzflächen)
Man sieht einen kräftigen Anstieg der Temperatur um bis zu 5 °C und mehr, je näher man industrialisierten oder anderen städtischen Flächen kommt. Dieser urbane Wärmeinseleffekt ist selbstverständlich auch dem IPCC bekannt. Es versucht ihn durch viele willkürliche, häufiger auch nachvollziehbare und begründete Eingriffe herauszukorrigieren.
Leider geht das nicht gut, weil sich dieser Effekt eben überall anders auswirkt. Die Meßstationen liegen nun mal fast alle in den Zentren von Ballungsgebieten, in der Nähe von Universitätsinstituten, Rathäusern oder Flughäfen. Verlegt man sie in unbevölkerte Außengebiete, verliert man den historischen Bezug. Deshalb müssen die Stationen bleiben, wo sie sind, und ihre jeweilige örtliche Temperatur, die soviel mit der Globaltemperatur zu tun hat, wie der Igel mit dem Fensterputzen, munter weiter messen.24
S. Fred Singer und Dennis T. Avery fragten deshalb in ihrem Buch Unstoppable Global Warming, Every 1500 Years? ganz unschuldig, warum reiche Industrieländer eine höhere Erwärmung erleben als arme Länder. Die Meteorologen Eugenia Kalnay und Ming Cai haben herausgefunden, daß der Wärmeinseleffekt um bis zu fünfmal größer ist, als ihm in den offiziellen Berechnungen zugebilligt wurde. Der verbleibende Temperaturanstieg – zumindest, was die USA anbelangt – würde damit im Bereich der statistischen Meßungenauigkeit verschwinden.25
Eine weitere sehr interessante Entdeckung gelang den beiden Niederländern de Laat und Maurellis, die sie im renommierten International Jour- nal of Climatology publizierten. Dort führen sie aus, die heute verwendeten Klimamodelle würden voraussagen, daß die Erwärmung durch Treibhausgase sowohl auf der Oberfläche als auch – recht gleichmäßig – in der Troposphäre auftreten müßte. Das sei jedoch nicht der Fall, wie ihre Messungen zeigten, weil die Oberfläche – besonders die der urbanisierten Industrieländer – eine deutlich höhere Erwärmung zeigt, als die Troposphäre. Sie schreiben ferner, daß diese Unterschiede inzwischen ein gut dokumentiertes Phänomen darstellen und sehr wohl den Schluß zulassen, daß andere anthropogene Prozesse zu den beobachteten Oberflächentemperaturen beigetragen haben müssen.
Ganz klar lassen ihre Messungen auch erkennen, daß überall dort, wo Treibhausgas-Emissionen anfallen, also über Industrie- und Wohnvier-teln, die Temperaturzunahme stärker ist, als dort, wo diese Emissionen geringer sind oder nicht anfallen.26
Was ja auch plausibel ist, denn Kohlendioxid ist 1,5 mal schwerer als Luft. Diese Unterschiede zeigen sogar beide Meßmethoden, Satelliten- und Bodenmessungen. Über mögliche Ursachen sagt das jedoch noch nichts aus. In die Computermodelle finden diese Abweichungen dennoch keinen Eingang. Sie werden – wie so vieles andere auch – einfach ausgeblendet oder unterschlagen. Bei den Bodenmessungen wird dieser Effekt viel zu gering angesetzt. Der Leser möge selbst entscheiden, wieviel Wahrheitsgehalt er den Bodenmessungen nunmehr beimißt. Hoch kann er nicht sein.