Читать книгу Der Weg zur Energiewende - Fritz Dieter Erbslöh - Страница 10
5 Klimadiskussion: Treibhausgase
ОглавлениеHintergrund für die in Kap. 4, Wahrnehmung und Beginn einer Klimapolitik, beschriebenen Entwicklungen war das zunehmende Wissen um das Klima. Bereits im 19.Jahrhundert untersuchten und erkannten Wissenschaftler verschiedene, auf das Klima einwirkende Faktoren. J.-B. FOURIER kam im Jahr 1824 in seinem Aufsatz „Remarques générales sur les températures du globe terrestre et des espaces planétaires“ zu dem Schluss, dass die solare Einstrahlung verantwortlich zu machen sei für die Temperatur der Erdoberfläche.1 Und er formulierte hier den entscheidenden Satz: „c’est ainsi que la temperature est augmentée par l’interposition de l’atmosphère, parce que la chaleur trouve moins d’obstacle pour pénétrer l’air, étant à l’état de lumière, qu’elle n’en trouve pour repasser dans l’air lorsqu’elle est convertie en chaleur obscure.”2 In freier Übersetzung: Ein Teil der eingestrahlten Energie bleibt aufgrund der Eigenschaften der Atmosphäre als Wärme gespeichert.
Warum das so ist, wurde erst später verstanden, aber dass es so ist, war FOURRIER, der sich für seine Messungen auch des vom Schweizer Physiker H.-B. DE SAUSSURE schon 1774 gebauten „Héliothermomètre” bediente, bewusst. DE SAUSSURE hatte bereits herausgefunden, dass sich Luft unter Glasabdeckung stark aufheizte, wenn er seine „Boite chaude” (Abb. 5‑1) dem Sonnenlicht aussetzte.
Abb. 5‑1:
„Héliothermomètre” des H.-B. de Saussure von 1774, Prinzipskizze; Quelle: G. Hoffmann, IMAU ‒ University Utrecht
Danach muss man also unterscheiden: der physikalische Treibhauseffekt geht auf DE SAUSSURE und das 18. Jh. zurück, während die Auffindung des atmosphärischen Treibhauseffektes wohl FOURRIER und damit dem frühen 19. Jh. zuzuordnen ist.
Der Ire J. TYNDALL machte in den Jahren 18591–863 den nächsten Schritt3, indem er die Absorptionseigenschaften der atmosphärischen Gase näher beschrieb bzw. experimentell ermittelte. Er benutzte hierfür ein selbstgebautes Spektralphotometer und fand große Unterschiede bei den untersuchten Gasen: Sauerstoff, Stickstoff und Wasserstoff waren praktisch transparent, während Wasserdampf, „carbonic acid” (= Kohlensäure, CO2) und Ozon stark absorbierten, vor allem im infraroten Bereich (Wärmestrahlung).4 Den Wasserdampfgehalt der Atmosphäre sah er für das Temperaturgleichgewicht als maßgeblich an, noch vor CO2. Später weitete er seine Ergebnisse auch zu Spekulationen über Klimaänderungen aus.
Drei Jahrzehnte später griff der schwedische Chemiker und spätere Nobelpreisträger S. AR-RHENIUS die Frage nach der Klimawirksamkeit des Gases CO2 auf. Er war wohl der erste Wissenschaftler, der quantitative Antworten auf die Frage diskutierte, wie sich eine Veränderung des CO2-Gehaltes infolge der Verbrennung fossiler Energie auf das Klima auswirken könnte. Zunächst am noch ungelösten Problem des Entstehens und Vergehens von Eiszeiten interessiert, kam er bei einer angenommenen Halbierung des atmosphärischen Kohlendioxids auf eine Temperaturerniedrigung von 4–5 °C in Europa.
Mit der Annahme einer Verdopplung des CO2-Gehaltes, vielen weiteren Annahmen und Abschätzungen kam er in seiner Veröffentlichung „On the influence of carbonic acid in the air upon the temperature of the ground“ von 1896 schließlich dann zum Ergebnis einer Temperaturerhöhung von 4–6 °C.5 Im kalten Skandinavien hatte man allerdings wenig Angst vor höheren Temperaturen und war optimistisch: „Der Menschheit wird es zweifellos gelingen, dieses Problem zu lösen.” (ARRHENIUS).
Die Ergebnisse stießen im frühen 20.Jahrhundert auf viele Einwände; einer der Skeptiker war der Physiker K. ÅNGSTRÖM, der nach Labormessungen mit veränderlichen CO2-Konzentrationen nur sehr kleine Veränderungen fand und zu dem Schluss kam, dass die Absorptionsbänder des Kohlendioxids, in denen Wärmestrahlung absorbiert wird, schnell gesättigt waren ‒ also sozusagen verstopften, wodurch die Absorption ihr Ende fand.
ARRHENIUS und andere kritisierten zwar die Messungen ÅNGSTRÖMS, jedoch blieb es dann in der Wissenschaft common sense, dass er, ARRHENIUS, falsch gelegen hatte.
So geriet die CO2-Hypothese für die nächsten Jahrzehnte praktisch in Vergessenheit.6 Zur Gesamtschau gibt Abb. 5‑2 eine Zeitleiste der bis ca. 1930 angewachsenen Kenntnisse.
Anfang der 1930er Jahre gewannen der Treibhauseffekt und seine möglichen Folgen wieder neue Aufmerksamkeit. Im Jahre 1931 widerlegte der US-Physiker E. O. HULBURT die Findungen ÅNGSTRÖMS und betonte die Klimarelevanz des atmosphärischen Kohlendioxids.
Abb. 5‑2:
Zeitleiste zur Auffindung des atmosphärischen Treibhauseffektes, bis ca. 1930; Quelle: Grafik jg in J. Mason, Zwei Jahrhunderte Klimageschichte, Teil 1
Sieben Jahre später war es der Engländer G. CALLENDER, der die Problematik wieder aufgriff. Er war eigentlich Ingenieur, hatte aber ein Faible für Meteorologie und war in Thermodynamik geschult. Sein Ausgangspunkt waren Temperaturaufzeichnungen der letzten 50 Jahre von 200 meteorologischen Stationen, aus denen er eine statistisch signifikante Temperaturerhöhung ermitteln konnte, s. Abb. 5‑3.
Abb. 5‑3:
Die von Callendar ermittelten Temperaturkurven, seinerzeit die besten verfügbaren Daten; sie zeigen einen weltweiten Anstieg von den 1880er Jahren bis zur Mitte der 1930er; Quelle: Quarterly J. Royal Meteorological Society 64, S.223 (1938).
Für den Anstieg der CO2-Konzentration fand er eine Rate von 10 % im untersuchten Zeitraum. Zum ersten Male gab es damit einen durch Messwerte belegten statistischern Zusammenhang. Hierauf gestützt, ergaben seine Berechnungen für die Verdopplung der aktuellen CO2-Konzentration einem Temperaturanstieg von 2 °C. Seine Veröffentlichung von 19387 beeindruckte den deutschen Meteorologen H. FLOHN, der fortan die Klimaproblematik in aller Welt ansprach.8
FLOHN selbst ging in seiner Habilitationsvorlesung in Würzburg 1941 auf das Thema ein und erörterte die Möglichkeit einer Großklimaänderung durch das CO2.9
Er versuchte nach dem Krieg das Thema auf nationalen und internationalen Tagungen unterzubringen, ohne auf großes Interesse zu stoßen, wie er selbst in seinen Erinnerungen sagt. „Aktuell wurde das CO2-Klima-Problem erst wieder 1956, als G. N. PLASS, ein amerikanischer Autor, ein Modell über die Erwärmung durch CO2 veröffentlicht hatte“ (FLOHN).10
Inzwischen standen Computer zur Verfügung, wenn auch mit begrenzter Rechenleistung. G. PLASS machte sich das für sein Modell zunutze und konnte so zeigen, dass eine höhere Kohlendioxid-Konzentration die Erde aufheizen würde. Konkret errechnete er eine Erwärmung zwischen 3 und 4 °C bei einer Verdopplung der CO2-Konzentration.
Bei den noch geringen Emissionsraten Mitte der 1950er Jahre hätte dies einen Temperaturanstieg von ungefähr 1,1 °C pro Jahrhundert zur Folge gehabt. Immer noch fanden sich Skeptiker, von denen die einen bemängelten, dass Wasserdampf und Bewölkung in PLASS’ Modell keine Rolle spielten, während andere die CO2-Aufnahmefähigkeit der Ozeane als natürliches Korrektiv sahen.
Das zweite Argument war verbreitet, bis der Amerikaner R. REVELLE 1953 fand, dass die Meerwasser wegen eines leicht basischen Zustandes in ihrer Aufnahmefähigkeit eng begrenzt sind. REVELLE wertete 14C-Messungen an Eiskernen aus und errechnete hieraus den Anteil des atmosphärischen CO2, der sich tatsächlich im Meer löste. Er kam auf nur 20 %. Seine Schlussfolgerung war daraufhin, dass ein Anstieg des atmosphärischen CO2 von etwa 40 % in den folgenden Jahrhunderten möglich wäre.
Die zwei schwedischen Meteorologen B. BOLIN und E. ERIKSON fanden parallel hierzu heraus, dass die Zeiträume eine große Rolle spielen und die Vermischung in die Tiefe sich über hunderte bis tausende von Jahren vollzieht. Wie es sich um die CO2-Konzentration verhielt, konnten nur Messungen über größere Zeiträume zeigen. Messungen an Stationen in Skandinavien misslangen – sie waren vom Rauschen überlagert.
In Kalifornien war es CH. D. KEELING jedoch gelungen, eine rauschfreie Messtechnik zu entwickeln. REVELLE und SUESS holten ihn zu ihrer Scripps Institution of Oceanography und verschafften ihm einen Etat11. Eine geeignete Messstelle wurde am Mona Loa auf Hawaii gefunden, und KEELING begann seine Messungen, die zunächst auf die Ermittlung einer Referenzkonzentration abzielten.
1958 war KEELING damit fertig, und zwei Jahre später konnte er mitteilen, dass in der Tat die Konzentration anstieg, und auch noch mit Steigerungsraten, die mit den von REVELLE errechneten Werten übereinstimmte. Die Messungen am Mona Loa werden bis in die Gegenwart fortgesetzt. Der sich ergebende Kurvenverlauf ist heute unter dem Begriff Keeling-Kurve bekannt und in der Grafik der Abb. 5‑4 wiedergegeben.
Die Keeling-Kurve stellt unter Beweis, dass und wie die CO2-Konzentration ansteigt. Dies ist ihre einzige, jedoch überaus bedeutsame Aussage. Über die Erdtemperatur, das Meeresspiegelniveau und andere zivilisatorisch relevante Parameter und insbesondere deren weitere Entwicklung sind aus der Keeling-Kurve allein keine Aussagen möglich – hierzu bedarf es weiterer Nachweise, wie sie heute in den sogenannten Klimamodellen geliefert werden.
Abb. 5‑4:
links die KEELING-Kurve, fortgeführt bis in die Gegenwart; Quelle: Scripps CO2-Programm; rechts Charles Keeling bei der Verleihung der National Medal of Science durch Präsident George W. Bush; Quelle: National Science Foundation
Über die bis zu KEELING erreichten Fortschritte in der Atmosphärenforschung gibt die Zeitleiste der Abb. 5‑5 in der Zusammenfassung Auskunft.
Abb. 5‑5:
Zeitleiste zur Atmosphärenforschung 1930–1960; Quelle: Grafik jg in J. Mason, Zwei Jahrhunderte Klimageschichte, Teil 2
Die Jahre nach 1970 waren in der Klimaforschung vor allem fünf Gebieten gewidmet:
Dem Nachweis der anthropogenen Herkunft des CO2-Anstiegs,
der Gewinnung einer verlässlichen Datengrundlage in den zivilisationsrelevanten Klimaparametern wie Temperatur und Meeresspiegel, Eisbedeckung, Sättigung der Meere,
der Rückschau in die tiefe Vergangenheit der Klimageschichte der Erde,
ein tieferes Verständnis der klimarelevanten Bestandteile der Atmosphäre, nicht nur von CO2,
der Simulation der Zukunft mit immer komplexeren Klimamodellen.
Da die von KEELING gemessenen Steigerungsraten ziemlich genau den durch Verbrennung fossiler Brennstoffe erwarteten Werten entsprach, wurde schnell unterstellt, dass der Anstieg auf die Tätigkeit und Wirtschaftsweise des Menschen zurückgeführt werden kann, also anthropogen ist. Dass dies nicht nur ein statistischer Zusammenhang ist, wurde auf folgende Weise nachweisbar:
Berechnung der freigesetzten Mengen aus nationalen Statistiken,
Ermittlung des aus Verbrennung stammenden CO2-Anteils aus dem Isotopenverhältnis und
Hinzunahme der O2-Konzentration als Indikator für Verbrennung / Vulkaneruptionen12
Abb. 5‑6 zeigt in der Tat, dass sich die anthropogenen CO2-Emissionen aus Verbrennung und die atmosphärische CO2-Konzentration im Gleichlauf bewegen.
Systematische Temperaturmessungen im heutigen Sinn wurden erst seit den 80er Jahren des 19. Jahrhunderts durchgeführt (Deutschland 1881). Echte Messungen waren erst seit G. GALILEI zuverlässig möglich, der mit seinem Thermoskop ein erstes Thermometer baute; G. F. SAGREDO fügte eine Skala hinzu und soll am 12. Juli 1613 mit systematischen Messungen begonnen haben – sie gelten als die erste Aufzeichnung von Wettertemperaturdaten. Für die Jahrhunderte davor gibt es einzelne Klimaberichte oder -erwähnungen in historischen Dokumenten.
Abb. 5‑6:
Jährliche globale Kohlenstoffemissionen aus fossilen Brennstoffen und Zementherstellung gegen Werte in der Atmosphäre; Quelle: u.a. Keeling und Whorf 1999; WI 2000b
Abb. 5‑7:
Die reale „Fieberkurve“ der Erde, nördliche Halbkugel, gewichteter Durchschnitt Land-Luft-Meer; die gestrichelte Kurve verbindet (korrigierte) Messungen, die dick ausgezogene ist ein gleitendes 9-Jahresmittel, das die Tendenzen deutlicher macht, genormt auf den Mittelwert 1961–1990; Quelle: Jones u.a. 2000, 2001
Anmerkung: Die absolute Temperatur erhält man durch Addition von 14,0 °C
Abb. 5‑8:
Temperaturen der letzten 1000 Jahre, nördliche Halbkugel, nach verschiedenen Autoren und Recherchetechniken (Baumjahresringe, Bohrkerne etc.); man vergleiche die Daten der Abb. 4-3; Quelle: Mann u.a. 1999, Jones u.a. 1998, 2000, 2001, Briffa u.a.1998, Huang u.a. 2000, Pollack u. Huang 2001
Für weiter zurückliegende Zeiten halfen die Analyse von Baumringen oder Fluss-Sedimenten, und vor allem die die Analyse von Bohrkernen im Eis der Antarktis. Über was man gesichert verfügt, zeigen Abb. 5‑7 und Abb. 5‑8.
Die Veränderung des Meeresspiegels lässt sich seit ca. 1995 recht einfach über Satellitenmessungen beobachten; mit der Ergänzung aus Tidenmessungen in früheren Jahren ergibt sich auch hier ein zunächst nur statistisch gesicherter Anstieg, s. Abb. 5‑9. Er wird durch die zunehmende Schmelze des polaren Eises erklärt.
1971 wurde durch die Untersuchungen von S. I. RASOOL und S. H. SCHNEIDER13 klar, dass es auch Gegenspieler für das CO2 gibt: Aerosole in der Atmosphäre sorgen für Abkühlung und kupieren damit den Temperaturanstieg, was der renommierte R. BRYSON 1974 unterstützte. Sogar eine neue Eiszeit durch Aerosole schien vorstellbar.
Ihre Ergebnisse spielten auch eine Rolle, als es 2013 darum ging, die durch Messergebnisse belegte Pause im Temperaturanstieg zwischen 1998 and 2012 („Hiatus”) zu erklären. Das Intermezzo, das zu vielen Spekulationen Anlass gab, wurde schließlich offiziell mit der Kurzformel zu Ende gebracht:
„Heating is still going on. It’s just not in terms of the surface air temperature.”14
Abb. 5‑9:
Veränderung des Meeresspiegels. Daten der Tidemesser sind in rot und Satellitenmessungen in blau dargestellt. Die graue Fläche zeigt die Projektionen des dritten Sachstandberichts des IPCC; Quelle: Copenhagen Diagnosis 2009
Klimamodelle entstanden aus Modellen für die Wettervorhersage, die ab etwa 1940 bekannt wurden. Die Modellierung der Atmosphäre hat damit eine lange Tradition; sie lässt sich in ihrer Aussagefähigkeit so beschreiben: „Ein Klimamodell ist, wie jedes mathematische Modell von Naturvorgängen, eine Vereinfachung. Der Grad der Vereinfachung bestimmt die Komplexität des Modells und ist maßgebend, ob dieses Modell für die vorliegende Fragestellung überhaupt verwendet werden kann. Die Komplexität eines gewählten Modells legt somit die Grenzen des Einsatzes fest. Diese Grenzen zu bestimmen, erfordert gewisse Erfahrung, da es keine objektiven Regeln oder Gesetze gibt.”15
Die Klimamodelle wuchsen mit den Möglichkeiten der Rechentechnik. In den 1940er und 1950er Jahren stand hierfür der erste elektronische Computer (ENIAC, Electronic Numerical Integrator and Computer) im Auftrag der US Army in Princeton zur Verfügung. Ab 1980 waren die ersten PC der IBM im Einsatz, deren gewachsene Rechenleistung heute für einfache Modelle durchaus ausreicht.
Die Modelle selbst wurden immer komplexer und durchliefen verschiedene Stadien der Integration, s. Abb. 5‑10. Seit 1990 sind die Klimamodelle vollständiger geworden. Der Kohlenstoff- und andere Stoffkreisläufe, die Dynamik der Vegetationstypen sowie die Chemie der Atmosphäre gehören zu den Prozessen, die jüngst in die bestehenden und zunächst physikalischen Zirkulationsmodelle integriert werden konnten.
Was die sog. Erd-Modelle leisten müssen, illustriert Abb. 5‑11. Und was solche Klimamodelle dann schließlich ergeben, zeigt Abb. 5‑12 an einem Beispiel aus dem Jahr 2013, in dem beobachtete und simulierte Klimainformationen miteinander verglichen werden.
Abb. 5‑10:
Chronologie der Klimamodellentwicklung. Die Berücksichtigung verschiedener neuer Komponenten (Kohlenstoffkreislauf, Vegetation, und Atomsphärenchemie) führt zu einer drastischen Erhöhung der Komplexität und der benötigten Computerressourcen; Quelle: globalchange.govreportappendices
Abb. 5‑11:
Komplexes Erdsystemmodell MPI-ESM mit Uvic-Modell als Emulator; Quelle DFG-MPI f. Meteorologie-GEOMAR
Abb. 5‑12:
Vergleich des beobachteten und simulierten Klimawandels basierend auf drei großräumigen Indikatoren in der Atmosphäre, der Kryosphäre und dem Ozean:
Änderungen der kontinentalen Landoberflächentemperaturen (gelb unterlegte Boxen), der Ausdehnung des arktischen und antarktischen Meereises jeweils im September (weiße Boxen mit schwarzem Rahmen) sowie des Wärmegehalts der oberen Ozeanschicht in den großen Ozeanbecken (weiße Boxen mit blauem Rahmen). Die mittleren globalen Änderungen sind ebenfalls dargestellt (die drei Diagramme in der unteren Reihe). Alle Zeitreihen sind Zehn-Jahres-Mittel, welche in der Mitte des Jahrzehnts markiert sind. Die schwarze Linie zeigt jeweils real beobachtete Temperaturen, die rot schraffierten Flächen die Ergebnisse jener Klimamodelle, die natürliche und menschliche Faktoren berücksichtigen ‒ die Übereinstimmung ist augenfällig. Quelle: IPCC 2013, WG1, Figure SPM.6
Den Überblick über die Entwicklung seit den 1970er Jahren vermittelt Abb. 5‑13. Fasst man das Ergebnis knapp zusammen, so ist festzustellen, dass wir in der Gegenwart in einem deutlich wärmeren Erdklima leben als in den letzten 1000 Jahren und die Erdoberflächentemperatur weiter zunimmt. Und da der sog. Atmosphärische Treibhauseffekt, verursacht u.a. durch CO2, als real unterstellt werden kann, werden wir mit weiter zunehmender CO2-Produktion
den Treibhauseffekt verstärken,
und zur weiteren Erwärmung des Erdklimas und den daraus folgenden Veränderungen beitragen.
Abb. 5‑13:
Zeitleiste zur Atmosphärenforschung 1960–2010; Quelle: Grafik jg in J. Mason, Zwei Jahrhunderte Klimageschichte, Teil 3
Die Frage ist allerdings immer noch, wie groß die Erwärmung tatsächlich ausfallen wird und ob es hierfür eine kritische Grenze gibt, bei deren Überschreiten sich kein neues Gleichgewicht ergeben, das System also „kippen“ würde. Die Frage ist auch, welche Folgen und Folgekosten das haben wird. Es schließen sich weitere Fragen an: Können wir etwas tun, um den Temperaturanstieg zu begrenzen? Und was wäre das, wie schnell kann das gehen, und was würde das kosten?