Es besteht kein Zweifel: Der Klimawandel ist in vollem Gange und der Mensch beeinflusst das Klima in zunehmenden Maße. ...
67 downloads
1239 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Es besteht kein Zweifel: Der Klimawandel ist in vollem Gange und der Mensch beeinflusst das Klima in zunehmenden Maße. Das vorliegende Buch liefert eine solide wissenschaftliche Grundlage zum Stand der Klimadiskussion. Weder Horrorszenarien noch Verharmlosung sind angebracht, sondern eine möglichst objektive Beschreibung und Bewertung der Sachverhalte. Latif befasst sich mit den Grundlagen der Klimaphysik, er beschreibt den wissenschaftlichen Kenntnisstand hinsichtlich der Ursachen des globalen Klimawandels und was man heute schon an Klimaänderungen beobachten kann. Er geht auf die gängigen »Skeptikerargumente« ein und skizziert, wie unser zukünftiges Klima aussehen könnte, wenn sich die Menschheit nicht der Nachhaltigkeit verschreibt. Abschließend werden konkrete Handlungsoptionen vorgestellt. Mojib Latif, Professor für Meteorologie an der Universität Kiel, ist einer der bekanntesten Meteorologen und Klimaexperten Deutschlands. Er hat zahlreiche Studien zum Klimawandel veröffentlicht. Für seine Fähigkeit, komplizierte Forschungsergebnisse verständlich zu erklären, wurde er u. a. mit dem Max-Planck-Preis für öffentliche Wissenschaft ausgezeichnet. Unsere Adressen im Internet: www.fischerverlage.de www.hochschule.fischerverlage.de
Mojib Latif
BRINGEN WIR DAS KLIMA AUS DEM TAKT? Hintergründe und Prognosen
Herausgegeben von Klaus Wiegandt
Fischer Taschenbuch Verlag
4. Auflage: Mai 2007 Originalausgabe Veröffentlicht im Fischer Taschenbuch Verlag, einem Unternehmen der S. Fischer Verlag GmbH, Frankfurt am Main, Januar 2007 © 2007 Fischer Taschenbuch Verlag in der S. Fischer Verlag GmbH, Frankfurt am Main Gesamtherstellung: Clausen & Bosse, Leck Printed in Germany ISBN 978-3-596-17276-4
Inhalt Vorwort des Herausgebers Handeln – aus Einsicht und Verantwortung Vorwort
9 21
Wissenschaftliche Grundlagen 1 1.1 1.2 1.3 1.4 1.5
Das Klima und das Erdsystem Wetter und Klima Die Ozeane Das Meereis Das Inlandeis Die Vegetation
25 25 29 35 39 44
2 2.1 2.2 2.3 2.4 2.5
Der Treibhauseffekt Die Zusammensetzung der Atmosphäre Der natürliche Treibhauseffekt Der anthropogene Treibhauseffekt Die globale Kohlenstoffbilanz Die Ozonproblematik
49 49 53 58 61 67
3 3.1 3.2 3.3 3.4
Klimavariabilität und -vorhersage Warum schwankt das Klima? El Niño/Southern Oscillation Die Nordatlantische Oszillation Einfluss von Vulkanen
75 75 76 81 91
6
Inhalt
3.5 Die Eiszeitzyklen 3.6 Abrupte Klimaänderungen 3.7 Vorhersagbarkeit des Klimas
97 100 103
4 4.1 4.2 4.3 4.4 4.5
107 107 109 113 116
Klimamodellierung Klimamodelle Wolken und Niederschlag Die Rolle von Kondensstreifen Das Lorenz-Modell Was ist der Golfstrom und wie verhält er sich in der Zukunft?
124
Das Klima des 20. und 21. Jahrhunderts 5 5.1 5.2 5.3 5.4
Der menschliche Einfluss auf das Klima Das Intergovernmental Panel on Climate Change (IPCC) Was kann man heute schon an Veränderungen sehen? Wer ist schuld an den Veränderungen? Der Fingerabdruck des Menschen
135 135 136 142 146
6 6.1 6.2 6.3 6.4 6.5
Klimaänderungsszenarien für die Zukunft Die Trägheit des Klimas Was bringt die Zukunft? Das Klima in Europa in der Mitte des 21. Jahrhunderts Wie stark steigt der Meeresspiegel? Die Versauerung der Ozeane
152 152 154 158 162 167
Strategien für die Zukunft 7 Die öffentliche Diskussion 7.1 Die Rolle der Medien 7.2 Die Skeptiker
179 179 184
Inhalt 8 8.1 8.2 8.3 8.4
Was muss geschehen? Das Kioto-Protokoll Treibausgasemissionen Handlungsoptionen Wie gehen wir mit dem Klimaproblem um?
7 207 207 210 213 220
Anhang Glossar Literaturhinweise
241 252
Vorwort des Herausgebers
Handeln – aus Einsicht und Verantwortung »Wir waren im Begriff, Götter zu werden, mächtige Wesen, die eine zweite Welt erschaffen konnten, wobei uns die Natur nur die Bausteine für unsere neue Schöpfung zu liefern brauchte.« Dieser mahnende Satz des Psychoanalytikers und Sozialphilosophen Erich Fromm findet sich in Haben oder Sein – die seelischen Grundlagen einer neuen Gesellschaft (1976). Das Zitat drückt treffend aus, in welches Dilemma wir durch unsere wissenschaftlich-technische Orientierung geraten sind. Aus dem ursprünglichen Vorhaben, sich der Natur zu unterwerfen, um sie nutzen zu können (»Wissen ist Macht«), erwuchs die Möglichkeit, die Natur zu unterwerfen, um sie auszubeuten. Wir sind vom frühen Weg des Erfolges mit vielen Fortschritten abgekommen und befinden uns auf einem Irrweg der Gefährdung mit unübersehbaren Risiken. Die größte Gefahr geht dabei von dem unerschütterlichen Glauben der überwiegenden Mehrheit der Politiker und Wirtschaftsführer an ein unbegrenztes Wirtschaftswachstum aus, das im Zusammenspiel mit grenzenlosen technologischen Innovationen Antworten auf alle Herausforderungen der Gegenwart und Zukunft geben werde. Schon seit Jahrzehnten werden die Menschen aus Kreisen der Wissenschaft vor diesem Kollisionskurs mit der Natur gewarnt. Bereits 1983 gründeten die Vereinten Nationen eine Weltkommission für Umwelt und Entwicklung, die sich 1987
10
Vorwort des Herausgebers
mit dem so genannten Brundtland-Bericht zu Wort meldete. Unter dem Titel »Our Common Future« wurde ein Konzept vorgestellt, das die Menschen vor Katastrophen bewahren will und zu einem verantwortbaren Leben zurückfinden lassen soll. Gemeint ist das Konzept einer »langfristig umweltverträglichen Ressourcennutzung« – in der deutschen Sprache als Nachhaltigkeit bezeichnet. Nachhaltigkeit meint – im Sinne des Brundtland-Berichts – »eine Entwicklung, die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstandard zu wählen«. Leider ist dieses Leitbild für ökologisch, ökonomisch und sozial nachhaltiges Handeln trotz zahlreicher Bemühungen noch nicht zu der Realität geworden, zu der es werden kann, ja werden muss. Dies liegt meines Erachtens darin begründet, dass die Zivilgesellschaften bisher nicht ausreichend informiert und mobilisiert wurden.
Forum für Verantwortung Vor diesem Hintergrund und mit Blick auf zunehmend warnende Stimmen und wissenschaftliche Ergebnisse habe ich mich entschlossen, mit meiner Stiftung gesellschaftliche Verantwortung zu übernehmen. Ich möchte zur Verbreitung und Vertiefung des öffentlichen Diskurses über die unabdingbar notwendige nachhaltige Entwicklung beitragen. Mein Anliegen ist es, mit dieser Initiative einer großen Zahl von Menschen Sach- und Orientierungswissen zum Thema Nachhaltigkeit zu vermitteln sowie alternative Handlungsmöglichkeiten aufzuzeigen.
Handeln – aus Einsicht und Verantwortung
11
Denn das Leitbild »nachhaltige Entwicklung« allein reicht nicht aus, um die derzeitigen Lebens- und Wirtschaftsweisen zu verändern. Es bietet zwar eine Orientierungshilfe, muss jedoch in der Gesellschaft konkret ausgehandelt und dann in Handlungsmuster umgesetzt werden. Eine demokratische Gesellschaft, die sich ernsthaft in Richtung Zukunftsfähigkeit umorientieren will, ist auf kritische, kreative, diskussionsund handlungsfähige Individuen als gesellschaftliche Akteure angewiesen. Daher ist lebenslanges Lernen, vom Kindesalter bis ins hohe Alter, an unterschiedlichen Lernorten und unter Einbezug verschiedener Lernformen (formelles und informelles Lernen), eine unerlässliche Voraussetzung für die Realisierung einer nachhaltigen gesellschaftlichen Entwicklung. Die praktische Umsetzung ökologischer, ökonomischer und sozialer Ziele einer wirtschaftspolitischen Nachhaltigkeitsstrategie verlangt nach reflexions- und innovationsfähigen Menschen, die in der Lage sind, im Strukturwandel Potenziale zu erkennen und diese für die Gesellschaft nutzen zu lernen. Es reicht für den Einzelnen nicht aus, lediglich »betroffen« zu sein. Vielmehr ist es notwendig, die wissenschaftlichen Hintergründe und Zusammenhänge zu verstehen, um sie für sich verfügbar zu machen und mit anderen in einer zielführenden Diskussion vertiefen zu können. Nur so entsteht Urteilsfähigkeit, und Urteilsfähigkeit ist die Voraussetzung für verantwortungsvolles Handeln. Die unablässige Bedingung hierfür ist eine zugleich sachgerechte und verständliche Aufbereitung sowohl der Fakten als auch der Denkmodelle, in deren Rahmen sich mögliche Handlungsalternativen aufzeigen lassen und an denen sich jeder orientieren und sein persönliches Verhalten ausrichten kann. Um diesem Ziel näher zu kommen, habe ich ausgewiesene Wissenschaftlerinnen und Wissenschaftler gebeten, in der
12
Vorwort des Herausgebers
Reihe »Forum für Verantwortung« zu zwölf wichtigen Themen aus dem Bereich der nachhaltigen Entwicklung den Stand der Forschung und die möglichen Optionen allgemeinverständlich darzustellen. Die ersten vier Bände zu folgenden Themen sind erschienen: – Was verträgt unsere Erde noch? Wege in die Nachhaltigkeit (Jill Jäger) – Kann unsere Erde die Menschen noch ernähren? Bevölkerungsexplosion – Umwelt – Gentechnik (Klaus Hahlbrock) – Nutzen wir die Erde richtig? Die Leistungen der Natur und die Arbeit des Menschen (Friedrich Schmidt-Bleek) – Bringen wir das Klima aus dem Takt? Hintergründe und Prognosen (Mojib Lauf) Vier Folgebände sind in Vorbereitung und werden Mitte 2007 erscheinen. Sie behandeln die Themen »Ressource Wasser« (Wolfram Mauser), »Energien des 21. Jahrhunderts« (Hermann-Josef Wagner), »Entwicklung der Weltbevölkerung« (Rainer Münz und Albert F. Reiterer) und »Die Bedeutung der Ozeane für das Leben« (Katherine Richardson und Stefan Rahmstorf). Die letzten vier Bände der Reihe werden Ende 2007 erscheinen. Sie stellen Fragen nach dem möglichen Umbau der Wirtschaft (Bernd Meyer), nach der Bedrohung durch Infektionskrankheiten (Stefan H. E. Kaufmann), nach der Gefährdung der Artenvielfalt (Josef H. Reichholf) und nach einem möglichen Weg zu einer neuen Weltordnung im Zeichen der Nachhaltigkeit (Harald Müller). Zwölf Bände – es wird niemanden überraschen, wenn im Hinblick auf die Bedeutung von wissenschaftlichen Methoden oder die Interpretationsbreite aktueller Messdaten unter-
Handeln – aus Einsicht und Verantwortung
13
schiedliche Auffassungen vertreten werden. Unabhängig davon sind sich aber alle an diesem Projekt Beteiligten darüber einig, dass es keine Alternative zu einem Weg aller Gesellschaften in die Nachhaltigkeit gibt.
Öffentlicher Diskurs Was verleiht mir den Mut zu diesem Projekt und was die Zuversicht, mit ihm die deutschsprachigen Zivilgesellschaften zu erreichen und vielleicht einen Anstoß zu bewirken? Zum einen sehe ich, dass die Menschen durch die Häufung und das Ausmaß der Naturkatastrophen der letzten Jahre sensibler für Fragen unseres Umgangs mit der Erde geworden sind. Zum anderen gibt es im deutschsprachigen Raum bisher nur wenige allgemeinverständliche Veröffentlichungen wie Die neuen Grenzen des Wachstums (Donella und Dennis Meadows), Erdpolitik (Ernst-Ulrich von Weizsäcker), Balance oder Zerstörung (Franz Josef Radermacher), Fair Future (Wuppertal Institut) und Kollaps (Jared Diamond). Insbesondere liegen keine Schriften vor, die zusammenhängend das breite Spektrum einer umfassend nachhaltigen Entwicklung abdecken. Das vierte Kolloquium meiner Stiftung, das im März 2005 in der Europäischen Akademie Otzenhausen (Saarland) zu dem Thema »Die Zukunft der Erde – was verträgt unser Planet noch?« stattfand, zeigte deutlich, wie nachdenklich eine sachgerechte und allgemeinverständliche Darstellung der Thematik die große Mehrheit der Teilnehmer machte. Darüber hinaus stimmt mich persönlich zuversichtlich, dass die mir eng verbundene ASKO EUROPA-STIFTUNG alle zwölf Bände vom Wuppertal Institut für Klima, Umwelt,
14
Vorwort des Herausgebers
Energie didaktisieren lässt, um qualifizierten Lehrstoff für langfristige Bildungsprogramme zum Thema Nachhaltigkeit sowohl im Rahmen der Stiftungsarbeit als auch im Rahmen der Bildungsangebote der Europäischen Akademie Otzenhausen zu erhalten. Das Thema Nachhaltigkeit wird in den nächsten Jahren zu dem zentralen Thema der ASKO EUROPASTIFTUNG und der Europäischen Akademie Otzenhausen. Schließlich gibt es ermutigende Zeichen in unserer Zivilgesellschaft, dass die Bedeutung der Nachhaltigkeit erkannt und auf breiter Basis diskutiert wird. So zum Beispiel auf dem 96. Deutschen Katholikentag 2006 in Saarbrücken unter dem Motto »Gerechtigkeit vor Gottes Angesicht«. Die Bedeutung einer zukunftsfähigen Entwicklung wird inzwischen durch mehrere Institutionen der Wirtschaft und der Politik auch in Deutschland anerkannt und gefordert, beispielsweise durch den Rat für Nachhaltige Entwicklung, die Bund-LänderKommission, durch Stiftungen, Nicht-Regierungs-Organisationen und Kirchen. Auf globaler Ebene mehren sich die Aktivitäten, die den Menschen die Bedeutung und die Notwendigkeit einer nachhaltigen Entwicklung ins Bewusstsein rufen wollen: Ich möchte an dieser Stelle unter anderem auf den »MarrakeschProzess« (eine Initiative der UN zur Förderung nachhaltigen Produzierens und Konsumierens), auf die UN-Weltdekade »Bildung für nachhaltige Entwicklung« 2005-2014 sowie auf den Film des ehemaligen US Vizepräsidenten Al Gore An lnconvenient Truth (2006) verweisen.
Handeln – aus Einsicht und Verantwortung
15
Wege in die Nachhaltigkeit Eine wesentliche Aufgabe unserer auf zwölf Bände angelegten Reihe bestand für die Autorinnen und Autoren darin, in dem jeweils beschriebenen Bereich die geeigneten Schritte zu benennen, die in eine nachhaltige Entwicklung führen können. Dabei müssen wir uns immer vergegenwärtigen, dass der erfolgreiche Übergang zu einer derartigen ökonomischen, ökologischen und sozialen Entwicklung auf unserem Planeten nicht sofort gelingen kann, sondern viele Jahrzehnte dauern wird. Es gibt heute noch keine Patentrezepte für den langfristig erfolgreichsten Weg. Sehr viele Wissenschaftlerinnen und Wissenschaftler und noch mehr innovationsfreudige Unternehmerinnen und Unternehmer sowie Managerinnen und Manager werden weltweit ihre Kreativität und Dynamik zur Lösung der großen Herausforderungen aufbieten müssen. Dennoch sind bereits heute erste klare Ziele erkennbar, die wir erreichen müssen, um eine sich abzeichnende Katastrophe abzuwenden. Dabei können weltweit Milliarden Konsumenten mit ihren täglichen Entscheidungen beim Einkauf helfen, der Wirtschaft den Übergang in eine nachhaltige Entwicklung zu erleichtern und ganz erheblich zu beschleunigen – wenn die politischen Rahmenbedingungen dafür geschaffen sind. Global gesehen haben zudem Milliarden von Bürgern die Möglichkeit, in demokratischer Art und Weise über ihre Parlamente die politischen »Leitplanken« zu setzen. Die wichtigste Erkenntnis, die von Wissenschaft, Politik und Wirtschaft gegenwärtig geteilt wird, lautet, dass unser ressourcenschweres westliches Wohlstandsmodell (heute gültig für eine Milliarde Menschen) nicht auf weitere fünf oder bis zum Jahr 2050 sogar auf acht Milliarden Menschen übertragbar ist. Das würde alle biophysikalischen Grenzen unseres
16
Vorwort des Herausgebers
Systems Erde sprengen. Diese Erkenntnis ist unbestritten. Strittig sind jedoch die Konsequenzen, die daraus zu ziehen sind. Wenn wir ernsthafte Konflikte zwischen den Völkern vermeiden wollen, müssen die Industrieländer ihren Ressourcenverbrauch stärker reduzieren als die Entwicklungs- und Schwellenländer ihren Verbrauch erhöhen. In Zukunft müssen sich alle Länder auf gleichem Ressourcenverbrauchsniveau treffen. Nur so lässt sich der notwendige ökologische Spielraum schaffen, um den Entwicklungs- und Schwellenländern einen angemessenen Wohlstand zu sichern. Um in diesem langfristigen Anpassungsprozess einen dramatischen Wohlstandsverlust des Westens zu vermeiden, muss der Übergang von einer ressourcenschweren zu einer ressourcenleichten und ökologischen Marktwirtschaft zügig in Angriff genommen werden. Die Europäische Union als stärkste Wirtschaftskraft der Welt bringt alle Voraussetzungen mit, in diesem Innovationsprozess die Führungsrolle zu übernehmen. Sie kann einen entscheidenden Beitrag leisten, Entwicklungsspielräume für die Schwellen- und Entwicklungsländer im Sinn der Nachhaltigkeit zu schaffen. Gleichzeitig bieten sich der europäischen Wirtschaft auf Jahrzehnte Felder für qualitatives Wachstum mit zusätzlichen Arbeitsplätzen. Wichtig wäre in diesem Zusammenhang auch die Rückgewinnung von Tausenden von begabten Wissenschaftlerinnen und Wissenschaftlern, die Europa nicht nur aus materiellen Gründen, sondern oft auch wegen fehlender Arbeitsmöglichkeiten oder unsicheren -bedingungen verlassen haben. Auf der anderen Seite müssen die Schwellen- und Entwicklungsländer sich verpflichten, ihre Bevölkerungsentwicklung in überschaubarer Zeit in den Griff zu bekommen. Mit stär-
Handeln – aus Einsicht und Verantwortung
17
kerer Unterstützung der Industrienationen muss das von der Weltbevölkerungskonferenz der UNO 1994 in Kairo verabschiedete 20-Jahres-Aktionsprogramm umgesetzt werden. Wenn es der Menschheit nicht gelingt, die Ressourcen- und Energieeffizienz drastisch zu steigern und die Bevölkerungsentwicklung nachhaltig einzudämmen – man denke nur an die Prognose der UNO, nach der die Bevölkerungsentwicklung erst bei elf bis zwölf Milliarden Menschen am Ende dieses Jahrhunderts zum Stillstand kommt –, dann laufen wir ganz konkret Gefahr, Ökodiktaturen auszubilden. In den Worten von Ernst Ulrich von Weizsäcker: »Die Versuchung für den Staat wird groß sein, die begrenzten Ressourcen zu rationieren, das Wirtschaftsgeschehen im Detail zu lenken und von oben festzulegen, was Bürger um der Umwelt willen tun und lassen müssen. Experten für ›Lebensqualität‹ könnten von oben definieren, was für Bedürfnisse befriedigt werden dürften« (Erdpolitik, 1989).
Es ist an der Zeit Es ist an der Zeit, dass wir zu einer grundsätzlichen, kritischen Bestandsaufnahme in unseren Köpfen bereit sind. Wir – die Zivilgesellschaften – müssen entscheiden, welche Zukunft wir wollen. Fortschritt und Lebensqualität sind nicht allein abhängig vom jährlichen Zuwachs des Pro-Kopf-Einkommens. Zur Befriedigung unserer Bedürfnisse brauchen wir auch keineswegs unaufhaltsam wachsende Gütermengen. Die kurzfristigen Zielsetzungen in unserer Wirtschaft wie Gewinnmaximierung und Kapitalakkumulierung sind eines der Haupthindernisse für eine nachhaltige Entwicklung. Wir sollten unsere Wirtschaft wieder stärker dezentralisieren und den Welthan-
18
Vorwort des Herausgebers
del im Hinblick auf die mit ihm verbundene Energieverschwendung gezielt zurückfahren. Wenn Ressourcen und Energie die »wahren« Preise widerspiegeln, wird der weltweite Prozess der Rationalisierung und Freisetzung von Arbeitskräften sich umkehren, weil der Kostendruck sich auf die Bereiche Material und Energie verlagert. Der Weg in die Nachhaltigkeit erfordert gewaltige technologische Innovationen. Aber nicht alles, was technologisch machbar ist, muss auch verwirklicht werden. Die totale Ökonomisierung unserer gesamten Lebensbereiche ist nicht erstrebenswert. Die Verwirklichung von Gerechtigkeit und Fairness für alle Menschen auf unserer Erde ist nicht nur aus moralisch-ethischen Prinzipien erforderlich, sondern auch der wichtigste Beitrag zur langfristigen Friedenssicherung. Daher ist es auch unvermeidlich, das politische Verhältnis zwischen Staaten und Völkern der Erde auf eine neue Basis zu stellen, in der sich alle, nicht nur die Mächtigsten, wieder finden können. Ohne einvernehmliche Grundsätze »globalen Regierens« lässt sich Nachhaltigkeit in keinem einzigen der in dieser Reihe diskutierten Themenbereiche verwirklichen. Und letztendlich müssen wir die Frage stellen, ob wir Menschen das Recht haben, uns so stark zu vermehren, dass wir zum Ende dieses Jahrhunderts womöglich eine Bevölkerung von 11 bis 12 Milliarden Menschen erreichen, jeden Quadratzentimeter unserer Erde in Beschlag nehmen und den Lebensraum und die Lebensmöglichkeiten aller übrigen Arten immer mehr einengen und zerstören. Unsere Zukunft ist nicht determiniert. Wir selbst gestalten sie durch unser Handeln und Tun: Wir können so weitermachen wie bisher, doch dann begeben wir uns schon Mitte dieses Jahrhunderts in die biophysikalische Zwangsjacke der Natur mit möglicherweise katastrophalen politischen Ver-
Handeln – aus Einsicht und Verantwortung
19
Wicklungen. Wir haben aber auch die Chance, eine gerechtere und lebenswerte Zukunft für uns und die zukünftigen Generationen zu gestalten. Dies erfordert das Engagement aller Menschen auf unserem Planeten.
Danksagung Mein ganz besonderer Dank gilt den Autorinnen und Autoren dieser zwölfbändigen Reihe, die sich neben ihrer hauptberuflichen Tätigkeit der Mühe unterzogen haben, nicht für wissenschaftliche Kreise, sondern für eine interessierte Zivilgesellschaft das Thema Nachhaltigkeit allgemeinverständlich aufzubereiten. Für meine Hartnäckigkeit, an dieser Vorgabe weitestgehend festzuhalten, bitte ich an dieser Stelle nochmals um Nachsicht. Dankbar bin ich für die vielfältigen und anregenden Diskussionen über Wege in die Nachhaltigkeit. Bei der umfangreichen Koordinationsarbeit hat mich von Anfang an ganz maßgeblich Ernst Peter Fischer unterstützt – dafür meinen ganz herzlichen Dank, ebenso Wolfram Huncke, der mich in Sachen Öffentlichkeitsarbeit beraten hat. Für die umfangreichen organisatorischen Arbeiten möchte ich mich ganz herzlich bei Annette Maas bedanken, ebenso bei Ulrike Holler vom S. Fischer Verlag für die nicht einfache Lektoratsarbeit. Auch den finanziellen Förderern dieses Großprojektes gebührt mein Dank: allen voran der ASKO EUROPA-STIFTUNG (Saarbrücken) und meiner Familie sowie der Stiftung Europrofession (Saarbrücken), Erwin V. Conradi, Wolfgang Hirsch, Wolf-Dietrich und Sabine Loose. Seeheim-Jugenheim Sommer 2006
Stiftung Forum für Verantwortung Klaus Wiegandt
Vorwort Der Mensch beeinflusst in zunehmendem Maße das Klima. Dieser von uns angestoßene globale Klimawandel hat seine Ursache darin, dass wir durch unsere vielfältigen Aktivitäten bestimmte, das Klima beeinflussende, Spurengase, wie beispielsweise Kohlendioxid, Methan oder Lachgas, in die Atmosphäre entlassen. Dabei spielen vor allem der Energiesektor, die Landwirtschaft und die Industrie als Emittenten eine herausragende Rolle. Hinzu kommt die Vernichtung der Wälder. Die Anreicherung dieser so genannten Treibhausgase in der Atmosphäre seit Beginn der Industrialisierung führt zu einer globalen Erwärmung, welche weit reichende Veränderungen im System Erde nach sich zieht. Dies ist der Kern des Klimaproblems. Dabei ist der Zusammenhang zwischen dem Gehalt von Spurengasen in der Atmosphäre und dem Weltklima schon seit über 100 Jahren bekannt. Das Klimaproblem steht nicht allein, vielmehr muss man es auch im Zusammenhang mit den anderen großen Problemen der Menschheit sehen. So ist beispielsweise das Klimaproblem untrennbar mit der Bevölkerungsentwicklung oder mit der Energiefrage verbunden. Die Verfügbarkeit von Wasser hängt ganz entscheidend vom Klima ab, wie auch die Artenvielfalt. Die Klimaproblematik hat aber offensichtlich auch sozioökonomische Aspekte, und reicht weit in die Gesellschaft, in die Wirtschaft und in die Politik hinein. Insofern habe ich keine Sekunde gezögert, mich an der Buchreihe des Forums für Ver-
22
Vorwort
antwortung als Autor zu beteiligen. Sie befasst sich mit etwa einem Dutzend zentraler Zukunftsthemen, die in vielfältiger Art und Weise miteinander verwoben sind. Der übergeordnete Gedanke ist das Prinzip der Nachhaltigkeit. Nur wenn sich die nationalstaatliche und die Weltpolitik dem Gedanken der Nachhaltigkeit verpflichten, können die enormen Herausforderungen, vor denen die Menschheit steht, in unserer globalisierten Welt gelöst werden. Hinsichtlich des Klimaproblems ist langfristig insbesondere die verstärkte Nutzung der erneuerbaren Energien zu nennen, da eine weitere Energieversorgung unter Nutzung der fossilen Energien in den kommenden Jahrzehnten zu dramatischen Klimaänderungen führen wird. Der komplette Umbau zu einer kohlenstofffreien Weltwirtschaft kann wegen der großen Trägheit des Klimas allmählich erfolgen, innerhalb dieses Jahrhunderts, ohne große wirtschaftliche Verwerfungen zu hinterlassen. Wir haben es also noch in der Hand, unser Klima auf einem halbwegs akzeptablen Niveau zu stabilisieren. Ein Anliegen des Autors ist es, diese Möglichkeit in die Zivilgesellschaft zu kommunizieren. Ich möchte dem Forum für Verantwortung, insbesondere Herrn Klaus Wiegandt, danken, der dieses Buchprojekt vorgeschlagen und großzügig unterstützt hat. Weiterhin gilt mein Dank meinen Autorenkolleginnen und -kollegen für die sehr inspirierenden Diskussionen auf den Autorentreffen, sowie meinen Kolleginnen und Kollegen am Leibniz-Institut für Meereswissenschaften in Kiel und am Max-Planck-Institut für Meteorologie in Hamburg. Meiner Frau Elisabeth danke ich für ihre grenzenlose Geduld, als ich in meiner Freizeit an dem Buch gearbeitet habe. Kiel, den 7. Juli 2006
Wissenschaftliche Grundlagen
1 Das Klima und das Erdsystem 1.1 Wetter und Klima Der Unterschied zwischen Wetter und Klima lässt sich durch einen Satz verdeutlichen, den einer der Pioniere der Klimaforschung, der Amerikaner Larry Gates, Anfang der 1980er Jahre anlässlich einer Veranstaltung der Weltorganisation für Meteorologie (WMO) gesagt hat: »Klima ist dass, was man erwartet, Wetter ist dass, was man bekommt.« Danach gibt es einen fundamentalen Unterschied zwischen Wetter und Klima. Die Wetterforschung befasst sich mit der Entstehung, Verlagerung und der Vorhersage einzelner Wetterelemente, etwa eines bestimmten Tiefdruckgebietes oder eines Hurrikans, während die Klimaforschung an der Gesamtheit der Tiefs und Hurrikane interessiert ist und sich beispielsweise der Frage widmet, wie viele Tiefs oder Hurrikane es nächstes Jahr geben wird oder ob sie sich infolge der globalen Erwärmung in den kommenden Jahrzehnten häufen oder intensivieren werden. Mit dem Begriff »Wetter« bezeichnen wir also die kurzfristigen Geschehnisse in der Atmosphäre, während sich der Begriff »Klima« auf längere Zeiträume bezieht. Die Weltorganisation für Meteorologie definiert das Klima als die Statistik des Wetters über einen Zeitraum, der lang genug ist, um diese statistischen Eigenschaften auch bestimmen zu können. Während das Wetter den physikalischen Zustand der Atmosphäre zu einem bestimmten Zeitpunkt an einem be-
26
Wissenschaftliche Grundlagen
stimmten Ort beschreibt, ist Klima erst dann vollständig beschrieben, wenn auch die Wahrscheinlichkeit für Abweichungen vom Mittelwert angegeben werden kann, also auch die Wahrscheinlichkeit für das Auftreten von extremen Wetterereignissen, wie beispielsweise der Elbeflut des Jahres 2002 oder der Dürre in Deutschland im Jahr darauf. Zur Beschreibung des Klimas wird in der Regel eine Zeitspanne von 30 Jahren als Bezugszeitraum herangezogen. Der Begriff »Klima« ist von klinein, dem griechische Wort für »neigen«, abgeleitet, denn Sommer und Winter sind Folge der Neigung der Erdachse relativ zur Bahnebene der Erde um die Sonne, der so genannten Ekliptik. Gegenwärtig beträgt die Neigung 23,5°, wodurch während des Nordsommers die Nordhalbkugel und während des Südsommers die Südhalbkugel stärker von der Sonne bestrahlt wird. Die übliche geographische Einteilung in Klimazonen folgt überwiegend dem daraus resultierenden Jahresgang meteorologischer Größen wie etwa der Temperatur und des Niederschlags. Die Neigung der Erdachse wie auch andere Erdbahnparameter schwanken im Laufe der Jahrtausende und sind mit dafür verantwortlich, dass es in der Erdgeschichte immer wieder starke Klimaumschwünge gegeben hat (s. Kap. 3.5). Die im Jahresgang und im Mittel unterschiedliche Einstrahlung der Sonne am Äquator und am Pol sorgt für starke räumliche Unterschiede in der Oberflächentemperatur der Erde. Die daraus resultierenden horizontalen Temperaturunterschiede in der unteren Atmosphäre führen zu Luftdruckunterschieden. Unter dem Einfluss der Schwerkraft und der Rotation der Erde entstehen schließlich die Winde. Die mittleren dreidimensionalen Windverhältnisse bezeichnet man als »allgemeine Zirkulation« der Atmosphäre. Die Atmosphäre ist aber kein isoliertes System, sondern steht mit ande-
Das Klima und das Erdsystem
27
ren Komponenten des Erdsystems in Wechselwirkung: mit der Hydrosphäre (Ozeane und Wasserkreislauf auf Kontinenten und in der Atmosphäre), der Kryosphäre (Eis und Schnee), der Biosphäre (Tiere und Pflanzen), der Pedosphäre (Boden) und der Lithosphäre (Gestein). Diese Bestandteile definieren das Klimasystem (s. Abb. 1) und sie bewegen sich mit völlig unterschiedlichen Geschwindigkeiten und haben drastisch unterschiedliche Wärmeleitfähigkeiten und Wärmekapazitäten.
Abb. 1 Schematische Darstellung des Klimasystems der Erde
Die Dynamik des Klimasystems und die daraus folgende Statistik des Klimas werden daher durch die stark unterschiedlichen Zeitskalen der individuellen Komponenten geprägt (s. Abb. 2). Die untere Atmosphäre passt sich in Stunden den Bedingungen an der Oberfläche an, die Tiefenzirkulation der Ozeane reagiert erst in vielen Jahrhunderten voll auf verän-
28
Wissenschaftliche Grundlagen
derte Randbedingungen wie etwa eine veränderte Zusammensetzung der Atmosphäre, und ein großes Inlandeisgebiet wie die Antarktis braucht dazu viele Jahrtausende. Änderungen des Klimas können einerseits aus Wechselwirkungen innerhalb einer Klimakomponente entstehen oder aus Wechselwirkungen zwischen den individuellen Komponenten, beispielsweise zwischen Ozean und Atmosphäre, resultieren oder extern angeregt werden, beispielsweise durch eine Veränderung der solaren Einstrahlung, durch Vulkanausbrüche oder eine Veränderung der Zusammensetzung der Erdatmosphäre. In den letzten hundert Jahren hat der Mensch immer mehr Bedeutung für das Klima gewonnen, indem er klimarelevante Spurengase in die Atmosphäre emittiert, dadurch die Strahlungsbilanz der Atmosphäre verändert und so zu einer globalen Erwärmung der Erde beiträgt.
Abb. 2 Die charakteristischen Zeitskalen der individuellen Komponenten des Klimasystems
Das Klima und das Erdsystem
29
1.2 Die Ozeane Abb. 2 zeigt schematisch die im Klimasystem aktiven Komponenten. Sie verdeutlicht den zugehörigen Zeitskalenbereich von Stunden bis zu Jahrmillionen. Die »schnellste« Komponente ist die Atmosphäre, in der die energetisch wesentlichen Vorgänge (wie beispielsweise die Abfolge von Hoch- und Tiefdruckgebieten in unseren Breiten) eine typische Zeitskala von einigen Tagen aufweisen. Auch die Kreislaufdauer des Wassers, das über die mit Verdunstung und Niederschlag umgesetzten Wärmemengen entscheidend zur atmosphärischen Energetik beiträgt, berechnet sich mit etwa zehn Tagen. Auf der Gegenseite der Skala in Abb. 2 stehen die Eisschilde Grönlands und der Antarktis, deren charakteristische Zeitskalen im Bereich von vielen Jahrtausenden liegen. Derartige Schwankungen entsprechen den Rhythmen der globalen Warm- und Kaltzeiten (Eiszeiten) und erfolgen mit Perioden zwischen 10000 und mehreren 100000 Jahren. Zwischen den beiden Extremen der Abb. 2 liegt der Ozean, unterteilt in die oberflächennahen Schichten und die Tiefsee. Während Erstere wegen der unmittelbaren Kopplung an die veränderlichen atmosphärischen Wind-, Strahlungs- und Niederschlagsfelder mit Schwankungen der Strömungs- und Schichtungsfelder in Zeiträumen von Wochen und Monaten reagieren, sind Veränderungen der Tiefsee auf Schwankungen der Oberflächenbedingungen in begrenzten Gebieten der polaren und subpolaren Breiten angewiesen und spielen sich wegen der großen beteiligten Wassermassen in Zeitbereichen von Jahrzehnten bis zu mehreren Jahrhunderten ab. Da sich der globale Klimawandel genau auf diesen Zeitskalenbereich bezieht, spielen die Ozeane im Hinblick auf die anthropogene Klimabeeinflussung eine sehr wichtige Rolle.
30
Wissenschaftliche Grundlagen
Zu unterschiedlichen Zeitskalen gehören in kontinuierlichen Medien auch unterschiedliche Raumskalen. Als energetisch wesentliche Raumskala tritt die Größenordnung von 1000 km in der Atmosphäre auf. Dies entspricht der typischen Ausdehnung der bereits erwähnten Hoch- und Tiefdruckgebiete. Im Ozean liegt die Ausdehnung der energiereichsten Strömungs- und Schichtungsänderungen bei 10-100 km. Dabei handelt es sich um »mesoskalige« Wirbel, dem ozeanischen Analogon der atmosphärischen Hochs und Tiefs. Die »schnellen« (einige Tage einnehmenden) atmosphärischen Vorgänge haben eine relativ größere Ausdehnung (1000 km) als die »langsamen« (Monate dauernden) Vorgänge der ozeanischen Deckschicht (als Deckschicht bezeichnet man die oberste gut durchmischte Schicht). Dieses macht die Beobachtung der energiereichsten ozeanischen Bewegungen viel schwieriger als die der atmosphärischen. Beobachtungen zeigen die Existenz von mesoskaligen Wirbeln sogar in großen Tiefen von einigen tausend Metern. Auch diese spielen für das langfristige Klimageschehen eine wichtige Rolle und müssen daher kontinuierlich beobachtet und auch in Modellen simuliert werden. Die zentrale Rolle des Wassers im Klimasystem beruht auf dem asymmetrischen Aufbau des Wassermoleküls, der es zu einem elektrischen Dipol macht und die temperaturabhängige Aggregatbildung von Wassermolekülen fördert. Daraus resultiert die anomale Eigenschaft, dass Wasser seine größte Dichte bei 4°C besitzt und damit seine feste Phase, das Eis, schwimmt. Wir finden große Mengen schwimmenden Eises, das so genannte Packeis (Meereis) in der Arktis und um die Antarktis herum. Wegen des Zusammenhaltes der Moleküle reagiert Wasser träge auf Erwärmung bzw. Abkühlung, d. h. es besitzt die höchste Wärmekapazität unter den flüssigen
Das Klima und das Erdsystem
31
und festen Stoffen (Ausnahme: Ammoniak), und Siede- bzw. Gefrierpunkte liegen bei 100 °C und 0 °C anstatt bei –80 °C bzw. –110°C, wie es beim symmetrischen Aufbau des Wassermoleküls der Fall wäre. Weiterhin ist Wasser ein extrem gutes Lösungsmittel. Der relative Gewichtsanteil der gelösten Substanzen wird als Salzgehalt bezeichnet und beträgt im Weltmeer durchschnittlich 3,47 % (in der Ozeanographie wird der Salzgehalt meistens in Promille angegeben). Der Salzgehalt verändert die zuvor genannten Eigenschaften des Wassers erheblich. So verschiebt sich die Temperatur des Dichtemaximums auf –3,8°C bei einem Salzgehalt von 3,47 % und gerät damit bei diesem Salzgehalt unter den Gefrierpunkt von –1,9 °C. Damit kann im Meer bei Abkühlung bis zum Einsetzen der Eisbildung das Phänomen der »Konvektion« ablaufen: Abgekühltes Wasser sinkt ab, wärmeres Wasser aus der Tiefe steigt auf, gibt seinen Wärmeinhalt an die Atmosphäre ab und sinkt nach Aufnahme atmosphärischer Gase erneut in die Tiefe. Konvektion spielt auch in der Atmosphäre, und zwar bei der Wolkenbildung, eine große Rolle. Sie findet aber auch im Innern der Erde statt und ist daher einer der wichtigsten Prozesse, der Bewegungen im gesamten Erdsystem antreibt. Hinsichtlich Zirkulation und Schichtung (vertikale Dichteverteilung) kann das Meer primär nur von der Oberfläche her angeregt werden. Im Fall der Windanregung führt das durch das Zusammenspiel von Reibung, ablenkender Kraft der Erdrotation (Corioliskraft) und Form der Meeresbecken zu dem aus jedem Atlas bekannten System von Oberflächenströmungen, deren Intensität mit der Tiefe abnimmt. Sehr bekannte Beispiele sind der Golfstrom im Atlantischen und der Kuroshio im Pazifischen Ozean. Da die Windfelder räumlich und zeitlich inhomogen sind, verursacht der mit der Strö-
32
Wissenschaftliche Grundlagen
mung einhergehende Massentransport regionale Massenüberschüsse bzw. -defizite. Die damit verbundene Anhebung bzw. Absenkung der Meeresoberfläche regt neben langperiodischen Wellen und horizontalen Strömungen im Innern des Ozeans auch vertikale Auftriebs- bzw. Absinkbewegungen an. Auftriebsgebiete sind häufig nährstoffreiche Gebiete und daher durch eine starke biologische Produktion gekennzeichnet. Bei der Erwärmung oder Abkühlung der Meeresoberfläche bzw. der Salzgehaltsveränderung aufgrund von Verdunstung, Niederschlag oder Eisbildung entstehen Wassermassen unterschiedlicher Dichte. In den Tropen und Subtropen findet im Jahresmittel eine ständige Erwärmung der Oberflächenschichten statt. Das entsprechend leichte Oberflächenwasser schwimmt als warme Deckschicht – die Temperatur beträgt mehr als 10°C – auf den tiefer liegenden Wassermassen. Der starke Temperatursprung (Dichtesprung) verhindert ein Tieferdringen der Erwärmung sehr effektiv, die Deckschicht bleibt mit einer Mächtigkeit zwischen 100 und 800 m relativ dünn. In den subpolaren und polaren Gebieten führt das mittlere Wärmedefizit, regional unterstützt durch das beim Gefrieren von Meerwasser freigesetzte Salz, zur Dichteerhöhung und damit im Mittel zur Konvektion bis in große Tiefen. Entsprechend zeichnen sich die Meere der höheren Breiten durch geringe Schichtung aus, Signale von der Oberfläche können sehr effektiv in das Innere des Meeres gelangen und umgekehrt. Das kalte Wasser – mit einer Temperatur von weniger als 10 °C – dringt von dort in das Innere des übrigen Weltmeeres unterhalb der warmen Deckschicht vor: Eine thermisch und halin (durch Temperatur und Salz) getriebene Zirkulation (thermohaline Zirkulation) kommt in Gang, denn die äquatorwärtige Ausbreitung kalten Wassers in der Tiefe
Das Klima und das Erdsystem
33
wird kompensiert durch polwärtigen Transport warmen Wassers in der Deckschicht. Der resultierende ozeanische Wärmetransport auf der Nordhalbkugel weist im Maximum 3,0 · 1015 Watt auf und teilt sich damit mit der Atmosphäre den zum Ausgleich des nordhemisphärischen Strahlungshaushaltes notwendigen nordwärtigen Wärmetransport von 5,5 · 1015 Watt. Bezogen auf den Atlantik wird im Zusammenhang mit der thermohalinen Zirkulation in der Öffentlichkeit auch von der »Golfstromzirkulation« oder auch nur vom »Golfstrom« gesprochen. Die thermohaline Zirkulation bezieht ihren Antrieb aus den Konvektionsprozessen der höheren Breiten. Je nach den aktuellen Oberflächenbedingungen entstehen kalte Wassermassen unterschiedlicher Charakteristika, die sich anhand ihrer Temperatur-, Salzgehalt- und Dichtewerte dem Sauerstoffgehalt oder dem Gehalt an anthropogenen Spurengasen vom Entstehungsgebiet entlang ihrer Ausbreitungsrouten in der Tiefsee verfolgen lassen. Die tiefsten Wassermassen sind weitgehend antarktischen Ursprungs (so genanntes Antarktisches Bodenwasser). Von etwas geringerer Dichte sind die Wassermassen arktischen Ursprungs, die sich über dem Bodenwasser einschichten. Da auf der Nordhemisphäre nur der Atlantische Ozean bis in die hohen Breiten reicht, beginnt dieses Wasser seinen Kreislauf in der Grönlandsee und der Labradorsee (Nordatlantisches Tiefenwasser). Abb. 3 zeigt schematisch den globalen Verlauf seiner Ausbreitung und den kompensatorischen Rückstrom in der Deckschicht. Dieser Kreislauf, auch als »globales Förderband« oder als »globale Umwälzbewegung« bezeichnet, hat eine Zykluszeit von einigen hundert bis zu tausend Jahren, wie aus Datierungen von Tiefenwasser anhand radioaktiver Kohlenstoffisotope abgeschätzt wurde.
34
Wissenschaftliche Grundlagen
Abb. 3 Schematische Darstellung der thermohalinen Zirkulation
Der längste Teil dieser Zykluszeit entfällt aufgrund der geringen Ausbreitungsgeschwindigkeit in der Tiefe von ca. 1–3 km pro Tag auf den kalten Bereich des Förderbandes. Wegen der an diesem Kreislauf beteiligten Wassermenge von ca. 0,4 Mrd. km3 Wasser (etwa ein Drittel der Gesamtmenge des Ozeanwassers) bei einer Transportrate von ca. 20 Mio. m3 / s stellt dies in Kombination mit der Wärmespeicherkapazität und dem hohen Lösungsvermögen des Wassers einen der bedeutendsten Langzeitspeicher im Klimasystem dar. In diesem Speicher wird u. a. ein Teil des vom Menschen emittierten Treibhausgases Kohlendioxyd aufgenommen. Bis heute kann die Kapazität des ozeanischen Speichers wegen der recht unbekannten beteiligten biogeochemischen Prozesse nicht genau angegeben werden, und es ist damit unsicher, wie lange der Ozean den atmosphärischen Anstieg von anthropogenem CO2 weiterhin dämpft und damit die globale Erwärmung
Das Klima und das Erdsystem
35
durch einen verstärkten Treibhauseffekt abmildert (s. Kap. 2.4). Eine entscheidende Frage zur Klimarolle des globalen Förderbandes ist die nach der Stabilität der thermohalinen Zirkulation. Sie zielt auf die Veränderlichkeit der Konvektion in den höheren Breiten. Diese kann einerseits durch die Erwärmung infolge des anthropogenen Treibhauseffektes abgeschwächt werden. Von besonderer Bedeutung sind aber andererseits in Niedrigtemperaturbereichen die Salzgehaltsveränderungen, wie sie in der Natur durch Vergrößerung und Verkleinerung polarer Eismengen bzw. im nördlichen Nordatlantik durch veränderte Niederschläge und Zuflüsse von den Kontinenten hervorgerufen werden, also durch Prozesse, welche auch durch den anthropogenen Klimawandel beeinflusst werden können. Diese in den Medien als »Golfstromproblematik« bekannte Thematik wird nicht nur intensiv in der Wissenschaft, sondern auch in der Öffentlichkeit diskutiert. Selbst Hollywood hat sich mit dem Film The day after tomorrow dieser Frage angenommen (s. Kap. 4.5). An dieser Stelle sei nur erwähnt, dass es infolge des Zusammenbruchs der thermohalinen Zirkulation nicht zu einer Eiszeit kommen kann.
1.3 Das Meereis Das Meereis (in der Umgangssprache auch als Packeis bezeichnet) ist ein Teil der Kryosphäre. Diese umfasst alle Formen von Schnee und Eis und stellt gemäß ihrer Masse und Wärmekapazität nach dem Ozean die zweitgrößte Komponente des Klimasystems dar. Die wesentlichen Bestandteile der Kryosphäre sind Schnee, Meereis, Gebirgsgletscher,
36
Wissenschaftliche Grundlagen
Schelfeis und Inlandeis. Eis bedeckt heute 10 % der Landoberfläche (14,8 Millionen km2) und im Jahresmittel etwa 6,5 % der Ozeane (22,5 Millionen km2). Das vorwiegend antarktische Schelfeis bedeckt mit 1,5 Millionen km2 eine wesentlich geringere Ozeanfläche als das Meereis. Sein Volumen beträgt mit etwa 0,66 Millionen km3 aber etwas mehr als das Zehnfache des Meereises. Alle Gebirgsgletscher und kleineren Eiskappen besitzen zusammen etwa ein Volumen von 0,18 Millionen km3. Variationen von Ausdehnung, Bedeckungsgrad, Dicke und Drift des Meereises werden durch dynamische und thermodynamische Prozesse erzeugt. Die Thermodynamik des Meereises, d. h. Gefrieren und Schmelzen, wird durch Strahlungsprozesse sowie die turbulenten Flüsse latenter und sensibler Wärme beeinflusst. Die Meereisdrift wird durch Windschub, Ozeanströmung, Corioliskraft und durch innere Spannungen im Meereis (Deformation) hervorgerufen. Die inneren Spannungen werden mit Hilfe rheologischer Gesetze bestimmt. Die Rheologie ist Teil der Festkörperphysik bzw. Kontinuumsmechanik, die sich mit dem Fließen und der Verformung von Materialien befasst. Veränderungen in der Meereisgrenze gehören zu den bedeutendsten Merkmalen von Klimaschwankungen in den Polargebieten. Auf der geophysikalischen Skala ist Meereis eine dünne, durchbrochene Schicht auf den polaren Ozeanen, die von Wind und Meeresströmungen bewegt und von thermodynamischen Prozessen in ihrer Dicke und Ausdehnung verändert wird. Meereis bildet die Grenze zwischen den beiden viel größeren Komponenten des Erdsystems – Atmosphäre und Ozean – und beeinflusst daher ihre Wechselwirkung in erheblichem Maße. Meereis bedeckt im März 5 % und im September 8 % der Ozeanoberfläche. Im Arktischen Ozean
Das Klima und das Erdsystem
37
ist es im Mittel 3 und im Südlichen Ozean 1 m dick. Da das Meereis, auch wenn es nicht von Schnee bedeckt ist, eine recht hohe Albedo (Rückstreuvermögen für solare Strahlung) besitzt und damit die Strahlungsbilanz erheblich beeinflusst, spielt es im Klimasystem eine wichtige Rolle. Diese Rolle wird noch dadurch verstärkt, dass es durch seine isolierende Wirkung den direkten turbulenten Austausch von Impuls und Wärme zwischen Ozean und Atmosphäre behindert. Über Meereisflächen ist die Atmosphäre daher deutlich kälter als über dem offenen Ozean. Durch das Auftreten des Meereises wird aber nicht nur die Luft in den Polargebieten abgekühlt, sondern auch der meridionale Temperaturgradient an der Erdoberfläche – das ist der Temperaturgegensatz zwischen den Tropen und den Polargebieten – verstärkt und damit die Westwinde in den mittleren Breiten intensiviert. Das Meereis beeinflusst aber nicht nur die Atmosphäre, sondern auch den Ozean. Die Isolierung des Ozeans gegenüber Wärmeverlusten an die kalte Atmosphäre und die Veränderung der Schubspannung an der Meeresoberfläche durch Impulsverluste bei der Deformation des Meereises sind zwei wichtige Prozesse, die durch die starke Reduktion der turbulenten Flüsse und durch das Verhalten des Meereises als zweidimensionaler, durch Wind und Meeresströmungen angetriebener, viskos-plastisch fließender Festkörper bedingt sind. Der bedeutendste Effekt ist aber der Einfluss des Meereises auf die Konvektion im Ozean und damit auf die Bildung von Tiefen- und Bodenwasser. Das Meereis spielt daher auch eine wichtige Rolle für die großskalige Ozeanzirkulation, insbesondere für die thermohaline Zirkulation. Der Salzgehalt des Meerwassers beträgt im Mittel 34 ‰, der des Meereises dagegen nur etwa 5 ‰. Beim Gefrierprozess wird eine beträchtliche Menge Salz in den Ozean abgegeben. Dadurch wird die
38
Wissenschaftliche Grundlagen
Dichte des Meerwassers erhöht, d. h. es wird schwerer, und es kann Konvektion einsetzen. Auf diese Weise wird im Winter in den Polargebieten dichtes Meerwasser erzeugt, das in tiefe Ozeanschichten absinken kann und dadurch zum Antrieb der Ozeanzirkulation beiträgt. Es werden auch so genannte Eis-Ozean-Oszillatoren in der Literatur vorgeschlagen, um Klimaschwankungen auf der Zeitskala von Jahrzehnten zu erklären. So kann man sich beispielsweise eine Schwingung vorstellen, welche die thermohaline Zirkulation beinhaltet. Nehmen wir an, dass infolge verstärkter Eisbildung der Oberflächensalzgehalt und damit die Dichte des Nordatlantiks zunimmt. Dies führt zu verstärkter Konvektion in den hohen Breiten und schließlich zu einer Intensivierung der thermohalinen Zirkulation. Dadurch verstärkt sich der polwärts gerichtete Wärmetransport im Nordatlantik, was zum Schmelzen von Meereis führt. Dadurch gelangt mehr Süßwasser in den Ozean, das die Oberflächendichte reduziert, die Konvektion abschwächt und damit auch die thermohaline Zirkulation. Dies resultiert in einem schwächeren polwärts gerichteten Wärmetransport, was schließlich zu mehr Eisbildung führt. Derartige Wechselwirkungen zwischen Ozean und Meereis sind wichtige Bausteine für das Verständnis der natürlichen Klimavariabilität, insbesondere auf Zeitskalen von Jahrzehnten. Das Meereis spielt aber auch eine wichtige Rolle im Zusammenhang mit dem anthropogenen Treibhauseffekt. Alle Klimamodelle simulieren eine beschleunigte Erwärmung in der Arktis, wenn sie mit erhöhten Treibhausgaskonzentrationen angetrieben werden. Tatsächlich ist in den letzten Jahrzehnten ein Rückgang des arktischen Meereises zu beobachten, sowohl hinsichtlich seiner mittleren Dicke als auch seiner räumlichen Ausdehnung. Dabei spielt die so genannte Eis-Albedo-Rück-
Das Klima und das Erdsystem
39
kopplung eine entscheidende Rolle. Helle Oberflächen wie das Eis besitzen eine recht große Albedo, d.h. sie reflektieren einen beträchtlichen Teil des einfallenden Sonnenlichts zurück, sodass dieser nicht als Energiequelle zur Verfügung steht. Wenn sich das Meereis in Folge des anthropogenen Treibhauseffekts zurückzieht, wird auch weniger Sonnenlicht zurückgestreut und es steht mehr Energie zur Verfügung, die zu einer zusätzlichen Erwärmung führt. Diese positive Rückkopplung sorgt dafür, dass sich die Arktis besonders schnell erwärmt. Der Rückzug des arktischen Meereises im 20. Jahrhundert kann mit Hilfe von Klimamodellen nachvollzogen werden, wenn sie mit den beobachteten Treibhausgaskonzentrationen gerechnet werden. Die Modelle zeigen auch, dass in den nächsten Jahrzehnten mit einem weiteren rasanten Rückzug des arktischen Meereises zu rechnen ist. Bei weiterhin stark ansteigenden Treibhausgaskonzentrationen kann die Arktis am Ende dieses Jahrhunderts im Sommer sogar komplett eisfrei sein. Das Meereis um die Antarktis herum reagiert weniger sensitiv auf den menschlichen Einfluss, da infolge relativ starker vertikaler Vermischungsprozesse im Südlichen Ozean die anthropogene Erwärmung im Vergleich zur Arktis kleiner ist. Das Verschwinden des Meereises trägt nicht zum Meeresspiegelanstieg bei, da es schon schwimmt und ein entsprechendes Wasservolumen verdrängt.
1.4 Das Inlandeis Inlandeisschilde und Schelfeise machen den volumenmäßig weitaus größten Teil der Kryosphäre aus. Unter einem Inlandeisschild, auch kurz als Inlandeis oder Eisschild bezeichnet, versteht man eine Eismasse von kontinentaler Größe, deren
40
Wissenschaftliche Grundlagen
Basis auf festem Land aufliegt und die sich im Laufe von Jahrtausenden durch die Akkumulation von Schnee gebildet hat. Schelfeise sind mit einem Eisschild verbundene, jedoch im Ozean aufschwimmende Eismassen, die hauptsächlich vom meerwärtigen Massenfluss des Inlandeises gespeist werden. Sie existieren typischerweise in großen Buchten eines von Inlandeis bedeckten Kontinentalschelfs. Der bei weitem größte Eiskörper auf unserer Erde ist der antarktische Eisschild mit einem gesamten Eisvolumen von 25,7 Millionen km3, einer eisbedeckten Fläche von 12,4 Millionen km2 und einer mittleren Dicke von 2,1 km (ohne Berücksichtigung der Schelfeise). Würde der antarktische Eisschild komplett abschmelzen, entspräche dies einem Meeresspiegelanstieg von gut 60 m. Die anhängenden Schelfeise haben ein Volumen von 0,66 Millionen km3, eine Fläche von 1,5 Millionen km2 und eine mittlere Dicke von 0,44 km. Falls diese schmelzen, ändert sich der Meeresspiegel nicht, da sie bereits, so wie das Meereis auch, im Meer schwimmen. Der grönländische Eisschild ist der zweitgrößte Eisschild auf der Erde. Sein Eisvolumen beträgt knapp 3 Millionen km3 und seine Fläche etwa 1,7 Millionen km2. Das Meeresspiegeläquivalent entspricht gut 7 m. Da es keine großen Buchten gibt, kalbt der grönländische Eisschild direkt ins Meer, nennenswerte Schelfeise gibt es nicht. Ein wichtiger Unterschied zum antarktischen Eisschild besteht darin, dass aufgrund der höheren Oberflächentemperaturen im Sommer die randnahen und tiefer gelegenen Bereiche schmelzen. Daher ist der grönländische Eisschild gegenüber Temperaturanstiegen von einigen Grad, die infolge des anthropogenen Treibhauseffektes zu erwarten sind, wesentlich anfälliger als der antarktische Eisschild. In der Vergangenheit gab es auf der Erde Perioden mit deut-
Das Klima und das Erdsystem
41
lich mehr Vereisung. Auf dem Höhepunkt der letzten Eiszeit vor 21000 Jahren bedeckten Eisschilde u. a. auch große Teile Nordamerikas und Nordeuropas. Zu dieser Zeit betrug das gesamte Eisvolumen etwa dreimal so viel wie heute, und entsprechend war der globale Meeresspiegel im Mittel etwa 130 m niedriger, sodass beispielsweise Großbritannien und das kontinentale Europa miteinander verbunden waren. Für die Zukunft spielen vor allem zwei Faktoren eine wichtige Rolle. Zum einen gehen wir langfristig entsprechend der Milankovitch-Theorie einer neuen Eiszeit entgegen, die in frühestens 25 000 Jahren ihren Höhepunkt erreichen wird. Zum anderen erwarten wir kurzfristig in einem Zeitraum von 100-1000 Jahren einen deutlichen Rückgang der Vereisung infolge des anthropogenen Treibhauseffekts. Inlandeisschilde stellen auf den sehr langen Zeitskalen von mehreren Jahrhunderten bis hinzu vielen Jahrtausenden einen wichtigen dynamischen Bestandteil des Erdsystems dar. Eisschilde besitzen ausgeprägte viskose Fließeigenschaften. Sie sind daher nicht einfach starre unbewegliche Festkörper, die durch Schneefall und Schmelzen ihre Gestalt verändern, sondern zerfließen unter ihrem eigenen Gewicht. Dabei stellt sich ein dynamisches Gleichgewicht ein. Dem Massenabfluss im Innern aufgrund des Eisfließens wirkt der akkumulierte Schneefall entgegen, und der Massenfluss am Rand wird durch Schmelzen und Kalben kompensiert. Daher stehen Eisschilde in komplexer Wechselwirkung mit den angrenzenden Systemen, Atmosphäre, Ozean und Lithosphäre. Die Massenbilanz von Eisschilden wird von atmosphärischen Parametern wie Niederschlag, Lufttemperatur und Strahlung kontrolliert, die Schneefall und Schmelzen bestimmen. Rückwirkungen auf die Atmosphäre ergeben sich durch Änderungen der Topographie (Relief) und der Albedo.
42
Wissenschaftliche Grundlagen
Auch zwischen Eisschild und Ozean besteht eine gegenseitige Beeinflussung. Die Einwirkung des umgebenden Ozeans auf einen Eisschild ergibt sich aus der Höhe des Meeresspiegels, welcher die überhaupt der Vereisung zugängliche Landmasse bestimmt und die Lage des Schelfeises definiert. Die Eisschmelze bzw. das Eiskalben stellen einen Süßwassereintrag für den Ozean dar, wodurch die Eisschilde zurück auf den Ozean wirken und seine großskalige Zirkulation beeinflussen. An der Unterseite eines Schelfeises kann auch Meerwasser wieder gefrieren. Das Salz verbleibt dabei größtenteils im Wasser, wodurch stark salzreiches und dichtes Wasser entsteht, das in große Tiefen absinken kann. An der Unterseite eines Eisschildes, wo dieser auf dem Felsgrund aufsitzt, fließt der geothermische Wärmefluss in den Eiskörper hinein. Aufgrund dieses Wärmeeintrags nimmt die Temperatur einer Eissäule generell mit der Tiefe zu und kann in Bodennähe den Druckschmelzpunkt erreichen. Dies führt zur Bildung von Wasser und somit zu einer verringerten Eisviskosität. Es kann sich dadurch unter Umständen ein Schmierfilm bilden, auf dem der Eisschild abgleiten kann. Ein solcher Mechanismus wird als Möglichkeit zur rapiden Destabilisierung des westantarktischen Eisschildes diskutiert, mit einem möglichen globalen Meeresspiegelanstieg von etwa 5 bis 6 m. Durch das Gewicht des Eisschildes senkt sich zudem der Fels ab; die Absenkung kann eine Größenordnung von etwa 30 % der Eisdicke erreichen. Noch heute heben sich Nordamerika und Skandinavien infolge der Entlastung von den eiszeitlichen Eisschilden. Aufgrund ihrer Größe sind die Reaktionszeiten von Eisschilden auf Klimaänderungen sehr lang. Eine typische Zeitskala lässt sich aus dem Verhältnis der charakteristischen Eisdicke und der charakteristischen Akkumulationsrate von
Das Klima und das Erdsystem
43
Schnee errechnen. Diese Zeitskala beträgt für die Antarktis unter der Annahme einer Eisdicke von 2 km und einer Akkumulationsrate von 100 mm/Jahr 20000 Jahre, und für Grönland, das eine charakteristische Eisdicke von 1,5 km und eine Akkumulationsrate von 300 mm/Jahr besitzt, 5000 Jahre. Daraus folgt, dass man bei der Betrachtung des Klimas der nächsten hundert Jahre die Eisschilde näherungsweise als zeitlich konstant ansehen kann. Jenseits des Zeithorizonts von mehreren Jahrhunderten muss man aber die Dynamik der Eisschilde berücksichtigen. Es sei hier erwähnt, dass die Destabilisierungszeit von Eisschilden in der Wissenschaft sehr kontrovers diskutiert wird. Aus paläoklimatischen Rekonstruktionen weiß man heute, dass am Ende der letzten Eiszeit sehr viel Eis innerhalb relativ kurzer Zeit in die Meere gelangt ist, was zu Meeresspiegelanstiegen von bis zu 10 m innerhalb weniger Jahrhunderte geführt hat. Gegenwärtige Szenarienrechnungen mit globalen Klimamodellen lassen einen Temperaturanstieg über den Eisschilden von 6–10 °C innerhalb der kommenden hundert Jahre möglich erscheinen, der über viele Jahrhunderte lang anhalten kann. Simulationen mit komplexen Eisschildmodellen zeigen unter der Annahme einer Temperaturerhöhung von 10°C einen Rückgang im Volumen des grönländischen Eisschildes um mindestens ein Drittel nach 1000 Jahren, was einem Meeresspiegelanstieg von gut 2 m entspräche. Aufgrund wesentlich niedriger Oberflächentemperaturen erweist sich die Antarktis als deutlich stabiler. Eine entsprechende Simulation für die Antarktis liefert Rückgänge im Volumen von gut 5 %, was jedoch aufgrund des großen absoluten Eisvolumens schon einem Meeresspiegelanstieg von etwa 3,5 m entspricht. Es sollte aber erwähnt werden, dass diese Simulationen nur als grobe Abschätzungen gelten können, da einige
44
Wissenschaftliche Grundlagen
Wechselwirkungen nicht berücksichtigt sind. In den Simulationen wurde beispielsweise angenommen, dass sich der von uns Menschen in die Atmosphäre eingebrachte Ruß die Albedo der Eisschilde nicht beeinflusst. Der Ruß könnte aber die Albedo der Eisschilde deutlich reduzieren und damit das sommerliche Antauen der Eisschilde und ihre Infiltration mit Flüssigwasser noch verstärken und damit ihre Erosion beschleunigen, wodurch sich der Meeresspiegelanstieg deutlich beschleunigen könnte.
1.5 Die Vegetation Eine weitere wichtige Komponente im Erdsystem ist die Vegetation. Die Vegetation greift in den Impulshaushalt der Atmosphäre ein, sie beeinflusst den Wasserkreislauf sowie den Strahlungshaushalt der Erde und sie hat einen wichtigen Einfluss auf die Stoffkreisläufe, wie beispielsweise den Kohlenstoffkreislauf. Die Vegetation ist nicht statisch, sondern steht in enger Wechselwirkung mit den anderen Komponenten des Erdsystems und hat einen großen Anteil an einigen Klimaänderungen der Vergangenheit. Aber auch das zukünftige Klima wird entscheidend vom Verhalten der Vegetation beeinflusst werden. Die Wechselwirkungen zwischen der Vegetation und der chemischen Zusammensetzung der Erdatmosphäre bezeichnet man als biogeochemische Rückkopplungen. Bei Wechselwirkungen zwischen der Vegetation und den Energie-, Wasser- und Impulshaushalten spricht man von biogeophysikalischen Rückkopplungen. Die vermutlich wichtigste biogeochemische Rückkopplung beinhaltet die Wechselwirkung zwischen der Vegetation und der Kohlendioxidkonzentration der Atmosphäre. Diese Rück-
Das Klima und das Erdsystem
45
kopplung kann sowohl negativ wie auch positiv sein und hängt u. a. von der Zeitskala des betrachteten Prozesses ab. Stellen wir uns vor, dass die Biomasse aus einem nicht weiter spezifizierten Grund leicht zunimmt. Dieses Ereignis wird dazu führen, dass mehr CO2 aus der Atmosphäre entfernt wird. Dadurch schwächt sich der Treibhauseffekt ab und die bodennahe Lufttemperatur sinkt. Letzteres bremst das Pflanzenwachstum, sodass die anfängliche Störung gedämpft wird. Es handelt sich hierbei also um eine negative Rückkopplung. Im Zusammenhang mit dem anthropogenen Treibhauseffekt könnte es aber auch zu einer positiven Rückkopplung kommen. Infolge von starken Veränderungen des Klimas können ganze Waldregionen derart unter Stress geraten, dass sie weniger CO2 aufnehmen als sie durch Respiration wieder an die Atmosphäre abgeben. Dies könnte den anthropogenen Treibhauseffekt noch weiter verstärken. Einige Modellrechnungen zeigen, dass dieser Effekt gemittelt über alle Landregionen eine zusätzliche Erwärmung von etwa 1°C bis zum Ende des Jahrhunderts betragen kann. Kürzlich wurde eine weitere biogeochemische Rückkopplung entdeckt, die im Zusammenhang mit dem Methankreislauf steht. Pflanzen produzieren offenbar Methan, eine Rückkopplung, die bisher nicht bekannt gewesen ist. Die Auswirkung dieses Prozesses auf die Klimawirkung der Vegetation insgesamt ist aktueller Forschungsgegenstand. Es ist aber zu erwarten, dass die Rechnungen zum anthropogenen Treibhauseffekt durch diese neu entdeckte Rückkopplung nicht nennenswert beeinflusst werden. Eine der wichtigsten biogeophysikalischen Wechselwirkungen beinhaltet die Änderung der Albedo und damit die Absorption solarer Strahlung infolge von Veränderungen der Vegetation. Diese Rückkopplung ist positiv. Da die Vegetation
46
Wissenschaftliche Grundlagen
im Allgemeinen eine kleinere Albedo besitzt als der unbewachsene Boden, wird sich bei ausbreitender Vegetation die Absorption von solarer Strahlung erhöhen und damit auch die bodennahe Temperatur. Dies begünstigt weiteres Pflanzenwachstum. Die Rückkopplung über die Albedo ist in Gebieten großer Albedogegensätze besonders stark, also in Wüstengebieten oder in zeitweise mit Schnee bedeckten Regionen. Die helle Sandwüste der Sahara beispielsweise besitzt eine Albedo von etwa 0,5, während die angrenzende Savanne eine typische Albedo von etwa 0,2 besitzt. In den hohen nördlichen Breiten findet man noch größere Unterschiede. Über den verschneiten Wäldern der Taiga findet man typische Werte von etwa 0,3, während über mit Schnee bedeckten Grasflächen weitaus höhere Werte von bis zu 0,9 gemessen werden. Neben der Albedo beeinflussen die Pflanzen auch den Wasserhaushalt der bodennahen Atmosphäre. Dies geschieht vor allem über die Transpiration aus den Blattspaltöffnungen (Stomata) und die Wasseraufnahme durch die Wurzeln. Diese hydrologischen Wechselwirkungen können sowohl als positive wie auch als negative Rückkopplungen wirken. Das Wechselspiel zwischen den verschiedenen biophysikalischen Rückkopplungen ist recht komplex. Verschiedene Experimente deuten aber an, dass in den hohen nördlichen Breiten der Albedoeffekt im Jahresmittel dominiert. Demgegenüber überwiegt in den Tropen der hydrologische Effekt. Wenn man sowohl die biogeochemischen als auch die biophysikalischen Prozesse gemeinsam betrachtet – wie es bei dem Studium des globalen Klimawandels erforderlich ist – ist dies im Allgemeinen nur mit relativ kompletten Erdsystemmodellen möglich. Derartige Simulationen zeigen, dass in den Tropen die biogeochemische Rückkopplung dominiert, während in den mittle-
Das Klima und das Erdsystem
47
ren und hohen Breiten der Nordhemisphäre die biogeophysikalische Rückkopplung überwiegt. Daher führt eine Abholzung in den Tropen vermutlich zu einer globalen Erwärmung und eine Aufforstung zu einer globalen Abkühlung. Die Verhältnisse kehren sich in den mittleren und hohen Breiten der Nordhemisphäre genau um, sodass dort Abholzung zur Abkühlung führt und Aufforstung zu einer Erwärmung. Man sollte aber erwähnen, dass derartige Fragestellungen erst seit kurzem mit Hilfe von Erdsystemmodellen behandelt werden und selbst das Vorzeichen bestimmter Rückkopplungen nicht genau bekannt ist. Zahlreiche Klimamodellsimulationen lassen darüber hinaus vermuten, dass vegetationsdynamische Rückkopplungen extern angeregte Klimaänderungen verstärken bzw. beschleunigen. Paläoklimatische Studien mit Klimamodellen zeigen, dass hochgradig nichtlineare Wechselwirkungen des physikalischen Klimasystems (Atmosphäre, Ozean, Meereis) mit der Vegetation entscheidend zu den beobachteten Veränderungen in der Vergangenheit beigetragen haben. Als Beispiel sei hier das Phänomen der »grünen Sahara« angeführt. Der extrem schnelle Übergang einer Sahara mit üppiger Vegetation zu einer Wüste vor etwa 6000 Jahren ist mit Modellen nur dann nachzuvollziehen, wenn biogeophysikalische Rückkopplungen über die Vegetation mit einbezogen werden. Die eigentliche Ursache, nämlich die sich infolge der Variation der Erdbahnparameter langsam verändernde solare Einstrahlung im Sommer der Nordhemisphäre, vermag die Geschwindigkeit des Wechsels nicht zu erklären. Modelle des physikalischen Klimasystems allein können außerdem auch nicht die NordSüd-Erstreckung der Vegetation vor dem Umschlag der Sahara in eine Wüste erklären. Obwohl es noch viele Lücken im Verständnis der Rolle der Vegetation für das Klima gibt, kann
48
Wissenschaftliche Grundlagen
man festhalten, dass die Vegetation nicht nur ein passiver Klimaindikator ist, sondern eine interaktive Komponente im Erdsystem, ohne die sich die Dynamik des Klimas nicht vollständig erklären lässt.
2 Der Treibhauseffekt 2.1 Die Zusammensetzung der Atmosphäre Die optimalen Lebensbedingungen auf der Erde verdanken wir u. a. der chemischen Zusammensetzung der Erdatmosphäre, die sich von der Zusammensetzung anderer Planeten im Sonnensystem deutlich unterscheidet. Die Hauptbestandteile der Erdatmosphäre sind Stickstoff (N2) mit 78 % und Sauerstoff (O2) mit 21 %, die zusammen also einen Anteil von etwa 99 % haben (Abb. 4). Unser lebensfreundliches Klima auf der Erde haben wir aber einigen wenigen anderen Gasen zu verdanken, die zwar nur in winzigen Spuren vorkommen – daher der Name Spurengase – jedoch einen starken Einfluss auf das Klima der Erde ausüben, indem sie den Strahlungshaushalt der Erde beeinflussen. Hierzu zählen vor allem der Wasserdampf (H2O), das Kohlendioxid (CO2) und Ozon (O3). So hat beispielsweise das Kohlendioxid zurzeit nur einen Anteil von etwa 0,038 % (380 ppm, ppm = parts per million), es ist aber für unser derzeitiges und künftiges Klima von großer Bedeutung. Messungen belegen zweifelsfrei, dass der Mensch durch seine vielfältigen Aktivitäten die Zusammensetzung der Atmosphäre verändert und dabei insbesondere die Konzentration der langlebigen klimarelevanten Spurengase erhöht (Abb. 5, Tab. 1). Dies ist der Kern des Klimaproblems. So stiegen die Konzentration von Kohlendioxid (CO2), von Methan
50
Wissenschaftliche Grundlagen
Abb. 4 Die Zusammensetzung der Atmosphäre. Besonders wichtig im Hinblick auf das Klima sind die Spurengase, die nur etwa ein Prozent Anteil an der Atmosphäre haben.
(CH4) und von Distickstoffoxid (Lachgas, N2O) massiv gegenüber ihren vorindustriellen Werten an. Die Gründe sind vielfältig. Sie liegen im starken Anstieg der Verbrennung fossiler Energieträger (Erdöl, Erdgas, Kohle) ebenso wie in der Ausweitung der industriellen Produktion, in Änderungen bei der Landnutzung oder bei der Ausweitung der Viehwirtschaft. Dabei spielt auch die Bevölkerungsexplosion eine wichtige Rolle. Zum Teil gelangen völlig neue Stoffe wie die Fluorchlorkohlenwasserstoffe (FCKW) in die Atmosphäre, die in der Natur nicht vorkommen, sondern ausschließlich durch den Menschen erzeugt werden. Viele der durch die Menschen Abb. 5 Zeitliche Entwicklungen der drei Spurengase Kohlendioxid (CO2), Methan (CH4) und Distickstoffoxid (Lachgas, N2O) in den letzten 1000 Jahren. Ebenfalls angegeben sind die entsprechenden Strahlungsantriebe. Man erkennt deutlich den Anstieg der Konzentrationen seit Beginn der Industrialisierung (nach IPCC 2001a).
Der Treibhauseffekt
Abb. 5
51
52
Wissenschaftliche Grundlagen
in die Atmosphäre emittierten Spurengase sind sehr langlebig, sodass sie das Potenzial besitzen, das Klima Jahrhunderte lang zu beeinflussen. Zusammen mit der Trägheit des Klimas, das nur langsam auf Störungen reagiert, führt dies zu einem Langzeitproblem, das noch sehr viele nachfolgende Generationen beschäftigen wird. Diese Spurengase, zu denen auch Wasserdampf und Ozon gehören, haben eine besondere Eigenschaft. Sie lassen die von der Sonne (vor allem im sichtbaren, kurzwelligen Bereich) auf die Erde einfallende, energiereiche Strahlung nahezu ungehindert passieren, absorbieren teilweise aber die im Gegenzug von der erwärmten Erde (im nicht sichtbaren, langwelligen Bereich) ausgehende Strahlung. Dies ist, vereinfacht gesagt, die Natur des »Treibhauseffekts«. Die dabei beteiligten Gase werden allgemein als »Treibhausgase« bezeichnet.
Tab. 1 Die wichtigsten anthropogenen Spurengase und einige ihrer Charakteristika (nach IPCC 2001a). Die Einheiten ppm, ppb und ppt sind aus dem Englischen übernommen und bedeuten parts per million, parts per billion und parts per trillion.
Der Treibhauseffekt
53
Die vom Menschen in die Atmosphäre emittierten Treibhausgase haben, wie oben schon erwähnt, relativ lange Lebensdauern. Beim Kohlendioxid schwankt die Lebensdauer stark in Abhängigkeit vom betrachteten Entfernungsprozess, sie beträgt im Mittel aber etwa hundert Jahre. Darüber hinaus schwanken die Raten der Konzentrationsänderungen auch innerhalb bestimmter Grenzen, die in der Tabelle angegebenen Zahlen sind daher als Mittelwerte über die 1990er Jahre zu verstehen. Die Spurengase verteilen sich wegen ihrer langen Lebensdauer über den Erdball und sind daher global wirksam, unabhängig vom Ort ihres Ausstoßes. Da die Senken nicht ausreichen, um die durch den Menschen in die Atmosphäre eingebrachten Treibhausgase komplett zu entfernen, steigen ihre Konzentrationen an. Dabei verhält es sich so ähnlich wie mit der Staatsverschuldung bei uns in Deutschland, die durch laufende Neuverschuldung immer weiter in die Höhe getrieben wird. Selbst ein Zurückfahren der Neuverschuldung um wenige Prozent, würde die Schuldenlast ansteigen lassen. Ein nur geringfügiges Zurückfahren des Ausstoßes der Treibhausgase durch den Menschen hätte einen entsprechend kleinen Effekt, die Konzentrationen der meisten Treibhausgase würden trotzdem weiter ansteigen und damit ihre Klimawirkung.
2.2 Der natürliche Treibhauseffekt Wenn über das Klimaproblem gesprochen wird, fällt oft das Stichwort Treibhauseffekt – eine natürliche Eigenschaft der Erdatmosphäre. Es ist dieses Phänomen, das uns die optimalen Lebensbedingungen auf der Erde garantiert. Bekanntlich sendet Materie elektromagnetische Strahlung aller Wellenlängen in Form von Photonen aus (Emission), und zwar umso mehr
54
Wissenschaftliche Grundlagen
je wärmer der emittierende Körper ist. So sorgt beispielsweise die Emission elektromagnetischer Strahlung an der (heißen) Sonnenoberfläche für Energie in Form des sichtbaren Lichtes auf der Erde (zwischen etwa 0,2 und 5 µm). Einfallende elektromagnetische Strahlung wird aber auch von Materie verschluckt (Absorption) und trägt dadurch zur Energieerhöhung der Umgebung bei, die sich meist in einer Erwärmung ausdrückt. Bei den im Vergleich zur Sonne niedrigen Temperaturen des irdischen Klimasystems findet die Emission elektromagnetischer Strahlung durch die Erdoberfläche und / oder Atmosphärenbestandteile überwiegend im nicht-sichtbaren, so genannten thermischen Bereich des Spektrums (zwischen etwa 3 und 100 µm) statt, weshalb man auch oft von Wärmestrahlung spricht. Wichtig ist auch, dass Emission und Absorption vor allem bei Gasen sehr stark von der Wellenlänge abhängen können, weshalb oft von Emissionslinien oder -banden (Ansammlungen von Linien) die Rede ist. Insbesondere bei den beiden wichtigen Treibhausgasen Wasserdampf (H2O) und Kohlendioxid (CO2) finden die wesentlichen Absorptions- und Emissionsvorgänge in solchen Banden statt. Dagegen besitzen gerade die beiden Hauptgase der Atmosphäre Sauerstoff (O2) oder Stickstoff (N2) im energetisch wichtigen Bereich des Spektrums keine wesentliche Emission und Absorption. Es sind daher vor allem die Spurengase, die einen großen Einfluss auf das irdische Klima ausüben. Bei einer Erde ohne Atmosphäre wäre die Oberflächentemperatur ausschließlich durch die Bilanz zwischen eingestrahlter Sonnenenergie und der von der Oberfläche abgestrahlten Wärmestrahlung festgelegt. Bei gleichem Rückstreuvermögen des Planeten wie heute würde diese Oberflächentemperatur im globalen Mittel etwa –18°C betragen, sie beträgt heute
Der Treibhauseffekt
55
jedoch ca. +15°C (s. Abb. 6). Selbst eine Atmosphäre aus reinem Sauerstoff und Stickstoff, die ja die Hauptkomponenten unserer Atmosphäre bilden, würde daran nichts Wesentliches ändern: Unser Planet wäre eine Eiswüste und Leben, so wie wir es kennen, wäre vermutlich nicht entstanden.
Der Treibhauseffekt Abb. 6 Schematische Darstellung des Strahlungshaushaltes der Atmosphäre und des natürlichen Treibhauseffekts
Dagegen absorbieren Wasserdampf und in geringerem Maße auch CO2 (und andere Spurengase) einen kleinen Teil der Sonnenstrahlung und geben selbst Wärmestrahlung ab. In Richtung zum Erdboden übertrifft diese zusätzliche Wärmestrahlung aus der Atmosphäre die Reduktion der Sonnenstrahlung und bewirkt so am Erdboden eine höhere Energie-
56
Wissenschaftliche Grundlagen
einstrahlung, als dies ohne solche Gase der Fall wäre. Diese vermehrte Einstrahlung führt zu einer Erwärmung der Erdoberfläche und (infolge verschiedener Transportvorgänge) auch der unteren Atmosphäre. Diese Erwärmung der Erdoberfläche führt aber auch zu einem Ausgleich der Strahlungsbilanz am Atmosphärenoberrand, denn im längerfristigen Mittel muss die Erde ja genauso viel Wärmestrahlung in den Weltraum abgeben, wie sie Strahlung von der Sonne absorbiert. Die von der Erdoberfläche nach oben gestrahlte Energie wird von den atmosphärischen Spurengasen (teilweise) auch absorbiert, gelangt also nur zum Teil direkt in den Weltraum. Dafür emittieren die Spurengase selbst entsprechend ihrer Temperatur, die aber wegen der Temperaturabnahme bei steigender Höhe in der Atmosphäre geringer ist als die der Erdoberfläche. Daher verlässt mit zunehmender Menge an Spurengasen bei konstanter Temperatur der Erdoberfläche immer weniger Energie in Form von Wärmestrahlung die Erde in den Weltraum. Durch die erhöhte Oberflächentemperatur wird dieses Defizit in der Strahlungsbilanz aber wegen der erhöhten von der Erdoberfläche ausgehenden Wärmestrahlungsmenge wieder ausgeglichen. Hierfür ist vor allem das atmosphärische Strahlungsfenster hilfreich, ein Spektralbereich bei 10 µm Wellenlänge innerhalb dessen die Strahlung von der Oberfläche bei wolkenloser Atmosphäre in den Weltraum entweichen kann. Messungen der Wärmeabstrahlung in den Weltraum durch Satelliten lassen auf eine Temperaturerhöhung der Erdoberfläche durch den natürlichen Treibhauseffekt von etwa 33°C schließen. Zu dieser lebenserhaltenden Erwärmung trägt Wasserdampf (H2O) den weitaus größten Teil – ungefähr zwei Drittel – bei; es folgen Kohlendioxid (CO2) mit einem Anteil von ca. 15 %, Ozon mit etwa 10 % und schließlich Distick-
Der Treibhauseffekt
57
stoffoxid (N2O) und Methan (CH4) mit je etwa 3 %. Die Existenz der Spurengase ist daher trotz ihrer geringen Konzentration einer der entscheidenden Faktoren, die unser Klima bestimmen. Man hört oft, dass der menschliche Anteil am Treibhauseffekt nur etwa 2 % beträgt, woraus dann oft der Schluss gezogen wird, dass der Einfluss des Menschen auf das Klima klein ist und daher vernachlässigt werden kann. 2 % bedeuten aber bei einem Treibhauseffekt von über 30 ° etwa 0,6 °C. Dies entspricht in etwa dem Anteil an der Erwärmung der letzten hundert Jahre, der entsprechend der Klimamodellsimulationen auf das Konto des Menschen geht. Dieses so genannte Skeptiker-Argument bestätigt daher die Resultate der Klimaforschung. Derlei Zahlenspiele sollte man also immer kritisch hinterfragen und auch bis zum Ende durchrechnen. Die Spurengase führen also insgesamt dazu, dass Wärme in der unteren Atmosphäre gefangen ist. Die Atmosphäre ist in gewisser Weise nicht transparent für Wärmestrahlung, aber weitgehend durchlässig für die solare Strahlung. Wegen der Analogie mit den Vorgängen in einem Treibhaus, dessen Glasverkleidung ebenfalls die Sonne gut durchlässt, die Wärme aber nicht, ist das hier beschriebene Phänomen auch als »natürlicher Treibhauseffekt« bekannt. Die dafür in der Atmosphäre verantwortlichen Gase werden daher häufig als Treibhausgase bezeichnet. Die Treibhausgase übernehmen also in gewisser Weise die Rolle des Glases in einem Treibhaus. Bei der Interpretation verschiedener Klimavorgänge ist aber Vorsicht geboten vor der allzu direkten Übertragung des Treibhausbildes. Die physikalischen Prozesse im richtigen Treibhaus sind völlig andere als die in der Atmosphäre ablaufenden. Außerdem sind natürlich die Verhältnisse in der strömenden Atmosphäre mit Bewölkung viel komplizierter als die im Glashaus eines Gärtners.
58
Wissenschaftliche Grundlagen
2.3 Der anthropogene Treibhauseffekt Werden die natürlich vorhandenen Treibhausgase (z. B. CO2) durch anthropogenen (menschlichen) Einfluss vermehrt oder durch neue Stoffe, z. B. die Fluorchlorkohlenwasserstoffe (FCKW) ergänzt, so muss dies Auswirkungen auf unser Klima haben. Eine erhöhte Konzentration von Treibhausgasen in der Atmosphäre führt zwangsläufig infolge des sich verstärkenden (anthropogenen) Treibhauseffektes zu einer Erhöhung der Temperatur der Erdoberfläche und der unteren Atmosphäre. Andere Faktoren, die ebenfalls Einfluss auf das Klima haben können, wie z. B. durch Flugzeuge verursachte Kondensstreifen oder der Ausstoß von Schwebstoffen (Aerosolen), werden an dieser Stelle nicht im Detail betrachtet (s. Kap. 4.3). Die Abb. 7 zeigt die so genannten Strahlungsantriebe der verschiedenen externen (anthropogenen und natürlichen) Faktoren, die unser Klima seit dem Beginn der Industrialisierung beeinflussen. Strahlungsantriebe entstehen durch Änderungen der atmosphärischen Zusammensetzung, Veränderung der Oberflächenreflexion durch Landnutzung und Einstrahlungsschwankungen der Sonne. Strahlungsantriebe durch die nur kurzfristig wirkenden Vulkane sind nicht dargestellt. Die Konzentration der langlebigen Treibhausgase nimmt, wie oben bereits erwähnt, systematisch zu: seit Beginn der Industrialisierung bis heute bei Kohlendioxid um ca. 30 %, bei Methan um ca. 150 % und bei Distickstoffoxid um ca. 17 %. Hauptursache für die beobachtete Entwicklung ist mit etwa 50 % die Nutzung fossiler Brennstoffe. Aus der Chemieproduktion stammen knapp 20 % des gesamten weltweiten Ausstoßes von Treibhausgasen. Hier handelt es sich vor allem um die FCKWs. Eine weitere wichtige Quelle der global emittier-
Der Treibhauseffekt
59
Abb. 7 Der mittlere globale Strahlungsantrieb des Klimasystems im Jahr 2000, im Vergleich zu 1750. Die Unsicherheit ist jeweils durch die Balken angegeben. Bei dem indirekten Aerosoleffekt handelt es sich um den Effekt der Aerosole auf die Wolkenbildung (nach IPCC 2001a).
ten Treibhausgase ist die zunehmend intensiver betriebene Landwirtschaft mit 15 % der Emissionen. Die Vernichtung der Wälder macht weitere 15 % aus. Der aus diesem von uns Menschen verursachte Anstieg der Treibhausgase seit der vorindustriellen Zeit resultierende Strahlungsantrieb ist positiv und beträgt etwa 2,4 W/m2, was zu einer Erwärmung führen muss. Der Strahlungsantrieb des Aerosoleffektes ist negativ, führt also zu einer Abkühlung. Letzterer ist aber kleiner als der Strahlungsantrieb durch die anthropogenen Treibhausgase. Die Summe aller Faktoren, inklusive des Sonneneffekts, ist positiv, wobei der Effekt der anthropogenen Treibhausgase deutlich dominiert. Während der zweiten Hälfte des
60
Wissenschaftliche Grundlagen
20. Jahrhunderts wuchs der positive Strahlungsantrieb der gut durchmischten Treibhausgase schnell an, während im Gegensatz hierzu die Summe aller natürlichen Strahlungsantriebe negativ war. Der Mensch ist also dabei, eine massive Störung des Klimas in Form einer globalen Erwärmung anzustoßen. Erstes Anzeichen hierfür ist die rasante Erwärmung der Erde in den letzten dreißig Jahren (s. Abb. 18), die einmalig in der Rückschau der letzten tausend Jahre ist. Durch den positiven Strahlungsantrieb wird eine langfristige Erwärmung der Erdoberfläche und der unteren Atmosphäre angestoßen, deren Ausmaß mit der Konzentrationsänderung ansteigt, aber auch stark von der Reaktion des Wasserkreislaufs (Wasserdampf, Bewölkung, Niederschlag, Verdunstung, Schneebedeckung, Meereisausdehnung) bestimmt wird. Der Wasserkreislauf kann sowohl verstärkend wie dämpfend eingreifen, weil viele seiner Zweige stark temperaturabhängig sind. Besonders wichtig ist die so genannte Wasserdampfrückkopplung. Infolge der Erwärmung der unteren Atmosphäre kann diese auch mehr Wasserdampf aufnehmen. Wasserdampf ist, wie wir wissen, ebenfalls ein Treibhausgas, sodass dadurch die anfängliche Erwärmung durch den erhöhten Wasserdampfgehalt weiter verstärkt wird. Wir sprechen von einer »positiven Rückkopplung«, d. h. einem verstärkenden Prozess. Die Wasserdampfrückkopplung ist die Wirkungsvollste der verschiedenen Rückkopplungen, und sie wird natürlich auch bei den Klimamodellsimulationen berücksichtigt. Da die Erwärmung regional und innerhalb eines Jahres unterschiedlich ist und weil die Strahlungsbilanzstörung bei einer Konzentrationsänderung von der Struktur der Atmosphäre, der Jahreszeit und vom Oberflächentyp abhängt, führt ein erhöhter Treibhauseffekt auch zu veränderten Werten des Niederschlags, der Bewölkung, der Meereis-
Der Treibhauseffekt
61
ausdehnung, der Schneebedeckung und des Meeresspiegels sowie zu anderen Wetterextremen, d. h. zu einem globalen Klimawandel. Für die Menschheit besonders wichtig sind hierbei die mögliche Veränderung in der Statistik extremer Wetterereignisse und ein möglicher langfristiger Anstieg des Meeresspiegels von vielen Metern.
2.4 Die globale Kohlenstoffbilanz Das wichtigste Treibhausgas im Hinblick auf den anthropogenen Treibhauseffekt ist das Kohlendioxid, das einen Anteil von ca. 60 % an dem (durch die gut durchmischten Treibhausgase verursachten) anthropogenen Treibhauseffekt hat. Methan hat einen Anteil von ca. 20 % und die FCKWs von knapp 15 %. Diese Zahlen sind nicht mit denen des natürlichen Treibhauseffektes zu verwechseln, für den der Wasserdampf mit ca. 60 % das dominierende Gas ist. Das zusätzliche Kohlendioxid entsteht vor allem durch die Verbrennung fossiler Brennstoffe, das sind Erdöl, Kohle und Erdgas. Der weltweite CO2-Ausstoß ist daher eng an den weltweiten Energieverbrauch gekoppelt, da die Energiegewinnung vor allem auf der Verfeuerung fossiler Brennstoffe basiert. Etwa drei Viertel der CO2-Emissionen kommen zurzeit noch von den Industrienationen, in denen aber nur 25 % der Weltbevölkerung leben. Dabei nehmen die USA mit etwa einem Viertel Anteil am weltweiten CO2-Ausstoß den Spitzenplatz ein. Mit der Beschleunigung des wirtschaftlichen Wachstums wird jedoch der Anteil der Entwicklungsländer, insbesondere der Chinas und Indiens, in den nächsten Jahrzehnten schnell zunehmen. Die Konzentration von CO2 in der Atmosphäre hat sich seit
62
Wissenschaftliche Grundlagen
Beginn der industriellen Revolution rasant erhöht. Lag der CO2-Gehalt um 1800 noch bei ca. 280 ppm, so liegt er heute schon bei ca. 380 ppm. Dass der Mensch für diesen Anstieg verantwortlich ist, ist unstrittig. Ein Blick in die Vergangenheit zeigt, dass der CO2-Gehalt heute schon so hoch ist wie seit Jahrhunderttausenden nicht mehr. Dabei hat man die Schwankungen in der chemischen Zusammensetzung der Erdatmosphäre aus Eisbohrkernen der Antarktis rekonstruiert, indem die im Eis eingeschlossenen Luftbläschen analysiert wurden. Die Temperaturen wurden ebenfalls, und zwar aus Sauerstoffisotopenmessungen, abgeleitet. Man erkennt in der Abbildung 8 eine erstaunliche Parallelität der Verläufe von CO2-Gehalt und Temperatur in den letzten 400000 Jahren, was auf einen engen Zusammenhang zwischen diesen beiden Größen hindeutet. Den gleichen Sachverhalt beobachtet man zwischen der Temperatur und der Methankonzentration. Es scheint offensichtlich eine positive Rückkopplung zwischen der Temperatur und den Treibhausgaskonzentrationen zu geben: Eine Temperaturänderung führt zu einer Änderung der Treibhausgaskonzentrationen, welche über eine Änderung der Stärke des Treibhauseffekts die anfängliche Temperaturänderung weiter verstärkt. Ebenso führt eine Änderung der Treibhausgaskonzentration zu einer Änderung der Temperatur, welche die anfängliche Änderung der Treibhausgaskonzentration noch weiter verstärkt. Es sind diese positiven Rückkopplungen, die das Klimasystem sehr empfindlich auf relativ kleine externe Anregungen reagieren lässt. Man erkennt in der Abb. 8 auch, dass der CO2-Gehalt zwar immer Schwankungen unterlegen ist, sich die CO2-Konzentration in den letzten 400000 Jahren aber typischerweise zwischen ca. 200 und 300 ppm bewegt hat. Neuere Untersuchungen zeigen, dass die heutige CO2-Konzentration von
Der Treibhauseffekt
63
Abb. 8 Schwankungen der Konzentration des Kohlendioxid und der Temperatur der letzten ca. 400 000 Jahre
380 ppm sogar im Hinblick auf die letzten 650000 Jahre einmalig ist. Während der letzten Eiszeit vor etwa 20000 Jahren lag der CO2-Gehalt bei etwas unterhalb von 200 ppm, während der letzten großen Warmzeit, der Eem-Warmzeit, vor ca. 125 000 Jahren bei ca. 300 ppm. Wir befinden uns also heute in einem Bereich, der einmalig für die Menschheit ist und offenbar weit außerhalb der natürlichen Schwankungsbreite liegt. Es ist von daher schon äußerst unwahrscheinlich, dass der beobachtete CO2-Anstieg auf natürliche Ursachen zurückzu-
64
Wissenschaftliche Grundlagen
führen ist. Darüber hinaus kann man mit modernen Messmethoden sicher den Menschen als Verursacher entlarven. Messungen des Kohlenstoff-Isotops 14C erlauben, zwischen Kohlendioxid aus natürlichen (biogenen) Quellen und solchem, das durch Verbrennung fossiler Brennstoffe entstanden ist, zu unterscheiden. Durchgeführte 14C-Messungen bestätigen, dass der Anstieg des Kohlendioxids in der Atmosphäre anthropogenen Ursprungs ist und nicht etwa auf Freisetzungen aus den Ozeanen zurückzuführen ist. Weiterhin zeigen die instrumentellen Kohlendioxid-Messungen, die gleichzeitig in der Atmosphäre und im Ozean durchgeführt werden, dass Kohlendioxid von der Atmosphäre in den Ozean übergeht, die Ozeane also als eine Kohlendioxid-Senke wirken. Im Folgenden wollen wir uns mit dem globalen Kohlenstoffkreislauf beschäftigen, um zu verstehen, wo das vom Menschen in die Atmosphäre emittierte CO2 verbleibt. Inzwischen gibt es ein weltweites CO2-Messnetz. Die erste Messstation wurde 1958 am Observatorium Mauna Loa auf Hawaii eingerichtet. Heute gibt es ein weltumspannendes Messnetz, und es wird sogar in der Antarktis gemessen. Mit Hilfe dieser Messungen und vieler anderer Beobachtungen kann man die globale Kohlenstoffbilanz abschätzen. Grundsätzlich kann man sagen, dass etwa die Hälfte des durch den Menschen in die Atmosphäre emittierte CO2 von den Ozeanen und der Vegetation aufgenommen wird, während die andere Hälfte in der Atmosphäre verbleibt. Obwohl die Kohlenstoffflüsse zwischen Ozean und Atmosphäre oder Land und Atmosphäre sehr viel größer sind als die Störung durch den Menschen, ist der anthropogene CO2-Eintrag der zurzeit für das Klima dominierende Faktor, da sich die natürlichen Kohlenstoffflüsse, obwohl deutlich größer, weitgehend ausgleichen, z. B. gelangt vom Ozean normalerweise so viel CO2 in
Der Treibhauseffekt
65
die Atmosphäre, wie er selbst wieder aufnimmt (Abb. 9). Das Gleiche gilt für die Flüsse zwischen Land und Atmosphäre. Diese Balance garantierte in den letzten Jahrhunderten eine relativ konstante atmosphärische CO2-Konzentration von etwa 280 ppm. Der Mensch stört dieses Gleichgewicht, wodurch der CO2-Gehalt der Atmosphäre seit Beginn der Industrialisierung rasant ansteigt.
Abb. 9 Der globale Kohlenstoffkreislauf
Tab. 2 stellt die globale Bilanz des atmosphärischen CO2 für den Zeitraum 1990–1999 dar, wie sie aus instrumentellen Messungen ermittelt wurde. Entsprechend standen den weltweiten Emissionen aus dem Verbrauch von fossilen Brenn-
66
Wissenschaftliche Grundlagen
Stoffen (6,3 GtC/ Jahr; 1 GtC = 1015 g C oder 1 Pg C) eine Zunahme in der Atmosphäre von 3,2 GtC/Jahr und eine Aufnahme durch den Ozean von ca. 1,9 GtC/Jahr gegenüber. Damit ergibt sich eine Nettoaufnahme der terrestrischen Biosphäre von 1,2 GtC/Jahr. Berücksichtigt man jedoch zudem die Emissionen aus Änderungen der Landnutzung (2,2 GtC/Jahr), bespielsweise die Brandrodung der tropischen Regenwälder, die aus Statistiken der Landwirtschaftsflächen und Annahmen über Kohlenstoffgehalt in Vegetation und Böden von natürlichen und landwirtschaftlich genutzten Flächen abgeschätzt werden können, dann sind Senkenprozesse mit einem Beitrag von insgesamt 3,4 GtC/Jahr zu suchen, um die Bilanz der terrestrischen Biosphäre zu schließen. Kontrovers diskutiert werden insbesondere die »Düngung« der Vegetation durch die Zunahme des atmosphärischen CO2 oder durch anthropogenen Stickstoffeintrag, aber auch durch in der Vergangenheit stärker bewirtschaftete Wälder, welche heute nachwachsen und damit zusätzlichen Kohlenstoff binden können. Es ist aber auch möglich, dass natürliche Klimaschwankungen (z. B. Änderungen der Ozeanzirkulation, Dürreperioden, Erwärmung in mittleren und hohen Breiten der Nordhemisphäre und eine damit verbundene Verlängerung der Vegetationsperiode) Variationen der atmosphärischen CO2-Konzentration verursachen können. Die oben diskutierte, auf weltweiten Messungen basierende, globale Kohlenstoffbilanz zeigt eindeutig, dass die Senken offensichtlich nicht ausreichen, das anthropogen in die Atmosphäre eingebrachte CO2 komplett zu entfernen, woraus sich der Anstieg der CO2-Konzentration seit Beginn der Industrialisierung erklärt. Die Untersuchungen der anderen relevanten Stoffkreisläufe (Methan- und Stickstoffkreislauf) liefern qualitativ ähnliche Ergebnisse, werden hier aber nicht
Der Treibhauseffekt
67
Tab. 2 Atmosphärische Kohlenstoffbilanz 1990 – 99 Einheit: GtC/Jahr (Pg Kohlenstoff pro Jahr)
im Detail diskutiert. Insgesamt kann man feststellen, dass trotz der Unsicherheiten im Verständnis der globalen Stoffkreisläufe, die es immer noch gibt, der Mensch eindeutig für den Anstieg der Treibhausgaskonzentrationen in der Atmosphäre verantwortlich zeichnet.
2.5 Die Ozonproblematik Ein anderes Klimaproblem ist unter dem Namen »Ozonproblematik« oder »Ozonloch« bekannt. Ozon kommt vor allem in der Stratosphäre vor, das ist die Schicht in 10–50 km Höhe. Ozon (O3) filtert weitgehend die für Lebewesen schädliche UV Strahlung heraus, und das Leben konnte sich erst vom Meer aufs Land bewegen, nachdem sich die Ozonschicht gebildet hatte. Die Ozonschicht wird durch den Ausstoß der FCKWs durch uns Menschen geschädigt. Das stratosphärische Ozon ist von dem bodennahen Ozon zu unterscheiden. Letzteres entsteht während des Sommers oft in Ballungsgebieten durch photochemische Prozesse infolge des Ausstoßes von Stickoxi-
68
Wissenschaftliche Grundlagen
den und anderer so genannter Vorläufersubstanzen. Da Ozon ein Giftgas ist, werden Anstrengungen unternommen, die Bildung von bodennahem Ozon zu verringern. Die Katalysatorpflicht bei PKWs ist ein erster Schritt in diese Richtung. Genau genommen haben wir es also mit zwei verschiedenen Ozonproblemen zu tun. Ozon wird in der Stratosphäre gebildet, indem molekularer Sauerstoff (O2) von ultravioletter Strahlung mit Wellenlängen unter 242 Nanometern (UV-B) in zwei O-Atome gespalten wird (Photolyse). Jedes dieser Sauerstoffatome kann sich wieder an ein O2-Molekül anlagern, wobei Ozon (O3) entsteht. Im Laufe der Zeit würde so der gesamte atmosphärische Sauerstoff in Ozon umgewandelt, wenn es nicht auch Abbaumechanismen für Ozon geben würde, bei denen wieder Sauerstoff entsteht. Dies geschieht zum einen durch die Spaltung von Ozon durch sichtbares Licht mit einer Wellenlänge kleiner als 1200 Nanometer, zum anderen durch Stoßreaktionen mit Sauerstoffatomen. Lange Zeit ging man davon aus, dass diese Mechanismen das Schicksal des stratosphärischen Ozons vollständig beschreiben (Chapman-Zyklus). Heute wissen wir jedoch, dass eine dritte Kategorie von Reaktionen eine wichtige Rolle beim Ozonabbau spielt: katalytische Reaktionen des Ozons mit Molekülradikalen (HOX, NOX, ClOx, BrOx). Diese Reaktionen heißen katalytisch, weil das Radikal zunächst einige Ozonmoleküle zerstört und am Ende wieder unverändert als Radikal freigesetzt wird, und so dieselbe Reaktion mit neuen Ozonmolekülen erneut durchlaufen kann. Dies geschieht solange, bis das Radikal mit einem anderen Molekül als Ozon reagiert und dabei in eine stabile Verbindung eingebaut wird. Die Radikale sind z. T. natürlichen Ursprungs, vor allem aber stammen sie aus Emissionen der In-
Der Treibhauseffekt
69
dustrieländer. Bei den Chlorradikalen haben menschliche Emissionen (FCKW) einen Anteil von über 80 %. Ozonbildung bzw. -zerstörung finden jeweils solange statt, bis je Zeiteinheit genauso viele Ozonmoleküle gebildet wie zerstört werden. Die dann herrschende Ozonkonzentration befindet sich im »dynamischen Gleichgewicht«. Da die Ozonbildungs- und -abbaureaktionen in unterschiedlichen Höhen unterschiedlich schnell ablaufen, ist auch die Gleichgewichtskonzentration höhenabhängig. Das so entstehende vertikale Ozonprofil weist besonders hohe Ozonkonzentrationen in der Stratosphäre in etwa 15–30 km Höhe auf. Diese Schicht bezeichnet man daher als Ozonschicht. In ihr befinden sich etwa 75 % des atmosphärischen Ozons. Eine Zerstörung der stratosphärischen Ozonschicht wäre verhängnisvoll, da dann die UVStrahlung praktisch ungehindert die Erdoberfläche erreichen könnte, was unabsehbare Folgen für das Leben hätte. Unter dem Ozonloch versteht man die schnelle Abnahme der Ozonkonzentration in der Stratosphäre, die seit etwa 1980 jedes Jahr in zunehmendem Ausmaß über der Antarktis beobachtet worden ist. Verantwortlich für den raschen und sehr effektiven Ozonabbau sind die Fluor-Chlor-Kohlenwasserstoffe (FCKW), die nur durch den Menschen in die Atmosphäre gelangen. Das Ozonproblem ist im Wesentlichen als unabhängig vom anthropogenen Treibhauseffekt zu betrachten. Trotzdem werden diese beiden Problemkomplexe oft miteinander verwechselt. Dies liegt vermutlich an den FCKWs, die sowohl den anthropogenen Treibhauseffekt (mit)-verursachen als auch das stratosphärische Ozon zerstören. Wichtig für den Ozonabbau sind die katalytischen Reaktionen der ozonzerstörenden Radikale, wobei besonders die
70
Wissenschaftliche Grundlagen
chlorhaltigen Radikale zu nennen sind. Damit es zum beobachteten schnellen Abbau von Ozon kommt, müssen deutlich mehr Radikale als normal im Bereich der Ozonschicht vorhanden sein. Diese »Anreicherung« der Stratosphäre mit Radikalen vollzieht sich in zwei Stufen: Im Winter entstehen aus chemisch inaktiven, katalysatorbindenden Substanzen (»Reservoirgase«) Verbindungen, die nur im Dunkeln stabil sind. Die Bildung dieser »Vorläufersubstanzen« erfolgt an der Oberfläche von stratosphärischen Partikeln – man spricht von heterogenen Reaktionen. Ein Beispiel ist die Reaktion von gasförmigem Chlornitrat (ClONO2) mit Chlorwasserstoff (HCl) zu gasförmigem Chlorgas (Cl2) und Salpetersäure (HNO3). ClONO2 und HCl sind in diesem Beispiel die Reservoirgase, Cl2 ist das Vorläufergas. Zu Beginn des Frühjahrs auf der Südhalbkugel (Oktober) werden die Vorläufersubstanzen durch den Einfall von Sonnenlicht gespalten, wobei sehr schnell große Mengen ozonzerstörender Radikale frei werden (z. B. entstehen aus Chlorgas (Cl2) zwei hochreaktive Chloratome (Cl)). Die katalytischen Abbaureaktionen zerstören nun sehr viel mehr Ozonmoleküle als neue gebildet werden können. Da gleichzeitig auch noch diejenigen Reaktionen verlangsamt ablaufen, welche die Radikale normalerweise wieder aus der Atmosphäre entfernen, verschiebt sich das Gleichgewicht zu sehr geringen Ozonkonzentrationen. Man beobachtet eine sehr starke Ausdünnung der Ozonschicht, das »Ozonloch«. Die Oberflächen, an denen die heterogenen Reaktionen zur Bildung der Vorläufersubstanzen ablaufen, werden hauptsächlich von so genannten polaren Stratosphärenwolken (PSC: polar stratospheric clouds) zur Verfügung gestellt. Diese Wolken bilden sich allerdings erst bei Temperaturen unterhalb von –78°C. Solche Temperaturen werden in der Stratosphäre auch im Polarwinter nur erreicht, wenn die
Der Treibhauseffekt
71
Luft lange Zeit keine Sonnenstrahlung empfangen hat. Dazu muss sie sich über längere Zeit über dem Pol aufgehalten haben und darf sich nicht mit warmer Luft aus mittleren Breiten vermischt haben. Dieser Luftaustausch wird im Polarwinter tatsächlich stark erschwert. Die nicht mehr von der Sonne beschienene Luft über dem Polargebiet ist deutlich kälter als die über den mittleren Breiten. Dieser Temperaturunterschied führt zu einer Luftströmung in Richtung Pol. Unter dem Einfluss der Erdrotation entsteht daraus eine riesige stratosphärische Zyklone, der Polarwirbel (polar vortex). Dieser Wirbel blockiert den Luftaustausch zwischen polaren und mittleren Breiten, d. h. die Luft, die einmal in den Wirbel gelangt ist, ist quasi über dem Polgebiet »gefangen«. Erst in diesem Wirbel hat die Luft genügend Zeit, um so weit abzukühlen, dass die Bildung von PSCs möglich ist. Somit ist auch die Bildung und Ansammlung der Vorläufersubstanzen aus den Reservoirgasen erst durch einen stabilen Wirbel in dem Umfang möglich, der für einen drastischen Ozonabbau nötig ist. Der Polarwirbel löst sich im Frühjahr durch die allmähliche Erwärmung der polaren Stratosphäre und die damit verbundene Änderung der Luftströmungen wieder auf. Das Ozonloch ist ein Phänomen, das bisher nur über der Antarktis aufgetreten ist. Dort wird ab Frühlingsbeginn (Mitte September) eine rasche Abnahme des Gesamtozongehalts auf weniger als die Hälfte des normalen Wertes beobachtet. Ursache sind, wie oben beschrieben, chemische Reaktionen, die das Ozon in bestimmten Höhenbereichen der Stratosphäre teilweise völlig zerstören. Die Ozonwerte bleiben dann etwa sechs bis acht Wochen auf niedrigem Niveau, danach beginnt der Ozongehalt wieder zu steigen und erreicht fast wieder das Vorjahresniveau. Über der Arktis sind in der Vergan-
72
Wissenschaftliche Grundlagen
genheit zwar bereits ähnliche Ozonverluste beobachtet worden, jedoch waren diese bisher nicht von langer Dauer (maximal einige Tage). Auch war ihre Ausdehnung bei weitem nicht so groß wie über der Antarktis, sodass hierbei noch nicht von einem Ozonloch gesprochen werden sollte. Der Grund für diesen Unterschied zwischen den beiden Polgebieten liegt im Wesentlichen in der unterschiedlichen Geographie (LandMeer-Verteilung, Gebirge) und den daraus resultierenden instabileren meteorologischen Verhältnissen auf der Nordhalbkugel. Diese führen dazu, dass die Bedingungen für das Auftreten eines Ozonlochs, vor allem eines äußerst stabilen Polarwirbels mit sehr niedrigen Temperaturen unter –78°C zwischen 15 und 25 km Höhe, über der Arktis viel seltener sind und kürzer anhalten als über der Antarktis. Auch ohne die besonderen Bedingungen innerhalb eines Polarwirbels wird außerhalb der hohen Breiten verstärkt stratosphärisches Ozon abgebaut. Dies geschieht ebenfalls über heterogene Reaktionen, und zwar an der Oberfläche von Schwefelsäuretröpfchen. Auch wenn dieser Vorgang nicht so spektakulär ist wie das Ozonloch über der Antarktis, so trägt er doch wesentlich neben der Gasphasenchemie zum globalen Ozonabbau bei. Bei der Betrachtung der Ozonschicht in mittleren Breiten spielen daneben auch dynamische Prozesse eine Rolle. Die ozonarme Luft über den Polargebieten wird nach der Auflösung des Polarwirbels in niedrigere Breiten transportiert. Diese »Umverteilung« von Luft mit »normalem« und geringem Ozongehalt zerstört zwar selbst kein Ozon, reduziert aber die Dichte der Ozonschicht in den mittleren Breiten. Beide Prozesse, die lokale Ozonzerstörung wie auch die Austauschvorgänge, führen zu einer langsamen, aber über die Jahre stetigen Ausdünnung der Ozonschicht in mittleren Breiten, je nach Höhe um 2 bis 7 % pro Dekade. Diese Aus-
Der Treibhauseffekt
73
dünnung der globalen Ozonschicht birgt die eigentlichen Gefahren für die Biosphäre, da diese auch in Gegenden auftritt, wo die Sonneneinstrahlung deutlich intensiver ist als über den Polgebieten. Der zusätzliche, vom Menschen verursachte Treibhauseffekt bewirkt zum einen eine Abkühlung der Stratosphäre. Eine wichtige Rolle bei der Ozonzerstörung spielen, wie wir gesehen haben, die polaren Stratosphärenwolken. Da sich diese Wolken allerdings erst bei Temperaturen unterhalb von –78°C bilden und derartig niedrige Temperaturen nur über dem Südpol während der Polarnacht und bei Ausbildung einer austauscharmen, sehr stabilen Wettersituation (Polarwirbel) erreicht werden, findet man das Ozonloch zurzeit nur über der Antarktis. Infolge des anthropogenen Treibhauseffekts werden sich zwar die unteren Luftschichten erwärmen, die Stratosphäre hingegen abkühlen. Dies birgt die Gefahr, dass die Bedingungen für das Entstehen von PSCs günstiger werden, wodurch die Ozonzerstörung noch weiter begünstigt wird. Die durch das Montrealer Protokoll auf der weltpolitischen Ebene eingeleitete mögliche Erholung der Ozonschicht kann dadurch verzögert werden. Zum anderen kann der anthropogene Treibhauseffekt eine Änderung der stratosphärischen Luftzirkulation verursachen, insbesondere eine Verstärkung des winterlichen Polarwirbels der Nordhemisphäre. Beides, die stratosphärische Abkühlung wie auch die Änderung der Zirkulation, führt dazu, dass die Unterschiede zwischen den beiden Polgebieten verringert werden. Die Wahrscheinlichkeit für die Bildung eines Ozonlochs auch über der Arktis und Nordeuropa steigt dadurch deutlich an. Fortschreitender Klimawandel kann noch eine weitere Folge für die Ozonschicht über Europa haben: Es ist bekannt, dass troposphärische Hochdruckgebiete die Tropo-
74
Wissenschaftliche Grundlagen
pause, die Grenzfläche zwischen Troposphäre und Stratosphäre, und die darüber liegende Stratosphäre inklusive der Ozonschicht anheben. Aufgrund der Höhenabhängigkeit von Ozonbildung und -abbau ist in größeren Höhen der Abbau etwas stärker, sodass die Ozonschicht über jedem Hochdruckgebiet etwas dünner ist. Verschiedene Klima-Modellrechnungen prognostizieren nun höheren Luftdruck über Westeuropa, was im Jahresmittel eine weitere Ausdünnung der Ozonschicht bedeuten würde. Eine endgültige wissenschaftliche Bewertung dieser Problematik steht allerdings noch aus. Dazu müssten traditionelle Klimamodelle mit aufwändigen Chemiemodellen gekoppelt werden. Erste derartige gekoppelte Modelle, welche die komplexen Wechselwirkungen zwischen physikalischen und chemischen Prozessen simulieren, werden derzeit entwickelt.
3 Klimavariabilität und -vorhersage 3.1 Warum schwankt das Klima? Eines der herausragenden Charakteristika des Klimas ist seine starke Variabilität, d. h. seine große Schwankungsbreite (s. Abb. 8). Ein Jahr ist nicht wie das andere, ein Jahrzehnt nicht wie das vorangehende. Dabei hat sich das Klima in der Vergangenheit vor allem auf natürliche Weise geändert. Die Erkennung anthropogener Klimaänderungen wird durch die Überlagerung mit diesen natürlichen Klimaschwankungen erschwert. Klimaschwankungen beobachtet man auf einer Vielfalt von Zeitskalen, von Monaten bis hin zu Jahrmillionen. Prinzipiell unterscheidet man zwei Arten von Klimaschwankungen: externe und interne. Während externe Klimaschwankungen durch Störungen von »außen« angeregt werden, entstehen interne Klimaschwankungen durch Wechselwirkungen in bzw. zwischen den verschiedenen KlimaSubsystemen. Die bekanntesten Beispiele für externe Klimaschwankungen sind die Eiszeiten. Diese sind Kälteperioden, begleitet von anomal großer Eisausdehnung, welche unter anderem in Variationen der Erdbahnparameter begründet sind. Den anthropogenen Treibhauseffekt zählen wir ebenfalls zu den externen Klimaschwankungen, wie auch durch Vulkanausbrüche verursachte Klimaänderungen. Obwohl Klimaschwankungen im Allgemeinen als längerfristige Änderungen der Eigenschaften der uns umgebenden
76
Wissenschaftliche Grundlagen
Atmosphäre (z. B. Lufttemperatur oder Niederschlagshäufigkeit) wahrgenommen werden, sind die Ursachen von Klimaschwankungen nicht unbedingt innerhalb der Atmosphäre zu suchen, sondern vorwiegend auf die Wechselwirkungen mit den trägen Komponenten des Klimasystems (Ozean, Meereis, Landeis, Biosphäre) zurückzuführen. So induzieren nach dem von Hasselmann im Jahre 1976 vorgeschlagenen Konzept des »stochastischen Klimamodells« die mit dem Wettergeschehen assoziierten kurzperiodischen Schwankungen von Lufttemperatur und Wind in Analogie zu der aus der theoretischen Physik bekannten »Brownschen Bewegung« langperiodische Schwankungen im Ozean und im Meereis. Änderungen der Meeresoberflächentemperatur und der Meereseisausdehnung wiederum führen zu Änderungen in den atmosphärischen Wetterabläufen (s. Kap. 3.3). Die Beobachtungen zeigen, dass Klimaschwankungen (wiederum in Übereinstimmung mit der Brownschen Bewegung) mit zunehmender Zeitskala stärker werden, d. h. die Temperaturabweichungen während der Eiszeiten waren größer als die in der kleinen Eiszeit im Mittelalter, und diese wiederum waren größer als die zurzeit beobachteten jährlichen Temperaturschwankungen.
3.2 El Niño/Southern Oscillation Die stärkste kurzfristige interne Klimaschwankung ist das El Niño/ Southern Oscillation (ENSO)-Phänomen. ENSO ist ein klassisches Beispiel für die großskalige Wechselwirkung zwischen Ozean und Atmosphäre und äußert sich in Anomalien der Meeresoberflächentemperatur des tropischen Pazifiks. Obwohl ENSO seinen Ursprung im tropischen Pazifik besitzt, beeinflusst es nicht nur das Regional-, sondern auch das Glo-
Klimavariabilität und -vorhersage
77
balklima. Die Warmphasen von ENSO, die El Niños, führen unter anderem zu Dürren in Südostasien und Australien, sie verursachen starke Niederschläge über weiten Teilen des westlichen Südamerikas und rufen signifikante Klimaanomalien über Nordamerika und während besonders starker Ereignisse sogar über Europa hervor. ENSO wirkt sich aber nicht nur auf das Globalklima aus, sondern es beeinflusst auch die Ökosysteme im asiatisch-pazifischen Raum und die Volkswirtschaften verschiedener Staaten, wie z. B. Australien und Peru. Auch die atmosphärische CO2-Konzentration ändert sich kurzfristig als Folge von ENSO-Extremen. Die Simulation und Vorhersage von ENSO und anderer natürlicher Klimaschwankungen wie beispielsweise die Nordatlantische Oszillation (NAO, s. Kap. 3.3) ist ein willkommener Test für die Güte von Klimamodellen. Realistische Klimamodelle sollten nämlich nicht nur das mittlere Klima, sondern auch seine Schwankungsbreite simulieren können. Mit El Niño bezeichnet man die großskalige Erwärmung des oberen Ozeans im tropischen Pazifik, die im Mittel etwa alle vier Jahre auftritt. Das Wort »El Niño« stammt aus dem Spanischen (el nino: das Christkind) und wurde von den peruanischen Küstenfischern bereits im vorletzten Jahrhundert geprägt. Diese beobachteten, dass alljährlich zur Weihnachtszeit die Meeresoberflächentemperatur anstieg, was das Ende der Fischfangsaison markierte, und die Fischer belegten zunächst dieses jahreszeitliche Signal mit dem Wort »El Niño«. In einigen Jahren allerdings war die Erwärmung besonders stark, und die Fische kehrten auch nicht wie sonst üblich am Ende des Frühjahrs wieder. Diese besonders starken Erwärmungen dauern typischerweise etwa ein Jahr lang an. Heute werden nur noch diese außergewöhnlichen Erwärmungen mit »El Niño« bezeichnet. Analog hierzu beobachtet man auch
78
Wissenschaftliche Grundlagen
außergewöhnlich starke Abkühlungen, die in Analogie als La Niña-Ereignisse bezeichnet werden. Die Abb. 10 zeigt die Abweichung der Meeresoberflächentemperatur vom langjährigen Mittelwert, wie sie während des letzten Super-El-Niño 1997 beobachtet wurde. Der großskalige Charakter der Erwärmung ist deutlich ersichtlich: Sie erstreckt sich etwa über ein Viertel des Erdumfangs in Äquatornähe. Das für El Niño typische Erwärmungsmuster besitzt die stärksten Temperaturerhöhungen im äquatorialen Ostpazifik, mit Anomalien von über 5 ° C vor der Küste Südamerikas. Mit El Niño gehen auch Veränderungen in der Meeresoberflächentemperatur in anderen Regionen einher, wie z. B. eine Erwärmung des tropischen Indischen Ozeans oder eine Abkühlung des Nordpazifiks. Letztere werden durch eine veränderte atmosphärische Zirkulation in diesen Gebieten als Folge der El Niño-Erwärmung im tropischen Pazifik hervorgerufen. Es handelt sich hierbei um so genannte Fernwirkungen (teleconnections). Die Entwicklung von El Niño ist eng an ein atmosphärisches Phänomen gekoppelt, die »Southern Oscillation«. We-
Abb. 10 Während des El Niño 1997 beobachtete Anomalie der Meeresoberflächentemperatur in °C
Klimavariabilität und -vorhersage
79
gen der engen Verbindung zwischen dem El Niño und der Southern Oscillation spricht man heute im Allgemeinen vom El Nino/Southern Oscillation (ENSO)-Phänomen. Die Southern Oscillation stellt eine Art Druckschaukel zwischen dem südostasiatischen Tiefdruckgebiet und dem südostpazifischen Hochdruckgebiet dar und bestimmt die Stärke der Passatwinde längs des Äquators im Pazifik. Man weiß inzwischen, dass und wie sich die Oberflächentemperatur des äquatorialen Pazifik mit der Stärke der Passatwinde ändert. Unter dem Einfluss der Passatwinde quillt vor der Küste Südamerikas und längs des Äquators im östlichen Pazifik kaltes Wasser an die Meeresoberfläche, was die relativ niedrigen Meerestemperaturen in dieser Region im Vergleich zum Westpazifik verursacht. Eine anfängliche Erwärmung des Ostpazifiks und, damit verbunden, ein verminderter Ost-West-Gegensatz der Temperatur dämpfen die Southern Oscillation: Der Luftdruck über dem westlichen Pazifik steigt, während er über dem östlichen Pazifik sinkt – was die Passatwinde und damit den Auftrieb kalten Wassers im östlichen Pazifik abschwächt. Dadurch steigt die Oberflächentemperatur in dieser Meeresregion noch weiter an und der Temperaturgegensatz zwischen Ost- und Westpazifik verringert sich noch mehr, wodurch sich die Passatwinde weiter abschwächen. Schließlich gipfelt diese Art von instabiler Wechselwirkung zwischen Ozean und Atmosphäre in einem El Niño-Ereignis mit ungewöhnlich hohen Temperaturen im Ostpazifik und einem »Einschlafen der Passatwinde«. Analog dazu entwickelt sich ein La Niña-Ereignis, die »kalte Schwester« El Niños, wobei die Prozesse jedoch mit umgekehrtem Vorzeichen ablaufen. La Niñas sind demnach durch einen starken Temperaturgegensatz längs des Äquators und starke Passatwinde charakterisiert.
80
Wissenschaftliche Grundlagen
Nun erklärt diese positive Rückkopplung zwischen Ozean und Atmosphäre zwar das Wachstum und die Verstärkung einer anfänglichen Störung, nicht aber die oszillatorische Natur, den Schwingungscharakter, der Schwankungen im äquatorialen Pazifik. Der Grund für die Phasenumkehr, also für das Zurückschwingen von einem El Niño- in einen La Niña-Zustand, liegt in der Wanderung langer ozeanischer Wellen längs des Äquators. Flauen die Passatwinde während eines El Niño-Ereignisses ab, hat das zunächst direkte Folgen für den Ostpazifik: Der Auftrieb kalten Wassers wird reduziert und dadurch eine weitere Erwärmung gefördert. Hinzu kommt aber noch ein indirekter Effekt: Durch die abgeschwächten Passatwinde entstehen im Westpazifik Wellen, die mit verstärktem Auftrieb von kaltem Wasser an die Oberfläche einhergehen. Sie beeinflussen aber die Meeresoberflächentemperatur im Westpazifik wegen der dortigen großen Deckschichttiefe nicht. Diese Wellen, die ihre maximale Amplitude einige wenige Grad nördlich und südlich des Äquators haben, wandern zunächst nach Westen und werden am asiatisch-australischen Kontinent reflektiert, wobei sich der Wellentyp ändert. Das Auftriebssignal wandert dann mit diesen Wellen nach Osten. Im Ostpazifik angekommen, kühlen diese Wellen die Meeresoberflächentemperatur ab und leiten den Umschwung zu einem La Niña-Ereignis ein. Insofern kann man ENSO als Zyklus verstehen, der daher auch eine gewisse Vorhersagbarkeit aufweist. Klimamodelle sind heute in der Lage, El Niño- bzw. La Niña-Ereignisse ca. sechs Monate im Voraus vorherzusagen und damit auch die mit ihnen einhergehenden weltweiten Klimaveränderungen. Mit der ENSO-Vorhersage gelang vor etwa zwanzig Jahren der Durchbruch in die Jahreszeiten- (saisonale) Vorhersage. Heute werden ENSO-Vorhersagen operationell von verschie-
Klimavariabilität und -vorhersage
81
denen Wetterzentren herausgegeben und von Regierungen verschiedener Staaten für ihre Planungen genutzt. Die realitätsnahe Simulation von Klimaphänomenen wie ENSO ist eine wichtige Voraussetzung für Klimamodelle, um für Fragen des globalen Klimawandels eingesetzt werden zu können.
3.3 Die Nordatlantische Oszillation (NAO) Während ENSO vor allem die Tropen betrifft, wird das Klima des nordatlantischen Sektors und damit auch Europas sehr stark durch ein anderes Phänomen bestimmt, durch die Nordatlantische Oszillation (NAO) (siehe z.B. Hurrell 1995). Die NAO ist wie ENSO eine interne Klimaschwankung und schon seit vielen Jahrzehnten bekannt. Sie wurde von Walker bereits in den 1920er Jahren beschrieben, der auch die Southern Oscillation entdeckte. Sie ist eine Art Druckschaukel zwischen dem Islandtief und dem Azorenhoch. Die NAO ist durch einen Dipol im Druckfeld über dem Nordatlantik charakterisiert (Abb. IIa) und bestimmt damit in hohem Maße die Stärke der winterlichen Westwinde in dieser Region. Ein einfacher Index der NAO ist die Druckdifferenz zwischen Island und Lissabon (Portugal). Ein hoher NAO-Index steht für ein anomal starkes Islandtief und ein anomal starkes Azorenhoch. Ein niedriger NAO-Index ist durch ein anomal schwaches Islandtief und ein anomal schwaches Azorenhoch charakterisiert. Der NAO-Index (Abb. IIb) weist ausgeprägte interdekadische Schwankungen seit 1860 auf, dem Beginn der Barometermessungen an den beiden Stationen. So wurden Anfang des 20. Jahrhunderts relativ hohe Werte gemessen, der NAOIndex erreichte in den 1960er Jahren ein Minimum und stieg
82
Wissenschaftliche Grundlagen
Abb. 11 a) Die Nordatlantische Oszillation, ein Wechselspiel zwischen Islandtief und Azorenhoch, b) Der NAO-Index
Klimavariabilität und -vorhersage
83
dann wiederum relativ stark an. Seit 2000 hat sich der NAOIndex aber wieder normalisiert. Der Anstieg in den letzten 30 Jahren des letzten Jahrhunderts trug beträchtlich zur Erwärmung der Nordhemisphäre im Winter, insbesondere über Eurasien, bei. Auch die milden Winter in Deutschland in dieser Zeit sind auf die anomal starke NAO zurückzuführen. Es ist unklar, ob diese Intensivierung der NAO schon auf anthropogene oder auf natürliche Einflüsse zurückzuführen ist. Langfristig erwartet man aber in der Tat eine Intensivierung der NAO infolge der globalen Erwärmung. Die globale Erwärmung ist aber noch recht klein, sodass die natürlichen Schwankungen auch in den kommenden Jahrzehnten unser Klima maßgeblich mitbestimmen werden. Insofern ist es durchaus möglich, dass sich der NAO-Index in den kommenden Jahrzehnten wieder in eine negative Phase bewegt, was die Wahrscheinlichkeit für strenge Winter in Deutschland erhöhen und damit den Einfluss der globalen Erwärmung kurzfristig abmildern würde. Langfristig, d. h. jenseits der Mitte dieses Jahrhunderts, wird sich aber die globale Erwärmung gegenüber den natürlichen Schwankungen der NAO durchsetzen, falls die Menschheit nicht umsteuert. Man findet aber auch Schwankungen auf kürzeren Zeitskalen im NAO-Index, wie etwa eine stark ausgeprägte quasi-dekadische Schwingung mit einer Periode von etwa zehn Jahren während der zweiten Hälfte des letzten Jahrhunderts. Besonders auffällig ist aber auch die starke Jahr-zu-Jahr-Variabilität. Wegen der Kürze der Zeitreihe ist es schwierig, ausgezeichnete Zeitskalen nachzuweisen. Man kann aber festhalten, dass das Spektrum des NAO-Indexes eine gewisse »Röte« aufweist, d. h. die Ausschläge zu längeren Zeitskalen hin immer stärker werden. Dies ist möglicherweise ein Indiz dafür, dass langsame Veränderungen der Ozeanzirkulation, beispielsweise
84
Wissenschaftliche Grundlagen
der thermohalinen Zirkulation, und damit verbundene Änderungen der Meerestemperatur auf die Atmosphäre zurückwirken. Die Veränderungen in der NAO haben Folgen für das Klima über dem Nordatlantik und Europa. Sowohl die bodennahe Temperatur als auch der Niederschlag über Europa werden stark durch die NAO geprägt. So beträgt beispielsweise die Korrelation der Wintertemperaturen in Hamburg mit dem NAO-Index während der letzten fünfzig Jahre etwa 0,8, was auf einen starken Zusammenhang schließen lässt. Die Sturmhäufigkeit über dem Atlantik korreliert ebenfalls eng mit der NAO. Hohe Phasen des NAO-Indexes gehen üblicherweise mit milden Temperaturen, erhöhten Niederschlägen und mehr Stürmen über Deutschland einher. Die NAO ist aber auch über die Klimaforschung hinaus von Relevanz, beispielsweise für die Fischereiindustrie, die Versicherungs- und die Energiewirtschaft. Eine Zusammenfassung der Auswirkungen der NAO findet man in dem Report von Visbeck und Kollegen 1998. Es sollte aber auch erwähnt werden, dass es noch andere für Europa wichtige Phänomene gibt, die unabhängig von der NAO sind. Als Beispiel seien hier die anomal starken Niederschläge im Sommer 1997 während der Oderflut oder im Sommer 2002 während der Elbeflut genannt, die auf das Phänomen der Genua-Zyklone (Vb-Wetterlage) zurückzuführen sind. Starke Veränderungen sowohl in der atmosphärischen als auch in der ozeanischen Zirkulation sind während der letzten Jahrzehnte insbesondere im Nordatlantik beobachtet worden. Die Schwankungen in der Ozeanzirkulation können auf Veränderungen in der großskaligen atmosphärischen Zirkulation zurückgeführt werden, vor allem auf langperiodische Schwankungen in der NAO.
Klimavariabilität und -vorhersage
85
Umgekehrt scheinen auch langsame Veränderungen in der nordatlantischen Meeresoberflächentemperatur einen Einfluss auf die NAO zu haben. Es ist daher wichtig, zumindest die langperiodischen Schwankungen in einem gekoppelten Kontext (Ozean – Atmosphäre) zu behandeln. Wie oben beschrieben besteht das Klimasystem aus Teilkomponenten mit recht unterschiedlichen Zeitskalen. Während die Atmosphäre typische Zeitskalen von einigen Stunden bis zu einigen Tagen aufweist (die Lebensdauer eines Tiefdruckgebietes beträgt z. B. einige Tage), verhalten sich die anderen Komponenten weitaus träger. So beträgt die Verweilzeit von Anomalien im Meereis oder in der ozeanischen Deckschicht einige Wochen bis zu einigen Monaten. Tiefere Schichten des Ozeans, die unter anderem wichtig für die Prozesse im Zusammenhang mit der thermohalinen Zirkulation sind, besitzen sogar Anpassungszeiten von Jahrzehnten bis hin zu Jahrtausenden. Daher kommt vor allem dem Ozean eine wichtige Bedeutung im Hinblick auf die Erzeugung von langperiodischen Schwankungen der NAO zu. Es hat sich in jüngster Zeit immer mehr herauskristallisiert, dass Veränderungen in der Ozeanzirkulation des Nordatlantiks und Variationen in atmosphärischen Parametern miteinander korrelieren. Dabei bestehen allerdings noch erhebliche Defizite im Verständnis der Wechselwirkungen zwischen Ozean und Atmosphäre in den mittleren Breiten. Verschiedene Hypothesen sind vorgeschlagen worden, um die OzeanAtmosphäre-Wechselwirkung zu beschreiben. Viele Aspekte der Wechselwirkung zwischen Systemen mit unterschiedlichen Zeitskalen kann wie die Brown’sche Bewegung in der statistischen Physik beschrieben werden. Man stellt sich dabei vor, dass Anomalien der Meeresoberflächentemperatur und des Meereises durch die Summierung vieler statistisch unab-
86
Wissenschaftliche Grundlagen
hängiger Einzeleinwirkungen der Atmosphäre, beispielsweise das Vorbeiziehen vieler Hoch- bzw. Tiefdruckgebiete, erzeugt werden. Nach diesem Konzept des »stochastischen Klimamodells« (Hasselmann 1976), wonach der Ozean passiv auf die Atmosphäre reagiert, weist die typische atmosphärische Anregung (wie z. B. die Wärmeflüsse an der Grenzfläche Ozean – Atmosphäre) ein so genanntes weißes Spektrum auf, d. h. in jedem Zeitskalenbereich findet man die gleichen Amplituden. Der Ozean jedoch reagiert mit einem »roten« Spektrum, d. h. seine Schwankungsamplituden wachsen mit wachsender Zeitskala. Anders ausgedrückt: Der Ozean reagiert selektiv durch die Anregung auf atmosphärisches Rauschen. Die Spektren vieler langer Beobachtungszeitreihen der Schwankungen der Meeresoberflächentemperatur oder des Oberflächensalzgehaltes sind konsistent mit diesem Konzept. Manche Klimaspektren zeigen durch das Auftreten von Spitzen (peaks) eine besondere Selektivität einzelner Zeitskalenbereiche. Diese kann man ebenfalls im Rahmen des »stochastischen Klimamodells« verstehen, wobei resonante Wechselwirkungen zwischen Ozean und Atmosphäre eine wichtige Rolle spielen. Entscheidend dabei ist, dass der Ozean gedämpfte Eigenoszillationen ausführen kann, welche (ähnlich einer Schaukel im Wind) durch das atmosphärische Rauschen angeregt werden. Dabei werden vor allem diejenigen Eigenoszillationen angeregt, welche Muster an der Meeresoberfläche besitzen, die mit den atmosphärischen Antriebsmustern räumlich übereinstimmen (resonant) sind. Dieses verallgemeinerte Konzept des »stochastischen Klimamodells« liefert nach wie vor weiße atmosphärische und rote ozeanische Spektren. Letztere weisen allerdings peaks bei den Eigenfrequenzen auf, welche dem roten Hintergrund überlagert sind.
Klimavariabilität und -vorhersage
87
In bestimmten Regionen findet man allerdings peaks sowohl in ozeanischen als auch in atmosphärischen Größen. Diese sind auf dynamische (zweiseitige) Wechselwirkungen zwischen Ozean und Atmosphäre zurückzuführen (Bjerknes 1969), bei denen sowohl der Ozean auf die Atmosphäre reagiert, als auch die Atmosphäre auf den Ozean. Das oben beschriebene ENSO-Phänomen in den Tropen ist ein typisches Beispiel für derartige dynamische Wechselwirkungen. Ähnliche gekoppelte Phänomene existieren möglicherweise auch in mittleren Breiten. Diese besitzen aber typische Perioden von einigen Jahrzehnten, wegen der relativ langen Einstellzeiten der Ozeane in diesen Regionen (Latif und Barnett 1994). Welches dieser Szenarien relevant für die NAO ist, ist aktueller Forschungsgegenstand. Infolge der unzureichenden Beobachtungssituation sind wir nicht in der Lage, die mittlere Ozeanzirkulation und deren Schwankungen auf den verschiedenen Zeitskalen in allen Details zu beschreiben und ihre Wechselwirkung mit der NAO näher zu untersuchen. Es existieren nur wenige Langzeitmessungen aus dem Nordatlantik. Hierzu gehören die Temperaturen des so genannten Labradorsee-Wassers. Es entsteht durch winterliche Abkühlung von Oberflächenwasser, das in der zentralen Labradorsee aufgrund seiner erhöhten Dichte bis in Tiefen unterhalb von 2000 m sinken kann. Dieser Prozess der Konvektion gilt als wichtiger Antrieb der nordatlantischen Tiefenzirkulation, der thermohalinen Zirkulation. Hohe Temperaturen weisen auf eine reduzierte Bildung von Labradorsee-Wasser hin, während niedrige Temperaturen auf verstärkte Bildung von Labradorsee-Wasser hindeuten. Die Temperatur ist seit 1950 angestiegen und hat 1970 ein Maximum erreicht. Danach kühlte sich das Labradorsee-Wasser wieder ab. Diese interdekadische Schwankung wird von Än-
88
Wissenschaftliche Grundlagen
derungen des ostwärtigen Golfstromtransportes begleitet, die denen der Temperatur in der Labradorsee entgegengesetzt sind. Die Schwankungen in der Temperatur des LabradorseeWassers und des Golfstromtransportes sind kohärent mit den niederfrequenten Variationen in der NAO, was auf Ozean-Atmosphäre-Wechselwirkungen hindeutet. Wie diese Wechselwirkungen im Detail aussehen, ist wegen der schlechten Beobachtungssituation unklar. Es scheint aber einen wie auch immer gearteten Zusammenhang zwischen der thermohalinen Zirkulation und der NAO zu geben. Ähnliche interdekadische Variationen werden von den globalen Klimamodellen simuliert. Allerdings muss noch gezeigt werden, dass die Modellergebnisse die tatsächlichen Verhältnisse widerspiegeln. In den Modellen basieren die interdekadischen Schwankungen meistens auf einem Zyklus im gekoppelten System Ozean-Atmosphäre. Obwohl wir nicht wissen, ob ein derartiger Zyklus in der Realität existiert, zeigen die Modellstudien in eindrucksvoller Art und Weise, dass komplexe Wechselwirkungen zwischen Ozean und Atmosphäre zu interdekadischen Schwankungen im Nordatlantik und damit auch in der NAO führen können. Es muss aber erwähnt werden, dass die Details derartiger Wechselwirkungen von Modell zu Modell sehr stark variieren können. Unabhängig davon welche Art der Ozean-AtmosphäreWechselwirkung im realen System vorherrscht, kann man doch davon ausgehen, dass langsame Veränderungen im Meer auf die Atmosphäre zurückwirken. Meeresströmungen wie beispielsweise der Golfstrom transportieren enorme Mengen von Wärme. Es ist daher plausibel, dass Veränderungen in der Stärke des Golfstroms unmittelbar mit klimatischen Veränderungen über dem Atlantik und über Europa verknüpft sind. Es ist möglich, mit Hilfe von atmosphärischen Zirkulationsmo-
Klimavariabilität und -vorhersage
89
dellen zu zeigen, dass es in der Tat einen Einfluss langperiodischer Schwankungen der Meeresoberflächentemperatur auf die NAO gibt. Dabei werden die Modelle mit den beobachteten Meeresoberflächentemperaturen über mehrere Jahrzehnte hinweg angetrieben. Der Vergleich der Beobachtung mit der Simulation zeigt, dass zumindest die langperiodischen Anteile der NAO vom Modell reproduziert werden können, was eine gewisse Vorhersagbarkeit der NAO auf langen (interdekadischen) Zeitskalen impliziert. Man muss aber auch festhalten, dass die Veränderungen in der NAO zwischen den einzelnen Jahren von den Modellen nicht korrekt reproduziert werden. Dieser Sachverhalt deutet an, dass die Veränderungen in der NAO auf den kurzen Zeitskalen vor allem auf nicht vorhersagbare, d. h. chaotische, interne atmosphärische Variabilität zurückzuführen sind. Der beobachtete Trend in der NAO während der letzten Jahrzehnte des letzten Jahrhunderts hat immer wieder die Frage nach der anthropogenen Beeinflussung der NAO aufgeworfen. Die Forschung steht bezüglich dieser Fragestellung noch am Anfang und eine abschließende Bewertung steht noch aus. Die meisten globalen Klimamodelle zeigen aber eine weitere Intensivierung der NAO im Falle eines Fortschreitens der globalen Erwärmung. So simuliert das Hamburger Klimamodell eine moderate Intensivierung der NAO aber auch vor allem eine Veränderung des NAO-Musters in Form einer Ostwärtsverlagerung und im Zusammenhang damit eine Änderung in der Tiefdruck-Aktivität. Was eine derartige Reaktion im Einzelnen beispielsweise für die Land- oder Energiewirtschaft bedeutet, muss noch herausgearbeitet werden. Die Prozesse, die zu den niederfrequenten Veränderungen in der NAO führen, sind noch relativ unverstanden. Insbesondere ist die Rolle des Ozeans noch nicht im Detail behandelt worden. Hier bedarf es
90
Wissenschaftliche Grundlagen
vor allem realitätsnaher (hochauflösender) globaler Ozeanzirkulationsmodelle. Erste Entwicklungen in diese Richtung werden zurzeit an verschiedenen Instituten eingeleitet. Unklar ist auch der Einfluss externer Antriebe auf die NAO, wie beispielsweise die stratosphärische Ozonzerstörung oder eine veränderte solare Einstrahlung. Auch im Hinblick auf die Reaktion der NAO auf Anomalien der Meeresoberflächentemperatur, insbesondere in den mittleren Breiten, gibt es noch große Verständnislücken, was unter anderem durch eine große Vielfalt von Modellergebnissen deutlich wird. Die Rolle des Meereises muss ebenfalls noch genauer studiert werden. Es ist bekannt, dass beispielsweise ein anomaler Eisexport von der Arktis in den Nordatlantik die Dichtestruktur und damit die großskalige Ozeanzirkulation beeinflussen kann, was wiederum Rückwirkungen auf die NAO haben könnte. Schließlich muss auch die Rolle der Vegetation auf interdekadischen Zeitskalen untersucht werden. Erste Studien zeigen, dass die interdekadischen Veränderungen im Niederschlag der SahelZone zumindest teilweise auf Veränderungen der Vegetation zurückzuführen sind. Im Gegensatz zu ENSO ist die Vorhersagbarkeit der NAO noch weitgehend unklar. ENSO selbst hat zwar einen gewissen Einfluss auf die NAO, es scheint aber, dass die Vorhersagbarkeit der NAO auf interannualen Zeitskalen recht beschränkt ist. Auf den längeren (interdekadischen) Zeitskalen deuten Modellsimulationen an, dass ein Vorhersagepotenzial besteht. Unklar ist auf diesen langen Zeitskalen aber die Kausalität. Die atmosphärischen Modelle reagieren zwar auf Veränderungen in den unteren Randbedingungen, wodurch diese aber erzeugt werden und ob sie selbst vorhersagbar sind, ist noch unklar. Sowohl Veränderungen der Meeresoberflächentemperatur in den Tropen als auch in den mittleren bzw. hö-
Klimavariabilität und -vorhersage
91
heren Breiten korrelieren mit den niederfrequenten Veränderungen der NAO. Jüngste Ergebnisse zeigen, dass sogar die Meeresoberflächentemperatur des Indischen Ozeans einen signifikanten Einfluss auf die NAO haben kann. Es ist daher wichtig herauszuarbeiten, welche Regionen für die NAO besonders wichtig sind.
3.4 Einfluss von Vulkanen Ungefähr zwei Drittel aller aktiven Vulkane findet man auf der Nordhalbkugel (Abb. 12). Die meisten aktiven Vulkane findet man in den Tropen zwischen 10 ° N und 20 ° N. Nur 18 % befinden sich zwischen 10 ° S und dem Südpol. Der stra-
Abb. 12 Anzahl der aktiven Vulkane als Funktion der geographischen Breite (Quelle: Schmincke 2004)
92
Wissenschaftliche Grundlagen
tosphärische Eintrag von Gas und Asche beeinflusst daher vor allem das Klima der Nordhalbkugel. Große Vulkaneruptionen wurden schon immer mit Wetterund Klimaanomalien in Verbindung gebracht. Besonders starke Vulkaneruptionen führen zu einem Anstieg des Schwefelsäureaerosols in der unteren Stratosphäre um eine bis zwei Größenordnungen. Dieses Schwefelsäureaerosol wird durch die Oxidation magmatischer schwefelhaltiger Gase (vor allem SO2 und H2S) nach ihrem Transport in die Stratosphäre gebildet. Ende des 19. und Anfang des 20. Jahrhunderts war eine Phase besonders hoher vulkanischer Aktivität und nach einer Ruhepause von 50 Jahren, in der keine besonders starken Eruptionen auftraten, setzte mit der Eruption des balinesischen Vulkans Agung 1963 eine neue Serie ein. In den letzten beiden Jahrzehnten des 20. Jahrhunderts scheint die vulkanische Aktivität zunehmend stärker geworden zu sein und entsprechend mehr vulkanische Gase sind der Atmosphäre zugeführt worden. Da die Aerosoltröpfchen sehr klein sind und in der Stratosphäre praktisch nur Gravitationskräfte zum Ausfällen führen, während Ausregnen und Auswaschen, die in der Troposphäre die effektivsten Reinigungsprozesse darstellen, fehlen, klingen vulkanische Störungen nur langsam ab. Die Aerosolmasse reduziert sich mit einer Halbwertszeit von etwa einem Jahr und deshalb kann man von etwa zwei Jahren deutlicher Klimabeeinflussung nach einem entsprechend starken Ausbruch ausgehen. Im Hinblick auf die langfristige anthropogene Klimabeeinflussung spielen die Vulkane daher wegen ihrer vergleichsweise kurzfristigen Wirkung auf das Klima eine nur untergeordnete Rolle. Erst nachdem Satellitenmessungen, die eigentlich zum Beobachten der Ozonschicht eingesetzt wurden, nach der Eruption des El Chichón (1982) große Mengen von SO2 entdeck-
Klimavariabilität und -vorhersage
93
ten, wurde klar, dass nicht feste Ascheteilchen, sondern Schwefelsäuretröpfchen mit Radien von 0,1 bis 0,5 µm das vulkanische Aerosol in der unteren Stratosphäre bestimmen. Diese kleinen Tröpfchen können besonders intensiv mit der Strahlung wechselwirken, indem sie sichtbares Licht teilweise zurückstreuen und im nahen Infrarot sowie im langwelligen Bereich des Spektrums Strahlung absorbieren. Das hat zur Folge, dass einerseits weniger Sonnenstrahlung zur Erdoberfläche vordringt und somit die Atmosphäre abgekühlt wird: im Falle von Krakatau 1883 und Pinatubo 1991 etwa um 0,3°C im globalen Mittel. Andererseits führt die Absorption von Strahlung durch das Vulkanaerosol zu erheblichen Erwärmungen (2–5 °C) in der Stratosphäre. Die Aerosoltröpfchen aus hydrierter Schwefelsäure sind auch chemisch aktiv, indem sie die Aktivierung von Chlorverbindungen ermöglichen, die schließlich ozonzerstörend wirken. Die beiden massenmäßig wichtigsten vulkanischen Gase Wasserdampf (H2O) und Kohlendioxid (CO2) sind nur auf extrem langen geologischen Zeitskalen klimarelevant, da die Emissionsmengen im Vergleich zu ihrer Konzentration in der Atmosphäre vernachlässigbar sind. Vulkanische Aschen fallen schnell aus der Atmosphäre und haben nur einen kurzzeitigen Einfluss auf Strahlungstransport und Dynamik der Atmosphäre. Der Klimaeffekt von Vulkanen basiert daher vor allem auf den schwefelhaltigen Gasen (SO2 und H2S). Sie werden, wenn sie die Stratosphäre erreichen, in gasförmige Schwefelsäure (H2SO4) oxidiert. Die erhöhte Schwefelsäurekonzentration verstärkt das stratosphärische Hintergrundaerosol einerseits durch Gas-Teilchenumwandlung von Schwefelsäure und Wasser, wodurch die Teilchenzahl erhöht wird, andererseits durch Kondensation von H2SO4 und H2O auf vorhandenen Teilchen, deren Radien dadurch anwachsen.
94
Wissenschaftliche Grundlagen
Das vulkanische Aerosol in der Stratosphäre hat typischerweise effektive Radien im Bereich der Wellenlänge des sichtbaren Sonnenlichts. Deshalb sind sie besonders wirksame Streuer von Sonnenlicht. Bei großen Eruptionen wie El Chichón 1982 oder Pinatubo 1991 wird die direkte Sonnenstrahlung in einer Größenordnung von 100 W/m2 reduziert. Fast um den gleichen Betrag nimmt die diffuse Strahlung zu, der Himmel erscheint dann am Tage milchig weiß. Die Differenz zwischen reduzierter direkter und erhöhter diffuser Strahlung liegt in der Größenordnung von wenigen, genauer 1–10 W/m2 an der Erdoberfläche und führt dort zu einer Abkühlung. Ein außergewöhnlich starker Vulkanausbruch ereignete sich im Sommer des Jahres 1815 in Indonesien, als der Vulkan Tambora ausbrach. Das darauf folgende Jahr 1816 ging in Nordamerika und Europa als das Jahr ohne Sommer in die Geschichte ein. An der Ostküste der USA kam es mitten im Sommer zu Schneestürmen, was zu katastrophalen Missernten führte. Die atmosphärischen Auswirkungen einer vulkanischen Störung sind abhängig von der geographischen Breite ihres Auftretens. Tropische Vulkane können das globale Klimasystem beeinflussen, da sich die Eruptionswolke in beide Hemisphären ausbreiten kann. Eruptionen in mittleren bis hohen Breiten beeinflussen vornehmlich ihre eigene Hemisphäre. Neben der Streuung von sichtbarem Sonnenlicht spielt auch Absorption von Strahlung eine wichtige Rolle. Im oberen Bereich der Aerosolwolke wird solare Strahlung im nahen Infrarot absorbiert. Dieser Effekt überwiegt die erhöhte langwellige Ausstrahlung durch das Aerosol und führt zu einer deutlichen Erwärmung der unteren Stratosphäre. Dazu trägt etwa in gleichem Maße die verstärkte Absorption von langwelliger terrestrischer Strahlung im unteren Bereich der Ae-
Klimavariabilität und -vorhersage
95
rosolwolke bei. Die Erwärmung der stratosphärischen Aerosolschicht ist dort am stärksten, wo die Oberflächentemperaturen am höchsten und die Sonnenstrahlung am stärksten ist: in den Tropen. Der daraus entstehende Temperaturunterschied zwischen niedrigen und hohen Breiten führt zu Zirkulationsanomalien nicht nur in der Stratosphäre, sondern auch in der Troposphäre, die im Winter der Nordhemisphäre den reinen Strahlungseffekt großer tropischer Vulkaneruptionen völlig überdecken können. Vulkanische Aerosole beeinflussen auch im starken Maße chemische Prozesse. Am wichtigsten ist dabei der Einfluss auf das stratosphärische Ozon. Die Reaktionen, die Ozon bilden und zerstören, sind abhängig von ultravioletter Strahlung, sowie der Temperatur und dem Vorhandensein von Oberflächen, an denen heterogene chemische Reaktionen stattfinden können (s. Kap. 2.5). All diese Parameter werden durch Vulkane beeinflusst. Durch die Erwärmung der aerosolführenden Schicht der Stratosphäre kommt es zu einer Anhebung der Isentropenflächen und das auf ihnen transportierte Ozon gelangt in höhere Atmosphärenschichten. Dort kommt es wegen der höheren Energiedichte der Solarstrahlung zur vermehrten Photodissoziation und damit zur Absenkung der Gleichgewichtskonzentration von Ozon, also zu einem effektiven Ozonabbau. In gleicher Richtung kann auch durch das Aerosol zurückgestreutes und mehrfach gestreutes Sonnenlicht wirken. Heterogene Chemie, die zum Entstehen des antarktischen Ozonlochs beiträgt, spielt sich an der Oberfläche von aus Salpetersäure und Wasser bestehenden Elementen der Polaren Stratosphärewolken (PSCs) ab. Diese entstehen nur bei extrem niedrigen Temperaturen und sind daher über der Arktis seltener. Bei diesen heterogenen Reaktionen wird das
96
Wissenschaftliche Grundlagen
aus FCKW stammende anthropogene Chlor in der Stratosphäre aktiviert und kann dann nach dem Ende der Polarnacht sehr schnell Ozon zerstören. Durch die Intensivierung des arktischen Polarwirbels und die damit einhergehenden sehr niedrigen Temperaturen nach Vulkanausbrüchen entstehen mehr PSCs und der Ozonabbau im Frühjahr wird verstärkt. Ganz ähnliche Reaktionen können aber auch auf den aus Wasser und Schwefelsäure bestehenden vulkanischen Aerosolen ablaufen. Dieser Prozess ist nicht mehr auf die extrem kalten Polargebiete beschränkt und ganzjährig global wirksam. So wurde nach dem Pinatubo-Ausbruch 1991 eine Reduktion des Gesamtozons in den Tropen von 2 % und in mittleren Breiten von 7 % gemessen. Innerhalb der Aerosolwolke war der Ozonabbau noch viel stärker und erreichte 20 bis 30 % in mittleren nördlichen Breiten. Unter natürlichen Bedingungen, also ohne das anthropogene FCKW, wäre dagegen eine Zunahme von stratosphärischem Ozon zu erwarten gewesen. Vulkanische Großeruptionen, bei denen einige Millionen Tonnen von Schwefeldioxid und /oder Schwefelwasserstoff in die Stratosphäre gelangen, sind also generell in der Lage, das Klima zumindest über einen Zeitraum von ein bis zwei Jahren zu beeinflussen. Absorption und Streuung von Sonnenstrahlung bzw. terrestrischer Wärmestrahlung an vulkanischem Aerosol in der Stratosphäre führen zu Anomalien in der globalen Strahlungsbilanz. Diese können zu Änderungen der allgemeinen Zirkulation der Atmosphäre führen, und deren Auswirkungen auf Temperatur und Niederschlag können die reinen Strahlungseffekte sogar übertreffen. Nachgewiesen ist der Einfluss des Menschen auf die Wirkung von Vulkanaerosol hinsichtlich des stratosphärischen Ozons. Erst nachdem mit dem Freisetzen von FCKWs durch den Menschen ein
Klimavariabilität und -vorhersage
97
Chlorreservoir in der Stratosphäre geschaffen wurde (s. Kap. 2.5), wirkt das Schwefelsäureaerosol vulkanischen Ursprungs ozonabbauend.
3.5 Die Eiszeitzyklen Klimaveränderungen auf der Zeitskala von vielen Jahrtausenden (s. Abb. 8), wie etwa das Entstehen und Vergehen von Eiszeiten, sind unter anderem in Änderungen der Erdbahn um die Sonne begründet, wie es Milankovitch in den 1930er Jahren vorgeschlagen hat. Er benutzte die Newton’schen Gesetze der Himmelsmechanik, um seine Theorie zu entwickeln. Die Variationen der Erdbahnparameter führen zu regionalen und zum Teil auch globalen Veränderungen der solaren Einstrahlung am Oberrand der Erdatmosphäre, die daraus resultierenden langperiodischen Klimaschwankungen sind daher extern angeregt. Die Milankovitch-Theorie wurde lange nicht akzeptiert, ist heute aber weitgehend anerkannt. Drei Phänomene sind in diesem Zusammenhang relevant. Erstens verändert sich die Erdbahn um die Sonne innerhalb von ca. 100000 Jahren von einer Ellipse zu fast einem Kreis und wieder hin zu einer Ellipse (Exzentrizität). Diese Periode von 100 000 Jahren ist in paläoklimatischen Rekonstruktionen am deutlichsten zu erkennen, beispielsweise in der Rekonstruktion des atmosphärischen CO2-Gehalts und der Temperatur (s. Abb. 8). Die globale über das Jahr gemittelte solare Einstrahlung ändert sich dabei um bis zu 0,7 W/m2. Zweitens ändert sich die Neigung der Erdachse mit einer Periode von ca. 41000 Jahren (Nutation). Sie variiert in etwa zwischen 22° und 24,5 °. Heute beträgt die Neigung der Erdachse etwa 23,5 °. Die Änderungen in der Neigung der Erdachse beeinflussen
98
Wissenschaftliche Grundlagen
den Jahresgang der am Oberrand der Atmosphäre einfallenden solaren Strahlung. In hohen Breiten kann dies im Jahresmittel bis zu 17 W/m2 ausmachen. Drittens ist die Erde keine perfekte Kugel und besitzt einen »Bauch« am Äquator, was dazu führt, dass die Erde »taumelt« und die Orientierung der Erdachse einen Kreis im Raum beschreibt (Präzession). Dieser Effekt mit einer Periode von ca. 23000 Jahren bestimmt die Jahreszeit, in der wir der Sonne am nächsten sind. Heute sind wir auf der Nordhalbkugel im Winter der Sonne am nächsten, während wir im Sommer von ihr am weitesten entfernt sind. Vor 11 000 Jahren hingegen waren die Verhältnisse genau umgekehrt. Im Jahresmittel ergibt sich keine Nettoänderung der Einstrahlung, die Stärke des Jahresgangs ändert sich jedoch. Die drei von Milankovitch vorgeschlagenen Zyklen mit Perioden von 100000, 41 000 und 23 000 Jahren kann man in der Tat in paläoklimatischen Rekonstruktionen beispielsweise der Temperatur finden. Dies gilt als wichtiger Beweis für die Gültigkeit der Milankovitch-Theorie. Es sollte aber erwähnt werden, dass es in der Regel weitere Prozesse sind, die anfängliche relativ kleine Störungen in der solaren Einstrahlung zu massiven Klimaänderungen umwandeln. So ist die Exzentrizität mit einer Änderung der Einstrahlung im globalen Mittel von nur ca. 0,7 W/m2 verbunden, es werden aber sehr starke Klimaänderungen mit einer Periode von 100000 Jahren beobachtet. Die Änderung der Erdbahnparameter allein können daher nicht für die Entstehung von Eiszeitzyklen verantwortlich gemacht werden. Sie sind zwar die Pulsgeber, andere Prozesse, wie etwa Veränderungen in den biogeochemischen Kreisläufen und eine damit verbundene Änderung der Konzentration der atmosphärischen Treibhausgase, wirken aber verstärkend. Niedrige CO2-Konzentrationen wie auch ein geringer Me-
Klimavariabilität und -vorhersage
99
thangehalt während der Eiszeiten unterstützen dabei eine anfängliche Abkühlung durch einen abgeschwächten Treibhauseffekt. So war der Kohlendioxidgehalt der Atmosphäre während der letzten Eiszeit vor ca. 20000 Jahren deutlich niedriger als heute (s. Abb. 8). Eine aus der Abkühlung resultierende höhere Eis- bzw. Schneebedeckung wird außerdem über verstärkte Reflexion von Sonnenstrahlung in den Weltraum zur weiteren Abkühlung beitragen. Diese Rückkopplung wird als Eis-Albedo-Rückkopplung bezeichnet. Eine weitere positive Rückkopplung, die Wasserdampf-Rückkopplung, wurde bereits im Zusammenhang mit dem anthropogenen Treibhauseffekt beschrieben. Es gibt aber natürlich auch eine Fülle von negativen Rückkopplungen, die dämpfend wirken und dafür sorgen, dass das Klimasystem nicht aus den Fugen gerät. Realistische Klimamodelle müssen diese Vielzahl von positiven und negativen Rückkopplungen berücksichtigen. Einfache Modelle, die nur einige wenige dieser Rückkopplungen enthalten, werden der komplexen Natur der Klimavariabilität nicht gerecht. Bei der Generierung natürlicher Klimaschwankungen auf Zeitskalen bis zu einigen Jahrhunderten spielt vor allem die großskalige Wechselwirkung zwischen Ozean und Atmosphäre eine wichtige Rolle, d. h. es handelt sich um intern erzeugte Veränderungen. Auf längeren Zeitskalen von Jahrtausenden sind es hauptsächlich, wie oben beschrieben, externe Einflüsse wie etwa die Variation der Erdbahnparameter. Verlässliche Klimamodelle, die für die Simulation und Erkennung des anthropogenen Treibhauseffekts Anwendung finden, müssen daher insbesondere in der Lage sein, die Wechselwirkung zwischen Ozean und Atmosphäre korrekt darzustellen und die aus ihr resultierenden Klimaschwankungen realistisch zu simulieren.
100
Wissenschaftliche Grundlagen
Darüber hinaus müssen die Modelle auch die extern angeregten Klimaschwankungen beschreiben können, wenn man die anomalen Antriebe, beispielsweise eine veränderte Sonneneinstrahlung, vorschreibt. Heutige Klimamodelle sind in der Lage, die natürliche Klimavariabilität zu simulieren. Dies gilt sowohl für die internen als auch für die externen Schwankungen. So kann man etwa das Phänomen der »grünen Sahara« mit Klimamodellen nachvollziehen. Vor etwa 6000 Jahren besaß die Sahara noch eine relativ reichhaltige Vegetation, sie wurde dann aber fast spontan zu einer Wüste. Der Umschwung erfolgte durch eine allmähliche Veränderung der solaren Einstrahlung in Zusammenhang mit der Präzession, was zu einer Abschwächung der sommerlichen Einstrahlung auf der Nordhalbkugel und des westafrikanischen Monsunregens führte. Bei Vorgabe der Veränderungen im solaren Antrieb ist es möglich, den Umschwung der Sahara zu einer Wüste mit Klimamodellen realitätsnah zu simulieren. Dabei wirken vegetationsdynamische Prozesse als positive Rückkopplung. In ähnlicher Art und Weise ist es möglich, das Klima des letzten Jahrtausends zu simulieren und zu quantifizieren, welchen Beitrag bestimmte Prozesse zu den beobachteten Veränderungen beigetragen haben.
3.6 Abrupte Klimaänderungen Das Klima ändert sich aber nicht nur auf den sehr langen Milankovitch-Zeitskalen von vielen Jahrtausenden (Perioden von 23000, 41000 und 100000 Jahren), sondern auch auf weit kürzeren Zeiträumen von Jahrzehnten und Jahrhunderten. Dies weiß man heute durch die Analyse von Bohrungen im grönländischen Eisschild. Die Eisbohrungen in Grönland, vor
Klimavariabilität und -vorhersage
101
allem die 1992 und 1993 abgeschlossenen europäischen und amerikanischen Bohrungen auf dem Gipfel des Eisschildes (GRIP und GISP2), haben wichtige Hinweise auf die Klimageschichte der vergangenen 100000 Jahre geliefert. Besonders auffällig sind die starke Schwankungsbreite des Klimas während der letzten Eiszeit und die extrem schnellen Klimaumschwünge. Auch der Wechsel von der Eiszeit zu der heutigen Warmzeit in der Zeit 20 000 bis 10000 Jahre vor heute erfolgte nicht allmählich, sondern in einer Art Achterbahnfahrt. Die Eisbohrungen zeigten extrem schnelle Klimawechsel, die man bis dahin für nicht möglich gehalten hatte. Insofern mussten Ursachen gefunden werden, insbesondere solche, welche extrem schnelle Veränderungen zu erklären vermögen. Das Klima stabilisierte sich erst vor etwa 8000 Jahren, und es ist diese ungewöhnliche Stabilität des Klimas, welche die Entwicklung der Menschheit gefördert hat. Das kilometerdicke Eis Grönlands besteht aus vielen Tausenden von Schneeschichten, die sich Jahr für Jahr anhäufen und langsam den darunter liegenden älteren Schnee zu Eis zusammenpressen. Durch hoch moderne Analyseverfahren, insbesondere die Messung bestimmter Sauerstoffisotope, lässt sich mit Hilfe der Bohrkerne die Klimageschichte Grönlands rekonstruieren. Man kann die Ergebnisse aber nicht ohne weiteres auf den ganzen Globus übertragen; um globale Klimaveränderungen zu rekonstruieren, bedarf es vieler Eisbohrungen und Bohrungen in den Ozeansedimenten an verschiedenen Orten. Wir wissen heute vor allem auch durch Klimamodellsimulationen, dass Veränderungen in der Ozeanzirkulation des Atlantiks sehr schnell erfolgen können und damit schnelle Klimawechsel zumindest auf regionaler Skala ausgelöst haben könnten (s. Kap. 4.5), die im grönländischen Eis aufgezeichnet sind.
102
Wissenschaftliche Grundlagen
Die Daten aus Grönland besitzen eine relativ hohe zeitliche Auflösung – einzelne Jahre lassen sich, ähnlich wie bei Baumringen, erkennen und abzählen – und sie zeigen abrupte und sehr starke Klimaumschwünge. Die Temperaturen in Grönland hatten sich während der letzten Eiszeit mehrfach innerhalb weniger Jahre um 8– 10 °C erhöht und waren dann erst nach Jahrhunderten zum normalen kalten Eiszeitniveau zurückgekehrt. Diese Klimawechsel werden als DansgaardOeschger-Ereignisse bezeichnet. Mehr als zwanzig solcher Klimawechsel zählte man während der 100000 Jahre dauernden letzten Eiszeit. Neben den »warmen« Dansgaard-Oeschger-Ereignissen gibt es auch extrem starke »kalte« Phasen, die man als Heinrich-Ereignisse bezeichnet. Neben den Eiskernen wurden auch Sedimentbohrkerne aus dem Atlantik in ähnlich guter Auflösung gewonnen. Die Schlammschichten aus der Tiefsee, zum Teil Tausende Kilometer von Grönland entfernt in subtropischen Breiten gezogen und mit gänzlich anderen Methoden analysiert, verzeichneten dieselben Klimaereignisse wie das Eis Grönlands. Die Dansgaard-Oeschger- wie auch die Heinrich-Ereignisse waren also Klimawechsel, die nicht nur lokal in Grönland auftraten. Als Erklärung für die rasanten Klimawechsel bieten sich Veränderungen in der thermohalinen Zirkulation (s. Kap. 1.2) an. Während die Dansgaard-Oeschger-Ereignisse vermutlich auf eine interne Schwingung der thermohalinen Zirkulation zurückzuführen sind, sind die Heinrich-Ereignisse höchstwahrscheinlich auf riesige Eismassen zurückzuführen, die vom damaligen nordamerikanischen Eisschild ins Meer gerutscht sind. Dadurch kam es zu einem massiven Eintrag von Süßwasser in den Nordatlantik und infolgedessen zu einer Abschwächung der thermohalinen Zirkulation. Veränderungen der thermohalinen Zirkulation können sich innerhalb we-
Klimavariabilität und -vorhersage
103
niger Jahre bzw. Jahrzehnte einstellen, wodurch man die raschen Klimawechsel erklären kann. Auch die Tatsache, dass die Klimaumschwünge in vielen Gegenden der Erde beobachtet wurden, deutet auf die thermohaline Zirkulation als Verursacher hin, da sich ihre Veränderungen weltweit bemerkbar machen. Die thermohaline Zirkulation besitzt verschiedene Zustände. So kann sie im Bereich des Nordatlantiks zum Erliegen kommen, was vermutlich bei Heinrich-Ereignissen passierte. Umgekehrt kann sie aber auch extrem weit nach Norden reichen, wodurch man möglicherweise die Dansgaard-Oeschger-Ereignisse erklären kann. Vor etwa 8000 Jahren allerdings hörte diese Unruhe im Klima urplötzlich auf und wir erfreuen uns seither eines erstaunlich stabilen Klimas. Diese Ruhe hängt vermutlich auch damit zusammen, dass sich die thermohaline Zirkulation heute in einem sehr stabilen Modus befindet.
3.7 Vorhersagbarkeit des Klimas Die Atmosphäre mit ihrem wechselnden Wetter ist das Paradebeispiel für ein chaotisches System, dessen Vorhersagbarkeit sehr begrenzt ist. Seit der fundamentalen Arbeit von Lorenz – einer der Begründer der Chaostheorie – aus dem Jahre 1963 wissen wir, dass die theoretische Grenze für Wettervorhersagen bei etwa zwei Wochen liegt (s. Kap. 4.4). In chaotischen Systemen wie der Atmosphäre wachsen sehr kleine Fehler in den Anfangsbedingungen oder in der Modellformulierung rasch an und vermindern die Güte von Wettervorhersagen innerhalb einiger weniger Tage. Da die Wettervorhersage mathematisch gesehen ein Anfangswertproblem darstellt und wir den Anfangszustand niemals exakt bestimmen
104
Wissenschaftliche Grundlagen
können, werden wir diese theoretische Grenze der Wettervorhersagbarkeit von etwa zwei Wochen auch in der Zukunft nicht entscheidend verlängern können. Jenseits dieser theoretischen Grenze der Wettervorhersagbarkeit gibt es aber dennoch Vorhersagbarkeit in der Atmosphäre, die man als jahreszeitliche oder saisonale Vorhersagbarkeit bezeichnet. Bei der Jahreszeitenvorhersage geht es im Gegensatz zur Wettervorhersage nicht darum, einzelne Wetterelemente, wie die Zugbahn eines Tiefdruckgebiets, vorherzusagen, sondern darum, das über einen bestimmten Zeitraum gemittelte Wetter, das Klima, vorherzusagen. Dies kann etwa die Oberflächentemperatur oder der Niederschlag gemittelt über eine bestimmte Region und eine Jahreszeit sein. Die saisonale Vorhersagbarkeit hat ihren Ursprung in langsamen Veränderungen der Randbedingungen, wie beispielsweise Anomalien der Meeresoberflächentemperatur oder der Meereisausdehnung, die ihrerseits beispielsweise durch Veränderungen der Meeresströmungen, etwa des Golfstroms, hervorgerufen werden können. Derartige Anomalien sind in der Lage, einen Einfluss auf die Statistik des Wetters auszuüben, und das Klima ist dann vorhersagbar, wenn die Anomalien in den Randbedingungen selbst vorhersagbar sind. Chaotische Systeme wie die Atmosphäre sind also unter bestimmten Bedingungen auch auf Zeitskalen von Jahreszeiten oder möglicherweise Jahren bzw. Jahrzehnten vorhersagbar. Dies ist auch die Basis für Simulationen zum anthropogenen Klimawandel, bei denen die Veränderungen in der chemischen Zusammensetzung der Atmosphäre (eine weitere Randbedingung) die entscheidende Rolle spielen. Bei Vorhersagen zum globalen Wandel versucht man also nicht das Wetter selbst, sondern die Statistik des Wetters bei Veränderung bestimmter Randbedingungen vorherzusagen.
Klimavariabilität und -vorhersage
105
Es wird immer wieder die Frage gestellt, inwieweit chaotische Systeme wie das Klima auf menschliche Einflüsse reagieren und ob sie überhaupt berechnet werden können (s. Kap. 4.4). Am besten vergleicht man den Einfluss des Menschen auf das Klima mit einem gezinkten Würfel. Das Zinken besteht darin, dass wir die Temperatur der Erde infolge des Ausstoßes bestimmter klimarelevanter Gase, wie beispielsweise das Kohlendioxid, erhöhen. Dies führt zu mehr Wetterextremen, so wie der gezinkte Würfel mehr Sechsen hervorbringt. Wir können aber nicht sagen, wann die nächste Sechs kommt, denn die Reihenfolge der Zahlen bleibt zufällig. Ähnlich verhält es sich mit den Wetterextremen: Wir können zwar ihre Statistik berechnen, beispielsweise dass sie sich infolge der globalen Erwärmung häufen werden, wir wissen aber nicht, wann genau die Wetterextreme eintreten. Das Beispiel des gezinkten Würfels verdeutlicht auch, dass die Tatsache, dass ein bestimmtes Ereignis schon einmal beobachtet worden ist, keinerlei Rückschlüsse auf die Eigenschaften des Würfels zulässt: Der Würfel hat auch vor dem Zinken schon Sechsen geliefert. Auf das Wetter übertragen bedeutet das: Aus der Tatsache, dass beispielsweise schon einmal eine schwere Überschwemmung oder eine lang anhaltende Trockenperiode beobachtet worden ist, folgt nicht, dass sich die Statistik des Wetters nicht verändert hat. In der Tat zeigen Beobachtungen der letzten hundert Jahre, dass sich extreme Wetterereignisse weltweit häufen, wie von den Klimamodellen vorhergesagt. Und es ist genau diese Häufung extremer Wetterereignisse, die man der globalen Erwärmung zuordnen kann. Die Analogie zum gezinkten Würfel verdeutlicht darüber hinaus, dass es prinzipiell nicht möglich ist, einzelne Wetterextreme, wie die Elbeflut des Jahres 2002, der globalen Erwärmung zuzuschreiben, genauso wenig wie man eine be-
106
Wissenschaftliche Grundlagen
stimmte Sechs dem Zinken des Würfels zuordnen kann. Man muss immer die Statistik der Wetterextreme über einen längeren Zeitraum betrachten, wenn man den Zusammenhang zwischen Wetterextremen und der globalen Erwärmung beleuchten möchte. Solange der Würfel nicht extrem stark gezinkt ist, bringt er auch noch die anderen Zahlen hervor. Als Beispiel sei hier der strenge Winter 2005/2006 bei uns in Deutschland genannt. Die globale Erwärmung ist noch recht klein, sodass wir nicht erwarten können, nur noch milde Winter zu haben. Die Eins in Form eines strengen Winters ist möglich. Wir haben zwar in den letzten Jahrzehnten viele milde Winter beobachtet, was schon den menschlichen Einfluss auf das Klima in Form der globalen Erwärmung verdeutlicht. Allerdings müssen wir in den kommenden Jahrzehnten auch mit strengen Wintern rechnen, da die globale Erwärmung noch so klein ist, dass natürliche Phänomene, wie etwa eine negative Phase der NAO, Einfluss auf unser Klimageschehen nehmen können. Allerdings wird die Wahrscheinlichkeit für das Auftreten strenger Winter immer mehr abnehmen, in dem Maße wie sich die globale Erwärmung verstärkt.
4 Klimamodellierung 4.1 Klimamodelle Das Klimasystem, bestehend aus den verschiedenen KlimaSubsystemen (Atmosphäre, Ozean, Kryosphäre u. s. w., s. Abb. 1), ist ein physikalisches System und es gehorcht daher den Gesetzen der Physik. Die drei für das Klima wichtigsten Gesetze sind die Erhaltungssätze für Masse, Impuls und Energie. Die physikalischen Gesetze können in Form von mathematischen Gleichungen dargestellt werden. Die zeitliche Entwicklung des Klimas ist vollständig durch diese Gleichungen beschrieben, wenn Anfangs- und Randwerte vorgegeben werden. Dabei können die Randwerte auch zeitlich variieren, wie etwa die Kohlendioxidkonzentration. Die Gleichungen sind aber derart komplex, dass man ihre Lösungen nicht kennt, so wie es beispielsweise bei einer einfachen quadratischen Gleichung der Fall wäre. Es gibt aber die Möglichkeit, mit Hilfe der Methoden der numerischen Mathematik Näherungslösungen zu berechnen. Diese Verfahren basieren darauf, dass man die Erde mit einem Rechengitter überzieht und die Gleichungen »diskretisiert«, d. h. man führt die an sich kontinuierlichen Gleichungen in so genannte »Differenzengleichungen« über. An jedem Punkt des Gitters werden die Gleichungen formuliert, was bei heute typischen Gitterweiten von einigen hundert Kilometern zu vielen hunderttausend gekoppelten Differenzengleichungen führt. Derartige
108
Wissenschaftliche Grundlagen
hochdimensionale Gleichungssysteme können nur mit Hilfe von leistungsfähigen Computern gelöst werden. Die Genauigkeit der Lösungen hängt im Allgemeinen davon ab, wie fein man sein Rechengitter wählt, d. h. wie weit benachbarte Gitterpunkte auseinander liegen. Da diese numerischen Verfahren selbst auf Höchstleistungscomputern sehr rechenintensiv sind, ist man sogar bei Verwendung heute verfügbarer Supercomputer in der Wahl der Auflösung beschränkt, d. h. man kann kein beliebig feines Rechengitter verwenden, da die Rechnungen viel zu lange dauern würden. Darüber hinaus müssen Prozesse, die eine charakteristische Skala kleiner als die Gitterweite besitzen, »parameterisiert« werden. Physikalische Prozesse wie beispielsweise die Wolkenbildung, die auf recht kleinen Skalen stattfindet, können daher nicht explizit simuliert werden, sie müssen anhand der an den Gitterpunkten verfügbaren Informationen (Temperatur, Feuchtigkeit u.s.w.) dargestellt (parameterisiert) werden. Auch die Konvektion in Ozean und Atmosphäre, die als Antrieb für die allgemeine Zirkulation in Ozean und Atmosphäre von herausragender Bedeutung ist, zählt hierzu. Die Gesamtheit aller mathematischen Gleichungen und physikalischen Parameterisierungen bezeichnet man als Klimamodell. Fehlerquellen in Klimamodellen sind neben den numerischen Verfahren vor allem die physikalischen Parameterisierungen. Der Vergleich mit den Beobachtungen zeigt aber, dass die Klimamodelle durchaus in der Lage sind, vergangene Klimazustände, das heutige Klima und seine Schwankungsbreite realistisch zu simulieren. Sie sollten daher auch das zukünftige Klima verlässlich berechnen können. Die Klimamodelle benötigen als Eingabe bestimmte Randbedingungen, wie etwa die am Oberrand der Erdatmosphäre
Klimamodellierung
109
einfallende Sonnenstrahlung, die chemische Zusammensetzung der Erdatmosphäre oder die Land-Meer-Verteilung. Bei Vorgabe dieser und einiger weiterer Parameter simulieren die Klimamodelle dann die dreidimensionale Windverteilung, die Meeresströmungen, die Temperaturverteilung in Atmosphäre und Ozean, die Meereisbedeckung und viele andere Klima-Parameter. Man kann aber auch beispielsweise die zeitliche Entwicklung der atmosphärischen Treibhausgaskonzentrationen vorgeben und dann die Reaktion des Systems auf diese sich verändernden Randbedingungen berechnen, wie es bei Rechnungen zum globalen Klimawandel der Fall ist (s. Abb. 24). Klimamodelle können aber auch dazu verwendet werden, die Dynamik interner Klimaschwankungen zu untersuchen, wie beispielsweise die Ursachen des El Niño-Phänomens oder seine Vorhersagbarkeit. El Niño-Vorhersagen werden bereits operationell an verschiedenen Wettervorhersagezentren betrieben.
4.2 Wolken und Niederschlag Wie oben beschrieben können viele physikalische Prozesse nicht in der gewünschten Genauigkeit in den Klimamodellen dargestellt werden, da sie typische Längenskalen besitzen, die unterhalb der Maschen des Rechengitters liegen. Dazu gehören die Bildung von Wolken und Niederschlag. Am Beispiel der Wolken- und Niederschlagsbildung soll hier die Komplexität solcher Prozesse verdeutlicht werden. Die Luft unserer Atmosphäre enthält immer Wasserdampf, dessen Dichte aber bei gegebener Temperatur nur bis zu einem bestimmten Sättigungswert gesteigert werden kann. Dieser maximal mögliche Wasserdampfgehalt der Luft nimmt mit der Temperatur
110
Wissenschaftliche Grundlagen
überproportional zu. Umgekehrt kann man ein Luftvolumen immer bis zu einer Temperatur abkühlen, bei der die Kondensation einsetzt, d. h. das Wasser von seiner gasförmigen Phase in die flüssige Phase übergeht. Diese Temperatur bezeichnet man als den Taupunkt. Bei weiterer Abkühlung lagert sich der überschüssige Wasserdampf entweder an festen Oberflächen (Taubildung) oder an Kondensationskeimen an, wobei Tröpfchen entstehen. Als Kondensationskeime dienen kleinste, in der Luft fast immer reichlich vorhandene, atmosphärische Schwebteilchen (Aerosole) verschiedenster Herkunft. Steigt ein Luftpaket auf, so kühlt es sich ab und der Wasserdampf kondensiert, sobald der Taupunkt erreicht ist. An den dabei auftretenden Tröpfchen wird Sonnenlicht gestreut, sodass die entstandene Wolke durch diffuses weißes Licht für das menschliche Auge sichtbar wird. Bestes Beispiel ist das Aufsteigen von sommerlich erwärmten Luftblasen vom Boden, die bei geringem Auftrieb als Schönwetter-Wolken enden, im Falle starken Auftriebs aber weiter aufsteigen und zu dicken Wolken mit heftigem Niederschlag und auch Hagel führen. Tiefdruckgebiete in unseren Breiten, mit ihrer Rotation entgegen dem Uhrzeigersinn, transportieren feuchtwarme subtropische Luft nach Nordosten. Dabei gleitet sie wegen ihrer geringeren Dichte auf die kältere nördliche Luft auf, wird angehoben, kühlt daher ab, und verursacht damit die Wolken an den Warmfronten der mittleren Breiten. Umgekehrt schiebt sich die Kaltluft auf der Westseite der Tiefdruckgebiete aus nördlichen Richtungen unter die wärmere Subtropenluft, hebt diese über das Kondensationsniveau und verursacht dadurch die Wolken an der Kaltfront. Auch das erzwungene Aufsteigen beim Überströmen eines Hindernisses führt zur Abkühlung und daher zur Kondensation und Wolkenbildung, ein
Klimamodellierung
111
Phänomen, das oft auf der Vorderseite von Gebirgen zu beobachten ist. Da Wolkentröpfchen wegen des geringen Durchmessers von nur etwa 1/ 100 mm besonders leicht sind, schweben sie fast frei. Durch zufällige Zusammenstöße werden aber mit der Zeit einige Tropfen größer als die anderen. Sie beginnen zunächst langsam zu fallen, später durch Aufsammeln weiterer Tröpfchen immer schneller. Ist die Wolke dick genug, dass die Tropfen dabei größer als etwa 1 /10 mm werden, so überleben sie – trotz Verdunstung – auch den freien Fall durch die Luft unterhalb der Wolke und gelangen als Niederschlagstropfen bis zur Oberfläche. Dieser Prozess der Entstehung von »warmem Regen« erklärt allerdings in unserer Klimazone nur den meist schwachen Nieselregen aus bodennahen Wolken oder den stärkeren Regen in den warmen Tropen bei Wolken unterhalb von etwa 5 km. Wichtiger für die Bildung stärkeren Niederschlags in unseren Breiten ist der Weg über die Eisphase. Obwohl im Wolkenniveau die Temperaturen häufig unter 0°C liegen, bleiben die Wolkentropfen selbst oft im flüssigen Zustand – sie sind unterkühlt. Hier reichen dann schon recht geringe Anlässe (z. B. Stöße oder geeignete Eiskeime), damit Tropfen vereinzelt spontan gefrieren. Da aber der Wasserdampf auf Eisteilchen leichter kondensiert als auf Wassertropfen, wachsen diese Eisteilchen schneller an als die umgebenden Tropfen und beginnen früher zu fallen. Sie vergrößern sich dann durch Aufsammlung von Tröpfchen und werden dadurch so groß, dass sie die Erdoberfläche erreichen. Da diese Eisteilchen auf ihrem Weg nach unten in immer wärmere Schichten gelangen, schmelzen sie häufig und kommen als Regen auf dem Boden an. Sind sie aber, beispielsweise in einer besonders dicken Wolke, so groß geworden, dass sie vor dem Erreichen des
112
Wissenschaftliche Grundlagen
Bodens nicht mehr schmelzen können, dann hat man es mit Graupelkörnern zu tun. Manchmal sind die Aufwinde in den Gewitterwolken so intensiv, dass oberflächlich geschmolzene Eisteilchen wieder nach oben gerissen werden und erneut gefrieren. Irgendwann beginnen sie wieder zu fallen, schmelzen dabei wieder und wachsen durch Ansammlung neuer Tröpfchen weiter an. Dieser Vorgang kann sich mehrmals wiederholen und führt schließlich zu Hagel. Eine interessante Frage in Verbindung mit dem globalen Klimawandel ist die nach der Reaktion der Bewölkung auf die globale Erwärmung. Klimamodellrechnungen zeigen, dass der Effekt der Wolken im Allgemeinen den anthropogenen Treibhauseffekt dämpft, die Bewölkung also als eine negative Rückkopplung wirkt. Infolge des höheren Wasserdampfgehalts in einer wärmeren Atmosphäre kommt es zu einer größeren Bedeckung der Erde mit Wolken, was im Wesentlichen über eine vermehrte Reflexion von Sonnenstrahlung abkühlend wirkt. Dieser Effekt ist aber deutlich kleiner als die durch den Menschen verursachte zusätzliche Treibhauserwärmung, sodass der Bewölkungseffekt die globale Erwärmung zwar etwas mildern aber in keiner Weise komplett ausgleichen kann. Darüber hinaus muss man davon ausgehen, dass sich in einer wärmeren Atmosphäre Starkniederschläge über vielen Landregionen häufen werden. Dies wird zumindest von den meisten Klimamodellen so simuliert. Es bleibt aber festzuhalten, dass die Beschreibung von Wolken und Niederschlag immer noch eine der großen Unsicherheiten in den heutigen Klimamodellen darstellt.
Klimamodellierung
113
4.3 Die Rolle von Kondensstreifen Kondensstreifen sind durch Flugzeuge verursachte künstliche Eiswolken in etwa 10–13 km Höhe. Dort ist die Umgebungstemperatur mit 40–70°C unter null sehr niedrig. Der maximal mögliche Feuchtegehalt der Atmosphäre (jenseits dessen Kondensation und Wolkenbildung auftreten) wird mit abnehmender Temperatur sehr klein. Die Verbrennung von 1 kg Kerosin in der Flugzeugturbine erzeugt 1,25 kg Wasserdampf und 3 kg CO2, sowie Stickoxide und Ruß. Es sollte erwähnt werden, dass der Klimaeffekt durch den Ausstoß von CO2 durch die Flugzeuge selbst recht gering ist. Während die zusätzliche Menge an Wasserdampf nahe der Erdoberfläche gegenüber der natürlichen Menge unerheblich ist, führt sie in der Reiseflughöhe häufig unmittelbar hinter dem Flugzeug zu Kondensation. Diese Bildung von Kondensstreifen wird umso wahrscheinlicher, je geringer die Temperatur der Umgebungsluft ist. Ist aber die relative Feuchte der Umgebungsluft im Flugniveau klein, so können sich einmal entstandene Kondensstreifen nicht lange halten, da sie bei der Vermischung mit der Umgebungsluft verdunsten. Liegt die Umgebungsfeuchte dagegen über dem für die Eisbildung nötigen Wert, so können die in den Kondensstreifen gebildeten Eisteilchen auch lange überleben. Solche Eiswolken breiten sich aus, bedecken große Gebiete und können für Stunden oder Tage sichtbar bleiben. Die Sichtbarkeit von Kondensstreifen aber auch ihr Klimaeinfluss hängen wesentlich von ihren optischen Eigenschaften ab. Diese sind durch Anzahl, Größe und Form der Eisteilchen bestimmt. Zwei gegenläufige Effekte spielen hierbei eine Rolle: Im solaren (kurzwelligen) Spektralbereich ist die Wirkung der Eiswolken wegen der Reflexion von Sonnenstrah-
114
Wissenschaftliche Grundlagen
lung in den Weltraum abkühlend. Im thermischen (langwelligen) Spektralbereich wirken Eiswolken hingegen erwärmend. Der resultierende Nettoeffekt ist zunächst ungewiss, da die Konkurrenz zwischen Rückstreuung von Sonnenenergie und verminderter infraroter Wärmeabstrahlung von verschiedenen Faktoren abhängt. Wegen ihrer geringen optischen Dicke werden die Kondensstreifen jedoch meistens den zusätzlichen Treibhauseffekt verstärken. Für einen möglichen Einfluss auf das Klima ist die Erhöhung des Bedeckungsgrades mit Eiswolken durch Kondensstreifen besonders wichtig. Die Auswertung von Satellitenund anderen Beobachtungsdaten ergibt regional zeitweilig eine erhebliche Zunahme des Bedeckungsgrades durch langlebige, aus Kondensstreifen entstandene Eiswolken. Über Mitteleuropa und der transatlantischen Flugroute wird dafür eine durchschnittliche Bedeckung von etwa 0,5 % gefunden, außerhalb der Hauptflugrouten sind die Zuwächse noch kleiner. Dieser Wert ist mit einem durchschnittlichen Bedeckungsgrad von etwa 20 % für natürliche Eiswolken zu vergleichen. Diese gegenwärtig geringe Zunahme der Bewölkung führt in Klimamodellsimulationen auch nur zu einem unerheblichen Beitrag zum Treibhauseffekt von 0,05°C. Die Simulationen zeigen aber auch, dass bei einer Verzehnfachung der zusätzlichen Bedeckung durchaus ein erheblicher Beitrag zu Klimaänderungen zu erwarten ist. Bei der vorhergesagten raschen Zunahme des Flugverkehrs ist daher in den nächsten Jahrzehnten mit einem stärker werdenden Einfluss des Flugverkehrs auf das Klima zu rechnen. Neben der Wirkung der Kondensstreifen selbst wird vermutet, dass die zusätzlichen Kondensationskeime nach der Auflösung der Kondensstreifen durch Verdunstung noch weiteren Einfluss auf den Treibhauseffekt haben. So könnte die
Klimamodellierung
115
Zahl der Eiskeime in Tropopausenhöhe allgemein so stark steigen, dass auch die spätere Bildung weiterer Eiswolken (Zirren) erleichtert würde. Da man diese dann aber nicht mehr unmittelbar der Flugzeugemission zuordnen kann, entziehen sie sich der Untersuchung. Die vermehrte Beobachtung »natürlicher« Zirren in den letzten Jahrzehnten könnte allerdings auf einen solchen Einfluss hindeuten. An dieser Stelle sei noch auf die so genannten »Chemtrails« eingegangen. Seitdem in der Zeitschrift Raum & Zeit (127/2004) der Artikel »Die Zerstörung des Himmels« erschienen ist, fragen sich viele besorgte Bürger, was es mit den Chemtrails auf sich hat, die angeblich durch Flugzeuge in die Atmosphäre eingebrachte Chemikalien enthalten. In dem Artikel wird unter anderem behauptet, dass im Rahmen geheimer Projekte der USA militärische und zivile Flugzeuge Aluminium- und Bariumverbindungen in die Atmosphäre ausstoßen, aus denen sich diese Chemtrails, ähnlich der Bildung von Kondensstreifen (engl.: contrails, der Name Chemtrails ist in Analogie zu dem englischen Ausdruck für Kondensstreifen entstanden), entwickeln würden. Damit soll der durch den anthropogenen Treibhauseffekt hervorgerufenen Erwärmung entgegengewirkt werden. Für das Einbringen von Aluminiumverbindungen in die Atmosphäre und die Bildung so genannter Chemtrails gibt es keinerlei wissenschaftliche Belege. Auch im Deutschen Zentrum für Luft- und Raumfahrt (DLR) sind nach Aussage des Umweltbundesamtes die beschriebenen Phänomene nicht bekannt. Im Institut für Physik der Atmosphäre des DLR werden seit vielen Jahren Untersuchungen zur Wirkung der Emissionen des Luftverkehrs auf die Atmosphäre – einschließlich der Messung gas- und partikelförmiger Emissionen von Verkehrsflugzeugen in einer Vielzahl von Fällen –
116
Wissenschaftliche Grundlagen
durchgeführt. Falls es die so genannten Chemtrails gäbe, müssten beim DLR darüber Informationen vorliegen; die Messungen enthalten jedoch keinerlei Hinweise darauf. Die Deutsche Flugsicherung GmbH hat bestätigt, dass im Rahmen der Luftraumüberwachung keine auffälligen Flugbewegungen beobachtet wurden, die etwas mit dem beschriebenen Sachverhalt zu tun haben könnten. Darüber hinaus hat der Deutsche Wetterdienst mitgeteilt, dass in den Beobachtungsdaten keine Besonderheiten auffindbar sind, die auf abweichende Formen von Kondensstreifen hindeuten könnten. Auch das Bundesministerium der Verteidigung hat keine weiter gehenden Erkenntnisse. Das Hauptquartier der US-Luftwaffe Europa hat mitgeteilt, dass es die beschriebenen Projekte bei der US-Luftwaffe weder gibt noch gegeben hat. Auch die Weltgesundheitsorganisation der Vereinten Nationen (WHO) hat keine Anhaltspunkte für die Existenz von Chemtrails gefunden. Wie oben bereits erwähnt, trägt die Bildung von Zirrusbewölkung aus Kondensstreifen in besonderem Maße zur Klimawirksamkeit des Flugverkehrs bei. Kondensstreifen und Zirren erwärmen das Klima. Es wäre also kontraproduktiv, mit Hilfe zusätzlicher Zirren oder zirrenähnlicher Wolken der Klimaerwärmung aufgrund der anthropogenen Emissionen von Treibhausgasen entgegenwirken zu wollen.
4.4 Das Lorenz-Modell Einige fundamentale Eigenschaften der Atmosphäre können mit Hilfe eines vereinfachten Modells, das von Lorenz im Jahr 1963 entwickelt wurde, veranschaulicht werden. Das LorenzModell ist nichtlinear und kann dazu verwendet werden, Be-
Klimamodellierung
117
griffe wie Wetter, Klima und Klimaänderung in einen konzeptuellen Zusammenhang zu bringen. Lorenz unterscheidet zwischen Vorhersagen der ersten Art und Vorhersagen der zweiten Art. Wettervorhersagen sind Vorhersagen der ersten Art, Vorhersagen zum globalen Wandel sind Vorhersagen der zweiten Art. Vorhersagen der ersten Art sind Anfangswertprobleme. Bei Kenntnis der heutigen atmosphärischen (und gegebenenfalls ozeanischen) Bedingungen und der die Bewegungen bestimmenden physikalischen Gesetze versuchen wir, das Wetter von morgen, der nächsten Woche oder das Wetter gemittelt über die nächste Jahreszeit vorherzusagen. Im Gegensatz hierzu hängen die Vorhersagen der zweiten Art nicht von den Anfangsbedingungen ab. Sie fragen danach, wie sich die statistischen Eigenschaften der Atmosphäre (beispielsweise die über das Jahr gemittelte globale Temperatur der Erde oder die zu erwartende Zahl von Winterstürmen über Deutschland oder Hurrikane über dem Atlantik) ändern, wenn sich ein bestimmter Parameter verändert, wie beispielsweise die CO2-Konzentration der Atmosphäre. Lorenz entdeckte, dass Vorhersagen der ersten Art, obwohl deterministisch, nicht unendlich in die Zukunft ausgedehnt werden können. Für geeignete Parameterwerte seiner Modellgleichungen (gestrichene Größen kennzeichnen die zeitliche Ableitung dieser Größen), X’= –σX + σY Y’= –XZ + rX – Y Z’ = XY – bZ
(1)
die zwei fundamentale Eigenschaften besitzen, Instabilität und Nichtlinearität, kommt es zu einem Phänomen, das man heutzutage als »Sensitivität gegenüber den Anfangsbedingungen« bezeichnet oder auch als den »Schmetterlingsef-
118
Wissenschaftliche Grundlagen
fekt«. Noch so kleine Störungen in den Anfangsbedingungen führen innerhalb recht kurzer Zeit zu einer Divergenz der Modelltrajektorien. So eine Störung könnte der Flügelschlag eines Schmetterlings sein, woraus sich die Bezeichnung »Schmetterlingseffekt« ableitet. Wettervorhersagen sind daher prinzipiell limitiert. Fehler in der Bestimmung des Anfangszustandes und Fehler in der Formulierung des Modells wachsen rasch an und machen jede Vorhersage nach einer bestimmten Zeit, im Mittel nach spätestens 14 Tagen, wertlos. Die detaillierte Untersuchung dieses Phänomens führte schließlich zur Formulierung der Chaostheorie. Insofern ist die Atmosphäre der Inbegriff eines chaotischen Systems. Das Lorenz-Modell enthält viele qualitative Ähnlichkeiten mit der tatsächlichen großräumigen atmosphärischen Zirkulation. Es simuliert beispielsweise »Regimeverhalten«, d. h. das System neigt dazu, in bestimmten Zuständen zu verharren. Solche Regime werden auch beobachtet. So kennen wir wochenlange winterliche Westwindphasen, während derer es in unseren Breiten relativ feucht und warm ist, oder stabile winterliche Hochdrucksituationen, die durch kaltes sonniges Wetter gekennzeichnet sind. Im Gegensatz hierzu sind lang anhaltende sommerliche Westwindlagen durch kühles und lang anhaltende sommerliche Hochdrucklagen durch relativ warmes Wetter charakterisiert. Die Übergänge zwischen solchen Regimen erfolgen zufällig. Für bestimmte Werte der Parameter r, σ, b ergibt die Entwicklung des Zustandsvektors (X, Y, Z) den berühmten Lorenz-Attraktor mit den zwei so genannten Schmetterlingsflügeln (Abb. 13). Es gibt zwei charakteristische Zeitskalen im Lorenz-Modell. Die Erste beschreibt die Entwicklung des Systems um den (schwach) instabilen Fixpunkt im Zentrum eines jeden der beiden Schmetterlingsflügel. Die Zweite beschreibt eine
Klimamodellierung
119
Abb. 13 Der Lorenz-Attraktor in der X-Y-Ebene. Berechnet aus den obigen Gleichungen mit den Parametern r = 28, σ = 10, b = 8/3. Die Z-Achse zeigt in die Vertikale. Nach Palmer (1993).
typische Aufenthaltsdauer innerhalb eines der beiden Schmetterlingsflügel. Diese beiden Zeitskalen kann man deutlich in der Abb. 14 a erkennen, welche die Zeitentwicklung der Größe X von einem beliebigen Anfangszustand aus zeigt. Wiederholt man die Simulation mit leicht gestörten Anfangsbedingungen entwickelt sich das System nach recht kurzer Zeit komplett anders, wie in der Abb. 14b gezeigt. Diese Sensitivität gegenüber den Anfangsbedingungen ist es, die chaotische Systeme auszeichnen. Typische Werte der Regime-Aufenthaltsdauer liegen im Bereich von einigen wenigen Wochen, während die kürzere, als »synoptisch« bezeichnete Zeitskala, auf welcher der Regimewechsel erfolgt, nur einige Tage beträgt.
120
Wissenschaftliche Grundlagen
Abb. 14 a) Zeitreihe der X-Komponente des Lorenz-Modells von einem bestimmten Anfangszustand, b) Die zeitliche Entwicklung von X bei leicht veränderten Anfangsbedingungen. Nach Palmer (1993).
Während Lorenz sein Modell einführte, um die Vorhersagbarkeit der ersten Art zu studieren, werden wir im Folgenden das Modell dazu verwenden, Vorhersagen der zweiten Art näher zu untersuchen. Dazu führen wir einen externen Antriebsvektor F ein, der die Komponenten Fx, Fy und Fz besitzt.
Klimamodellierung
121
X’ = –σX + σY + aFx Y’ = –XZ + rX – Y + aFy Z’ = XY – bZ + αFz
(2)
Die Stärke des Antriebs wird durch den Parameter α kontrolliert. Dieser externe Antrieb kann beispielsweise die Veränderung der atmosphärischen CO2-Konzentration und eine damit im Zusammenhang stehende globale Erwärmung sein. Wir werden berechnen und zu verstehen versuchen, wie sich das Klima des Lorenz-Modells verändert, wenn sich der Parameter α ändert. Obwohl das 3-Komponenten-Lorenz-Modell eine grobe Vereinfachung des realen Klimasystems darstellt, hängen doch die Resultate nicht wesentlich von seiner Niederdimensionalität ab. Das Lorenz-Modell ist insofern nützlich, als dass es die Nichtlinearität des Klimaproblems verdeutlicht. Bevor wir uns die Resultate ansehen, ist es nützlich zu spekulieren, wie sich wohl der ursprüngliche Lorenz-Attraktor (Abb. 13) verändert, wenn der Parameter α sich langsam von null verändert. Fehlerhaftes lineares Denken würde uns veranlassen zu glauben, dass sich zwar die Lage des Attraktors verändert, die Form des Attraktors selbst aber unverändert bleibt. Die Variabilität um den neuen Klimazustand würde sich daher nicht verändern. Es findet also nur eine Translation des Attraktors statt. Das tatsächliche Resultat aber ist in der Abb. 15 gezeigt in Form der Wahrscheinlichkeitsverteilung (PDF: probability density function). Diese gibt die Wahrscheinlichkeit dafür an, den Zustandsvektor an einem Punkt in der X-Y-Ebene des Phasenraums zu finden. Betrachten wir zunächst den Fall ohne Antrieb (α = 0): Wir erkennen deutlich die beiden Regime (Abb. 15 a). Nach der Wahrscheinlichkeitsverteilung finden wir den Zustandsvektor in zwei bevor-
122
Wissenschaftliche Grundlagen
zugten Gebieten des Phasenraums, die zu den beiden Zentren der Schmetterlingsflügel (Abb. 13) gehören. Die Verteilung ist darüber hinaus symmetrisch, d. h. die Wahrscheinlichkeit, den Zustandsvektor in dem einen der beiden Regime zu finden, ist genauso hoch wie die, ihn in dem anderen Regime zu finden. Die Abb. 15 b zeigt die Resultate für den Fall mit Antrieb, d. h. α > 0. In der dargestellten speziellen Berechnung zeigt der Antrieb von dem einen Regime zu dem anderen in der X-Y-Ebene. Die Wahrscheinlichkeitsverteilung ist aber nicht mehr symmetrisch, und der Zustandsvektor wird häufiger in dem Regime zu finden sein, in das der Antrieb zeigt. Allerdings sind die Phasenraumkoordinaten der Wahrscheinlichkeitsmaxima praktisch identisch zu denen im Modell ohne Antrieb. Für kleine Antriebe kann sich also bereits die Variabilität stark ändern. Die zunehmenden winterlichen Westwindlagen in den letzten Jahrzehnten sind möglicherweise schon ein Zeichen dieses nichtlinearen Verhaltens. Infolge der globalen Erwärmung kann sich also die Statistik des Auftretens bestimmter Wetterlagen (Regime) verändern, was wiederum das mittlere Klima verändert, wenn man über größere Zeiträume mittelt. Diese einfachen Betrachtungen mit dem Lorenz-Modell zeigen, dass man Wetter und Klima gemeinsam betrachten muss, wenn man an der Reaktion des Klimasystems auf erhöhte Treibhausgaskonzentrationen interessiert ist, und dass die Nichtlinearität der Atmosphäre diese Reaktion in großem Maße bestimmt.
Klimamodellierung
123
Abb. 15 a) Wahrscheinlichkeitsverteilungsfunktion des Lorenz-Modells in der X-Y-Ebene ohne Antrieb (α = 0). b) Wahrscheinlichkeitsverteilungsfunktion des Lorenz-Modells in der X-Y-Ebene mit einem konstanten Antrieb (Fx = Fy = 1/√2, Fz = 0) und α = 2√2. Ein Tiefpassfilter wurde verwendet, um die Resultate zu glätten. Nach Palmer (1993).
124
Wissenschaftliche Grundlagen
4.5 Was ist der Golfstrom und wie verhält er sich in der Zukunft? Die Golfstromproblematik wird immer wieder in den Medien aufgegriffen. Allerdings reflektiert die Berichterstattung in den Medien nicht immer den aktuellen Kenntnisstand in der Forschung. Es werden des Öfteren Eiszeitszenarien entwickelt für den Fall eines Kollapses des Golfstroms. Derartige Szenarien entbehren jeglicher wissenschaftlicher Grundlage. Man muss einer möglichen regionalen Abkühlung durch einen schwächer werdenden Golfstrom die Erwärmung infolge des anthropogenen Treibhauseffekts entgegensetzen. Nach heutigem Kenntnisstand wird die Erwärmung dominieren, selbst bei einer relativ starken Abschwächung des Golfstroms. Als Golfstrom wird traditionell die 1513 von Ponce de Leon entdeckte (und schon zwei Jahrzehnte später als Grundlage für die spanische Schiffsroutenberatung genutzte) starke horizontale Meeresströmung an der Oberfläche bezeichnet, die nahe der US-amerikanischen Ostküste von Florida bis North Carolina verläuft. Bei Kap Hatteras bei 35° nördlicher Breite löst sich der Golfstrom von der Küste und dringt als gebündelter Strahlstrom mit etwa 5 km/h auf ca. 50 km Breite in den offenen Atlantik vor. Nach der Ablösung fängt die Strömung an zu mäandrieren, d. h. man beobachtet eine schlangenhafte Struktur. In unregelmäßigen Abständen lösen sich geschlossene Ringe ab, die sich dann wie Tiefdruckgebiete der Atmosphäre bewegen, aber wesentlich kleiner sind und Lebenszeiten von vielen Monaten erreichen können. Nach etwa 1500 km verliert sich der Charakter als gebündelter Strom, man bezeichnet die Verzweigungen als Golfstromausläufer, den nach Norwegen reichenden Ast auch als Nordatlantischen Strom. Wie von der Wetterkarte vertraut, läuft auch der Golfstrom
Klimamodellierung
125
parallel zu Linien gleichen Drucks, was in diesem Fall die Auslenkung der Meeresoberfläche ist, die von Satelliten aus bis auf wenige Zentimeter genau erfasst werden kann. Eine mathematisch exakte Erklärung wurde erst 1947 von Sverdrup geliefert. Die Ursachen sind die von der atmosphärischen Zirkulation aufgezwungene Drehbewegung (Passate aus östlichen Richtungen in den Tropen und Westwinde in mittleren Breiten) und die nach Norden zunehmende Wirkung der Erdrotation auf die Bewegung des Wassers. Der Golfstrom und seine Ausläufer führen warmes tropisches Wasser in Richtung Europa und sind damit für das im Vergleich zu anderen Gebieten derselben geographischen Breite (z. B. Kanada) ungewöhnlich milde Klima West- und Nordeuropas verantwortlich. In den letzten Jahren ist ein anderer, vertikaler Aspekt der atlantischen Ozeanzirkulation ins Interesse auch der Öffentlichkeit gelangt, den man als thermohaline Zirkulation (s. Kap. 1.2) bezeichnet. Das an der Oberfläche des Nordatlantiks überwiegend nach Norden strömende warme Wasser kehrt nach winterlicher Abkühlung und Absinken infolge Konvektion in tiefe Schichten in den Südlichen Ozean zurück. Diese vertikale Zirkulation wird populär oft auch als »ozeanisches Förderband« oder »vertikale Umwälzbewegung« bezeichnet. Der damit verbundene Transport von Wärme nach Norden wird auf eine Milliarde Megawatt geschätzt, das sind 300 Millionen Kilowattstunden pro Sekunde. Ein Kollaps der thermohalinen Zirkulation würde die Temperaturen bei uns in Mitteleuropa um etwa 1 – 2 °C Grad im Jahresmittel fallen lassen, wobei sich die Abkühlung vor allem im Winter bemerkbar machen würde. Unser mildes Klima ist also offensichtlich nicht nur auf die thermohaline Zirkulation zurückzuführen, sondern auch auf einen signifikanten Wärmetransport durch
126
Wissenschaftliche Grundlagen
die Atmosphäre. Bei einem Kollaps der thermohalinen Zirkulation käme der Golfstrom übrigens nicht zur Gänze zum Erliegen, da der Golfstrom ja auch eine windgetriebene Komponente besitzt. Zum Antrieb der thermohalinen Zirkulation wird hinreichend salziges Wasser in hohen Breiten, das infolge der Absenkung des Gefrierpunkts sehr kalt werden kann, benötigt. Im gegenwärtigen Klima können wir diesen Mechanismus als sich selbst aufrechterhaltende Pumpe ansehen: Je stärker das Tiefenwasser gebildet wird, desto mehr salzreiches Wasser aus den Subtropen wird an der Oberfläche nach Norden gezogen. Mit verschiedenen Computermodellen wurde gezeigt, dass ein Süßwassereintrag, wie etwa beim Abschmelzen der kontinentalen Eisschilde nach der Eiszeit, ausreicht, die thermohaline Zirkulation zum Erliegen zu bringen. Für die künftige Entwicklung des Klimas kann ein zunehmender Wasserdampftransport von den Tropen zum Pol als Folge der globalen Erwärmung, aber auch eine Veränderung der Massenbilanz auf Grönland zu einer Veränderung des Antriebs führen. Die thermohaline Zirkulation ist ein sehr sensitives Stromsystem, dessen Stabilität von Stommel 1961 theoretisch mit Hilfe eines konzeptuellen Modells untersucht wurde. Das nichtlineare Modell von Stommel besteht aus zwei Boxen, einer äquatorialen Box und einer polaren Box. Die Strömungsrate, welche die Stärke der thermohalinen Zirkulation beschreibt, ist vom hohen zum niedrigen Druck gerichtet und wird durch Dichteunterschiede zwischen den Boxen angetrieben, die durch die Wechselwirkungsprozesse mit der Atmosphäre dem System aufgeprägt werden. Die Gleichungen lauten in dimensionsloser Form (die gestrichenen Größen kennzeichnen die zeitlichen Ableitungen):
Klimamodellierung
127
T’ = η1 – T(1 + |Ψ|) S’ = η2 – S(η3 + |Ψ|)
[i)
Hierin sind T und S die dimensionslosen Temperatur- und Salzgehaltsdifferenzen zwischen den beiden Boxen und Ψ=T-S die dimensionslose Strömungsrate. η1, η2 und η3 sind dimensionslose Parameter. Der Parameter η2 ist hier von besonderer Bedeutung, da er die Veränderungen in der Süßwasserzufuhr an der Oberfläche beschreibt, welche ja in starkem Maße durch den anthropogenen Treibhauseffekt beeinflusst werden kann. Insbesondere ein mögliches Abschmelzen Grönlands wäre durch diesen Parameter erfasst. Betrachten wir nun das Verhalten des Systems, wenn der Parameter η2 variiert wird (Abb. 16). Für Werte des Parameters η2 bis zum Punkt L1 ist die so genannte TH-Lösung stabil, die durch Absinken in der polaren Box und Aufquellen in der äquatorialen Box charakterisiert ist. Dieser Zustand entspricht dem heutigen Klima mit einer stabilen thermohalinen Zirkulation und einem relativ starken nach Norden gerichteten Wärmetransport. Für Werte des Parameters η2 größer als L2 ist die so genannte SA-Lösung stabil, welche durch Absinken am Äquator gekennzeichnet ist. Diese Lösung würde einer Umkehrung der thermohalinen Zirkulation entsprechen, sie hätte also weitreichende Konsequenzen für das Klima über dem Nordatlantik und Europa. Zwischen den beiden Werten L1 und L2 gibt es zwei Gleichgewichtszustände, d. h. das System kann zwei verschiedene Zustände annehmen in Abhängigkeit von den Anfangsbedingungen. Man nimmt an, dass sich am Ende der letzten Eiszeit die thermohaline Zirkulation in der Nähe dieses bipolaren Regimes aufgehalten hat, wodurch es immer wieder zu starken Umschwüngen gekommen ist, die sich auch in der Temperatur Europas
128
Wissenschaftliche Grundlagen
Abb. 16 Ein Bifurkationsdiagramm, das die stationären Werte der Strömungsrate Ψ des Modell (3) für verschiedene Werte des Parameters η2 und festem η1 = 3,0 bzw. η3 = 0,3 zeigt. Der gestrichelte Lösungsast ist instabil. Nach Dijkstra (2000).
widergespiegelt haben. Aber wo befinden wir uns heute? Diese Frage wird zurzeit heftig in der Wissenschaft diskutiert. Falls sich die heutige thermohaline Zirkulation in der Nähe eines Bifurkationspunktes, d. h. eines Umkipppunktes befindet, könnten schon relativ kleine Störungen ausreichen, um sie zum Erliegen zu bringen. Die heute betriebenen komplexen Klimamodelle geben zwar unterschiedliche Antworten, wenn sie mit erhöhten atmosphärischen Treibhausgaskonzentrationen gerechnet werden. Die meisten Modelle simulieren aber für das Jahr 2100 eine nur mäßige Abschwächung der thermohalinen Zirkulation (siehe IPCC 2001 a), die zu einer Verzögerung der Erwär-
Abb. I Die Erde bei Nacht vom Weltraum aus betrachtet. Man erkennt deutlich die Lichter in Europa, während Afrika weitgehend dunkel ist. Dieser Unterschied verdeutlicht den enormen Energieverbrauch in den Industrienationen im Vergleich zu dem der Entwicklungsländer.
Abb. II Energie wird weltweit vor allem durch die Verfeuerung der fossilen Brennstoffe (Erdöl, Erdgas, Kohle) erzeugt. Dadurch entweichen große Mengen von Kohlendioxid in die Atmosphäre, welche die Erde erwärmen. Die rauchenden Schlote sind ein Sinnbild des Energieverbrauchs und damit für den menschlichen Einfluss auf das Klima.
Abb. III Das arktische Meereis zieht sich immer weiter zurück. Der Vergleich der Eisbedeckung von 1979 (oben) mit der von 2005 (unten) macht dies deutlich. Insbesondere ist inzwischen die so genannte Nord-Ost-Passage frei.
Abb. IV Die Gletscher ziehen sich weltweit zurück. Am Beispiel des Pasterze Gletschers in Österreich zeigt sich der Rückzug sehr deutlich. Während vor etwa 100 Jahren (oben) noch eine ausgeprägte Gletscherzunge zu erkennen ist, ist diese heute (unten) verschwunden.
Klimamodellierung
129
mung über dem Nordatlantik führt. Die Modelle sind sich also darüber einig, dass das System noch relativ weit von einer Bifurkation entfernt ist. Eine Abkühlung über Europa wird in keinem der Modelle bis 2100 simuliert. Die Treibhauserwärmung entwickelt sich schneller und sie übertrifft die Abkühlungstendenz durch den sich abschwächenden Golfstrom. Insofern entbehren Eiszeitszenarien jeglicher Grundlage. Selbst wenn die thermohaline Zirkulation zum heutigen Zeitpunkt zusammenbrechen würde, ergäbe sich eine nur moderate Abkühlung in Mitteleuropa, wie oben ausgeführt. Es wurden zwar auch Modellergebnisse vorgestellt, die bei sehr rasch zunehmenden Treibhausgaskonzentrationen in der Atmosphäre einen vollständigen Stopp der thermohalinen Zirkulation zeigen. Die Frage nach der Zukunft des Golfstromsystems wird daher immer noch sehr kontrovers in der Wissenschaft diskutiert. Ein vollständiger Kollaps der thermohalinen Zirkulation innerhalb der nächsten Jahrzehnte und eine damit einhergehende Abkühlung Europas scheinen aber äußerst unwahrscheinlich zu sein. Man kann versuchen, die Stärke der thermohalinen Zirkulation mit Hilfe von Beobachtungen der Meeresoberflächentemperatur für die letzten hundert Jahre zu rekonstruieren. Daraus lässt sich dann ableiten, inwieweit man heute schon eine Abschwächung der thermohalinen Zirkulation beobachten kann. Die Idee ist die Folgende: Die thermohaline Zirkulation ist mit einem nordwärtigen Wärmetransport im Atlantik verbunden. Dadurch wird der Nordatlantik gewärmt und der Südatlantik gekühlt. Veränderungen in der Stärke der thermohalinen Zirkulation sollten sich daher in dem Temperaturunterschied an der Meeresoberfläche zwischen dem Nord- und Südatlantik messen lassen. Eine starke thermohaline Zirkulation beispielsweise ist mit einem großen Tempera-
130
Wissenschaftliche Grundlagen
turgefälle verbunden, eine schwache mit einem geringen. Insofern gibt es eine Art Fingerabdruck für die Stärke der thermohalinen Zirkulation in Form des Temperaturgegensatzes zwischen dem Nord- und dem Südatlantik. Der Vorteil dieses Fingerabdrucks ist der, dass Beobachtungen der Meeresoberflächentemperatur für relativ lange Zeiträume verfügbar sind, man also einen langfristigen Trend erkennen könnte. Darüber hinaus sind aufwändige Strömungsmessungen nicht nötig, falls der Temperatur-Fingerabdruck tatsächlich die Stärke der thermohalinen Zirkulation misst.
Abb. 17 Der Temperaturgegensatz zwischen dem Nord- und dem Südatlantik, der als Maß für die Stärke der thermohalinen Zirkulation angesehen werden kann. Man erkennt zwar ausgeprägte Schwankungen, vor allem auf der Zeitskala von Jahrzehnten, aber keine langfristige Abschwächung der thermohalinen Zirkulation, insbesondere nicht in den letzten Jahrzehnten.
Klimamodellierung
131
Die Abb. 17 zeigt die zeitliche Entwicklung des Temperaturgefälles. Man erkennt ausgeprägte langperiodische Schwankungen, aber keinen lang anhaltenden Trend, der eine Abschwächung der thermohalinen Zirkulation andeuten würde. Man beobachtet sogar eine Verstärkung des Temperaturgefälles in den letzten Jahrzehnten. Dieses Resultat zeigt, dass eine deutliche Abschwächung der thermohalinen Zirkulation noch nicht messbar ist. Dieses Ergebnis ist auch im Einklang mit den Klimamodellsimulationen zum globalen Wandel, die für heute auch noch keine signifikante Änderung erwarten lassen.
Das Klima des 20. und 21. Jahrhunderts
5 Der menschliche Einfluss auf das Klima 5.1 Das Intergovernmental Panel on Climate Change (IPCC) Die Frage, ob der Mensch das Klima verändert, ist schon längst von der internationalen Klimaforschung beantwortet. Es gibt heute praktisch niemanden mehr, der die Existenz des Klimawandels bestreiten würde. Der Klimawandel ist also in vollem Gange, und seine Anzeichen sind unverkennbar (s. Abb. 18). Eine entscheidende Rolle bei der Bewertung und Kommunikation der wissenschaftlichen Ergebnisse kommt dem Zwischenstaatlichen Ausschuss für Klimaänderungen, dem Intergovernmental Panel on Climate Change (IPCC) zu. Der Zwischenstaatliche Ausschuss für Klimaänderungen wurde 1988 gemeinsam von der Welt-Meteorologie-Organisation (WMO) und dem Umwelt-Programm der Vereinten Nationen (UNEP) gegründet. Sein Aufgabengebiet beinhaltet zum einen die Beschreibung des wissenschaftlichen Kenntnisstandes hinsichtlich des globalen Klimawandels und zum anderen die Beratung der internationalen Politik. Seit 1990 hat das IPCC eine Reihe von Sachstandsberichten erarbeitet, die zu Standardnachschlagewerken geworden sind und von politischen Entscheidungsträgern, Wissenschaftlern und anderen Experten häufig genutzt werden (man findet die Berichte im Internet unter www.ipcc.ch). An dem letzten Bericht des IPCC aus dem Jahre 2001 haben über 600 der weltweit führenden Klimawissenschaftler mitgearbeitet. Noch
136
Das Klima des 20. und 21. Jahrhunderts
einmal ca. 400 Wissenschaftler waren mit der Begutachtung des Berichts betraut. Der nächste Bericht wird 2007 erscheinen. Bereits im Bericht des Jahres 1995 war zu lesen, dass es einen erkennbaren Einfluss des Menschen auf das Klima gibt. In dem Bericht des Jahres 2001 heißt es: »Eine wachsende Zahl von Beobachtungen ergibt ein kollektives Bild einer sich erwärmenden Welt und anderer Änderungen im Klimasystem.« Es herrscht offensichtlich ein großer Konsens in der internationalen Klimaforschung darüber, dass sich unser Klima verändert und dass der Mensch dafür mitverantwortlich ist. Im Folgenden werden einige wichtige Beobachtungen beschrieben, die mit zu diesem Konsens geführt haben.
5.2 Was kann man heute schon an Veränderungen sehen? Wie oben beschrieben, beobachten wir seit Beginn der Industrialisierung einen starken Anstieg der Treibhausgaskonzentrationen, vor allem des CO2, in der Atmosphäre. Dieser Anstieg verstärkt den Treibhauseffekt und führt zu einer globalen Erwärmung an der Erdoberfläche und in den unteren Luftschichten. Es drängt sich daher die Frage auf, was man schon heute an Klimaänderung beobachten kann. Dabei ist zu berücksichtigen, dass das Klima infolge seiner Trägheit auf äußere Anregungen immer mit einer Zeitverzögerung von einigen Jahrzehnten reagiert. Wir können also nicht davon ausgehen, heute schon die volle Reaktion des Klimasystems auf unser Handeln zu beobachten. Dennoch ist bereits eine starke Erderwärmung nachweisbar, sowohl global als auch bezogen auf die Nordhalbkugel (s. Abb. 18). Der Anstieg der Globaltemperatur in den letzten hundert Jahren betrug ca. 0,8° C. Besonders stark ist die Erwärmung mit etwa 0,6°C in
Der menschliche Einfluss auf das Klima
137
Abb. 18 Die global gemittelte Temperatur seit 1880. Die geglättete Kurve zeigt das Gleitmittel über 5 Jahre (Quelle: NASA).
den letzten 30 Jahren. Das Jahr 2005 ist dabei das wärmste Jahr seit Beginn der Messungen (Abb. 18). Damit gilt das Argument nicht mehr, dass der Großteil der Erwärmung in der ersten Hälfte des 20. Jahrhunderts stattgefunden hat, als die Treibhausgaskonzentrationen nur recht schwach angestiegen sind. Interessant ist auch die Tatsache, dass sich die Temperatur nicht kontinuierlich erhöht hat, sondern eine große Schwankungsbreite zeigt. Dieses Verhalten verdeutlicht, dass nicht nur der Mensch Einfluss auf das Klima nimmt, sondern dass es auch eine Vielzahl natürlicher Faktoren gibt, die sich auf das Klima auswirken. Der Mensch scheint aber in den letzten Jahrzehnten immer mehr zum entscheidenden Faktor für das Klima zu werden, was durch die rasante Erwärmung in den letzten Jahrzehnten zum Ausdruck kommt.
138
Das Klima des 20. und 21. Jahrhunderts
Die Erwärmung über den Kontinenten war deutlich stärker als die über den Weltmeeren. In Deutschland betrug die Erwärmung in den letzten hundert Jahren ca. 1 °C, d. h. es gibt einen charakteristischen Land-Meer-Kontrast in der Erwärmung: Landregionen erwärmen sich deutlich stärker als die Meeresoberfläche. Selbstverständlich ist in den Analysen der Messungen auch berücksichtigt worden, dass sich die Messmethoden im Laufe der Zeit verändert haben und es beispielsweise einen Stadteffekt gibt, durch den sich Ballungsgebiete besonders stark erwärmen. Die Zahl von 0,8°C für die Veränderung der globalen Mitteltemperatur in den letzten hundert Jahren ist daher als bereinigte Zahl zu betrachten, bei der die bekannten systematischen Fehler bereits herauskorrigiert sind. Rekonstruktionen der Temperatur der Nordhalbkugel der letzten tausend Jahre zeigen, wie außergewöhnlich die Erwärmung der letzten hundert Jahre im Vergleich zu den Veränderungen in den Jahrhunderten davor ist. Dabei ist zu berücksichtigen, dass die Temperaturen vor 1900 vor allem aus indirekten Verfahren (wie beispielsweise der Analyse von Eisbohrkernen, Baumringen oder Korallen) abgeleitet wurden, was zu einer recht großen Unsicherheit in der Bestimmung der Temperatur führt. Selbst wenn man aber die maximale Unsicherheit zugrunde legt, war das Jahrzehnt 1990–1999 das wärmste in den letzten tausend Jahren. Zusammen mit weiteren statistischen und auf Modellen basierenden Analysen (Fingerabdruckmethode) kann man heute bereits sagen, dass der beobachtete Temperaturanstieg der letzten Jahrzehnte mit sehr hoher Wahrscheinlichkeit (über 95 %) vor allem auf den Menschen zurückgeht. Es hat zwar in der Vergangenheit immer wieder Klimaschwankungen gegeben, die nicht auf menschliche Aktivität zurückgehen, wie beispielsweise die
Der menschliche Einfluss auf das Klima
139
mittelalterliche Warmzeit oder die kleine Eiszeit. Diese waren im Vergleich zum Anstieg der Temperatur der letzten Jahrzehnte zumindest auf globaler Skala deutlich schwächer. Neben der Temperatur gibt es aber noch mehr Belege dafür, dass sich unser Klima verändert. So hat sich beispielsweise sowohl die Eis- als auch die Schneebedeckung der Erde verringert. Die Schneebedeckung der Nordhalbkugel hat sich seit 1960 um ca. 10 % verringert. Die Gebirgsgletscher haben sich weltweit zurückgezogen. Die Ausdehnung des Meereises der Nordhemisphäre hat sich ebenfalls verringert und das Eis ist deutlich dünner geworden. So war beispielsweise die Sommerausdehnung des arktischen Meereises seit Beginn der regelmäßigen Satellitenmessungen noch nie so gering wie im Jahr 2005. Zum ersten Mal ist sie unter die Grenze von 6 Mio. km2 gefallen. Da die Erwärmung in den Alpen etwa doppelt so stark wie im globalen Mittel gewesen ist, haben einige Gletscher in dieser Region schon etwa 50 % ihrer Masse während der letzten hundert Jahre verloren. Der Meeresspiegel ist im 20. Jahrhundert um ca. 10–20 cm angestiegen, zum Teil wegen der Gletscherschmelze und zum Teil, da sich der Wärmeinhalt der Ozeane deutlich erhöht hat, wodurch es zu einer Wärmeausdehnung (thermischen Expansion) des Meerwassers kommt. Die Häufigkeit von extremen Niederschlägen in den mittleren und hohen Breiten der Nordhalbkugel hat zugenommen, genauso wie sommerliche Trockenperioden. Ein anderes Phänomen scheint sich ebenfalls infolge der globalen Erwärmung zu verändern: Die Intensität tropischer Wirbelstürme (Hurrikane, Taifune, Tropenstürme) hat in den letzten Jahrzehnten deutlich zugenommen. Über dem Atlantik bezeichnet man diese als Hurrikane, über dem Indischen und Pazifischen Ozean als Taifune. Vorstufen zu Hurrikanen
140
Das Klima des 20. und 21. Jahrhunderts
und Taifunen werden als Tropenstürme bezeichnet. Man unterscheidet sechs Kategorien von tropischen Wirbelstürmen: Die Tropenstürme und fünf weitere nach der Stärke ansteigende Kategorien. Die Kategorie fünf bezeichnet die heftigsten tropischen Wirbelstürme. Das Jahr 2005 war das Jahr mit den meisten tropischen Wirbelstürmen im atlantischen Raum seit die Messungen 1850 begonnen haben. Lag der bisherige Rekord aus dem Jahr 1933 bei einer Anzahl von 21 tropischen Wirbelstürmen, wurden 2005 im atlantischen Sektor 28 tropische Wirbelstürme beobachtet (Abb. 19). Auffällig ist vor allem, dass die Anzahl der starken Hurrikane (Kategorien 3–5) in den letzten Jahrzehnten stark zugenommen hat. Die Intensivierung der tropischen Wirbelstürme kann zurzeit aber bestenfalls als Indiz für eine Beeinflussung durch den Menschen angesehen werden, da die natürlichen Schwankungen von Jahrzehnt zu Jahrzehnt sehr groß sind. Tropische Wirbelstürme entstehen nur über Gebieten, in denen die Meerestemperatur über 26,5°C liegt. Daneben müssen aber auch noch andere Kriterien erfüllt sein, wie etwa eine tiefe Deckschicht im Ozean oder eine geringe vertikale Windscherung. Die Häufung und auch die Intensivierung der tropischen Wirbelstürme im atlantischen Sektor geht Hand in Hand mit einem Anstieg der Meeresoberflächentemperatur im Bereich des tropischen Atlantiks, der Region über der sich die Hurrikane entwickeln. Der Anstieg der Meerestemperatur in den letzten Jahren hat zwei Ursachen. Zum einen gibt es einen natürlichen Zyklus mit einer Periode von einigen Jahrzehnten (60–80 Jahre), der auf Schwankungen der Golfstromzirkulation (thermohaline Zirkulation) zurückzuführen ist. Wir befinden uns momentan in der Warmphase dieses Zyklus. Zum anderen gibt es aber auch einen zusätzlichen Einfluss auf die Meerestemperatur durch die globale Erwärmung,
Der menschliche Einfluss auf das Klima
141
Abb. 19 Die Anzahl tropischer Wirbelstürme im atlantischen Raum seit 1850 (Quelle: NOAA)
sodass die Meerestemperatur des tropischen Atlantiks inzwischen die höchsten je gemessenen Werte erreicht hat. So war im Sommer 2005 die Meeresoberflächentemperatur um bis zu 2 °C höher als der langjährige Mittelwert. Insofern ist es plausibel, aber noch nicht nachgewiesen, dass die langfristige Erderwärmung zumindest teilweise für die in den letzten Jahren beobachtete Intensivierung der tropischen Wirbelstürme über dem Atlantik verantwortlich ist. Ähnliche Veränderungen beobachtet man aber auch in den anderen beiden Ozeanen, dem Indischen und dem Pazifischen Ozean, deren Temperatur sich ebenfalls als Folge der globalen Erwärmung erhöht hat.
142
Das Klima des 20. und 21. Jahrhunderts
Es gibt aber auch Gebiete, insbesondere auf der Südhalbkugel, die keine nennenswerten Veränderungen aufweisen. Klimamodelle zeigen, dass dies auch so zu erwarten ist, wegen des geringeren Landanteils und da sich der Südliche Ozean infolge von starker vertikaler Vermischung an der Oberfläche relativ wenig erwärmt. Insgesamt sind aber die Anzeichen des anthropogenen Klimawandels unverkennbar, was in den Berichten des IPCC im Detail nachzulesen ist.
5.3 Wer ist schuld an den Veränderungen? Es wird immer wieder die Frage nach der Rolle natürlicher Faktoren, beispielsweise der Sonne, für die Erderwärmung gestellt. Die mögliche Rolle der Schwankungen der Sonnenstrahlung auf das Klima wird seit langem in der Klimaforschung diskutiert. Die Sonneneinstrahlung unterliegt Schwankungen auf der Zeitskala von Jahrzehnten, die unter anderem mit der Sonnenfleckenaktivität zusammenhängen. So bedeutet eine hohe Sonnenfleckenzahl eine Zunahme der Sonneneinstrahlung, gleichzeitig verbunden mit einer leichten Verschiebung des Sonnenspektrums in den kurzwelligen (UV) Bereich. Es gibt dabei zwei bekannte Zyklen. Erstens den so genannten Schwalbe-Zyklus, mit einer Periode von elf Jahren und einer direkt gemessenen Amplitude von ca. 0,1 %, und zweitens den so genannten Gleissberg-Zyklus, mit einer Periode von ungefähr 80 Jahren und einer geschätzten Amplitude von ca. 0,2–0,3 % der gesamten Einstrahlung. Es können daher Schwankungen des Angebots der Sonne von ca. 0,6 W / m2 auftreten – zum Vergleich: Der zusätzliche Treibhauseffekt durch erhöhte Konzentration von Kohlendioxid, Methan, Fluorchlorkohlenwasserstoffe und Distickstoffoxid be-
Der menschliche Einfluss auf das Klima
143
trägt momentan ca. 2,4 W/m2. In den letzten hundert Jahren stieg die Solarkonstante im Schnitt an, nach Schätzungen liegt sie zurzeit etwa 0,25 % höher als vor hundert Jahren. Allerdings lag der Großteil des Anstiegs der Solarkonstante in der ersten Hälfte des 20. Jahrhunderts, während sie seit 1940 langsam wieder abnimmt. Es wird auch immer wieder ein Einfluss der kosmischen Strahlung auf das Klima postuliert. Durch Ionisierung soll die Bildung von Aerosolen begünstigt und damit die Wolkenbildung stimuliert werden, was dann wiederum die Temperatur der Erde beeinflussen soll (s. Kap. 7.2). Es gibt bis heute aber keinen wissenschaftlichen Beleg für diese Hypothese, weder mit Hilfe von nachprüfbaren statistischen Verfahren noch mit Hilfe von Berechnungen mit komplexen Klimamodellen. Der Einfluss der kosmischen Strahlung wird daher in keinem der weltweit anerkannten Klimamodelle berücksichtigt. Wie stark beeinflussen die solaren Schwankungen und andere natürliche Faktoren, wie beispielsweise eine geänderte Vulkanaktivität, das Klima? Und wie stark ist der menschliche Einfluss auf das Klima? Um diese Fragen zu beantworten, wurden drei verschiedene Simulationen mit einem komplexen Klimamodell durchgeführt, die in der Abbildung 20 dargestellt sind. In der ersten Simulation wurden nur natürliche Faktoren berücksichtigt, in der zweiten nur anthropogene und in der dritten sowohl die natürlichen wie auch anthropogenen. Die Simulationen wurden im Ensemble-Modus gerechnet, d. h. es wurden verschiedene Simulationen mit unterschiedlichen Anfangsbedingungen durchgeführt. Dies ermöglicht eine Abschätzung der Unsicherheit in den Modellergebnissen aufgrund des chaotischen Charakters des Klimas. Die drei Simulationen sind daher als Bänder und nicht als einzelne Linien dargestellt.
144
Abb. 20
Das Klima des 20. und 21. Jahrhunderts
Der menschliche Einfluss auf das Klima
145
Die Modellergebnisse zeigen, dass durch die natürlichen Faktoren, insbesondere den Anstieg in der Sonnenintensität, zwar ein Teil der beobachteten Erwärmung erklärt werden kann, allerdings mit etwa 0,2 °C nur ungefähr ein Viertel. Die Sonnenvariabilität allein kann also nicht für den beobachteten Temperaturanstieg der letzten hundert Jahre von ca. 0,8 °C verantwortlich sein. Insbesondere kann durch die natürlichen Faktoren die starke Erwärmung der letzten Jahrzehnte nicht erklärt werden, sondern nur ein gewisser Temperaturanstieg in der ersten Hälfte des 20. Jahrhunderts. Dies war auch zu erwarten, da die solare Strahlung vor allem bis etwa 1940 angestiegen ist. Die Simulation, in der man nur den Faktor Mensch berücksichtigt hat, zeigt vor allem gegen Ende eine starke Erwärmung, was sich mit den Beobachtungen deckt. In der ersten Hälfte des 20. Jahrhunderts stimmt die Simulation allerdings nicht mit den Beobachtungen überein. Nur die Simulation, in der beide Faktoren, die natürlichen wie auch die anthropogenen, berücksichtigt wurden, liefert eine zufrieden stellende Übereinstimmung mit den Beobachtungen. Der überwiegende Anteil an der Erderwärmung insbesondere in den letzten Jahrzehnten ist dabei offensichtlich vom Menschen verursacht. Darüber hinaus führt nach Berechnungen mit Klimamodellen der anthropogene Treibhauseffekt zusammen mit dem Einfluss der anthropogenen »Sulfataerosole« – das sind Schwebstoffe, die ebenfalls vor allem durch die Verbrennung Abb. 20 Simulation der globalen Mitteltemperatur der Erde unter Berücksichtigung nur natürlicher, nur anthropogener und unter Berücksichtigung natürlicher und anthropogener Faktoren (nach IPCC 2001 a). Die beobachtete global gemittelte Temperatur ist in den drei Abbildungen als Linie, die Simulationen als Bänder dargestellt. Zu erkennen ist jeweils die Abweichung gegenüber dem Zeitraum 1880-1920.
146
Das Klima des 20. und 21. Jahrhunderts
fossiler Brennstoffe entstehen, aber in erster Linie kühlend wirken – zu einem charakteristischen räumlichen Erwärmungsmuster (Fingerabdruck), das man in den Beobachtungen erkennt und das sich deutlich von dem Muster natürlicher Antriebe (beispielsweise durch die Sonne) unterscheidet. Das Gleiche gilt auch für die zeitliche Entwicklung der Erwärmung. So würde beispielsweise eine durch die Sonne induzierte Erwärmung im Sommer und tagsüber am stärksten sein, tatsächlich beobachtet man die stärkste Temperaturerhöhung aber im Winter und nachts, so wie von den Klimamodellen vorhergesagt. Es ist also die gesamte raumzeitliche Struktur der beobachteten Erwärmung, die auf den Menschen als Hauptverursacher der Erderwärmung des 20. Jahrhunderts deutet.
5.4 Der Fingerabdruck des Menschen Wegen der großen Trägheit des Klimasystems ist es wichtig, den menschlichen Einfluss auf das Klima möglichst frühzeitig zu erkennen, um Gegenmaßnahmen noch rechtzeitig einleiten zu können. Der Nachweis gelang erstmals im Jahr 1995. Das CO2 wirkt, wie oben beschrieben und vereinfacht ausgedrückt, wie das Glas in einem Treibhaus: Es ist durchlässig für die Sonnenstrahlung, verhindert aber teilweise die Wärmeausstrahlung der Erde in den Weltraum, wodurch bei einer steigenden CO2-Konzentration die Gefahr einer globalen Erwärmung gegeben ist. Weitere Einflussfaktoren sind Sulfataerosole und Ruß. Sulfataerosolpartikel entstehen durch industrielle Schwefelemissionen in die Atmosphäre, aber auch bei der Verbrennung fossiler Brennstoffe, sie reflektieren einen Teil der Sonneneinstrahlung und bewirken dadurch re-
Der menschliche Einfluss auf das Klima
147
gional eine Abkühlung. Mit Hilfe von Simulationen mit gekoppelten Ozean-Atmosphäre-Meereis-Modellen und verbesserten Signalerkennungsverfahren konnte man tatsächlich zeigen, dass der Mensch mit hoher Wahrscheinlichkeit für die in den letzten Jahrzehnten beobachtete Erderwärmung verantwortlich ist. Der Nachweis der anthropogenen Klimaänderung ist ein wichtiger Schritt, um die internationale Politik zu Klimaschutzmaßnahmen zu bewegen. Mit zeitabhängigen Klimaänderungssimulationen (s. Kap. 6.3) auf der einen Seite und den langjährigen Kontrollsimulationen (ohne externe Antriebe) auf der anderen Seite stehen wertvolle Modellsimulationen zum statistischen Nachweis des anthropogenen Treibhauseffekts zur Verfügung. Sie liefern eine Voraussage der räumlichen und zeitlichen Entwicklung der anthropogenen Klimaänderung, und sie erlauben es, die statistischen Eigenschaften der natürlichen Klimavariabilität – des »Klimarauschens« – abzuschätzen. Die Fragestellung dabei ist, inwieweit die beobachtete Raum-Zeit-Struktur der Erwärmung der letzten Jahrzehnte mit der von natürlichen Klimaschwankungen vereinbar ist. Wenn die beobachtete Erwärmung außerhalb eines festgelegten Vertrauensbereichs liegt, in dem sich beispielsweise 95 % der natürlichen Klimaschwankungen abspielen, schließen wir mit einem statistischen Risiko von 5 % aus, dass es sich bei der Erwärmung um eine natürliche Klimaschwankung handelt. Im Umkehrschluss ist dann die Erwärmung mit einer Wahrscheinlichkeit von 95 % auf den Menschen zurückzuführen. Man könnte beispielsweise nur die mittlere globale Temperatur für den statistischen Nachweis des anthropogenen Treibhauseffekts verwenden, die wir anhand der Abbildung 18 bereits interpretiert haben. Allerdings kann man ein anthropogenes Treibhausgassignal in den Beobachtungen früher
148
Das Klima des 20. und 21. Jahrhunderts
und verlässlicher vom Klimarauschen – also von den natürlichen Schwankungen – trennen, wenn man zusätzlich die räumliche Struktur der anthropogenen Klimaänderung, deren »Fingerabdruck«, berücksichtigt, den man aus Modellsimulationen bestimmt. Dabei reduzieren wir durch einen Vergleich der beobachteten Temperaturänderung mit dem Fingerabdruck das Problem auf eine skalare Nachweisgröße (detection variable), d. h. auf eine einzige Maßzahl. Die Chancen, eine Klimaänderung nachzuweisen, erhöhen sich weiter, wenn der Fingerabdruck derart verändert wird, dass er natürliche Klimaschwankungen unterdrückt (»optimaler« Fingerabdruck). Dabei werden die Komponenten der Klimaänderung, die starkes Rauschen aufweisen, schwächer gewichtet als solche, die mit geringen natürlichen Klimaschwankungen in Verbindung gebracht werden. Die Fingerabdruck-Methode wurde auf das räumliche Muster von linearen Trends (Steigungen von an die lokalen Zeitreihen angepassten Geraden) der oberflächennahen Lufttemperatur im Verlauf von 30 Jahren angewendet. Damit haben wir auch noch eine zeitliche Komponente zusätzlich zu der räumlichen eingebracht, indem wir zeitliche Trends betrachten. Langjährige, homogenisierte Temperaturmessungen beschreiben die beobachtete Klimaentwicklung. Die Analyse wird nur in Gebieten durchgeführt, in denen zuverlässige Temperaturtrends berechnet werden können. Das Kontrollexperiment eines Modells, das ohne externe Antriebe gerechnet wird, wird dabei dazu benutzt, den Fingerabdruck zu optimieren. Weitere Kontrollsimulationen mit anderen Modellen dienen dazu, die Schwankungen der Nachweisgröße aufgrund des Klimarauschens noch besser abzuschätzen. Die Abbildung 21 zeigt, dass die Nachweisgröße seit kurzem vom natürlichen Rauschen abweicht.
Der menschliche Einfluss auf das Klima
149
Abb. 21 Entwicklung der Nachweisgröße (detection variable) in 30-jährigen Temperaturtrends in den Beobachtungen (grün) und in der Modellwelt (schwarz). Die Nachweisgröße ist gegen das letzte Jahr des Trends angetragen (so bezeichnet »1994« die Nachweisgröße für die Periode 1965-1994). Der graue Bereich bezeichnet den 95 % Vertrauensbereich für Schwankungen der Nachweisgröße aufgrund der natürlichen Klimavariabilität.
Damit können wir die Hypothese, dass der in den Jahren 1965–1994 beobachtete Anstieg der bodennahen Lufttemperatur ein Teil der natürlichen Variabilität ist, mit einem Risiko von weniger als 5 % zurückweisen (formal sogar nur 2,5 %, weil ein einseitiger Test nach positiven Ausschlägen der Nachweisgröße durchgeführt wurde). Berücksichtigt man auch noch die letzten zehn Jahre, nimmt die Irrtumswahrscheinlichkeit sogar noch ab, da sich der Globus weiter er-
150
Das Klima des 20. und 21. Jahrhunderts
wärmt hat und diese zusätzliche Erwärmung dem Fingerabdruck ähnelt. Die schwarze Kurve in Abb. 21 zeigt den Verlauf der Nachweisgröße, wie er vom Klimamodell vorhergesagt wird (die Schwankungen sind hier durch Mitteln von zwei Experimenten mit unterschiedlichen Anfangsbedingungen reduziert). Die derzeitige anomale Höhe der Nachweisgröße in den Beobachtungen stimmt mit der Modellvorhersage überein. Allerdings ist dieses Resultat abhängig von der Annahme, dass die Abschätzung der natürlichen Variabilität durch die Modell- und Beobachtungsdaten hinreichend genau ist. Der signifikante Temperaturtrend in der ersten Hälfte des 20. Jahrhunderts um 1945 ist wohl zum Teil durch das sich damals schon entwickelnde anthropogene Treibhausgassignal, zum größeren Teil durch ein extremes Ereignis der natürlichen Variabilität, vermutlich eine verstärkte solare Einstrahlung, erklärbar. Paläoklimatische Daten deuten an, dass dies der stärkste 30-jährige Trend in der Rückschau der vorangehenden 500 Jahre auf der Nordhalbkugel gewesen sein könnte. Die Tatsache, dass die Abschätzung der Variabilität für die verschiedenen Klimamodelle unterschiedlich ausfiel, zeigt allerdings, dass die Abschätzung der natürlichen Klimavariabilität noch gewissen Unsicherheiten unterliegt. Es lässt sich jedoch durch den Nachweis einer statistisch signifikanten Klimaänderung kein kausaler Zusammenhang zwischen dieser Änderung und Änderungen in der Treibhausgaskonzentration herstellen. Um die Klimaänderung mit der Änderung der Treibhausgaskonzentration in Verbindung zu bringen, müssen wir alle anderen Ursachen einer extern angetriebenen Klimavariation ausschließen können. Trotz der hohen Unsicherheit in unserer Kenntnis der Geschichte der solaren Schwankungen, der Vulkaneruptionen und anderer
Der menschliche Einfluss auf das Klima
151
Ereignisse samt ihrer Auswirkungen auf das Klima, erscheint eine Erklärung der derzeitigen Erwärmung durch diese Faktoren äußerst unwahrscheinlich. Die gute Übereinstimmung der Beobachtungen mit dem Modellergebnis sowie Ergebnisse weiterer Rechnungen, in denen beispielsweise auch die vertikale Struktur der Temperaturverteilung in der Atmosphäre untersucht wurde, legen die Vermutung nahe, dass die beobachtete signifikante Erwärmung der Erde insbesondere in den letzten Jahrzehnten tatsächlich mit dem Anstieg der Treibhausgaskonzentrationen in Verbindung steht.
6 Klimaänderungsszenarien für die Zukunft 6.1 Die Trägheit des Klimas Die Trägheit ist eine inhärente Eigenschaft des Klimas. Deshalb treten einige Auswirkungen der anthropogenen Klimaänderung nur langsam in Erscheinung. Einige dieser Auswirkungen könnten irreversibel sein, d.h. nicht umkehrbar, wenn bestimmte Schwellenwerte überschritten werden. Die Lage dieser Schwellwerte ist allerdings nur ungenau bekannt. Die Stabilisierung der CO2-Emissionen auf dem heutigen Stand führt wegen seiner langen Lebensdauer nicht zu einer Stabilisierung der CO2-Konzentration, während die Stabilisierung der Emission von kurzlebigeren Treibhausgasen (wie Methan) zu einer Stabilisierung von deren Konzentrationen führt. Die Stabilisierung der CO2-Konzentration auf einem bestimmten Niveau erfordert eine Reduktion der globalen Netto-Emission von CO2 auf einen Bruchteil der derzeitigen Emissionsmengen. Je tiefer das gewünschte Stabilisierungsniveau angesetzt wird, umso früher muss die Reduzierung der globalen Netto-Emission beginnen. Die Trägheit des Klimas führt dazu, dass sich noch lange nach der Stabilisierung der CO2-Konzentration das Klima ändert. Klimamodelle zeigen, dass die oberflächennahe Lufttemperatur nach der Stabilisierung der atmosphärischen CO2Konzentration mindestens über ein Jahrhundert um einige Zehntel Grad und der Meeresspiegel über viele Jahrhunderte
Klimaänderungsszenarien für die Zukunft
153
Abb. 22 Auch nach der Reduktion von CO2-Emissionen und der Stabilisierung der atmosphärischen Konzentration steigen die Oberflächentemperaturen für ein Jahrhundert oder mehr weiter um wenige Zehntel Grade pro Jahrhundert an. Die thermische Ausdehnung der Ozeane setzt sich noch lange nach der Reduktion der CO2-Emissionen fort, und schmelzende Eisschilde tragen noch für viele Jahrhunderte weiter zur Meeresspiegelerhöhung bei. Diese Abbildung ist eine generische Veranschaulichung für eine Stabilisierung auf beliebigen Niveaus zwischen 450 und 1000 ppm und trägt daher keine konkreten Zahlen auf der Auswirkungsachse (nach IPCC 2001b).
um viele Dezimeter weiter ansteigt. Der langsame Transport von Wärme in die Ozeane und die langsame Reaktion der Eisschilde haben zur Folge, dass es über ein Jahrtausend lang dauert, bis ein neuer Gleichgewichtszustand des Meeresspiegels erreicht wird (Abb. 22). Einige Änderungen im Klimasystem, die bei Betrachtung über das 21. Jahrhundert hinaus plausibel sind, wären möglicherweise irreversibel. So könnten durch beträchtliches Abschmelzen der großen Eisschilde verursachte grundlegende
154
Das Klima des 20. und 21. Jahrhunderts
Änderungen in den Mustern der Ozeanzirkulation, beispielsweise des Golfstroms, über eine Periode von vielen Menschengenerationen nicht rückgängig gemacht werden. Der Schwellenwert für grundlegende Änderungen der Ozeanzirkulation kann bei einer geringeren Erwärmung erreicht werden, falls die Erwärmung eher schnell als allmählich verläuft. Die Trägheit und die Möglichkeit der Irreversibilität sind wichtige Gründe, warum vorausschauende Anpassungs- und Verminderungsmaßnahmen geboten sind.
6.2 Was bringt die Zukunft? Durch die Verbrennung fossiler Brennstoffe und anderer menschlicher Aktivitäten erhöhen sich die Konzentrationen atmosphärischer Treibhausgase, beispielsweise des Kohlendioxids oder des Methans, aber auch die anderer Spurenstoffe, die in Partikelform (z. B. als Sulfataerosole} einen Teil des Sonnenlichtes reflektieren und damit dem anthropogenen Treibhauseffekt entgegenwirken. Die zukünftigen Folgen für das Klima der Erde können mit Hilfe von Computersimulationen abgeschätzt werden. Dazu werden, wie bereits beschrieben, globale Klimamodelle gerechnet, welche die Wechselwirkung zwischen den physikalischen Prozessen in Atmosphäre, Ozean, Meereis und Landoberflächen quantitativ beschreiben. Als Eingabeparameter benötigt ein Modell unter anderem die Konzentrationen der wichtigsten langlebigen Treibhausgase, während die Konzentrationen kurzlebiger Aerosole, die eng mit internen Prozessen wie Wolken- und Niederschlagsbildung verbunden sind, im Allgemeinen innerhalb des Klimamodells aus den vorgegebenen Emissionen berechnet werden.
Klimaänderungsszenarien für die Zukunft
155
Die Ergebnisse der Klimamodelle hängen aber entscheidend vom jeweiligen »Szenarium« ab, d. h. von den Annahmen über die zukünftige Entwicklung der Weltbevölkerung, der Industrialisierung, des Verbrauchs fossiler Brennstoffe etc. (in Abb. 23 sind die Szenarien für die CO2-Konzentration aufgezeigt, die unter anderem als Antriebe für die Klimamodelle dienen). Verschiedene Klimamodelle liefern aber auch unterschiedliche Erwärmungen, wenn sie mit demselben Szenarium gerechnet werden. Das IPCC gibt für die Entwicklung der Globaltemperatur für die Zeitspanne 1990– 2100 eine Bandbreite von 1,4–5,8° C an (Abb. 24). Diese relativ große Spanne wird zum einen durch die Unsicherheit in dem
Abb. 23 Szenarien (angenommene Entwicklung) der CO2-Konzentration für die Periode 1990 – 2100 (nach IPCC 2001b)
156
Das Klima des 20. und 21. Jahrhunderts
zukünftigen Spurengasausstoß und zum anderen durch die Modellunsicherheit hervorgerufen. Allerdings haben wir wegen der Trägheit des Klimas – selbst bei einer sehr starken Reduktion des Spurengasausstoßes bis zum Jahr 2100 – auf jeden Fall mit einer weiteren Erwärmung von ca. 1,5 °C zu rechnen. Die sehr starken Erwärmungen könnten wir aber noch vermeiden.
Abb. 24 Die mit globalen Klimamodellen berechnete Änderung der Globaltemperatur für die Periode 2000 – 2100 (nach IPCC 2001b)
Im Extremfall würden wir uns also einer Erdmitteltemperatur von ca. 20 °C im Jahr 2100 nähern. Wie aus der Abbildung 25 zu erkennen ist, wäre dies eine Temperatur, die deutlich über der für historische Warmzeiten typischen Temperatur liegt. Die letzte große Warmzeit, die Eem-Warmzeit, in der sich die
Klimaänderungsszenarien für die Zukunft
157
Erde vor ca. 125 000 Jahren befunden hat, war deutlich kälter. Eine Erdmitteltemperatur von ca. 20°C hat es nach heutigen Erkenntnissen seit mindestens einer Million Jahren nicht gegeben. Darüber hinaus entspräche eine Erwärmung von etwa 5°C dem Temperaturunterschied zwischen der letzten Eiszeit vor 20 000 Jahren und heute. Allerdings würde sich im Gegensatz hierzu die Treibhauserwärmung in nur hundert Jahren entwickeln. Eine derart rapide globale Klimaänderung hat es in der Geschichte der Menschheit noch nicht gegeben.
Abb. 25 Die maximal mögliche Treibhauserwärmung bis zum Jahr 2100 im Vergleich der Temperaturen der letzten 150 000 Jahre
Klimamodelle können immer nur eine angenäherte Beschreibung des sehr komplexen realen Klimasystems liefern. Generell gilt, dass die Aussagekraft der Modelle umso geringer wird, je kleiner das betrachtete Gebiet ist. So können beispielsweise regionale Details innerhalb Deutschlands weniger
158
Das Klima des 20. und 21. Jahrhunderts
genau erfasst werden als Unterschiede zwischen Nord- und Südeuropa. Der Hauptgrund liegt in der noch relativ groben Maschenweite der globalen Klimamodelle von einigen hundert Kilometern, die es nicht erlaubt, Gebirge wie die Alpen gut aufzulösen oder auch kleinräumige Prozesse, wie die Wolken- und Niederschlagsbildung, in allen Einzelheiten darzustellen. Hinzu kommt, dass die Modelle derzeit noch unvollständig sind. So bleiben mögliche Änderungen der Vegetation im zukünftigen Klima meistens ebenso unberücksichtigt wie Änderungen in der Masse des Inlandeises. Als Folge der oben skizzierten Klimaänderungen könnte sich beispielsweise die Vegetation ändern und diese Änderung wiederum auf die Temperatur der Landoberfläche zurückwirken. Derartige vegetationsdynamische Rückkopplungen werden vermutlich in der nächsten Generation der Klimamodelle ebenso berücksichtigt werden wie die Wechselwirkung mit chemischen Prozessen in der Atmosphäre. Es sollte aber festgehalten werden, dass die Modelle die großskaligen und langfristigen Veränderungen des Klimas trotz der oben beschriebenen Unsicherheiten relativ zuverlässig berechnen können, wie oben anhand der Abb. 20 gezeigt.
6.3 Das Klima in Europa in der Mitte des 21. Jahrhunderts Ein Modell des Max-Planck-Instituts für Meteorologie wird nun im Hinblick auf die Veränderungen über Europa analysiert. Die Ergebnisse sind charakteristisch für viele Klimamodelle. Die globale Erwärmung hat eine Zunahme des atmosphärischen Wasserdampfs zur Folge sowie einen verstärkten Wasserdampftransport von den Ozeanen zu den Kontinenten und damit eine Zunahme des Niederschlags über den Landge-
Klimaänderungsszenarien für die Zukunft
159
bieten. Regional sind die Niederschlagsänderungen jedoch sehr verschieden. Dabei fällt generell mehr Niederschlag in hohen Breiten und in Teilen der Tropen, während die regenärmeren Subtropen noch weiter austrocknen. Damit vergrößern sich die Unterschiede zwischen den feuchten und trockenen Klimaten auf der Erde. Diese Aussage gilt auch für das Klima in Europa. Allerdings sind die Niederschlagstendenzen in den Winter- bzw. Sommermonaten sehr unterschiedlich. Während der Sommerniederschlag fast überall in Europa abnimmt, wird im Winter ein ausgeprägtes Nord-Süd-Gefälle vorhergesagt mit einer Abnahme im niederschlagsarmen Südeuropa und einer Zunahme im niederschlagsreichen Mittel- und Nordeuropa. Diese Zunahme hängt zusammen mit intensivierter winterlicher Sturmaktivität über dem Nordostatlantik und verstärkten Westwinden, die feuchte Luft vom Atlantik heranführen. Auffällig sind eine Häufung von Starkniederschlägen und damit eine erhöhte Wahrscheinlichkeit von Überschwemmungen. Dies gilt zum Teil sogar für den Mittelmeerraum, in dem die mittlere Niederschlagsmenge abnimmt. Ursache ist vermutlich der höhere Wasserdampfgehalt der Atmosphäre, der bei extremen Wetterereignissen höhere Niederschlagsmengen ermöglicht als im heutigen Klima. Regionale und jahreszeitliche Unterschiede sind auch in den simulierten Temperaturänderungen erkennbar. Während im Sommer die größte Erwärmung bis zur Mitte dieses Jahrhunderts von bis zu 2,5 °C in Spanien simuliert wird, sind die Erwärmungen im Winter besonders groß (bis zu 5°C) in Regionen wie dem nördlichen Skandinavien oder Russland, in denen als Folge der Erwärmung weniger Schnee fällt. Diese Tendenzen sind auch im Jahresmittel in abgeschwächter Form erkennbar. Insgesamt wird es in unseren Breiten typischerweise ca. 30 Tage pro Jahr weniger mit Frost geben, während
160
Das Klima des 20. und 21. Jahrhunderts
sich die Anzahl der Hitzetage pro Jahr mit Maximaltemperaturen von mehr als 30°C ebenfalls um ca. 30 erhöht. Eine der wichtigen Fragen im Hinblick auf den Klimawandel ist, ob Hochwasser in Europa häufiger auftreten wird. Es gibt verschiedene Ursachen, die Hochwasser in Flüssen zuoder abnehmen lassen: erstens Eingriffe in die Fließgeschwindigkeit der Flüsse und deren Zuläufe, wie etwa Flussbegradigungen, Dammbau, Bewässerungssysteme oder Änderungen in der Bodennutzung des Flusseinzuggebietes (beispielsweise Abholzung von Wäldern). Diese Faktoren sind von Fluss zu Fluss verschieden und für die Zukunft schwer abschätzbar. Zweitens werden Häufigkeit und Schwere von Hochwassern entscheidend von einer Klimaänderung bestimmt. Insbesondere extreme Niederschlagsereignisse sind dabei von Bedeutung. Durch den Anstieg der Treibhausgase kommt es nach Aussage aller Modelle neben einer mittleren Erwärmung zu einer Intensivierung des Wasserkreislaufes und damit global gemittelt zu mehr Niederschlag. Was das für einzelne Regionen bedeuten könnte, soll jetzt anhand zweier Rechnungen mit einem globalen Modell der Atmosphäre gezeigt werden. Zunächst wurde das heutige Klima für den Zeitraum 1970– 1999 simuliert, indem beobachtete Konzentrationen der Treibhausgase verwendet wurden. Danach wurde das zukünftige Klima für den Zeitraum 2060–2089 simuliert, wobei Abschätzungen für zukünftige Treibhausgaskonzentrationen entsprechend dem Szenarium IS92a des IPCC hochgerechnet wurden. Es handelt sich hierbei um so genannte Zeitscheibenexperimente, bei denen man ein relativ hoch auflösendes Modell (ca. 100 km Auflösung) mit den Bedingungen, die mit einem grob auflösenden Modell (ca. 300 km Auflösung) simuliert wurden, antreibt. Dabei wird das grob auflösende Modell kontinuierlich für den Zeitraum 1860–2100 gerechnet, wie im
Klimaänderungsszenarien für die Zukunft
161
vorigen Kapitel beschrieben. Die resultierenden Meeresoberflächentemperaturen und Meereisbedeckungen der interessierenden Zeitscheiben (1970–1999 und 2060–2089) werden dann als Antrieb für das hoch auflösende Modell verwendet. Auf diese Weise kann man eine höhere regionale Genauigkeit erzielen, ohne dass man das kostspielige hoch auflösende Modell für die ganze Zeit rechnet. In Nord- und Mitteleuropa steigt die Anzahl der Tage mit Niederschlägen über 20 mm / Tag deutlich, d. h. extrem starke Niederschläge nehmen zu. Ein Vergleich mit der Simulation des heutigen Klimas zeigt, dass in bestimmten Gebieten sogar eine Verdoppelung der Tage mit Starkniederschlägen auftritt (beispielsweise an der norwegischen Küste). Diese Tendenz kann man heute schon an der Station Hohenpeißenberg im Alpenvorland beobachten, an der sich die Anzahl der Starkniederschläge in den letzten hundert Jahren in etwa verdoppelt hat. Um den Einfluss der geänderten Niederschläge auf die Flüsse zu untersuchen, wurden die eben vorgestellten Ergebnisse in ein Modell des lateralen Abflusses für Landflächen eingegeben, wobei Eingriffe des Menschen – z. B. durch Dammbau oder Begradigungen von Flüssen – vernachlässigt wurden, um den reinen Klimaeffekt zu bestimmen. In allen Regionen, in denen sowohl der mittlere Niederschlag als auch extreme Niederschlagsereignisse zunehmen, werden starke Hochwasser häufiger. Dies gilt besonders für Nordeuropa und Teile Mitteleuropas, also auch für uns in Deutschland. Zudem werden vom Modell auch länger anhaltende sommerliche Trockenperioden für große Teile Europas simuliert. Die Extreme werden daher im Sommer in beide Richtungen zunehmen: längere Trockenperioden und mehr Starkniederschläge. Diese Abschätzungen aus Modellrechnungen können
162
Das Klima des 20. und 21. Jahrhunderts
nur einen Hinweis geben, wie die zukünftige Entwicklung sein könnte. Noch genauere Berechnungen erhofft man sich von höher auflösenden Modellen. Angestrebt werden in den nächsten zwei Jahren Rechnungen mit globalen Klimamodellen, die typische Gitterweiten von 10 km verwenden. Regionale Klimamodelle, die etwa für Europa gerechnet werden und entsprechend hohe Auflösungen besitzen, bestätigen die Rechnungen mit den globalen Modellen insofern, als dass wir in der Tat im Sommer einerseits mit längeren Trockenperioden, andererseits aber auch mit mehr extremen Niederschlägen zu rechnen haben.
6.4 Wie stark steigt der Meeresspiegel? Der Meeresspiegel unterliegt Schwankungen auf verschiedenen Zeitskalen. Neben kurzfristigen Schwankungen durch Wind oder Gezeiten treten auch längerfristige Veränderungen aufgrund geologischer und klimatologischer Prozesse auf. Letztere lassen sich wiederum in natürliche und vom Menschen verursachte Klimaänderungen einteilen. Die wesentlichen Faktoren der längerfristigen Veränderungen des Meeresspiegels werden im Folgenden einzeln beschrieben. Erstens bewirkt die Erwärmung des Meerwassers durch den anthropogenen Treibhauseffekt eine Ausdehnung der Wassersäule und führt so zu einem Anstieg des Meeresspiegels. Eine Erwärmung der gesamten Wassersäule um 1°C würde zum Beispiel einen Anstieg des Meeresspiegels um etwa 50 cm bewirken. Eine solche gleichmäßige Erwärmung der gesamten Wassersäule innerhalb kurzer Zeit ist jedoch unrealistisch. Weil sich der tiefe Ozean sehr viel langsamer als die Ozeanoberfläche erwärmt, verringert sich dadurch auch der
Klimaänderungsszenarien für die Zukunft
163
ohnehin sehr langsame vertikale Austausch mit dieser und verlangsamt insgesamt den Meeresspiegelanstieg. Die Zahl sollte deshalb nur als Hinweis auf die Größenordnung des Beitrages der »thermischen Ausdehnung« verstanden werden. Zweitens können sich die großen Eisschilde verändern. Die Antarktis stellt den weltweit größten Speicher an Süßwasser außerhalb der Ozeane dar. Das Volumen wird auf etwa 30 Mio. km3 geschätzt; vollständiges Abschmelzen würde den Meeresspiegel um mindestens 60 m erhöhen. Der zweitgrößte Speicher ist der Grönländische Eisschild. Sein Volumen wird auf knapp 3 Mio. km3 geschätzt, bezogen auf den Meeresspiegel würde sein Abschmelzen eine Erhöhung um etwa 6 m bedeuten. Allerdings existieren keine eindeutigen Beobachtungen, die auf ein langfristiges Abschmelzen oder Zunehmen der Eisschilde in der Antarktis oder in Grönland hindeuten würden. Satellitenmessungen aus den letzten Jahren zeigen aber enorme Schmelzraten, die Besorgnis erregend sind. Darüber hinaus ist es völlig unklar, wie Änderungen der Albedo der Eisschilde, d. h. ihres Reflexionsvermögens, beispielsweise durch Ruß, die Stabilität der großen Eispanzer beeinflussen. Infolge verstärkten sommerlichen Abtauens und einer zunehmenden Infiltration mit Schmelzwasser könnten die großen Eisschilde schneller reagieren als bisher angenommen. Drittens ist seit etwa 100 Jahren ein Rückgang der Gebirgsgletscher, insbesondere auch in den Alpen, zu beobachten. Dieses Abschmelzen führt direkt zum Anstieg des Meeresspiegels, da das Schmelzwasser letztlich in den Ozean gelangt. Das Volumen der Gletscher beträgt etwa 0,2 Mio. km3. Ein vollständiges Abschmelzen der Gebirgsgletscher würde den Meeresspiegel um etwa 0,5 m ansteigen lassen. Das Schmelzen des im Ozean bereits schwimmenden Meer- und Schelfeises lässt den Meeresspiegel übrigens nicht ansteigen.
164
Das Klima des 20. und 21. Jahrhunderts
Viertens kann durch Hebungen und Absenkungen der Erdkruste vor allem regional eine Anhebung oder Absenkung des Meeresspiegels erfolgen. Es handelt sich dabei jedoch im Allgemeinen um einen sehr langsamen Prozess. Es gibt jedoch auch Ausnahmen mit beträchtlichen Anhebungen oder Absenkung der Erdkruste in relativ kurzer Zeit. Die von den Eismassen der letzten Eiszeit entlastete skandinavische Halbinsel steigt an einigen Stellen um bis zu 1 m in hundert Jahren an. Auswertungen von Pegelmessungen der letzten hundert Jahre zeigen einen Anstieg des mittleren Meeresspiegels zwischen 10– 20 cm. Die Beobachtungsdaten wurden zur Berechnung dieses Wertes mit den Ergebnissen geologischer Modelle der Erdkrustenbewegung korrigiert, um den Effekt der Anhebung und Absenkung der Erdkruste zu berücksichtigen. Die Unsicherheit im Ergebnis ist dennoch leider recht groß, da zum einen nur wenige lange Pegelmessreihen vorhanden sind, zum anderen die Korrekturen selber Unsicherheiten beinhalten. Satellitenmessungen der letzten Jahre zeigen einen relativ kontinuierlichen Anstieg des Meeresspiegels von ca. 2,7 ±0,4 mm/Jahr. Der Meeresspiegelanstieg scheint sich also in den letzten Jahren etwas beschleunigt zu haben. Prognosen für die nächsten hundert Jahre hängen stark mit dem zu erwartenden Temperaturanstieg zusammen. Verschiedene Modellexperimente weisen auf einen weiteren Meeresspiegelanstieg infolge der thermischen Ausdehnung zwischen 9 und 88 cm bis 2100 hin (Abb. 26). Im Mittel ergibt sich ein Anstieg von 49 cm als Vorhersage für das Jahr 2100 (nach IPCC 2001). Im Extremfall kann dieser aber deutlich darüber liegen. Wie sich die großen Eisschilde verhalten, bleibt aber noch offen. Allerdings ist es bei weiter stark ansteigenden Treibhausgaskonzentrationen nicht ausgeschlossen, dass beträchtliche Teile des grönländischen Eispanzers bis 2100 ab-
Klimaänderungsszenarien für die Zukunft
165
schmelzen, wodurch ein weiterer signifikanter Beitrag zum Meeresspiegelanstieg hinzukäme. Um die Frage zu beantworten, wie schnell das grönländische Eisschild abschmelzen kann, wurde ein Klimamodell mit einem Eisschildmodell gekoppelt. In einer Simulation, in welcher der CO2-Gehalt der Atmosphäre von seinem vorindustriellen Wert von 280 ppm innerhalb sehr kurzer Zeit auf das Vierfache, etwa 1100 ppm, erhöht und danach auf diesem Wert stabilisiert wurde, zeigte sich ein Anstieg des Meeresspiegels von maximal 5 mm /Jahr. Nach etwa 600 Jahren waren bereits 40 % des grönländischen Eisschilds geschmolzen. Es ist also durchaus möglich, dass es bis 2100 zu einem globalen Meeresspiegelanstieg von über 1 m kommen kann, wenn man die thermische Expansion (Abb. 26) und das Abschmelzen Grönlands zusammen betrachtet. Neuere Untersuchungen zeigen, dass während der letzten großen Warmzeit, der Eem-Warmzeit, vor etwa 125000 Jahren der Meeresspiegel etwa 4m höher lag als heute. Die während des Eems herrschenden Temperaturen werden voraussichtlich in der Arktis schon Mitte dieses Jahrhunderts überschritten sein. Man muss aber an dieser Stelle festhalten, dass die Prozesse im Zusammenhang mit der Eisschilddynamik noch nicht sehr gut verstanden sind, sodass Aussagen über die Stabilität der Eisschilde mit großen Unsicherheiten verbunden sind (s. Kap. 1.4). Außerdem wird der Meeresspiegelanstieg durch Änderungen in den Meeresströmungen regional unterschiedlich ausfallen. Alleine ein Zusammenbruch der thermohalinen Zirkulation könnte den Meeresspiegel im Bereich des Nordatlantiks um bis zu Im ansteigen lassen, während er im Südatlantik fiele. Dieses hat man mit Hilfe von ozeanischen Modellen simuliert. Auch im Bereich des äquatorialen Pazifiks könnte es infolge einer El Niño-artigen Änderung der Zirkulation zu
166
Das Klima des 20. und 21. Jahrhunderts
beträchtlichen regionalen Änderungen im Meeresspiegel kommen. So würde in diesem Fall der Meeresspiegel im westlichen Pazifik um etwa 20 cm fallen und im östlichen Pazifik um etwa 20 cm steigen.
Abb. 26 Die mit globalen Klimamodellen berechnete Entwicklung des weltweiten Meeresspiegels infolge der thermischen Ausdehnung für die Periode 2000 – 2100 (nach IPCC 2001a)
Aufgrund der großen Trägheit der Ozeane steigt der Meeresspiegel in vielen dieser Vorhersagen auch noch viele Jahrhunderte nach einer Stabilisierung der CO2-Konzentration weiter an (Abb. 22). Dies bedeutet beispielsweise, dass sich der Meeresspiegel infolge der thermischen Ausdehnung um deutlich mehr als 1 m erhöht, wenn man die CO2-Konzentration bei ca. 1000 ppm im Jahre 2100 stabilisiert, wobei der größere Anteil
Klimaänderungsszenarien für die Zukunft
167
des Meeresspiegelanstiegs nach 2100 erfolgt. Modellrechnungen zeigen, dass selbst nach tausend Jahren im Jahr 3000 der Meeresspiegel infolge der Wärmeausdehnung noch weiter ansteigen würde und ein Anstieg bis dahin von deutlich über 2 m zu erwarten wäre. Ähnliche Überlegungen gelten für die Eisschilde Grönlands und der Antarktis. Viele uns nachfolgende Generationen werden daher mit der von uns angestoßenen Klimaänderung zu tun haben. Der Meeresspiegelanstieg könnte zu einem der größten Probleme der Menschheit werden.
6.5 Die Versauerung der Ozeane Die Weltmeere speichern um die 40000 Gigatonnen Kohlenstoff (Gt C). Im Ozean ist damit gegenwärtig etwa 50-mal mehr CO2 gespeichert als in der Atmosphäre, und 20-mal mehr als in der terrestrischen Biosphäre und den Böden (s. Abb. 9). Der Ozean ist aber nicht nur ein bedeutender CO2-Speicher, sondern auch langfristig die wichtigste CO2-Senke. Angetrieben durch die Partialdruckdifferenz des CO2 zwischen der Atmosphäre und dem Meerwasser, gelangt ein Teil des durch die menschlichen Aktivitäten produzierten CO2 in die Oberflächenschicht des Meeres und mit den Meeresströmungen über Zeiträume von Jahrzehnten bis Jahrhunderten schließlich auch in den tiefen Ozean. Bereits seit einigen Jahrzehnten ist eine Zunahme der CO2-Konzentration in den oberen Meeresschichten nachweisbar, die auf den gestiegenen CO2-Anteil in der Atmosphäre zurückzuführen ist. Gegenwärtig nimmt der Ozean jährlich etwa 2 Gt C auf, das entspricht etwa 30 % der anthropogenen CO2-Emissionen. Insgesamt haben die Ozeane zwischen 1800 und 1995 etwa 118 ±
168
Das Klima des 20. und 21. Jahrhunderts
19 Gt C absorbiert, das entspricht etwa 48 % der CO2-Emissionen aus fossilen Energieträgern (einschließlich der Zementherstellung) bzw. 27–34 % der gesamten anthropogenen CO2-Emissionen einschließlich derjenigen aus Änderungen der Landnutzung in diesem Zeitraum. Das anthropogene CO2-Signal im Meer ist im Mittel bis zu einer Wassertiefe von etwa 1000 m nachweisbar; durch den langsamen Austausch der Meeresschichten hat es die Tiefsee in weiten Teilen des Ozeans noch nicht erreicht. Im Nordatlantik reicht das anthropogene CO2-Signal durch die dort stattfindende Tiefenwasserbildung (Konvektion) allerdings schon bis 3000 m hinab. In der Atmosphäre verhält sich CO2 im Wesentlichen chemisch neutral, d. h. es reagiert nicht mit anderen Gasen, trägt aber durch seine starke Wechselwirkung mit der Infrarotstrahlung erheblich zum globalen Klimawandel bei. Im Ozean dagegen ist CO2 chemisch aktiv. Gelöstes CO2 führt zu einer Absenkung des pH-Werts, d. h. einer Versauerung des Meerwassers. Dieser Effekt ist bereits messbar: Seit Beginn der Industrialisierung ist der pH-Wert des Oberflächenwassers der Meere im Mittel um etwa 0,11 Einheiten gesunken. Ausgehend von einem leicht alkalischen vorindustriellen pH-Wert von 8,18 hat also der Säuregehalt des Ozeans an seiner Oberfläche zugenommen. Auf Basis der verschiedenen IPCC-Emissionsszenarien ist bei einer atmosphärischen CO2-Konzentration von 650 ppm bis zum Jahr 2100 eine Verringerung des mittleren pH-Werts um insgesamt 0,30 Einheiten gegenüber dem vorindustriellen Wert zu erwarten. Bei einer atmosphärischen Konzentration von 970 ppm würde sich der pH-Wert um 0,46 Einheiten reduzieren. Gelingt es dagegen, das CO2 in der Atmosphäre auf 450 ppm zu begrenzen, dann beträgt die pH-Reduktion nur 0,17 Einheiten.
Klimaänderungsszenarien für die Zukunft
169
Bei der Versauerung der Meere handelt es sich um einen Effekt, der ausschließlich auf den CO2-Anstieg in der Atmosphäre zurückzuführen ist. Dadurch unterscheidet er sich vom Klimawandel, der durch die Strahlungswirkung des atmosphärischen CO2-Anstiegs, aber eben auch des Anstiegs von Methan, Lachgas und einigen weiteren klimawirksamen Gasen hervorgerufen wird. In Bezug auf den Klimawandel wird daher häufig mit CO2-Äquivalenten gerechnet, d. h. die Strahlungswirkung der verschiedenen Gase wird auf die entsprechende Strahlungswirkung von CO2 umgerechnet. Für den Klimaschutz wird argumentiert, dass es keinen Unterschied macht, ob die Strahlungswirkung allein von CO2 verursacht wird oder von anderen emittierten Treibhausgasen. Dies trifft für den Effekt der Versauerung der Meere aber nicht zu: Für den Schutz der Weltmeere ist allein die Begrenzung der weltweiten CO2-Emissionen relevant. Die Versauerung ist vor allem eine Konsequenz des schnellen Anstiegs der CO2-Menge im Ozean. Bei einem langsamen Eintrag von CO2 mischt es sich bis in die Tiefsee, wo eine langsame Auflösung von kalkhaltigen Sedimenten der Versauerung entgegenwirkt. Der pH-Wert des Meeres bleibt in diesem Fall annähernd konstant. Ein langsamer Eintrag hat in der Erdgeschichte wiederholt stattgefunden, etwa zum Ende der letzten Eiszeit, als die CO2-Konzentration über einen Zeitraum von etwa 6000 Jahren um 80 ppm stieg, oder in den Klimaepochen mit hohem CO2-Gehalt wie beispielsweise vor ca. 100– 200 Millionen Jahren. Der Eintrag von Kohlendioxid durch uns Menschen erfolgt aber mindestens tausend Mal schneller als er auf natürliche Art und Weise vonstatten geht. Das Meer ist die bedeutendste Netto-Senke für atmosphärisches CO2. Ohne die Aufnahme von anthropogenem CO2 durch den Ozean läge die CO2-Konzentration in der Atmo-
170
Das Klima des 20. und 21. Jahrhunderts
sphäre um rund 55 ppm über dem derzeitigen Niveau, d. h. schon deutlich über 400 ppm. Die große Bedeutung des Meeres als Senke gilt im Übrigen nicht für die anderen im KiotoProtokoll geregelten Treibhausgase: Die stärkste Senke für Methan (CH4) beispielsweise ist die chemische Reaktion mit dem Hydroxylradikal (OH–) in der unteren Atmosphäre, während Lachgas (N2O) überwiegend in der Stratosphäre durch die UV-Strahlung der Sonne zerstört wird. Das Meer ist allerdings eine bedeutende Quelle für N2O, deren zukünftige Entwicklung unter Einwirkung des Klimawandels unklar ist. Die Stärke der CO2-Senke Meer hängt sowohl kurz- als auch langfristig davon ab, wie stark sich die anthropogenen CO2-Emissionen in einer Erhöhung der atmosphärischen CO2-Konzentration niederschlagen. Der entscheidende Faktor für die Eigenschaft des Meeres, als CO2-Senke zu fungieren, ist daher der CO2-Anstieg in der Atmosphäre. Vor der Industrialisierung war der Ozean keine CO2-Senke. An seiner Oberfläche gab er dagegen jährlich etwa 0,6 Gt C an die Atmosphäre ab, während gleichzeitig dieselbe Menge Kohlenstoff aus der terrestrischen Biosphäre (und damit letztendlich aus der Atmosphäre) in Form von organischem Material über die Flüsse in den Ozean eingetragen wurde. Der atmosphärische CO2-Anteil änderte sich dadurch nicht und blieb über Jahrtausende konstant bei etwa 280 ppm. Langfristig, d. h. im Zeitraum von Jahrtausenden, in dem sich die Weltmeere einmal durchmischen und so den an der Oberfläche aufgenommenen Kohlenstoff gleichmäßig verteilen, kann der Ozean einen Großteil der anthropogenen CO2-Emissionen aufnehmen. Dieser Anteil verringert sich, je größer die Gesamtmenge des emittierten Kohlenstoffs ist. Da aber die Oberflächenschichten nur solange Kohlenstoff aufnehmen, bis die Partialdrücke in Oberflächenwasser und At-
Klimaänderungsszenarien für die Zukunft
171
mosphäre ausgeglichen sind, wird kurzfristig, d.h. in den nächsten Jahrzehnten und Jahrhunderten, nur ein Teil dieses großen Senkenpotentials zum Tragen kommen. Der limitierende Faktor ist der Transport des aufgenommenen Kohlenstoffs in die tieferen Meeresschichten. Bisher haben die Weltmeere erst 30 % des anthropogenen Kohlenstoffs aufgenommen, den sie langfristig bei gegenwärtiger atmosphärischer Konzentration absorbieren können. Im letzten Jahrhundert ist die jährliche CO2-Aufnahme durch den Ozean nahezu linear mit der atmosphärischen CO2-Konzentration angestiegen (0,027 ±0,008 Gt C pro ppm und Jahr). In der Zukunft erwartet man aber eine Abnahme der relativen CO2-Aufnahme: Neben dem Emissionspfad und der atmosphärischen CO2Konzentration wird die zukünftige Stärke der CO2-Senke durch die Fähigkeit der Meeresoberflächenschicht, CO2 aufzunehmen, die Geschwindigkeit des Austausches mit tieferen Meeresschichten und die Stärke der »biologischen Pumpe« bestimmt. Der letztere Ausdruck steht für den Prozess, bei dem CO2 von Meeresorganismen über Fotosynthese aufgenommen und in organische Substanz eingebaut wird; absterbende Organismen sinken in die Tiefe, was den Kohlenstoff aus der Oberflächenschicht entfernt. Sowohl der Klimawandel als auch der CO2-Eintrag selbst wirken auf diese drei Prozesse ein und verursachen so Rückkopplungen, die sich auf die Effizienz der ozeanischen Kohlenstoffsenke auswirken. Gut verstanden ist die chemische Rückkopplung durch den CO2-Eintrag: Je mehr CO2 bereits in den Ozean eingetragen wurde, desto geringer ist die Karbonatkonzentration in der Oberflächenschicht. Dies verringert die Aufnahmekapazität für weiteren Kohlenstoff. Erhöht man heute das CO2 in der Atmosphäre um 100 ppm (d. h. von 380 ppm auf 480 ppm), so ist die damit verbundene Zunahme des gelösten Kohlenstoffs
172
Das Klima des 20. und 21. Jahrhunderts
im Oberflächenwasser bereits um 40 % geringer als zu Beginn der Industrialisierung (d. h. bei einer Erhöhung von 280 ppm auf 380 ppm). Sie ist dann aber noch 60 % höher, als dies künftig bei einem atmosphärischen CO2-Anstieg von beispielsweise 750 ppm auf 850 ppm der Fall wäre. Auch langfristig, d. h. über Zeiträume von vielen Jahrhunderten bis zu Jahrtausenden, in denen sich der Ozean vollständig durchmischt, bewirkt dieser Rückkopplungseffekt, dass der in der Atmosphäre verbleibende Anteil der anthropogenen CO2Emissionen immer größer wird, je mehr CO2 insgesamt emittiert wurde. Die Löslichkeit von CO2 im Meerwasser nimmt mit steigender Temperatur ab. Bei weiter steigenden Meeresoberflächentemperaturen infolge des sich verstärkenden Treibhauseffekts verringert sich daher die CO2-Aufnahme in der Meeresoberflächenschicht. Die Erhöhung der Meeresoberflächentemperatur führt weiterhin zu einer stabileren Schichtung des Meerwassers, sodass sich das Wasser schlechter mit den darunter liegenden Wassermassen mischt. Dadurch sowie durch eine mögliche Abschwächung der thermohalinen Zirkulation reduziert sich der vertikale Transport des mit CO2 angereicherten Meerwassers aus der Oberflächenschicht in den tiefen Ozean und somit die Senkenwirkung des Ozeans. Eine erhöhte Schichtungsstabilität hat eine Reihe komplexer Wirkungen auf die Biologie. So wird die Ventilation des tiefen Ozeans und somit die Sauerstoffzufuhr verringert. Zudem vermindert eine stabile Schichtung den Rücktransport von Nährstoffen in die Oberflächenschicht und kann – bei Nährstofflimitierung der Primärproduktion – dadurch die biologische Produktivität mindern. Gleichzeitig wird aber auch der Rücktransport von Kohlenstoff in die Oberflächenschicht reduziert, sodass bei gleicher biologischer Produktivi-
Klimaänderungsszenarien für die Zukunft
173
tat mehr CO2 aus der Atmosphäre aufgenommen wird. Je nachdem, welcher der beiden Effekte überwiegt, kann dies die Senkenfunktion des Meeres erhöhen oder abschwächen. Der Kohlenstoffexport durch die biologische Pumpe kann sich als Folge des Klimawandels und der Versauerung der Meere ebenfalls ändern. Hier kommen unterschiedliche Effekte zum Tragen, die von einer Änderung der Nahrungsnetze bis zu einer reduzierten Kalkbildungsrate reichen, und bisher nur unzureichend verstanden sind. Obwohl viele der genannten Effekte (sowie weitere hier nicht genannte Rückkopplungsmechanismen) noch schlecht quantifizierbar sind, deutet alles darauf hin, dass sie in ihrer Summe zu einer deutlichen Abschwächung der Effizienz der Kohlenstoffsenke Meer beitragen. Verschiedene Modellergebnisse zeigen, dass die kumulierte CO2-Aufnahme durch den Ozean bis zum Ende dieses Jahrhunderts allein durch klimabedingte Rückkopplungen um 4–15 % geringer ausfallen könnte, als es ohne diese Rückkopplungen der Fall wäre. Diese klimabedingten Rückkopplungen addieren sich zu den geochemischen Effekten, die ohnehin zu einer Abschwächung der relativen Senke führen. Der größte Unsicherheitsfaktor bei der Abschätzung der zukünftigen Entwicklung der Ozeansenke sind die biologischen Prozesse, also die Auswirkungen auf die Primärproduktion, die biologische Pumpe und die Kalkbildung. Trotz noch großer Wissenslücken lässt sich zusammenfassend aber sagen, dass bei einer weiter steigenden atmosphärischen CO2-Konzentration der relative, durch den Ozean aufgenommene Anteil der anthropogenen CO2-Emissionen sinken wird, selbst wenn die absolute Aufnahme noch ansteigt. Die anthropogene Erhöhung der atmosphärischen CO2Konzentration führt zu Verschiebungen im Karbonatsystem
174
Das Klima des 20. und 21. Jahrhunderts
des Meerwassers und zu einer Absenkung des pH-Werts, also zur Versauerung des Ozeans. Dabei ist die Geschwindigkeit der gegenwärtigen Veränderung des marinen Karbonatsystems außerordentlich hoch und so in der Erdgeschichte seit über 20 Millionen Jahren nicht mehr vorgekommen. Der Mensch greift somit erheblich in das chemische Gleichgewicht des Ozeans ein, was für die Meereslebewesen und -ökosysteme nicht ohne Folgen bleiben wird. Eine stark erhöhte CO2Konzentration hat viele negative physiologische Wirkungen, die experimentell an verschiedenen Meeresorganismen untersucht worden sind. Es wurden zahlreiche Veränderungen bei Meeresorganismen nachgewiesen, z. B. bei der Produktivität von Algen, den Stoffwechselraten von Zooplankton und Fischen, der Sauerstoffversorgung von Kalmaren, der Reproduktion bei Muscheln, der Nitrifizierung durch Mikroorganismen und der Aufnahme von Metallen. Aus heutiger Sicht scheint es unwahrscheinlich, dass Meeresorganismen bei den zu erwartenden künftigen atmosphärischen CO2-Konzentrationen unter akuten Vergiftungserscheinungen leiden werden. Eine Verdopplung der CO2-Konzentration führt aber bei vielen Phytoplanktonarten zu einer Erhöhung der Fotosyntheserate um etwa 10 %. Die Zusammenhänge zwischen Fotosynthese, Primärproduktion des Phytoplanktons und den Folgewirkungen im Nahrungsnetz werden allerdings durch eine Vielzahl anderer Faktoren (Licht- und Nährstoffversorgung, unterschiedliches Fraßrisiko durch Zooplankton, Anpassungsprozesse usw.) verkompliziert, sodass die Wirkungen der Versauerung auf Wachstum und Zusammensetzung des Phytoplanktons recht unsicher sind. Die Kalkbildung ist neben der Fotosynthese wohl der wichtigste von der Erhöhung der CO2-Konzentration betroffene physiologische Prozess, weil er weit reichende Konsequenzen
Klimaänderungsszenarien für die Zukunft
175
für die ökologische Funktion der Meeresökosysteme hat und zudem Rückkopplungen auf die atmosphärische CO2-Konzentration und somit auf das Klimasystem auslösen kann. Viele Meeresorganismen verwenden für ihre Skelett- oder Schalenstrukturen Kalk (Kalziumkarbonat), der aus dem Meerwasser extrahiert werden muss. Dies ist nur bei einer Übersättigung des Meerwassers mit Kalziumkarbonat möglich, weswegen der absinkende pH-Wert infolge des steigenden CO2-Gehaltes die Kalkbildung erschwert. Damit geht eine Schwächung der Skelettstrukturen oder – bei Unterschreiten der Sättigungskonzentration für Kalziumkarbonat – sogar ihre Auflösung einher. Die Versauerung hat Einfluss auf alle marinen kalkbildenden Arten, wie etwa bestimmte Planktongruppen, Muscheln, Schnecken und Korallen. Stachelhäuter wie Seesterne und Seegurken sind besonders gefährdet. Korallen sind zwar die auffälligsten und bekanntesten kalkbildenden marinen Organismen und leiden besonders unter der Versauerung, aber sie tragen nur zu etwa 10 % zur globalen marinen Kalkproduktion bei. Die globale marine Kalkbildung wird zu etwa drei Vierteln von Planktonorganismen verursacht. Unter diesen sind die Coccolithophoriden von besonderer Bedeutung, da diese einzelligen Primärproduzenten, die großflächige Planktonblüten mit nur wenigen Arten erzeugen können, einen großen Beitrag zum Export von Kalziumkarbonat in die Tiefsee leisten und daher eine wesentliche Rolle im globalen Kohlenstoffkreislauf spielen. Experimente zeigen, dass sich die Kalkbildung der Coccolithophoriden bei erhöhten atmosphärischen CO2-Konzentrationen deutlich abschwächt. Die prognostizierten pH-Absenkungen im Verlauf dieses Jahrhunderts können also erhebliche Auswirkungen auf kalkbildende Organismen und somit auf die marine Biosphäre
176
Das Klima des 20. und 21. Jahrhunderts
insgesamt haben. Parallel hierzu ist mit einer deutlichen klimabedingten Zunahme der Temperaturen zu rechnen. Beide Wirkungen sind nicht unabhängig voneinander: Der CO2Anstieg kann beispielsweise die Temperaturtoleranz für Tiere verringern. Vor allem die Korallenökosysteme sind ein Beispiel für solche negativen Effekte. Es sind aber auch Auswirkungen der Versauerung auf das Nahrungsnetz denkbar. Unterschiedliche Reaktionen auf erhöhte CO2-Konzentrationen könnten über Wachstum oder Reproduktion der Organismen durch veränderte Konkurrenz die räumliche wie zeitliche Verteilung der Arten ändern. Die Versauerung der Weltmeere könnte möglicherweise auch Auswirkungen auf die Fischerei haben. Akute toxische Effekte der erhöhten atmosphärischen CO2-Konzentrationen auf Fische sind zwar nicht zu erwarten, da die akute Empfindlichkeit von Fischen gegenüber CO2 erst bei Konzentrationen jenseits der prognostizierten Konzentrationen beginnt. Für die Fischerei könnten aber die Änderungen von Struktur und Funktion mariner Ökosysteme relevant werden, die durch Veränderungen der Artenzusammensetzung des Phytoplanktons aufgrund erschwerter Kalkbildung ausgelöst werden und sich über trophische Kopplung bis in die oberen Schichten des Nahrungsnetzes auswirken können. Außerdem werden die durch die Versauerung veränderten Wachstums- und Konkurrenzbedingungen der Arten in tropischen Korallenriffen die dortige Fischerei negativ betreffen. Die Versauerung der Weltmeere ist also neben den atmosphärischen Auswirkungen und dem Anstieg des Meeresspiegels eine der größten Gefahren des Klimawandels für das Erdsystem. Allerdings müssen noch zahlreiche Prozesse und Rückkopplungen in diesem sehr komplexen Forschungszweig untersucht werden.
Strategien für die Zukunft
7 Die öffentliche Diskussion 7.1 Die Rolle der Medien Wir leben heute in einer Mediengesellschaft. In einer solchen ist das höchste Gut die Aufmerksamkeit. Wegen der Vielzahl der Medien (öffentlich-rechtliche und private Fernseh- und Hörfunkprogramme, Zeitungen, Zeitschriften, Magazine, Internet) wird es für die Journalisten zunehmend schwieriger, die Aufmerksamkeit des Zuschauers, des Hörers, des Lesers oder des Internetkunden zu erlangen. Gleichzeitig wird es für den Bürger immer schwieriger, aus der Flut der angebotenen Informationen die »richtige« Information herauszufiltern, wobei hier nicht näher definiert werden soll, welche die »richtige« Information ist. Das Resultat dieser Entwicklung ist zumindest in der Klimadebatte eine gewisse Verunsicherung der Bevölkerung. Diese Verunsicherung ist dafür mitverantwortlich, dass Maßnahmen zum Klimaschutz in der Gesellschaft nur schwer durchsetzbar sind. Andererseits stünde die Klimaproblematik ohne die Medien nicht ganz oben auf der Agenda der Weltpolitik. Insofern haben die Medien etwas geschafft, was die Klimaforschung selbst nie hätte schaffen können. Die kontinuierliche Medienberichterstattung ist daher aus Sicht der Klimaforschung insgesamt positiv zu beurteilen. Trotzdem gibt es Missstände in der Medienberichterstattung, auf die hier hingewiesen werden soll. Um die Aufmerksamkeit der Bürger zu erlangen, greifen Journalisten oft zu
180
Strategien für die Zukunft
dem Stilmittel der Übertreibung. Ein prominentes Beispiel hierfür ist das Titelbild des Magazins Der Spiegel aus dem Sommer 1986, auf dem in einer Fotomontage der Kölner Dom zu sehen ist, der zur Hälfte unter Wasser steht. Jüngstes Beispiel ist der Emmerich-Film The day after tomorrow. Obwohl es in der Wissenschaft Konsens ist, dass es zu keiner neuen Eiszeit als Folge der Erderwärmung kommen kann, wird dieses schlicht falsche Szenarium in dem Film und in vielen anderen Medien beschrieben. Aber auch das Mittel des Abwiegelns wird hin und wieder verwendet, um eine möglichst große Aufmerksamkeit zu erlangen. So stellen einige Journalisten das Klimaproblem insgesamt infrage, um sich von dem »Einheitsbrei« abzuheben und damit »Auflage« zu machen. Es ist eben doch ziemlich langweilig, immer wieder auf das Klimaproblem hinzuweisen. Es muss etwas Neues her, um die Aufmerksamkeit zu erlangen. Hier bietet sich auch der Expertenstreit an, der in der Klimaforschung praktisch nicht existiert, in den Medien aber immer wieder beschrieben wird. Natürlich wird in der Wissenschaft auch gestritten. Die Grundthese der globalen Erwärmung als Folge des anthropogenen Ausstoßes bestimmter Spurengase in die Atmosphäre ist aber weltweit akzeptiert und darf daher nicht infrage gestellt werden. Das so genannte Waldsterben ist ein Beispiel für den verantwortungslosen Umgang der Medien mit einem wissenschaftlichen Thema. Obwohl Forstwissenschaftler von »Waldschäden« sprechen, wird die Waldproblematik in den Medien nur unter dem Schlagwort »Waldsterben« geführt. Heute müssen sich die Wissenschaftler vorwerfen lassen, dass der Wald noch lebt. Gleichwohl waren die Waldschäden noch nie so groß wie heute, was eindeutig aus den jährlichen Waldschadensberichten hervorgeht. Die Wissenschaftler hatten
Die öffentliche Diskussion
181
mit ihren Prognosen also Recht. Es wird aber in den Medien so dargestellt, als wenn sich die Wissenschaftler geirrt hätten, da der Wald ja noch lebe. Daraus wird dann hin und wieder der Schluss gezogen, dass man den Ergebnissen der Umweltwissenschaften insgesamt, also auch denen aus der Klimaforschung, nicht trauen kann. An diesem Beispiel ist erkennbar, wie Übertreibungen und eine apokalyptische Wortwahl seitens der Medien einen ganzen Forschungszweig diskreditieren können. Es kann dadurch zu einem enormen Glaubwürdigkeitsverlust der Umweltwissenschaften kommen. Ähnliches kann man auch in der öffentlichen Diskussion um das Klimaproblem beobachten. In den Medien spricht man gerne anstatt vom »Klimaproblem« oder vom »Klimawandel« von der »Klimakatastrophe«. Diese Wortwahl führt dazu, dass heute schon hin und wieder die Vorhersagen der Klimaforscher als falsch beschrieben werden, da offensichtlich die Katastrophe bisher ausgeblieben ist. Kein seriöser Klimawissenschaftler würde aber jemals von einer »Klimakatastrophe« sprechen. Vergleicht man aber die Modellrechungen der Wissenschaftler mit den tatsächlichen Entwicklungen der letzten Jahrzehnte, dann ist eine recht gute Übereinstimmung mit den Beobachtungen erkennbar. Die Klimamodelle haben sich also als recht glaubwürdig erwiesen, was so aber nicht immer kommuniziert wird. Was muss nun von den Journalisten erwartet werden? Die Seriosität der Nachricht muss im Vordergrund stehen, d. h. weder die eigene Meinung noch der Zwang zum Steigern der Quote dürfen die Nachricht so weit verändern, dass sie missverständlich oder falsch wird. Die Medien spielen eine wichtige Rolle in unserer Gesellschaft und müssen sich daher zu ihrer Verantwortung bekennen, so objektiv wie möglich zu berichten. Eingehende Recherche wäre notwendig, ist aber in
182
Strategien für die Zukunft
der heutigen schnelllebigen Welt kaum noch möglich, da sie nicht honoriert wird. Die Medien dürfen darüber hinaus nicht dem Irrtum unterliegen, dass man Wissenschaft in der Öffentlichkeit diskutieren kann. Gerade das Klima ist ein komplexes physikalisches System, das durch extrem schwierige mathematische Gleichungen beschrieben wird. Die wissenschaftlichen Fragestellungen müssen daher in der Wissenschaft selbst diskutiert werden, und die Aufgabe der Medien ist es, die belastbaren Ergebnisse aus der Wissenschaft der Öffentlichkeit zugänglich zu machen. Dazu gehört natürlich auch, die Wissenslücken zu kommunizieren. Die Rolle der Experten ist ebenfalls kritisch zu sehen. Dies hat verschiedene Gründe. Die meisten Wissenschaftler haben es nicht gelernt, ihre Ergebnisse so zu präsentieren, dass sie von Laien verstanden werden, zu denen die meisten Journalisten zählen. Missverständnisse sind somit vorprogrammiert. Außerdem muss man als Wissenschaftler wissen, dass die Sprache der Wissenschaft von Laien anders aufgenommen und verstanden wird als von den Wissenschaftlern selbst. Ein Konjunktiv beispielsweise wird in der Öffentlichkeit oft nicht wahrgenommen, wie auch Wahrscheinlichkeitsaussagen im Allgemeinen falsch oder gar nicht verstanden werden. Der Experte muss sich daher sehr genau überlegen, wie er formuliert. Dieses kostet Zeit und viele Experten sind nicht bereit, diese Zeit aufzuwenden. Wie der Journalist muss auch der Experte frei von einer eigenen Agenda sein, d. h. er darf nicht bestimmte Aspekte in den Vordergrund stellen, die seiner eigenen Arbeit förderlich sein könnten. Gerade dieser Punkt ist ein wichtiger, denn jeder Vollblutwissenschaftler tendiert dazu, die Wichtigkeit seiner eigenen Arbeiten überzubewerten. Wenn beispielsweise ein Prozess, sagen wir die Wolkenbildung, nicht exakt in den Modellen berücksichtigt ist, dann
Die öffentliche Diskussion
183
heißt es natürlich nicht, dass die Modelle wertlos sind. Wolkenphysiker, die hier nur als Beispiel dienen, müssen daher genau überlegen, wie sie die Unsicherheiten in die Öffentlichkeit kommunizieren, um zu vermeiden, dass die Ergebnisse der Klimamodelle generell und auch das Klimaproblem insgesamt infrage gestellt werden. Wo stehen wir heute in der öffentlichen Klimadebatte? Es herrscht ein diffuses Bild über die Ursachen und Auswirkungen des globalen Klimawandels. Problemkomplexe wie beispielsweise die Ozonproblematik und der Treibhauseffekt werden oft miteinander verwechselt, sowohl von den Medien – selbst in Sendungen wie der ARD-Tagesschau – als auch von der Bevölkerung. Es scheint offensichtlich nicht möglich zu sein, eine solide Wissensbasis in der Gesellschaft zu etablieren. Allerdings existiert ein klares Problembewusstsein in der Öffentlichkeit dafür, dass sich als Folge des menschlichen Handelns das Klima bereits verändert hat und sich weiter verändern wird. Im Detail ist den meisten Menschen aber unklar, wie sich der menschliche Einfluss auf das Klima äußert. Für das Verhältnis zwischen Journalisten und Experten wäre es wünschenswert, wenn eine gewisse Solidarität zwischen beiden Seiten bestünde. Seitens der Wissenschaft sollte Einsicht darüber bestehen, dass die Medienarbeit kein notwendiges Übel darstellt, sondern eine wichtige Grundvoraussetzung für die Verankerung der Wissenschaft in der Gesellschaft ist. Politische Meinungsbildung kommt ohne die Wissenschaft nicht aus. Ein gewisses Entgegenkommen seitens der Experten in Richtung der Journalisten ist notwendig, indem man komplexe Sachverhalte vereinfacht, um sie der Öffentlichkeit zugänglich zu machen. Die Journalisten auf der anderen Seite sollten Verständnis dafür haben, dass bestimmte wissenschaftliche Sachverhalte nicht beliebig zu ver-
184
Strategien für die Zukunft
einfachen sind und dass sich einige wissenschaftliche Fragestellungen nicht für die Sensationsberichterstattung eignen. Journalisten und Experten sitzen im selben Boot, da beide Gruppen aufeinander angewiesen sind. Nur wenn beide Gruppen zufrieden mit dem Stand der öffentlichen Diskussion sind, ist davon auszugehen, dass die Bevölkerung kompetent über den Stand in Sachen globaler Klimawandel informiert wird.
7.2 Die Skeptiker Man hört und liest hinsichtlich des globalen Klimawandels zunehmend Widersprüchliches: Die Einen warnen vor einer Heißzeit, die Anderen sehen die nächste Eiszeit auf uns zukommen. Die Einen sprechen von abschmelzenden, die Anderen von vereisenden Polen; die Einen warnen vor einer Zunahme von Stürmen, Überschwemmungen, Wüsten, die Anderen erwarten ein Paradies auf Erden; die Einen befürchten Heerscharen von Klimaflüchtlingen aus dem Süden, die Anderen eine Verarmung des Nordens wegen zu hoher Klimaschutzausgaben; die Einen sind für sofortiges Handeln, die Anderen plädieren für Abwarten oder halten alles für ein abgekartetes Spiel geltungssüchtiger Klimaforscher, die nach Forschungsgeldern lechzen. Dem Laien fällt es schwer, sich ein fundiertes Bild zu machen. Die Materie ist schwierig, der Zugang zur Originalliteratur mühsam und das Veröffentlichte oft für Laien unverständlich. Hinzu kommt noch eine auf Tagesaktualität ausgelegte Medienberichterstattung, die zu einer unreflektierten Berichterstattung einlädt. Vor diesem Hintergrund fällt es den so genannten Skeptikern leicht, sich Aufmerksamkeit zu verschaffen. Mal habe man einen entscheidenden neuen Prozess entdeckt, der den menschlichen
Die öffentliche Diskussion
185
Einfluss auf das Klima relativiert, mal sind die Klimamodelle nicht in der Lage, elementare Eigenschaften des Klimas zu simulieren und ihre Vorhersagen daher nicht glaubwürdig. Das Ziel der Skeptiker ist es, das Klimaproblem klein zu reden und Maßnahmen zum Klimaschutz zu verhindern. Es ist daher an dieser Stelle erforderlich, sich mit den gängigen Argumenten und Behauptungen der Skeptiker auseinander zu setzen, die keinen Handlungsbedarf in Sachen Klimawandel sehen. Ein besonders prominentes Beispiel für einen Kritiker in Sachen Klimawandel ist der Autor Michael Crichton (Jurassic Park), der in seinem Buch Welt in Angst den Klimaforschern vorwirft, sich das Klimaproblem im Wesentlichen ausgedacht zu haben und eine heillose Allianz mit den Medien einzugehen. Die Lektüre des Buches macht aber nur zu deutlich, dass Crichton auf die gängigen Skeptikerargumente hereingefallen ist. Diese Argumente sind auf den ersten Blick plausibel, halten aber einer wissenschaftlichen Überprüfung nicht stand. Man kann die Argumente auch als Scheinargumente beschreiben, die gut klingen, aber keinerlei wissenschaftliche Aussagekraft besitzen. Oft sind sie auch schlicht falsch. Darüber hinaus kommen die Argumente meistens von Menschen, die entweder nicht in der Klimaforschung tätig sind oder gar keine naturwissenschaftliche Ausbildung besitzen. Insofern lohnt es, sich hin und wieder die Lebensläufe der Skeptiker anzusehen. Nicht selten wird man dann eine Nähe zur Mineralöl-Lobby feststellen können. Im Folgenden werden einige dieser Argumente auf ihre Stichhaltigkeit hin überprüft. Dabei werden wir uns hier auf einige der am häufigsten hervorgebrachten Argumente beschränken, die in einer Broschüre des Umweltbundesamtes thematisiert wurden (Umweltbundesamt 2004).
186
Strategien für die Zukunft
Klima ist längerfristig nicht vorhersagbar, weil Wetterprognosen nur einige Tage im Voraus möglich sind. Eines der gängigen Skeptikerargumente lautet: Wie kann es angehen, dass Klimaprognosen für die nächsten hundert Jahre möglich sind, obwohl man das Wetter nur einige Tage im Voraus berechnen kann? Der Unterschied zwischen Wetter und Klima bzw. die Vorhersagbarkeit des Klimas sind oben schon abgehandelt worden (s. Kap. 4.4). An dieser Stelle sei ein Beispiel beschrieben, das die Absurdität dieses Arguments deutlich macht. Jeder von uns kann eine Klimaprognose stellen, und zwar derart, dass wir vorhersagen, dass der kommende Sommer wärmer sein wird als der letzte Winter. Zunächst klingt diese Vorhersage trivial. Wenn man aber das Skeptikerargument ernst nimmt, dürfte selbst diese triviale Vorhersage nicht möglich sein, da wir deutlich über den Zeitraum von einigen Tagen hinausgehen. Der Grund dafür, dass man diese, wenn auch sehr einfache, Vorhersage treffen kann, liegt, wie wir alle wissen, in der Änderung des Sonnenstandes. In der Mathematik spricht man von Veränderungen der »Randbedingungen«. Wenn sich also Randbedingungen verändern, sind Klimaprognosen möglich. Eine wichtige Randbedingung für das Klima ist die chemische Zusammensetzung der Atmosphäre. Da wir diese durch den Ausstoß von Treibhausgasen beeinflussen, muss sich das Klima verändern. Wir können daher mit Sicherheit sagen, dass es infolge dieses Ausstoßes zu einer globalen Erwärmung kommen muss (s. Kap. 2.2 und 2.3). Die Vorhersage zum globalen Klimawandel ist in diesem Sinne ähnlich einfach wie das obige triviale Sommer /Winter-
Die öffentliche Diskussion
187
Beispiel, zumindest wenn man die Erde global betrachtet. Aus diesem Grund sind die ersten Vorhersagen zum globalen Klimawandel schon über hundert Jahre alt. Insofern schließen sich Chaos und Vorhersagbarkeit nicht aus. Die nur kurzfristige Möglichkeit der Wettervorhersage ist durch den teilweise chaotischen Charakter des Wettergeschehens bedingt. Chaotisch bedeutet dabei, dass eine kleine Änderung in der Anfangskonstellation im weiteren Ablauf immer größere Unterschiede im Geschehen auslöst. Das besagt aber nicht, dass chaotische Systeme nicht unter bestimmten Umständen vorhersagbar wären. Als weiteres Beispiel sei die Gleichzeitigkeit von mikroskopischem Chaos und makroskopischer Gesetzmäßigkeit bei Gasen genannt. Entsprechend der kinetischen Gastheorie führen die einzelnen Moleküle chaotische, kaum vorhersagbare Bewegungsabläufe durch, die äußeren Bedingungen Druck, Volumen und Temperatur hingegen nehmen dabei aber sehr wohl definierte Werte an und sind durch stringente physikalische Gesetze miteinander verknüpft. Analog hierzu gibt es in der Klimatologie Gesetze und Zusammenhänge, die eine Beschreibung des langfristigen Geschehens ermöglichen, insbesondere wenn sich Randbedingungen ändern und diese selbst vorhersagbar sind. Die physikalischen Gesetze in Form von mathematischen Gleichungen erlauben uns dann Aussagen über die Statistik von Wetterphänomenen – wie etwa die zukünftige Häufigkeit von Stürmen – jedoch nicht über den Eintritt einzelner Ereignisse. Ähnlich verhält es sich mit dem auf die Sechs gezinkten Würfel. Wir wissen, dass die Sechs häufiger kommt, wir wissen aber nicht, was der nächste Wurf bringt.
188
Strategien für die Zukunft
Es gibt gar keinen Treibhauseffekt Ein weiteres Skeptikerargument bezieht sich auf den natürlichen Treibhauseffekt, dessen Existenz in Abrede gestellt wird. Durch die These vom Treibhauseffekt würde der 2. Hauptsatz der Thermodynamik verletzt, da es keinen Energiefluss von einem kalten zu einem warmen Körper geben könne. Zudem sei die These vom Treibhauseffekt insgesamt falsch, denn die Erde sei kein geschlossenes System und es gäbe kein Glasdach am Himmel. Eigentlich handelt es sich beim Treibhauseffekt um Schulbuchwissen. Der Treibhauseffekt ist sowohl theoretisch als auch experimentell schon lange nachgewiesen. Ausschlaggebend hierfür ist natürlich nicht die Existenz eines Glasdaches, sondern dass atmosphärische Spurengase (langwellige) Infrarot-Strahlung absorbieren. Dass der Treibhauseffekt tatsächlich existiert und funktioniert, ist für jedermann erfahrbar, wenn er/sie in ein vorher in der Sonne geparktes Auto einsteigt. Es ist innen wärmer als draußen – scheinbar hat sich die Wärme entmischt, was sie nach dem 2. Hauptsatz der Thermodynamik nicht dürfte. In Wirklichkeit handelt es sich aber um einen Vorgang, der von einer starken Energiezufuhr in Form sichtbaren Lichtes (kurzwellige Strahlung) durch die Fensterscheiben des Wagens angetrieben wird. Die höhere Temperatur im Inneren des Fahrzeugs resultiert aus der Behinderung der gleichmäßigen Verteilung dieser zugeführten Energie, das Glas ist gegenüber der durch Umwandlung aus Licht entstandenen Wärme praktisch undurchlässig. Wird die Energiezufuhr beendet, so stellt sich das geforderte Gleichgewicht nach einer Weile ein. In der Atmosphäre nehmen die Treibhausgase die Rolle des Glases ein und behindern den Abtransport der (Wärme-) Energie. Um das Gleichgewicht zwischen aufgenommener (Licht-) Energie
Die öffentliche Diskussion
189
und abgegebener Wärme wieder herzustellen, muss die strahlende Erdoberfläche ein höheres Temperaturniveau einnehmen. In der Summe – und hierfür gilt der 2. Hauptsatz der Thermodynamik – fließt netto Energie von der wärmeren Erdoberfläche zur kälteren Atmosphäre, weil die Wärmeabstrahlung der Erdoberfläche größer ist als die Rückstrahlung der Atmosphäre. Der 2. Hauptsatz wird somit nicht infrage gestellt. Hin und wieder wird auch aus den Reihen der Skeptiker argumentiert, dass der Anteil des Menschen am Treibhauseffekt nur etwa 2 % betrage und deswegen irrelevant sei. Der Prozentsatz ist richtig, allerdings entsprechen 2 % vom gesamten Treibhauseffekt (33 °C) in etwa 0,6 °G. Und dies ist ungefähr der menschliche Anteil an der globalen Erwärmung in den letzten hundert Jahren. Die Prognosen der Klimaforscher werden stetig nach unten korrigiert Oft wird behauptet, die von Klimaforschern prognostizierten Temperaturen seien immer zu hoch angegeben. Davon kann gar keine Rede sein. Allerdings werden oft Zahlen miteinander verglichen, die nicht vergleichbar sind. Im 1. Bericht des IPCC (1990) wurde angegeben, dass der globale Temperaturanstieg bei einer Verdopplung der CO2-Konzentration 1,5 bis 4,5 °C betragen würde, wobei die Spanne von der unterschiedlichen Behandlung der Rückkopplungseffekte (insbesondere im hydrologischen Kreislauf und der Darstellung von Wolkenprozessen) in den verschiedenen Modellen herrührt. Dieser Bereich für die so genannte Klimasensitivität (Änderung der Temperatur bei einer Verdopplung der CO2-Konzentration) ist bis heute unverändert geblieben.
190
Strategien für die Zukunft
1995 und 2001 hat das IPCC dann darüber hinaus Aussagen über mögliche Temperaturanstiege bis zum Ende des 21. Jahrhunderts gemacht, wobei jedoch eine ganz andere Fragestellung im Spiel war. Dieser Anstieg hängt auch von der Emissionsentwicklung, d. h. vom Verhalten der Menschheit während dieses Zeitraumes ab, wodurch man eine erweiterte Temperaturspanne bekommt. Im 2. IPCC- Bericht (1995) war die Temperaturzunahme bis 2100 mit 1,5 bis 3,5 °C angegeben, im letzten Sachstandsbericht (2001) wird die Spanne mit 1,4 bis 5,8°C veranschlagt. Die Temperaturwerte im 2. Bericht sind numerisch niedriger als die im ersten, was teilweise als Entwarnung gewertet worden war. Man vergleicht hier aber die Klimasensitivität, d. h. eine Modelleigenschaft, mit einer möglichen Veränderung der Temperatur bis 2100, d. h. mit Szenarienrechnungen. Dies sind zwei grundlegend verschiedene Kenngrößen. Insofern gibt es überhaupt keinen Anhaltspunkt dafür, dass die Prognosen für die Erderwärmung nach unten korrigiert wurden. In der Tat haben sich die Vorhersagen der Klimamodelle in den letzten zehn Jahren kaum verändert, obwohl immer mehr Prozesse in den Modellen berücksichtigt werden. Es ist also wichtig, genau zu prüfen, um welche Art von Aussage es sich handelt. Insbesondere hängt die zukünftige Klimaentwicklung von dem angenommenen Szenarium ab, d. h. davon wie sich die Emissionen von Treibhausgasen in der Zukunft entwickeln. Die große Spanne von 1,4 bis 5,8°C bis 2100, die im letzten Sachstandsbericht des IPCC angegeben ist, dokumentiert vor allem, dass wir heute nicht wissen, wie wir uns in der Zukunft verhalten. Die Erwärmung wird moderat ausfallen, wenn die Treibhausgasemissionen deutlich sinken, sie wird sehr stark sein, wenn die Emissionen weiter wachsen.
Die öffentliche Diskussion
191
Es ist positiv, wenn es wärmer wird Eine leichte Temperaturzunahme kann für Landwirtschaft und Wälder der gemäßigten Breiten tatsächlich bessere Wachstumsbedingungen bedeuten. Wichtig ist dabei aber, wie sich die zukünftigen Niederschläge verhalten werden. Erhebliche Probleme kann der Temperaturanstieg in wärmeren Ländern (beispielsweise im Mittelmeerraum) mit sich bringen, wo bereits jetzt vielfach Dürre herrscht, oder aber im arktischen Bereich, wo der Permafrost im Begriff ist zu tauen, was jetzt schon erhebliche Probleme für die Infrastruktur (Gebäude, Straßen, Pipelines usw.) aufwirft. An dieser Stelle sei auch an die Intensivierung von tropischen Wirbelstürmen wie Hurrikanen erinnert, die sich seit etwa 20 Jahren abzeichnet und zu enormen Schäden geführt hat. Die Intensivierung der tropischen Wirbelstürme weltweit könnte bereits eine Folge der moderaten Erwärmung der tropischen Ozeane um einige wenige Zehntel Grad sein. Auch in unseren Breiten ist schon eine moderate Temperaturzunahme mit negativen Auswirkungen verknüpft, wie beispielsweise Schmelzen von Gletschern, Wandern von Arten, Hitzestress, längere Trockenperioden oder mehr Starkniederschläge. So hat sich die Häufigkeit von Starkniederschlägen in Deutschland in den letzten hundert Jahren bereits erhöht. Alle Anzeichen weisen jedoch darauf hin, dass wir ohne Gegenmaßnahmen nicht zu einer moderaten, sondern vielmehr zu einer deutlichen Temperatursteigerung mit einer wahrscheinlich erheblichen Zunahme von Extremereignissen kommen werden. Von einer wünschenswerten Verbesserung der Lage kann daher nicht gesprochen werden. Nach allen Berechnungen werden die negativen Folgen des anthropogenen Klimawandels gegenüber den positiven Folgen überwiegen,
192
Strategien für die Zukunft
sodass es wichtig ist, eine zu starke Erderwärmung zu vermeiden. Insbesondere ist hier auch der Meeresspiegelanstieg zu nennen, der bis 2100 durchaus 1 m betragen könnte. Bezogen auf die nächsten tausend Jahre könnte der Meeresspiegel sogar um viele Meter ansteigen. Wir sind ohnehin auf dem Weg in die nächste Eiszeit Bei dieser These wird davon ausgegangen, dass für die Steuerung des globalen Klimas nicht eine Veränderung der chemischen Zusammensetzung der Atmosphäre, sondern die Parameter der Erdumlaufbahn entscheidend seien. Variationen dieser Parameter sind zweifellos eine wichtige, allerdings nicht die einzige Ursache von Klimaänderungen. Klimawandel ist kein monokausales Geschehen, verschiedene Einflussfaktoren (Bahnparameter, Intensität der Sonnenstrahlung, anthropogener Treibhauseffekt, Änderungen der Landnutzung usw.) wirken dabei gleichzeitig. Die Zeitskalen jedoch, auf denen diese Faktoren Wirkungen hervorrufen, sind höchst unterschiedlich. Insbesondere der Zyklus von Eis- und Warmzeiten verläuft in Zeiträumen von vielen Jahrtausenden. So war der Höhepunkt der letzten Eiszeit vor etwa 20 000 Jahren. Insofern sind die sehr langsamen Prozesse, welche beispielsweise die Eiszeiten verursachen, für die nächsten hundert Jahre irrelevant und können daher mit gutem Gewissen bei der Betrachtung des anthropogenen globalen Klimawandels vernachlässigt werden. Aufgrund von Erkenntnissen der Paläoklimatologie, insbesondere aus Analysen von Bodenproben (Sedimentkernen) der Tiefsee und Bohrungen im antarktischen Eis (Eiskernen), gilt es inzwischen als gesichert, dass die Veränderungen der Erdbahnparameter der Hauptschrittmacher für die Eiszeit-
Die öffentliche Diskussion
193
Warmzeit-Zyklen sind. Diese Erdumlaufparameter verändern sich in Zyklen von etwa 20 000, 40000 und 100 000 Jahren Dauer (s. Kap. 3.5). Aus der Überlagerung dieser Zyklen lässt sich errechnen, dass wir vom voraussichtlichen Höhepunkt der nächsten Eiszeit noch etwa 30 000 Jahre entfernt sind. Klimaänderungen aufgrund der von Menschen freigesetzten Treibhausgase werden sich aber in einem wesentlich kürzeren Zeitrahmen von fünfzig bis hundert Jahren und daher mit einer sehr viel höheren Geschwindigkeit abspielen. Es ist daher illusorisch, darauf zu hoffen, dass die von uns Menschen angestoßene globale Erwärmung durch eine bevorstehende Eiszeit kompensiert werden könne. Die Sonne beeinflusst das Klima, der Mensch ist unschuldig Die Sonne ist der einzige Energielieferant für das Klimasystem der Erde. Es ist daher fast trivial, dass die Änderung der Strahlungsintensität der Sonne, d.h. die Veränderung der Energiezufuhr, unmittelbare Auswirkungen auf das Klima mit sich bringt. Die Strahlung der Sonne ist nicht so konstant, wie man ursprünglich einmal dachte. Schon seit langem ist bekannt, dass die Zahl der Sonnenflecken einer quasi elfjährigen Schwankung unterliegt. Mit diesem Zyklus ist auch die Intensität der Sonnenstrahlung verknüpft. Möglicherweise stellt auch die konkrete Dauer (zwischen acht und 17 Jahre) des Zyklus ein Maß für die jeweilige Strahlungsintensität dar. Seit Ende der 1970er Jahre ist eine direkte Beobachtung der solaren Strahlung von Satelliten aus möglich. Diese zeigte, dass die Differenz zwischen Maximum und Minimum der Sonnenstrahlung während eines Sonnenfleckenzyklus etwa 0,1 % der Strahlungsintensität ausmacht, was für einen sig-
194
Strategien für die Zukunft
nifikanten direkten Einfluss auf das Klima zu wenig ist (s. Kap. 5.3). Ein überlagerter zu- oder abnehmender Trend ist für den bisherigen Zeitraum nicht ersichtlich. Es wird außerdem ein verstärkender Mechanismus ins Feld geführt, nach dem über die Sonnenstrahlung indirekt die Bewölkung beeinflusst werde: Je intensiver die Sonne strahle, desto stärker sei dadurch das interplanetare Magnetfeld ausgeprägt. Dieses bewirke eine Ablenkung der kosmischen Strahlung und damit eine Abschirmung der Erdatmosphäre vor dieser. Die kosmische Strahlung führe zur Bildung von Kondensationskernen, wodurch Wolkenbildung begünstigt werde. Bestimmte Wolken hätten durch Abschattung niedrigere Temperaturen zur Folge, bei hoher Strahlungsaktivität sollten daher infolge geringerer Bewölkung die Temperaturen vergleichsweise erhöht sein und umgekehrt. Die Argumentation ist a priori nicht unplausibel, fraglich ist aber, welche Bedeutung diesem Prozess in Relation zu anderen Prozessen der Wolkenbildung zukommt. Insbesondere ist nach heutigem meteorologischem Kenntnisstand das Vorhandensein von Kondensationskeimen nicht der auslösende Faktor bei der Wolkenbildung. Ob zusätzliche Kondensationskerne zur Wolkenbildung führen, lässt sich nicht abschließend beurteilen, weil diese ohnehin in genügendem Umfang vorhanden sind. Eine weitere Frage ist, ob sich bei diesem Prozess vornehmlich niedrige Kumuluswolken, die abkühlend wirken, oder hoch liegende Schleierwolken (Zirren) bilden, die per saldo zum Treibhauseffekt beitragen und somit eine Erwärmung (vor allem nachts) bewirken. Für den Einfluss der Sonne spricht zunächst, dass auf eine hohe Korrelation zwischen der Länge des Sonnenzyklus (als Maß für die Strahlungsintensität) und dem globalen Temperaturmittel für den Zeitraum von 1850 bis 1980 sowie zwi-
Die öffentliche Diskussion
195
schen der Intensität der kosmischen Strahlung und dem Bewölkungsgrad für den Zeitraum 1984 bis 1993 verwiesen werden konnte. Die Korrelation zwischen Sonnenzyklusdauer und Temperatur war allerdings Ergebnis einer nicht zulässigen statistischen Datenbehandlung und wurde daher vom Urheber wieder zurückgezogen. Die Korrelation zwischen kosmischer Strahlung und Bewölkungsgrad war dagegen offensichtlich zufälliger Natur, denn sie hat sich im weiteren Zeitverlauf nicht weiter bestätigt. Es sei noch erwähnt, dass bestehende Korrelationen noch nicht den Beweis für ursächliche Zusammenhänge liefern, sie können beispielsweise auch auf gemeinsame Ursachen in einem dritten Faktor zurückzuführen oder zufällig sein. Das bekannteste Beispiel ist die Korrelation zwischen der Geburtenrate und der Zahl der Störche. Insofern ist es wichtig, dass man neben einem statistischen Zusammenhang, wie etwa einer relativ hohen Korrelation, auch eine nachvollziehbare physikalische Theorie als Erklärung für den gefundenen statistischen Zusammenhang vorweisen kann. Es wurde auch geltend gemacht, die sich ändernde kosmische Strahlung sei der eigentliche Grund für die Veränderung des Erdklimas, allerdings in Zeiträumen von Hunderten von Jahrmillionen. Abgesehen davon, dass die entsprechende Arbeit sich wegen Unzulänglichkeiten der Methodik eingehender Kritik erfreute, entbehrte das Argument, selbst wenn es zuträfe, für die klimatische Entwicklung der nächsten Jahrzehnte bzw. Jahrhunderte jeglicher Relevanz. Hier erkennen wir ein weiteres immer wiederkehrendes Argumentationsmuster: Man führt unzulässigerweise Prozesse ins Feld, die möglicherweise auf sehr langen Zeitskalen operieren, für die kurzen Zeitskalen aber, auf denen sich der anthropogene Klimawandel entwickelt, keine Bedeutung haben.
196
Strategien für die Zukunft
Selbst wenn der vorne genannte Verstärkungsmechanismus Gültigkeit besäße, wäre über die letzten 25 Jahre aufgrund der direkten Beobachtung der Sonnenstrahlungsintensität damit kein anhaltender Trend, sondern nur ein zyklisches Auf und Ab der Temperatur zu erwarten, weil sich in der Strahlung nur dieses Muster zeigt. De facto beobachten wir aber mit einem Temperaturanstieg von rund 0,2 % pro Jahrzehnt über diesen Zeitraum einen sehr ausgeprägten anhaltenden Erwärmungstrend (s. Kap. 5.3). Darüber hinaus können wir keinen nennenswerten elfjährigen Zyklus in der oberflächennahen Temperatur erkennen, sodass offensichtlich sein Einfluss auf das Klima der unteren Atmosphäre recht gering sein muss. Der Einfluss solarer Schwankungen in der oberen Atmosphäre, beispielsweise in der Stratosphäre, kann durchaus beträchtlich sein. Dies wird oft als Beweis für die Klimawirksamkeit von Veränderungen der Sonnenstrahlung angeführt. Man muss aber zwischen der oberen Atmosphäre und der Erdoberfläche unterscheiden. Bei der Diskussion um den anthropogenen Treibhauseffekt geht es vor allem um die Aufheizung der Erdoberfläche und der unteren Luftschichten und diese werden offensichtlich von den Schwankungen des solaren Strahlungsangebotes in den letzten Jahrzehnten kaum beeinflusst. Dieses besagt natürlich nicht, dass sich die Sonne in früheren Zeiten und über längere Zeiträume nicht auf die klimatischen Bedingungen ausgewirkt hat. Während des so genannten Maunder-Minimums (1650– 1710) sind beispielsweise nur wenige Sonnenflecken aufgetreten, und die Temperaturen waren sehr niedrig, weshalb von der kleinen Eiszeit gesprochen wird. Der Zusammenhang des Klimas während der kleinen Eiszeit mit der Sonne wurde inzwischen auch durch Klimamodellsimulationen bestätigt. Statistische Analysen
Die öffentliche Diskussion
197
ebenso wie Modellrechnungen ergeben aber für die letzten 25 Jahre eine ganz starke Dominanz des anthropogenen Treibhauseffektes als Ursache des Temperaturanstieges. Außerdem gibt es keine wissenschaftliche Arbeit, welche die starke Erwärmung der letzten Jahrzehnte ohne die Berücksichtigung des schnellen Anstiegs der atmosphärischen Treibhausgaskonzentrationen zu erklären vermag. Der Wasserdampf trägt maßgeblich zum Treibhauseffekt bei Es steht außer Frage, dass dem Wasserdampf beim natürlichen Treibhauseffekt das mit Abstand größte Gewicht zukommt. Etwa zwei Drittel des natürlichen Treibhauseffektes sind auf den Wasserdampf zurückzuführen. Unzulässiger Weise wird daraus der Schluss gezogen, dass Wasserdampf hinsichtlich des anthropogenen Treibhauseffekts eine größere Rolle spielt als das Kohlendioxid. Man muss den natürlichen vom anthropogenen Treibhauseffekt unterscheiden. Während der Wasserdampf das wichtigste Gas für den natürlichen Treibhauseffekt ist, spielt das Kohlendioxid beim anthropogenen Treibhauseffekt mit etwa 60 % Anteil die größte Rolle. Die Emission von Wasserdampf auf der Erde trägt praktisch nicht zur Verstärkung des vom Menschen verursachten Treibhauseffektes bei, weil hierdurch keine bleibende Erhöhung der Wasserdampfkonzentration in der Atmosphäre bewirkt wird. Während Kohlendioxid ungefähr hundert Jahre in der Atmosphäre verbleiben kann (s. Tab. 1), kehrt Wasserdampf meist nach wenigen Tagen in Form von Niederschlägen zur Erde zurück. Eine dauerhafte Zunahme des Wasserdampfgehaltes tritt jedoch ein, wenn infolge einer globalen Temperaturerhöhung einerseits die Verdunstung zunimmt und ande-
198
Strategien für die Zukunft
rerseits sich das potenzielle Aufnahmevermögen der Atmosphäre für Wasserdampf erhöht. Je wärmer es dabei ist, desto überproportional mehr Wasserdampf kann dabei in der Atmosphäre gehalten werden bevor Kondensation einsetzt. Dieser Sachverhalt wird durch die so genannte Clausius-Clapeyron-Gleichung beschrieben. Der Wasserdampf ist daher ein wichtiges Rückkopplungsgas, und die positive Wasserdampfrückkopplung der wirkungsvollste der verschiedenen Rückkopplungsprozesse. Eine etwa durch einen Anstieg der Kohlendioxid-Konzentration hervorgerufene Erwärmung führt zu mehr Wasserdampf in der Atmosphäre, wodurch sich der Treibhauseffekt noch verstärkt. Trotz einiger anders lautender Berichte in den Medien wird Wasserdampf selbstverständlich auch bei den Modellrechnungen berücksichtigt, und er macht einen beträchtlichen Anteil des insgesamt resultierenden Temperaturanstiegs aus. Kohlendioxid kann nicht der Auslöser vom Klimawandel sein – dies zeigt die Klimageschichte Wenn man die Verläufe des Kohlendioxid-Gehaltes der Atmosphäre und der mittleren Temperaturen über die letzten 650000 Jahre vergleichend betrachtet, so ist die weitgehende Übereinstimmung (Parallelität) beider nicht zu übersehen (s. Abb. 8 für die letzten 400000 Jahre). Hieraus wurde in der Vergangenheit vereinzelt (unzulässigerweise) geschlossen, dass das Klimageschehen in der Vergangenheit vom CO2 gesteuert worden sei. Tatsächlich weiß man zunächst nicht, ob sich die Größen ursächlich beeinflussen, ob beide gemeinsam von einer weiteren dritten Größe gesteuert werden oder ob die Übereinstimmung rein zufällig ist. Die genauere Analyse der Verläufe zeigt, dass die Tempera-
Die öffentliche Diskussion
199
turen einen kleinen Vorlauf von ca. 8000 Jahren gegenüber den CO2-Konzentrationen aufweisen. Es ändern sich also bei diesen langperiodischen Abläufen als Erstes die Temperaturen, hauptsächlich aufgrund der Veränderungen der Erdbahnparameter. Die Erhöhung der Temperatur bewirkt durch die Erhöhung der Wassertemperatur der Ozeane eine Freisetzung von gelöstem CO2. Möglicherweise reagiert auch die Zersetzung von Biomasse stärker auf die Temperatur als ihre Bildung. Hierdurch ergibt sich mit steigender Temperatur auch ein steigender CO2-Gehalt der Atmosphäre, und damit verstärkt sich auch der Treibhauseffekt. Es handelt sich also hierbei wie bei der Wasserdampfrückkopplung um eine positive Rückkopplung. Dieser wie auch andere Rückkopplungseffekte bewirken, dass die infolge der Veränderungen der Erdbahnparameter an sich geringfügigen klimatischen Änderungen derart verstärkt werden, dass hieraus massive Klimaumschwünge wie Warm- und Eiszeiten resultieren. Wegen der starken Wechselwirkung zwischen Physik und Biogeochemie werden deswegen immer öfter gekoppelte Klima/ Kohlenstoffkreislauf-Modelle gerechnet, um die klimatischen Auswirkungen der anthropogenen Treibhausgasemissionen zu berechnen. Die Kohlendioxid-Konzentration kann sich nicht verdoppeln, weil dafür die fossilen Vorräte nicht ausreichen Die Behauptung stimmt allenfalls für die derzeit gesicherten fossilen Reserven, da diese bei ihrer Verbrennung zwar rechnerisch eine Verdopplung der Kohlendioxid-Konzentration gegenüber dem vorindustriellen Wert von 280 ppm in der Atmosphäre bewirken würden, das Kohlendioxid aber nur etwa zur Hälfte in der Atmosphäre verbleibt (s. Kap. 2.4), rund ein
200
Strategien für die Zukunft
Drittel des freigesetzten Kohlendioxids wird durch die Ozeane aufgenommen, etwa ein Fünftel durch die terrestrische Biosphäre. Somit wäre eine Verdopplung des Kohlendioxid-Gehaltes in der Atmosphäre in der Tat nicht möglich. Zu bedenken ist jedoch, dass die tatsächlich vorhandenen Mengen an fossilen Brennstoffen weit größer sind als die heute als gesichert geltenden Vorräte (s. Kap. 8.3, Abb. 29). Bei Kohle beispielsweise rechnet man aufgrund neuer Erkundungs- und Erschließungstechniken mit etwa der zehnfachen Menge und mit weiteren technischen Fortschritten wurde und wird dieser Wert ständig nach oben korrigiert. Darüber hinaus gibt es weitere fossile Brennstoffe wie etwa Methanhydrate. Methanhydrate sind feste, eisähnliche Stoffe, die aus Methan und Wasser bestehen. Sie sind nur bei niedrigen Temperaturen und hohem Druck stabil und kommen in Meeressedimenten an Kontinentalabhängen und in Permafrostböden vor. Langfristig kann deshalb mit wesentlich höheren Brennstoffmengen gerechnet werden. Wie viel Methanhydrat es auf der Erde gibt, ist umstritten. Eine viel zitierte Schätzung beziffert die Vorkommen mit 10 000 Millarden Tonnen Kohlenstoff – doppelt so viel wie alle weltweiten Kohle-, Gas- und Erdöl-Vorkommen zusammen. Diese reichen daher aus, um den Kohlendioxid-Gehalt der Atmosphäre tatsächlich weit mehr als zu verdoppeln. Eine CO2-Konzentration von bis zu 4000 ppm ist daher innerhalb der nächsten Jahrhunderte durchaus möglich. Es ist auch zu bedenken, dass nur gut die Hälfte des vom Menschen verursachten Treibhauseffekts auf Kohlendioxid zurückgeht. Bei Berücksichtigung der übrigen Treibhausgase würde ohne Gegenmaßnahmen die Verdopplung des »äquivalenten« CO2-Gehaltes wahrscheinlich bereits deutlich vor Mitte dieses Jahrhunderts erreicht werden. Darüber hinaus ist
Die öffentliche Diskussion
201
schwer voraussehbar, ob auch in Zukunft bei steigender Kohlendioxid-Konzentration und der zu erwartenden Erwärmung Kohlendioxid im gleichen Umfang wie bisher von den Ozeanen und der Vegetation aufgenommen werden kann. So könnte bei steigenden Temperaturen und entsprechend starkem Hitzestress die bislang als Senke für CO2 wirkende Biosphäre zur Quelle werden und CO2 sogar freisetzen. Einigkeit besteht darin, dass die relative Aufnahmefähigkeit der Ozeane für Kohlendioxid in der Zukunft abnehmen wird. Kohlendioxid entstammt hauptsächlich den Ozeanen oder den Vulkanen Die jährliche CO2-Konzentrationszunahme (im Schnitt 1,5 ppm /Jahr mit erheblicher Variation) und der Konzentrationsverlauf seit vorindustrieller Zeit sind gut bekannt und inzwischen auch unbestritten. Vereinzelt wird geltend gemacht, das CO2 entstamme im Wesentlichen den Ozeanen, aus denen es in Folge (natürlicher) Erwärmung entweiche (ähnlich wie aus sich erwärmendem Sprudelwasser). Die Stichhaltigkeit dieser Behauptung kann experimentell überprüft werden, indem der Kohlendioxid-Gehalt in der Atmosphäre über dem Ozean und die im Wasser der Ozeane gelöste Kohlendioxid-Menge parallel gemessen werden. Hierbei zeigt sich, dass die im Wasser gelöste Kohlendioxid-Menge überwiegend geringer ist als der CO2-Gehalt in der Atmosphäre. Ozeane sind daher, was ihren Gehalt an Kohlendioxid angeht, global mehrheitlich »untersättigt«. Kohlendioxid geht deshalb in der Bilanz überwiegend von der Atmosphäre in die Ozeane über; Ozeane wirken insgesamt als Kohlendioxid-Senke. Diese Tatsache wird auch durch Messung des Kohlenstoff-Isotops 14C bestätigt. Derartige Messungen erlauben, zwischen Kohlendioxid aus natür-
202
Strategien für die Zukunft
lichen (biogenen) Quellen und solchem, das durch Verbrennung fossiler Brennstoffe (Kohle, Erdöl, Erdgas) entstanden ist, zu unterscheiden. Durchgeführte 14C-Messungen bestätigen, dass der Kohlendioxid-Anstieg in der Atmosphäre auf die Verbrennung fossiler Brennstoffe und nicht auf Freisetzungen aus den Ozeanen zurückzuführen ist. Man beobachtet darüber hinaus, dass die Ozeane zunehmend saurer werden – ein weiterer Beleg dafür, dass die Ozeane Kohlendioxid aufnehmen. Diese Versauerung kann langfristig schwer wiegende Folgen für das Leben im Meer haben. Falls die weltweiten CO2-Emissionen auch in Zukunft weiter stark ansteigen, besteht die Gefahr, dass der pH-Wert des Ozeans Werte erreicht, die seit mindestens 20 Millionen Jahren nicht mehr beobachtet worden sind. Bislang war man aufgrund vorliegender Messungen von vergleichsweise sehr geringen CO2-Emissionen durch Vulkane ausgegangen. Inzwischen wird auch behauptet, die durch Vulkane freigesetzten Mengen seien wesentlich größer und auch aus Gesteinen, hauptsächlich in vulkanischen Gebieten, würde CO2 abgegeben. Die angeführten Mengen liegen bei etwa 600 Mio. t CO2 / Jahr, was etwa 2 % der heutigen anthropogenen Emissionen entsprechen würde. Auch wenn diese – messtechnisch schwer erfassbare – Menge zutreffend sein sollte, so würde dies an der anthropogenen Emission überhaupt nichts ändern. Einer relativ gut bekannten großen anthropogenen Menge würde eine schlecht bekannte geringere natürliche Menge hinzugefügt. Eine hohe Emissionsrate aus Vulkanen und Gesteinen ist schon insofern unwahrscheinlich, da in den 800 Jahren vor der Industrialisierung die CO2-Konzentration der Atmosphäre relativ konstant war. Wäre der Vulkanismus der Hauptemittent, hätte die Konzentration auch in dieser Zeit schon stark schwanken müssen.
Die öffentliche Diskussion
203
Mehr Kohlendioxid bleibt ohne Klimaeffekt Man hört des Öfteren, zusätzlich in die Atmosphäre eingebrachtes Kohlendioxid besäße keine Klimarelevanz, da die wesentlichen Absorptionsbanden bereits gesättigt seien. Dieses Argument ist für einige Spektralbereiche (insbesondere die Zentralbereiche der Absorptionsbanden bei 4,5 und 14,7 (im Wellenlänge) zutreffend, aber nicht für alle Bereiche, insbesondere nicht für die Flanken der Absorptionsbanden. Diese Sachlage bedingt, dass CO2 durchaus klimawirksam ist, wegen der weitgehenden Sättigung jedoch im Vergleich zu voll absorbierenden Stoffen (ungesättigte Infrarot-Banden) ein sehr viel geringeres Erwärmungspotenzial besitzt. Die Bedeutung des CO2 resultiert daher aus den enormen Mengen, in denen es emittiert wird. Da das Kohlendioxid vor allem an den Flanken der Absorptionsbanden wirksam ist, steigt seine Klimawirksamkeit auch nur mit dem Logarithmus der Kohlendioxid-Konzentration an. Da die CO2-Konzentration aber exponentiell ansteigt, sollte die Temperatur im Wesentlichen linear mit der Zeit ansteigen, was man auch in den Modellen sieht. Außerdem führen die Wasserdampfrückkopplung und andere positive Rückkopplungen zu einer Verstärkung des reinen CO2-Effekts und der Effekte durch die anderen durch uns Menschen in die Atmosphäre eingebrachten Treibhausgase. Zwischen Satelliten- und Bodenmessung von Temperaturen besteht Diskrepanz Lange Zeit behaupteten Skeptiker, dass zwischen den Trends oberflächennaher Messstationen mit einem Temperaturan-
204
Strategien für die Zukunft
stieg von 0,8°C im globalen Mittel über die letzten hundert Jahre und den allerdings nur über die letzten 25 Jahre verfügbaren Satellitendaten mit keinem oder sogar leicht abnehmendem Trend ein Widerspruch bestünde. Die durch verschiedene Methoden (die Boden- und Schiffsmessungen sind direkte Messungen der Lufttemperatur, die Satelliten messen die Temperatur indirekt über die von der Erdoberfläche und der Atmosphäre ausgehende langwellige Strahlung) gewonnenen Datensätze sind allerdings nur bedingt vergleichbar. Auf die sehr unterschiedliche zeitliche Dimension beider Messreihen wurde bereits verwiesen. Dies bedeutet auch, dass die Erfahrung bei der Erhebung der Bodendaten viel größer und die Entwicklung und Vereinheitlichung der Messtechnik viel weiter fortgeschritten ist als bei den Satellitenmessungen, wo beispielsweise sehr verschiedene Messgeräte und -verfahren zum Einsatz kamen und kommen. Besondere Schwierigkeiten wirft die Kombination der Daten verschiedener Satelliten auf, weil zwischen diesen erhebliche Sprünge bestehen, die Trendaussagen praktisch unmöglich machen. Sehr gravierend sind auch die Unterschiede der Beobachtungsgröße: Die oberflächennahen Messungen sind Punktmessungen in einer Höhe von 2 m, bei den Satelliten dagegen wird ein Integral, d. h. ein Mittelwert, der Temperatur über die untersten 6 km der Troposphäre erfasst (die Temperaturen können in diesem Höhenbereich eine Bandbreite von über 30°C überstreichen). Für Aussagen über einen langjährigen Temperaturtrend an der Erdoberfläche sind aus all diesen Gründen die direkten Messungen deutlich besser geeignet als die Satellitendaten. Darüber hinaus sind die oberflächennahen Temperaturen entscheidend im Hinblick auf Auswirkungen auf die belebte wie die unbelebte Natur. Es konnte gezeigt werden, dass die Satellitendaten inkor-
Die öffentliche Diskussion
205
rekt kalibriert worden sind, weil man den Höhenverlust der Satelliten von 1,2 km pro Jahr, der sich auf das Messergebnis auswirkt, nicht berücksichtigt hatte. Nach Ausführung der Korrektur zeigen auch die Satellitendaten einen leicht ansteigenden Trend (von ca. 0,05°C pro Jahrzehnt). Ganz aufgelöst hat sich der Widerspruch nach einer neuerlichen Veröffentlichung, die mit den gleichen Satellitendaten unter Anwendung eines anderen statistischen Verfahrens zu den praktisch gleichen Temperaturtrends wie die direkten Temperaturmessungen gelangte. Insgesamt sind also die gängigen Skeptikerargumente wenig stichhaltig. Daher gibt es auch einen großen Konsens in der internationalen Klimaforschung, dass der Mensch das Klima in immer stärkerem Maß beeinflusst. Harte Fakten sind: 1. Die Treibhausgaskonzentrationen steigen infolge menschlicher Aktivität massiv an. Der Kohlendioxid-Gehalt der Atmosphäre beispielsweise war seit mindestens 650000 Jahren nicht so hoch wie heute. 2. Dies hat zu einer Verstärkung des Treibhauseffekts und zu einer globalen Erwärmung geführt. Von der gesamten beobachteten Erderwärmung der letzten hundert Jahre von insgesamt 0,8°C gehen etwa 0,6°C auf das Konto des Menschen. Ein geringerer Beitrag an der Erderwärmung von etwa 0,2°C ist natürlichen Ursprungs. 3. Die globale Erwärmung hat zu einer weltweiten Häufung von Wetterextremen in den letzten Jahrzehnten geführt. 4. Die Erwärmung hat einen Rückgang der Schnee- und Eisbedeckung der Erde verursacht. Die Erwärmung der Weltmeere und das Schmelzen von Landeis haben bereits zu einem Anstieg des Meeresspiegels von 10–20 cm geführt.
206
Strategien für die Zukunft
5. Bei weiter stark ansteigenden Treibhausgaskonzentrationen ist bis 2100 mit einer für die Menschheit einmaligen Erderwärmung zu rechnen. 6. Die Folgen wären eine weitere Zunahme von Wetterextremen und ein weiterer Anstieg des Meeresspiegels.
8 Was muss geschehen? 8.1 Das Kioto-Protokoll Die Klimaproblematik steht inzwischen an oberster Stelle auf der Agenda der Weltpolitik. In der Klimarahmenkonvention der Vereinten Nationen von Rio de Janeiro aus dem Jahr 1992 ist festgelegt, eine Stabilisierung der atmosphärischen Treibhausgaskonzentrationen auf einem Niveau erreichen zu wollen, »auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird«. Im Dezember 1997 haben 159 Vertragsstaaten der Rahmenkonvention der Vereinten Nationen einstimmig das so genannte Kioto-Protokoll angenommen. Wie von der ersten Vertragsstaatenkonferenz im April 1995 im so genannten Berliner Mandat gefordert, war damit die erste Ausführungsbestimmung zur Klimakonvention wenigstens formuliert. In ihr werden die Industrieländer verpflichtet, ihre Treibhausgasemissionen um im Mittel 5,2 % (bezogen auf die Emission im Jahre 1990) bis zur Periode 2008 bis 2012 zu reduzieren. Ein 5-Jahres-Rahmen anstelle eines scharfen Zieljahres wurde gewählt, weil ungewöhnliche Schwankungen (beispielsweise aufgrund besonderer Witterungsbedingungen, wie etwa außergewöhnlich kalte Winter) ausgeglichen werden sollen, und ein längerer Verpflichtungszeitraum auch für die Einbeziehung von Senken und den Emissionshandel sinnvoller ist. Neben dem Kohlendioxid kann auch die Minderung der Emissionen anderer Treibhaus-
208
Strategien für die Zukunft
gase bei Umrechnung in CO2-Äquivalente angerechnet werden. Völkerrechtlich verbindlich wird das Kioto-Protokoll, wenn es mindestens 55 der Vertragsstaaten, die mindestens 55 % aller CO2-Emissionen des Jahres 1990 umfassen, ratifiziert haben. Das Kioto-Protokoll ist im Februar 2005 mit der Ratifizierung Russlands in Kraft getreten. Die Europäische Union muss im Mittel um 8 % reduzieren. EU-intern gibt es aber eine Lastenteilung (burden sharing) mit länderspezifisch sehr unterschiedlichen Reduktionszielen. Die USA sollen 7 % und Japan 6 % des Treibhausgasausstoßes reduzieren. Allerdings ist fraglich, ob die USA das Protokoll ratifizieren werden. Noch sprechen sie sich vehement gegen das Kioto-Protokoll aus. Russland sollte nur stabilisieren und Norwegen darf gar zulegen. Diese unterschiedlichen Minderungssätze sind Resultat nachweislich unterschiedlicher Bedingungen, aber auch teilweise eine Folge des Verhandlungsgeschicks einzelner Länder. Für die Entwicklungsländer wurden keine verbindlichen Reduktionsziele formuliert. Mit dem Kioto-Protokoll beginnt die Menschheit, nachdem ihre Wirkung auf das Weltklima offensichtlich geworden ist, Erdsystemmanagement. Das Kioto-Protokoll enthält vier für die Menschheit neue Instrumente: 1. Handel mit Emissionsrechten (emissions trading), 2. Gemeinsame Umsetzung (Joint Implementation), 3. Berechnung von Nettoquellen, d. h. Einschluss von Emissionen und Senken für Treibhausgase (accounting for sinks), 4. Mechanismus zur nachhaltigen Entwicklung (clean development mechanism).
Was muss geschehen?
209
Die Verfahrensregeln müssen aber noch eindeutig festgelegt werden. Beispielsweise muss klar sein, welchen Anteil der Minderungsverpflichtung ein Land durch Kauf von Emissionsrechten von einem anderen Land, das über die Verpflichtung hinaus reduziert hat, begleichen darf. Weiterhin muss beispielsweise festgelegt werden, wie viel CO2 von einem neu aufgeforsteten Waldgebiet gebunden wird und von den Emissionen durch Nutzung fossiler Brennstoffe abgezogen werden darf. Zum ersten Mal ist auch gemeinsame Umsetzung zwischen Annex I-Staaten (den im Annex I der Konvention aufgelisteten Industrieländern) als Teil eines völkerrechtlich verbindlichen Protokolls erwünscht. Baut beispielsweise Deutschland in der Ukraine ein Gas- und Dampfturbinenkraftwerk mit einem elektrischen Wirkungsgrad von annähernd 50 % bei gleichzeitiger Abwärmenutzung an der Stelle eines stillzulegenden alten Kraftwerkes mit nur 30 % elektrischem Wirkungsgrad und ohne Abwärmenutzung, muss festgelegt werden, wie dies verrechnet wird. Noch komplexer werden die Regeln beim Technologietransfer in Entwicklungsländer, der mit dem Instrument des Mechanismus zur nachhaltigen Entwicklung geregelt werden soll. Dabei muss gesichert sein, dass der Innovationsanstoß in den hoch entwickelten Ländern gewahrt bleibt und neue Technologie rascher und finanziell unterstützt in die Entwicklungsländer gelangt. Das für den Transfer notwendige Geld könnte wenigstens zum Teil aus dem Handel mit Emissionsrechten stammen, aber auch dafür sind die Regeln noch nicht festgelegt. Den aus Sicht der Klimaforscher notwendigen Klimaschutz liefert das Kioto-Protokoll in der gegenwärtigen Form allerdings nicht, insofern hat das Kioto-Protokoll vor allem einen symbolischen Wert. Darüber hinaus sind die USA zurzeit
210
Strategien für die Zukunft
nicht bereit, das Kioto-Protokoll zu ratifizieren, obwohl sie allein für knapp 25 % der weltweiten CO2-Emissionen verantwortlich zeichnen. Um gravierende Klimaänderungen in den nächsten hundert Jahren zu vermeiden, müsste der weltweite Ausstoß von Treibhausgasen gegenüber dem heutigen Ausstoß bis zum Jahr 2100 mindestens halbiert werden. Das ist weit mehr, als das was im Kioto-Protokoll gefordert wird. Das Kioto-Protokoll kann daher nur ein erster, aber wichtiger Schritt in Richtung der Senkung der weltweiten Treibhausgasemissionen sein. Die jährlich stattfindenden Vertragsstaatenkonferenzen bieten jedoch die Chance für Nachbesserungen, so wie es auch bei dem Montrealer Protokoll, der Ausführungsbestimmung zur Wiener Konvention zum Schutz der Ozonschicht, der Fall war. Das ursprüngliche Montrealer Protokoll aus dem Jahr 1987 garantierte keineswegs den Schutz der Ozonschicht, manche Wissenschaftler sprachen damals sogar von »Sterbehilfe« für die Ozonschicht. Das Protokoll wurde aber Schritt für Schritt verschärft, und man kann heute wohl davon ausgehen, dass die Welt das Ozonproblem noch in letzter Sekunde gelöst hat. Es wird aber noch viele Jahrzehnte dauern, bis sich das Ozonloch wieder geschlossen hat. Dies verdeutlicht noch einmal, wie träge das Klima reagiert und dass vorausschauendes Handeln geboten ist.
8.2 Treibausgasemissionen Der Ausstoß und die Konzentration der langlebigen Treibhausgase sind in den letzten Jahrzehnten, insbesondere nach dem Zweiten Weltkrieg, dramatisch angestiegen. Trotz des Wissens um die anthropogene Beeinflussung des Klimas ist
Was muss geschehen?
211
auch heute noch nicht abzusehen, dass die Treibhausgasemissionen weltweit sinken. Wie in der Abb. 27 dargestellt, steigen die weltweiten Kohlendioxid-Emissionen seit 1990 trotz der Klimarahmenkonvention von Rio und des Kioto-Protokolls sogar weiter massiv an.
Abb. 27 Die Entwicklung der weltweiten energiebedingten CO2-Emissionen (Mrd. t CO2) von 1990 – 2004
Lag der Ausstoß 1990 noch bei etwa 22 Milliarden Tonnen, so betrug er 2004 schon etwa 28 Milliarden Tonnen. Besonders auffällig ist dabei, dass die Emissionen exponentiell anwachsen, der Ausstoß sich also immer schneller erhöht. Es ist plausibel anzunehmen, dass sich dieser Trend innerhalb der nächsten Jahre nicht umkehren wird, sodass wir auch weiterhin mit stark steigenden CO2-Konzentrationen zu rechnen haben. Ein Blick auf die nach Ländern aufgeschlüsselten Emissionen (Abb. 28) zeigt, dass vor allem die USA und China zusammen mit einem Anteil von etwa 40 % weit vor allen anderen Ländern liegen. Insbesondere die enorm dynamische wirtschaftliche Entwicklung in den Schwellenländern wie China und Indien wird
212
Strategien für die Zukunft
Abb. 28 Die nach Ländern aufgeschlüsselten energiebedingten CO2Emissionen (Mrd. t CO2) für das Jahr 2004
es in den kommenden Jahrzehnten erschweren, eine signifikante Reduzierung der Treibhausgasemissionen zu erreichen. Dabei geben die enormen Kohlereserven in China Anlass zur Sorge. Aber auch innerhalb der Europäischen Union (EU) steigen die CO2-Emissionen in vielen Ländern. So hatten Spanien und Portugal 2004 einen Zuwachs von über 40 % gegenüber 1990 zu verzeichnen. Die stärksten Reduktionen von über
Was muss geschehen?
213
50 % seit 1990 erzielten die drei baltischen Staaten Estland, Lettland und Litauen. Deutliche Reduktionen von etwa 30 % hat man ferner in Polen, Ungarn, der Slowakei und in Tschechien erreicht. Deutschland liegt mit einer Reduktion von 19 % im Jahr 2004 gegenüber 1990 im Mittelfeld. Wahrscheinlich wird es auch die EU insgesamt nicht schaffen, den CO2-Ausstoß innerhalb der nächsten Jahre, wie vom KiotoProtokoll gefordert, zu senken.
8.3 Handlungsoptionen Diese Zahlen belegen, dass es enorm schwer sein wird, die Treibhausgasemissionen kurzfristig zu senken. Daher ist es vernünftig anzunehmen, dass die Emissionen auch weiterhin steigen und eine weltweite Reduktion des Ausstoßes von Treibhausgasen, wenn überhaupt, erst in einigen Jahrzehnten realisiert werden kann. Befinden wir uns also bereits in einer hoffnungslosen Situation? Um diese Frage zu beantworten, muss man die Trägheit des Klimas ins Kalkül mit einbeziehen. Darüber hinaus ist es wichtig, auch die Trägheit der Wirtschaft zu berücksichtigen. Wirtschaftlich sinnvolle Handlungsstrategien versuchen, sowohl gravierende Klimaänderungen als auch große weltwirtschaftliche Verwerfungen zu vermeiden. Es ist an dieser Stelle sinnvoll, den Zeithorizont der nächsten tausend Jahre zu betrachten. Wir verwenden zwei typische vom IPCC vorgeschlagene BAU-(business as usual) Szenarien, die mit den Buchstaben C und E bezeichnet werden (Abb. 29), und benutzen sie als Antriebe für ein vereinfachtes Klimamodell, das es erlaubt, innerhalb kurzer Zeit lange Zeiträume zu simulieren. Dabei steigen die CO2-Emissionen in
214
Strategien für die Zukunft
die Atmosphäre unter der Annahme, dass alle verfügbaren fossilen Ressourcen verfeuert werden. In der ersten Simulation werden 4000 Gt C (Kurve C) verfeuert (man beachte, dass die Emission hier in Einheiten von Kohlenstoff (C) und nicht in Einheiten von Kohlendioxid (CO2) angegeben ist). Dies entspricht in etwa dem, was man für die konventionellen fossilen Brennstoffe (Erdöl, Erdgas, Kohle) als Reserven abgeschätzt hat. In der zweiten Simulation sind die Emissionen mit 15000 Gt C (Kurve E) sogar noch deutlich höher, weil man in diesem Szenarium angenommen hat, dass auch »exotische« Reserven verfeuert werden, wie beispielsweise Schwer- und Schieferöle oder Teersand. Wenn alle Reserven verfeuert werden, dann steigt die CO2-Konzentration auf Werte zwischen 1200 ppm im Szenarium C und 4000 ppm im Szenarium E innerhalb der nächsten Jahrhunderte an, d. h. auf ein Vielfaches des vorindustriellen Wertes von 280 ppm. Die beiden Simulationen berechnen das Klima bis zum Jahr 3000. Für das Verständnis des Klimasystems sind derartige Rechnungen sehr hilfreich, da sie fundamentale Aspekte der Reaktion des Klimas aufzeigen. Man sollte aber auch erwähnen, dass bei Verwendung solcher Extremszenarien der Gültigkeitsbereich der Modelle verlassen werden kann. Vorsicht ist daher bei einer zu detaillierten Interpretation der Ergebnisse geboten. Die CO2-Konzentrationen bleiben während des gesamten simulierten Jahrtausends relativ hoch. Dies gilt selbst für das Szenarium C, in dem der CO2-Ausstoß ungefähr im Jahr 2300 auf null sinkt, danach also kein Kohlendioxid mehr durch den Menschen in die Atmosphäre entlassen wird. Dennoch beträgt die CO2-Konzentration im Jahr 3000 noch weit über 500 ppm. Im Szenarium E ist die Situation noch extremer mit einer CO2-Konzentration von etwa 4000 ppm am Ende dieses
Was muss geschehen?
215
Abb. 29 Zeitliche Entwicklungen der CO2-Emissionen (Gt C/Jahr), der CO2-Konzentrationen (ppm), der globalen Temperatur (°C) und des globalen Meeresspiegels (m) unter der Annahme zweier BAU-Szenarien. Im Szenarium C werden alle konventionellen Reserven an fossilen Brennstoffen, im Szenarium E auch die »exotischen« verfeuert. Die obere gestrichelte Linie in der Abbildung für den Meeresspiegel berücksichtigt auch das Abbrechen des westantarktischen Eisschildes. Ein Großteil der klimatischen Veränderungen stellt sich erst in der zweiten Hälfte dieses Jahrtausends ein. Alle Veränderungen sind als Abweichung von ihren vorindustriellen Werten dargestellt.
216
Strategien für die Zukunft
Jahrtausends. Die Atmosphäre verliert offensichtlich das in sie durch den Menschen eingebrachte Kohlendioxid nur sehr langsam. Ähnlich sieht es mit der Reaktion des Klimas aus, die wir uns anhand der globalen Temperatur und des globalen Meeresspiegels ansehen. In beiden Szenarien bleibt die global gemittelte Temperatur auch nach der Reduktion der CO2-Emissionen auf einem sehr hohen Niveau und kühlt sich nur ganz langsam ab. Noch extremer ist die Situation beim Meeresspiegel, der sich aus der thermischen Expansion, dem Schmelzen der Gebirgsgletscher und dem langsamen Abschmelzen des grönländischen Eisschildes zusammensetzt. Die obere gestrichelte Linie berücksichtigt auch noch das Abbrechen des westantarktischen Eisschildes. Selbst am Ende dieses Jahrtausends hat sich noch kein neues Gleichgewicht eingestellt. Der Meeresspiegel steigt insbesondere in der zweiten Hälfte dieses Jahrtausends stark an mit Werten, die mehrere Meter übersteigen können. Selbst im Jahr 3000 steigt der Meeresspiegel immer noch an. Es ist also durchaus möglich, dass wir sehr vielen nachfolgenden Generationen einen enormen Meeresspiegelanstieg hinterlassen. Eine Klimaänderung, wie etwa eine Temperaturerhöhung, ein Meeresspiegelanstieg oder Änderungen im Auftreten von Dürren und Überschwemmungen wirken sich unmittelbar auf uns Menschen und auf die Ökosysteme aus. Wir werden uns entweder an die Klimaänderung anpassen oder Schritte unternehmen, um unsere bisherigen Handlungsmuster zu ändern. Dies wiederum wird dazu führen, dass sich der Ausstoß von Treibhausgasen in die Atmosphäre verändert, was schließlich wiederum unser Klima beeinflusst. Nur eine integrierte Betrachtung mit Hilfe von Erdsystemmodellen macht daher Sinn, in der wir nicht nur das Klima berechnen, sondern auch die gesellschaftlichen und ökonomischen Aspekte des
Was muss geschehen?
217
globalen Klimawandels. Um gravierende Klimaänderungen zu vermeiden, müsste der weltweite Ausstoß von Treibhausgasen innerhalb der nächsten ein- bis zweihundert Jahre deutlich gegenüber dem heutigen Ausstoß sinken. Dabei muss man aber nicht hektisch agieren. Das Klima ist träge und reagiert nur auf unsere langfristige Strategie. Dies bedeutet, dass wir die Klimaentwicklung der nächsten Jahrzehnte ohnehin nicht mehr grundlegend beeinflussen können, aber heute die Weichen für die Klimaentwicklung danach stellen müssen. Dies kann man mit zwei weiteren Simulationen verdeutlichen, die in der Abb. 30 gezeigt sind. In dem Modell werden die Kosten einer Klimaänderung mit den entsprechenden »Vermeidungskosten« abgeglichen. Wenn man beispielsweise neue Technologien einführt, um den Ausstoß von Treibhausgasen zu reduzieren, erfordert dies finanzielle Aufwendungen. Umgekehrt kosten die Schäden durch die Klimaänderung, beispielsweise Schäden durch Hochwasser oder Dürren, auch Geld. Es hat also Sinn, »optimale« Emissionspfade zu berechnen, die beide Kostenarten berücksichtigen und einen Kompromiss zwischen Klima und Wirtschaft darstellen. Auch eine Veränderung der Weltwirtschaft braucht Zeit, da sonst die Kosten in die Höhe schnellen würden. Kraftwerke oder Maschinen haben typische Lebensdauern von einigen Jahrzehnten und man kann sie nicht von heute auf morgen ersetzen. Dies wäre ökonomisch nicht sinnvoll und würde zu großen wirtschaftlichen Verwerfungen führen, die in niemandes Interesse liegen. Es ist daher sinnvoller, eine gewisse Trägheit der Wirtschaft in die Rechnungen mit einzubeziehen. Das hat den Vorteil, dass man eine optimale Handlungsstrategie entwickeln kann, welche die Weltwirtschaft kurzfristig nicht zu stark belastet und das Klima aber trotzdem so weit wie möglich schont.
218
Strategien für die Zukunft
Abb. 30 Optimale Handlungspfade berechnet mit (Kurve a) und ohne (Kurve b) Berücksichtigung der wirtschaftlichen Trägheit für dieses Jahrtausend. Dargestellt sind die mit dem Modell optimierten CO2Emissionen (Gt C/Jahr), die entsprechenden Konzentrationen (ppm), die global gemittelte Temperatur (°C) und der global gemittelte Meeresspiegel (m). Alle Größen sind als Abweichungen gegenüber ihren vorindustriellen Werten gezeigt.
Während ohne die Berücksichtigung der wirtschaftlichen Trägheit die Emissionen sofort um 50 % zurückgefahren werden können, steigen die Emissionen unter Berücksichtigung der wirtschaftlichen Trägheit sogar noch einige wenige Jahrzehnte lang an, bis sie danach deutlich zurückgefahren werden. Das interessante Ergebnis des Vergleiches der beiden Simulationen ist, dass sich die berechneten Klimaänderungen nicht sehr stark voneinander unterscheiden. Es zählt offen-
Was muss geschehen?
219
sichtlich nur, dass die Emissionen langfristig deutlich reduziert werden. Ein »Crash-Kurs« wird nicht viel bringen und ist daher nicht erforderlich. Das entscheidende Ziel muss es also sein, langfristig, d. h. über einen Zeitraum von etwa hundert Jahren die Treibhausgasemissionen deutlich zu senken und schließlich auf null herunterzufahren. Obwohl sich die beiden Handlungsstrategien in den nächsten zwei bis drei Jahrzehnten sehr stark unterscheiden, schlägt sich dies kaum in der Klimaänderung nieder. In beiden Simulationen kann die Temperaturänderung unterhalb von 2°C gehalten werden, während sich der Meeresspiegelanstieg bei etwa 1 m einpendelt. Diese Änderungen sind zwar nicht klein, aber größtenteils nicht mehr zu vermeiden. Wir sollten also zusammen mit der Wirtschaft die langfristige Strategie entwickeln, die erforderlich ist, um sowohl das Klima als auch die Wirtschaft vor großen Verwerfungen zu schützen. Kurzfristige Maßnahmen über einen Zeitraum von einigen Jahren spielen also praktisch keine Rolle für das Klima. Dies erklärt auch, warum das Kioto-Protokoll allein den notwendigen Klimaschutz nicht leisten kann. Eine fünfprozentige Verringerung des Treibhausgasausstoßes bis zum Jahr 2012 ist bei den langen Reaktionszeiten des Klimas praktisch belanglos. Nur wenn man konsequent den Ausstoß nach 2012 weiter senkt, wird sich der Gehalt von Treibhausgasen in der Atmosphäre stabilisieren und allmählich zurückgehen. Deswegen macht es auch keinen Sinn, wenn sich die Staaten durch gewisse Zahlenspiele in eine vermeintlich bessere Position hieven wollen. Ob man nun 5 oder nur 4 % des Ausstoßes reduziert, für die langfristige Klimaentwicklung spielt dies keine Rolle. Es sollte daher auf den Klimakonferenzen das Geschacher um Prozente gestoppt werden. Man sollte sich wieder die Langfristigkeit des Klimaproblems ins Gedächtnis rufen und
220
Strategien für die Zukunft
langfristige Strategien zum Klimaschutz entwickeln, die von allen Ländern mitgetragen werden können. Hierbei kommt insbesondere der Einführung der erneuerbaren Energien eine wichtige Rolle zu.
8.4 Wie gehen wir mit dem Klimaproblem um? Da das Klima infolge seiner Trägheit nur auf unsere langfristige Strategie reagiert, ist es noch nicht zu spät, einen wirksamen Klimaschutzprozess in Gang zu bringen, der gravierende Klimaänderungen vermeidet. Wichtig hierbei ist die Entwicklung der erneuerbaren Energien, vor allem der Sonnenenergie. Die neuen Technologien können langsam innerhalb der kommenden Jahrzehnte entwickelt und zur Anwendung gebracht werden ohne große Einbußen für die Wirtschaft. Über die Modalitäten, wie den erneuerbaren Energien weltweit zum Durchbruch verholfen werden kann, sollte man sich auf den kommenden Klimakonferenzen verständigen. Kurzfristig sollte auf Energieeinsparungen und effizientere Energienutzung gesetzt werden, um schon jetzt einen Beitrag gemäß dem Kioto-Protokoll zu leisten. Gerade in den Industrienationen gibt es noch enorme Energieeinsparungspotenziale, die man nutzen kann. Diese Forderungen sind an jedes Land gerichtet, da wir es beim Klimaproblem mit einem globalen Problem zu tun haben. Treibhausgase kennen keine Grenzen und sind immer global wirksam, unabhängig davon wo sie entlassen werden. Insofern ist es wichtig, dass sich alle Staaten am Klimaschutz beteiligen, insbesondere die beiden größten Emittenten von Treibhausgasen, die USA und China. Letztere weigern sich noch hartnäckig, sich dem Kioto-Prozess anzuschließen. Die
Was muss geschehen?
221
Geschichte rund ums Ozonloch ist in vielerlei Hinsicht beispielhaft für den Umgang von uns Menschen mit Umweltproblemen. Obwohl wir diese oft frühzeitig erkennen, hapert es daran, die Probleme couragiert anzugehen und zu lösen. Offensichtlich müssen erst gravierende Ereignisse eintreten, bis wir aufwachen. Vernunft allein reicht scheinbar nicht aus, es muss erst eine bestimmte Schmerzgrenze erreicht werden. Diskussionen zwischen den verschiedenen Interessengruppen ziehen sich endlos hin und lähmen die politischen Entscheidungsträger. Umweltverbände warnen, während die Industrie Probleme nicht zu erkennen vermag. Dieses Zaudern sehen wir aber auch in vielen anderen Politikfeldern, gerade bei uns in Deutschland. Sei es in der Gesundheits- oder in der Rentenpolitik, wir gehen die Probleme viel zu spät an. Der veränderte Altersaufbau unserer Gesellschaft beispielsweise ist nicht erst seit gestern bekannt. So ähnlich verhält es sich auch mit dem Klimaproblem auf der weltpolitischen Ebene. Typisch ist auch, dass wir alle für den Umweltschutz sind, wenn wir danach gefragt werden, doch die wenigsten von uns verhalten sich entsprechend. Die Vielzahl von Geländewagen auf unseren Straßen spricht für sich. Wir sind auch nicht bereit, höhere Preise für umweltschonende Produkte zu zahlen. Die endlosen Diskussionen um den Benzinpreis sprechen hier Bände. Das Wort Nachhaltigkeit ist dabei zwar immer wieder zu hören, wirklich nachhaltig verhalten sich aber weder die Bürger noch ihre Repräsentanten. Eine grundlegende Änderung des Bewusstseins ist daher erforderlich. Nachhaltiges Handeln muss zur Prämisse eines Jeden werden. Gerade das Erdöl als der wichtigste fossile Brennstoff verkörpert in beispielhafter Weise unseren verantwortungslosen Umgang mit der Umwelt. Bei seiner Förderung werden die
222
Strategien für die Zukunft
Meere und die Böden verseucht. Es wird über tausende von Kilometern in Tankern transportiert, die selbst elementaren Sicherheitsstandards nicht genügen und von schlecht ausgebildeten Besatzungen gesteuert werden, die zu Dumpinglöhnen arbeiten. Es verwundert daher nicht, dass kein Jahr vergeht, ohne dass es einen oder mehrere schwere Tankerunfälle gibt. Ganze Küstenstriche werden dabei immer wieder von einer Ölpest heimgesucht, ganz zu schweigen von den Schäden unter Wasser, die wir gar nicht sehen. Die Bilder von ölverschmierten Vögeln gehen um die Welt. Wir sind bestürzt, aber nach zwei Wochen ist das Thema aus den Medien und aus dem Sinn. Es geht dann alles weiter wie bisher bis zum nächsten Unfall. Und zu guter Letzt verbrennen wir das Erdöl und entlassen auf diese Weise jedes Jahr Milliarden von Tonnen des Treibhausgases Kohlendioxid in die Atmosphäre und belasten sie zusätzlich mit weiteren Schadstoffen wie beispielsweise Aerosolen. Wir dürfen unsere Erde nicht länger wie eine Müllkippe behandeln. Das Klimaproblem ist dabei nur eines von vielen Umweltproblemen, wir vergiften nicht nur unsere Luft, sondern auch die Böden und die Weltmeere. Letztere versauern immer mehr, da sie große Mengen des von uns in die Atmosphäre eingebrachten Kohlendioxids aufnehmen. Die Umweltverschmutzung ist eine gigantische weltpolitische Herausforderung. Man fragt sich daher, ob es überhaupt möglich ist, den Umweltproblemen Herr zu werden. Wichtig und hilfreich wäre es, wenn auf der weltpolitischen Bühne eine Persönlichkeit aufträte, die die Umwelt zu ihrem Thema machte und eine umweltpolitische Revolution in Gang setzte. Eine derartige Persönlichkeit muss erkennen, dass die Zeit zum Handeln gekommen ist, trotz aller Unsicherheiten, die es noch gibt und immer geben wird. Viele Politiker verweisen gerne darauf, dass man noch mehr forschen müsse, bis man
Was muss geschehen?
223
wirklich präzise Vorhersagen zum globalen Klimawandel auf dem Tisch liegen hätte. Gerade in den USA ist es im Moment die politische Strategie, auf die Unsicherheiten hinzuweisen und sich vor den Entscheidungen zu drücken. Es ist aber ein Irrglaube zu erwarten, dass der Fall absoluter Sicherheit irgendwann eintritt. Es liegt in der Natur der Sache, dass Vorhersagen zum globalen Klimawandel unsicher sind. Das darf aber nicht dazu führen, das Klimaproblem immer weiter vor sich herzuschieben. Wir wissen heute schon genug über die Klimaproblematik und das Vorsorgeprinzip allein gebietet es, darauf zu reagieren. Wir sind es den vielen uns nachfolgenden Generationen einfach schuldig. Dabei dürfen wir nicht vergessen, dass es auch Überraschungen geben kann, an die wir heute noch nicht denken. Das Ozonloch sei hier ein warnendes Beispiel. Aber auch der extrem heiße Sommer 2003 bei uns in Deutschland oder die außergewöhnlich starke Hurrikansaison 2005 über dem Atlantik waren in ihrer Intensität so nicht zu erwarten gewesen, selbst nicht unter der Miteinbeziehung des globalen Klimawandels. Wir wissen, dass die Konzentration des Kohlendioxids in den letzten 650000 Jahren nicht mehr so hoch war wie heute. Die experimentelle als auch die theoretische Physik hat schon längst gezeigt, dass Kohlendioxid und andere Spurengase, die von der Erde ausgehende Wärmestrahlung absorbieren und zu einer Aufheizung der Erdoberfläche und der unteren Luftschichten führen. Die Temperaturentwicklung in den letzten Jahrzehnten ist nicht mehr allein durch natürliche Prozesse zu erklären, d. h. der Mensch bestimmt in zunehmendem Maße das Weltklima. Schließlich gibt es auch Einigkeit darüber, dass sich bei weiter rasant steigenden Treibhausgaskonzentrationen die Erde in einem bisher nicht da gewesenen Maß erwärmt. Dieses sind harte Fakten, die in der Wissenschaft un-
224
Strategien für die Zukunft
umstritten sind. Natürlich gibt es Unsicherheiten. Diese sind aber von nachrangiger Bedeutung und sicherlich keine Rechtfertigung dafür, Maßnahmen zum Schutz des Klimas zu unterlassen. Konsequentes Handeln ist angezeigt, und zwar von allen Beteiligten. Trotzdem sei hier noch einmal kurz auf die Unsicherheiten eingegangen. Es gibt vor allem drei Gründe, welche die Vorhersagen zum Klimawandel unsicher machen. Da ist zunächst die Frage, wie sich die Menschheit in Zukunft verhält. Drosseln wir den weltweiten Ausstoß von Treibhausgasen signifikant, wird die zu erwartende Klimaänderung eher klein ausfallen. Steigern wir aber den Ausstoß auch weiterhin, müssen wir mit einer sehr starken Klimaänderung rechnen. Ein zweiter Grund ist der chaotische Charakter des Klimasystems. Seinetwegen haben Klimavorhersagen immer nur einen Wahrscheinlichkeitscharakter. Wir können das Eintreten bestimmter Veränderungen nur mit einer bestimmten Wahrscheinlichkeit versehen, absolute Sicherheit gibt es nicht. Allerdings ist diese Unsicherheitsquelle klein im Vergleich zu der, die aus der Unkenntnis des zukünftigen Treibhausgasausstoßes resultiert. Und schließlich sind die Klimamodelle selbst nicht perfekt, sie haben Fehler. Diese Fehler sind aber nicht so groß, dass die Modelle wertlos sind. Alleine die Information, dass sich die Erde in einem Maße erwärmen wird, das es noch nicht gegeben hat seit es uns Menschen gibt, ist schon eine wichtige Information. Deswegen ist es auch nicht sehr sinnig, darüber zu streiten, ob sich die Temperatur der Erde um 3 oder 4°C erwärmen wird. Dies ist eine rein akademische Diskussion, die selbstverständlich in der Forschung geführt werden muss. Für die Politik ist diese Frage aber belanglos, weil eine Erderwärmung von mehr als 2 °C nach Ansicht der meisten Experten vermieden werden sollte.
Was muss geschehen?
225
Wir müssen also die Unsicherheit akzeptieren und mit ihr leben. Dies ist hin und wieder schwer zu vermitteln. Wir Menschen legen Wert auf Sicherheit, wir möchten klare Alternativen haben, zwischen denen wir wählen können. Jeder von uns weiß aber, dass wir eigentlich in jeder Lebenssituation mit Unsicherheiten umgehen müssen. Wir realisieren diese Tatsache aber nicht immer. Wenn wir Auto fahren, besteht eine kleine Wahrscheinlichkeit dafür, dass wir verunglücken. Wir verdrängen dies aber. Das Gleiche gilt, wenn wir nur einen Fuß vor die Tür setzen – uns könnte ein Dachziegel auf den Kopf fallen. Implizit ist unser ganzes Leben davon geprägt, dass wir Wahrscheinlichkeiten abschätzen und uns entsprechend verhalten. Genauso ist es auch bei der Klimaproblematik. Die Wahrscheinlichkeit, dass wir das Klima schon verändert haben, liegt bei weit über 90 %. Im Alltag würden wir eine derartig hohe Wahrscheinlichkeit als Sicherheit betrachten. Umso erstaunlicher ist es, dass man beim Klimaproblem auf absolute Sicherheit drängt. Man muss es noch einmal deutlich sagen: Nach menschlichem Ermessen sind wir dabei, eine bisher nicht da gewesene Klimaänderung anzustoßen, die über ein Jahrtausend anhalten und viele uns nachfolgende Generationen vor enorme Probleme stellen wird. Man darf aber auch nicht übertreiben. Nicht alles, was auf diesem Planeten an Unwettern passiert, ist von uns Menschen verursacht. Die Medien greifen gerne extreme Wetterereignisse auf, um auf den globalen Klimawandel aufmerksam zu machen. Dies gilt im Besonderen für die tropischen Wirbelstürme wie die Hurrikane. Diese Stürme sind natürlich sehr zerstörerisch und bringen viel Leid über die betroffenen Menschen. Die Schäden durch Hurrikane erhöhen sich aber auch dadurch, dass immer mehr Menschen in gefährdeten Gebieten leben. Wir sollten dabei nicht vergessen, dass es schon im-
226
Strategien für die Zukunft
mer Hurrikane gegeben hat. Eine kritische Betrachtung der Beobachtungen der letzten 150 Jahre lässt auch noch keinen statistisch signifikanten langfristigen Trend erkennen, weder nach oben noch nach unten, obwohl das Jahr 2005 das Jahr mit den meisten Hurrikanen war und man im Jahr 2005 den bisher stärksten Hurrikan beobachtet hat seit es Messungen gibt. Das Problem sind die starken natürlichen Schwankungen der Meeresoberflächentemperatur im tropischen Atlantik, die eben auch einen Einfluss auf die Hurrikane ausüben. Das heißt nicht, dass sich Hurrikane nicht in Folge der globalen Erwärmung verändern können oder bereits verändert haben. Eine Intensivierung bzw. Häufung von Hurrikanen wäre sogar äußerst plausibel, da die globale Erwärmung auch die Meerestemperatur im tropischen Atlantik bereits hat ansteigen lassen. In diesem Zusammenhang ist die Häufung der sehr starken Hurrikane in den letzten Jahren Besorgnis erregend und als Warnsignal zu verstehen. Aus wissenschaftlicher Sicht ist es aber noch nicht nachgewiesen, dass sich die Statistik der Hurrikane durch uns Menschen bereits signifikant verändert hat. Nicht alle Wetterabläufe müssen sich also in Folge der globalen Erwärmung gleichzeitig verändern. Umgekehrt ist es aber auch kein Argument gegen die Existenz des globalen Klimawandels, wenn es Komponenten gibt, die sich noch nicht verändert haben oder gar nicht verändern werden. Es ist unter anderem eine Frage des »Signal-zu-Rausch-Verhältnisses«, wann wir Veränderungen als durch uns Menschen verursacht nachweisen können. Eine bestimmte Veränderung muss die natürliche Schwankungsbreite verlassen haben, um sie als ungewöhnlich zu betrachten. Außerdem muss dann noch gezeigt werden, dass der Mensch wirklich die Ursache ist. Wir dürfen außerdem nicht vergessen, dass wir erst am Anfang
Was muss geschehen?
227
des globalen Klimawandels stehen. Viele Phänomene werden sich erst bei einer deutlich stärkeren Erwärmung verändern oder reagieren ohnehin träger als andere. Es macht daher keinen Sinn, Schwarz-Weiß-Malerei zu betreiben. Einiges hat sich schon durch uns Menschen nachweisbar verändert, einiges wird sich erst noch verändern, aber es wird auch Aspekte des Wetters geben, die sich nicht ändern werden. Eine differenzierte Betrachtung des Klimaproblems ist daher angebracht. Einfache Argumente, die nur einen speziellen Prozess oder Aspekt des Problems herausgreifen, sind nicht geeignet, die Frage nach der Klimabeeinflussung durch uns Menschen zu beantworten. Wie aber kann man das träge Erdsystem managen? Wir kennen viele Beispiele für träge Systeme. Ein Schnellzug beispielsweise hat einen sehr langen Bremsweg. Man muss daher die Bremsung schon einige Kilometer vor der Haltestelle einleiten. Das Gleiche gilt für Schiffe. Riesige Tanker müssen mit einer großen Vorausschau gesteuert werden. Um die Steuerung des Klimas zu erleichtern, kann man Erdsystemmodelle entwickeln. Im Gegensatz zu den reinen Klimamodellen berücksichtigen die Erdsystemmodelle neben den physikalischen und biogeochemischen Aspekten auch die gesellschaftlichen Komponenten, vor allem die Weltwirtschaft. Leider stehen solche Modelle erst am Anfang ihrer Entwicklung. Sie liefern aber schon einige interessante Resultate, die für die Weltpolitik eine wichtige Entscheidungshilfe sein können. In diesem Zusammenhang ist es wichtig zu kommunizieren, dass man allmählich reagieren kann und damit den notwendigen Umbau der Weltwirtschaft nicht innerhalb weniger Jahre vollziehen muss. Während die Klimakonvention der Vereinten Nationen von Rio de Janeiro aus dem Jahr 1992 im Prinzip eine Absichtser-
228
Strategien für die Zukunft
klärung ist, wird das Kioto-Protokoll aus dem Jahr 1997 schon konkreter. Bei seiner Umsetzung wäre zum ersten Male in den letzten Jahren der rasante Anstieg der Treibhausgase in der Atmosphäre deutlich gebremst. Noch klammert das Kioto-Protokoll die Entwicklungsländer aus. Es sind seit Beginn der Industrialisierung vor allem die heutigen Industrienationen gewesen, welche die Atmosphäre mit den Treibhausgasen angefüllt haben. Wenn es so etwas wie Moral bzw. Gerechtigkeit in der Weltpolitik gibt, dann müssen wir, die Menschen in den entwickelten Ländern beginnen, die Treibhausgasemissionen zu senken. Wir können diese Verantwortung nicht einfach an die Entwicklungsländer abwälzen, die bis jetzt zum Klimaproblem sehr wenig beigetragen haben. Wenn es uns wirklich Ernst mit dem Klimaschutz ist, dann müssen wir in den Industrienationen auch den Anfang machen. Die Entwicklungsländer haben ebenfalls ein Interesse am Klimaschutz, denn es sind diese, die wahrscheinlich die stärkeren Auswirkungen des globalen Klimawandels zu erwarten haben. Sie werden sich aber trotzdem weiter entwickeln wollen, und sie haben auch jedes Recht dazu. Aus dieser Falle können wir nur herausfinden, wenn wir in den Industrienationen effiziente oder besser noch ganz neue Techniken zur Energiegewinnung entwickeln, und diese dann in die Entwicklungsländer liefern. Dies gilt vor allem für die Entwicklung von Technologien zur Nutzung der Sonnenenergie. Viele Entwicklungsländer haben den Rohstoff Sonne im Überfluss. Wir könnten daher zwei Fliegen mit einer Klappe schlagen. Zum einen könnten wir das Weltklima durch die verstärkte Nutzung der Sonnenenergie schützen, zum anderen würden wir vielen Entwicklungsländern eine wirtschaftliche Perspektive bieten. Diese hätten in Form der Sonnenenergie einen wichtigen Rohstoff. Auf diesem Wege
Was muss geschehen?
229
würde man es möglicherweise erreichen, dass der große Unterschied im Lebensstandard zwischen den Industrienationen und den Entwicklungsländern, der Nord-Süd-Konflikt, abgemildert wird. Alle Länder würden dann von der Entwicklung der Techniken zur Nutzung der erneuerbaren Energien profitieren. Insofern wären wir dann auf dem Weg in eine gerechtere Welt. Wenn es allein bei dem Kioto-Protokoll bliebe, hätte dies nur einen geringen Einfluss auf das Klima. Jetzt gilt es, bei den jährlich anstehenden Folgekonferenzen das Protokoll weiter zu verschärfen. Hier kann das Ozonproblem als Vorbild dienen. Das ursprüngliche Montrealer Abkommen war ebenfalls sehr weich, es wurde aber auf den nachfolgenden Konferenzen soweit verschärft, dass man heute optimistisch in die Zukunft blicken kann. Durch die politischen Maßnahmen können wir davon ausgehen, dass sich das Ozonloch innerhalb der nächsten 50 Jahre wieder schließt. Das Problem der globalen Erwärmung ist aber viel komplexer als das Ozonproblem, weil es heute praktisch kaum Alternativen zu den fossilen Brennstoffen gibt. Insofern erfordert die Lösung des Klimaproblems zunächst massive Investitionen in Forschung und Technologie, um langfristig den Umbau der Weltwirtschaft in Richtung der erneuerbaren Energien zu ermöglichen. Die große Trägheit des Klimas bietet auch eine Chance. Es würde nicht viel ausmachen, wenn sich die USA oder China erst in einigen Jahren zum Klimaschutz bekennen und dann beginnen, weniger Spurengase in die Atmosphäre zu entlassen. Bei den Klimakonferenzen sollte man die Langfristigkeit des Klimaproblems erkennen und überlegen, wie man im Verlauf der kommenden Jahrzehnte die Weltwirtschaft zu einer kohlenstofffreien Wirtschaft umbauen kann. Dies liegt in un-
230
Strategien für die Zukunft
ser aller Interesse, da die fossilen Energien schließlich begrenzt sind und die Ölreserven möglicherweise nur noch 50 Jahre halten. Es sollte überlegt werden, wie man über die Ländergrenzen hinweg, den erneuerbaren Energien zum Durchbruch verhelfen kann. Kurzfristige wirtschaftliche Interessen, die momentan für einige Staaten ein Hindernis bei der Ratifizierung des Kioto-Protokolls darstellen, spielen auf den langen Zeitskalen von Jahrzehnten bzw. Jahrhunderten eine untergeordnete Rolle. Deswegen macht es auch Sinn, den Kioto-Verweigerern wie den USA entgegenzukommen, da wir langfristig, ob wir es wollen oder nicht, dieselben Interessen haben, nämlich von den fossilen Energien unabhängig zu werden. Verhärtete Fronten helfen niemandem, die Staatengemeinschaft kann das Problem nur gemeinsam lösen. Hin und wieder machen einige Länder den Eindruck, als spekulierten sie darauf, dass sie selbst nicht so sehr vom Klimawandel betroffen sein werden. Am Beispiel des indonesischen Vulkans Tambora, der 1815 ausbrach und der schwerste Ausbruch der jüngeren Geschichte war, sieht man jedoch, wie global Klimaprobleme sind. Selbst weit entfernte Gebiete wie Nordamerika und Europa waren in den darauf folgenden Jahren von extremer Kälte betroffen, was zu Hungersnöten und politischen Turbulenzen geführt hat. Es wird beim globalen Klimawandel keine Gewinner geben, wir alle werden Verlierer sein. Das zeigen die Klimamodelle nur zu deutlich. So wird eine Zunahme von extremen Wetterereignissen alle Länder betreffen und der Anstieg des Meeresspiegels alle Küsten betreffen. Deutschland könnte beim Klimaschutz eine Vorbildfunktion einnehmen. Wir haben die finanziellen Mittel und das technologische Know-how dazu. Deutschland ist auf einem guten Wege. Wir haben seit 1990 schon etwa 20 % unseres
Was muss geschehen?
231
CO2-Ausstoßes gegenüber 1990 reduziert. Dies liegt etwa zur Hälfte an der Wiedervereinigung, durch die veraltete Technologie durch hoch moderne in den neuen Bundesländern ersetzt wurde. Die andere Hälfte der Einsparung ist aber »real« und beispielsweise durch eine verbesserte Energieausnutzung und durch den Einsatz erneuerbarer Energien zustande gekommen. Das Bundesland Schleswig Holstein beispielsweise hat heute schon einen Windanteil an der Energieerzeugung von ca. 20 %. Viele von uns erinnern sich noch an die Ölkrise im Jahr 1973, als überraschend der Nachschub an Erdöl versiegte. Seit der Ölkrise ist selbst in den USA eine interessante Entwicklung zu beobachten. Liefen bis zur Ölkrise der Ausstoß von CO2 und die Entwicklung des Bruttoinlandsproduktes, also der Wirtschaftskraft, noch Hand in Hand, so hat sich inzwischen eine Schere aufgetan: Der CO2-Ausstoß steigt seit der Ölkrise deutlich langsamer als die Wirtschaftskraft. Ähnliches war in Japan zu beobachten. Deutschland hat seinen Ausstoß in den letzten Jahren sogar deutlich gesenkt. Dies lässt nur einen Schluss zu: Das Märchen von der Stagnation der Wirtschaft bei geringerem Energieverbrauch ist nicht aufrechtzuerhalten. Wir dürfen aber auch nicht den Fehler machen, zu glauben, dass das Klimaproblem nur durch Energiesparen oder mehr Energieeffizienz zu meistern ist. Die Weltbevölkerung wird wachsen, viele Länder werden sich weiter industrialisieren und somit wird der Energiebedarf der Menschheit in den nächsten Jahrzehnten deutlich wachsen. Es kann daher langfristig nur einen Weg geben, den wir Menschen einschlagen können. Wir müssen vor dem Hintergrund der Klimaproblematik und der schrumpfenden fossilen Ressourcen Energie anders erzeugen, als durch das Verbrennen der fossilen Brennstoffe.
232
Strategien für die Zukunft
Wenn wir nur einen Bruchteil der Sonnenenergie nutzbar machen könnten, dann brauchten wir kein Erdöl, kein Erdgas und keine Kohle mehr. Deutschland als Land ohne Rohstoffe muss auf Innovation setzen. Die fossile Energie verteuert sich zusehends und wir werden erleben, wie sich fossile Energie in den nächsten Jahren noch weiter verteuern wird. Wer jetzt energisch mit der Entwicklung der alternativen Technologien Ernst macht, der wird später auch ökonomisch die Nase vorn haben. Aus diesem Grund sollte die Politik in die Zukunft gerichtete Investitionen fördern und dabei helfen, die erneuerbaren Energien stärker in den Markt einzuführen. Die multinationalen Mineralölkonzerne haben dies übrigens schon lange erkannt und forschen bereits in Richtung Sonnenenergie. So wirbt beispielsweise BP mit dem Slogan »beyond petroleum« für eine stärkere Nutzung erneuerbarer Energien. Entsprechende Signale kommen auch von den deutschen Energieversorgern. Ein Umdenkungsprozess in der Wirtschaft hat offensichtlich schon eingesetzt. Daher sollten jetzt Politik und Wirtschaft zusammen über geeignete Schritte nachdenken, um aus der Energiekrise herauszufinden Wir sind in Deutschland schon auf dem richtigen Weg. Gut 10 % des deutschen Stromverbrauchs werden von erneuerbaren Energien geliefert. Die Branche hat nach eigenen Angaben inzwischen 16 Milliarden Euro Umsatz und 160000 Beschäftigte. Der Anteil von Strom aus Wind, Wasser, Sonne oder Biomasse stieg von 2004 bis 2005 von 9,4 auf 10,2 %. Insgesamt wurden im Jahr 2005 62 Milliarden Kilowattstunden Ökostrom ins deutsche Netz eingespeist. Seit 1999 gilt das Erneuerbare-Energien-Gesetz, wonach die Energieversorger Ökostrom zu festen Vergütungssätzen abnehmen müssen. Bezogen auf den gesamten Energieverbrauch in Deutschland – also neben Strom auch Wärme – decken erneuerbare
Was muss geschehen?
233
Energien im Jahr 2005 4,6 % (2004: 4,0 %). Damit ist das für 2010 ins Auge gefasste Ziel von 4,2 % am Primärenergiebedarf bereits jetzt überschritten. Hauptquelle für den Ökostrom ist nach wie vor die Windkraft mit 26,5 Milliarden Kilowattstunden, gefolgt von der Wasserkraft (21,5 Milliarden) und der Biomasse (zehn Milliarden). Aus Solarstrom kamen eine Milliarde Kilowattstunden. Erklärtes Ziel der Regierung ist es, den Anteil am Strommarkt bis 2020 auf 20 % zu steigern. Wir Bürger sind es, die eine große Macht haben. Wir sollten nicht vergessen, dass wir es unseren Kindern und Enkeln und ihren Nachkommen schuldig sind, ihnen eine intakte Umwelt zu hinterlassen. Die Umweltrevolution muss daher auch von unten kommen. Klimaschutz fängt bei jedem von uns an. Nur wenn wir dies begreifen, können wir in Deutschland die Vorbildfunktion wahrnehmen. Jeder sollte überlegen, was er selbst zum Klimaschutz beitragen kann. Energiesparen ist dabei ein wichtiger Schritt in diese Richtung. Ob dies durch weniger Autofahren oder durch bessere Wärmedämmung von Häusern erfolgt, durch Müllvermeidung oder durch Abschalten von Stand-by-Vorrichtungen an Stereoanlagen oder Fernsehern – jeder kann seinen Beitrag leisten. Ein Problem ist, dass die Kosten der Umweltzerstörung nicht der Verursacher, sondern die Allgemeinheit trägt. Wenn jemand einen Geländewagen fahren möchte, dann kann er dies tun, ohne für die Folgekosten in Anspruch genommen zu werden. Solange solche Produkte keinen Echtpreisen unterworfen werden, die Kosten der Umweltzerstörung im Preis also nicht enthalten sind, solange haben sie natürlich einen Wettbewerbsvorteil gegenüber den konkurrierenden umweltschonenden Produkten. Ändern können wir Bürger dies, indem wir Produkte kaufen, welche die Umwelt weniger stark
234
Strategien für die Zukunft
belasten. Wenn wir dies konsequent tun, dann wird sich die Industrie in Windeseile darauf einstellen. Die deutsche Automobilindustrie kommt leider ihrer Selbstverpflichtung nicht nach, den Verbrauch ihrer Kraftfahrzeuge deutlich zu senken. Hier wäre der Druck durch den Verbraucher hilfreich, die Hersteller an ihr Versprechen zu erinnern. Aber auch die Politik muss einsehen, dass Selbstverpflichtungen der Industrie nicht immer zum Erfolg führen. Falls diese nicht eingehalten werden, müssen gesetzliche Regelungen erwogen werden. Auch unser Bewusstsein muss sich ändern. Nicht derjenige, der einen Geländewagen fährt und damit die Umwelt über Gebühr verschmutzt, sollte als schick angesehen werden, sondern derjenige, der sie schont und einen Kleinwagen fährt. Das sollte natürlich auch für Firmen gelten. Der tropische Regenwald kann als warnendes Beispiel dienen. Es gehört zu den größten umweltpolitischen Skandalen, dass die Vernichtung der Tropenwälder immer noch anhält. In Indonesien sind schon etwa zwei Drittel des Regenwaldes abgeholzt worden. Alle zwei Sekunden wird dort eine Fläche von der Größe eines Fußballfeldes vernichtet. Die Brandrodungen führen nicht nur zu einem gewaltigen CO2-Ausstoß, sondern viele Tiere verlieren ihren Lebensraum und es verschwinden jeden Tag Arten von diesem Planeten, die nie wiederkehren. Wir vernichten also wichtiges Erbgut und vergehen uns daher an der Vielfalt der Arten. Das Beispiel Regenwald zeigt, dass wirtschaftliche Interessen oft die Interessen der Umwelt nicht berücksichtigen. Der Verbraucher könnte aber dazu beitragen, die Abholzung der Regenwälder zu stoppen, indem er einschlägige Waren nicht kauft. Jeder Einzelne von uns kann also etwas für den Umweltund Klimaschutz beitragen. Dies ist wichtig, weil wir nur dann als Bundesrepublik Deutschland eine Vorreiterrolle
Was muss geschehen?
235
übernehmen können. Wir sollten nicht denken, dass man als Einzelner machtlos ist. Das Gegenteil ist der Fall. Die Politik muss aber denjenigen belohnen, der sich umweltgerecht verhält. Da wir in einer kapitalisierten Welt leben, muss sich diese Belohnung auch in Euro und Cent auszahlen. Es gibt positive Ansätze. In Hamburger Schulen beispielsweise läuft das »fifty /fifty«-Programm. Es ermuntert die Schüler und Lehrer gleichermaßen Energie zu sparen. Die Einsparung macht sich natürlich nicht nur in einer Senkung des CO2Ausstoßes bemerkbar, sondern auch dadurch, dass Heiz- und andere Betriebskosten gespart werden. Von diesem finanziellen Gewinn darf die Schule die Hälfte behalten, die andere Hälfte geht zurück an die Stadt. Auf diesem Wege gewinnen alle Beteiligten: die Schulen, die Stadt Hamburg und natürlich die Umwelt. Insbesondere die Schulen gewinnen durch das »fifty /fifty«-Programm eine gewisse Flexibilität, weil sie sich von dem Geld Dinge leisten können, die vorher unerreichbar erschienen. Dies führt zu einer enormen Motivation sowohl bei den Schülern als auch bei den Lehrern, so sparsam wie möglich mit Energie umzugehen. Deutschland ist ein Exportland. Wir leben von der Innovation. Die derzeitige Wirtschaftskrise zeigt deutlich, dass wir in einer Sackgasse angekommen sind. Unsere Wirtschaft steht zwar im internationalen Vergleich immer noch gut da und wir bauen beispielsweise gute Autos, die im Ausland sehr begehrt sind. Das reicht aber nicht mehr. Die anderen Länder holen auf und bauen inzwischen genauso gute Autos, wobei einige Länder aber zu deutlich niedrigeren Kosten produzieren können. Einige Länder haben uns aber auch schon überholt. Es ist nicht zu verstehen, warum das Hybrid-Auto nicht aus Deutschland, sondern aus Japan kommt. Die HybridTechnik, also die Kombination von Verbrennungs- und Elek-
236
Strategien für die Zukunft
tromotor, ist eine energiesparende Antriebstechnik, welche die normalerweise ungenutzte Rollenergie in elektrische Energie umwandelt. Die Nachfrage für Hybrid-Autos ist bereits sehr hoch. Dieses Beispiel zeigt, dass die Länder, die effiziente Techniken entwickeln, Wettbewerbsvorteile in unserer inzwischen globalisierten Welt haben. Das Heer von Arbeitslosen bei uns in Deutschland spricht für sich, wir können einfach nicht zu Niedriglöhnen produzieren. Wir werden niemals mit den Löhnen in Ländern wie Korea oder China mithalten können. Deswegen ist es zwecklos, diesen Kampf überhaupt aufzunehmen. Gerade die deutsche Automobilindustrie scheint noch nicht erkannt zu haben, welche Autos in der Zukunft nachgefragt werden. Leider setzt man immer noch zu sehr auf Größe und weniger auf intelligente Technik. Eine der wichtigsten Herausforderungen der kommenden Jahrzehnte ist die Energiefrage. Dies wird immer deutlicher, zum einen wegen der steigenden Preise für fossile Energien, zum anderen wegen der politischen Verwicklungen. Letzteres wird im Moment durch die Iran-Krise offenbar. Wer bei der Entwicklung der regenerativen Energien nicht vorn ist, wird seine wirtschaftliche Wettbewerbsfähigkeit vollends verlieren. Wir als Deutsche müssen daher ein unmittelbares Interesse daran haben, auf diesem Gebiet Vorreiter zu sein. Natürlich werden wir auch in Zukunft Autos bauen, der Antrieb muss aber revolutioniert werden. Erste positive Ansätze gibt es, wie etwa die Brennstoffzelle. Der dazu notwendige Wasserstoff muss aber regenerativ erzeugt werden, damit wir den Ausstoß von Treibhausgasen in die Atmosphäre vermeiden und das Klima schützen. Das reicht aber nicht. Natürlich wird es einfach sein, die Sonnenenergie in Wüsten nutzbar zu machen. Erste Pläne dafür liegen schon in den Schubladen vieler Firmen. Man muss aber weiter denken. Auch wir in Deutsch-
Was muss geschehen?
237
land bekommen das ganze Jahr über Energie von der Sonne. Die Herausforderung ist daher nicht, wie man sich die Sonne in der Wüste zunutze macht, sondern wie wir mit unserem bescheidenen Sonnenschein Energie gewinnen. Wir müssen auf Innovation setzen, neue Technologien entwickeln und diese exportieren. Hier spielt auch die Bildung eine große Rolle, in den Schulen wie auch an den Universitäten. Innovation hängt an den Bürgern eines Landes. Leider gibt es bei uns in Deutschland noch nicht die Forschungslandschaft, die sich intensiv mit regenerativen Energien beschäftigt. Die Investitionen in die Entwicklung der erneuerbaren Energien müssen daher erhöht werden. Nur die Innovation garantiert uns Wohlstand, und nur sie kann das Klimaproblem lösen. Wir sollten nicht auf die vielen »Ingenieurslösungen« bauen, die von verschiedenen Seiten propagiert werden. So wird beispielsweise vorgeschlagen, das Kohlendioxid in die Tiefsee zu leiten. Man sollte das Übel aber immer an der Wurzel packen. Bezogen auf die globale Erwärmung heißt dies, dass der Ausstoß von Treibhausgasen in die Atmosphäre zu reduzieren ist. Die Erde ist ein extrem komplexes System. Wenn wir in dieses System eingreifen, kommt es immer wieder zu Überraschungen. Wenn wir das Kohlendioxid in die Tiefsee einleiten würden, dann wäre das Leben dort unten gefährdet. Sicher, in großen Tiefen ist das Leben vielleicht nicht so hoch entwickelt wie hier auf der Erdoberfläche, aber auch diesem Leben gegenüber sind wir verpflichtet. Außerdem wird es vermutlich auch noch Effekte geben, an die wir heute noch nicht denken. Andere fordern, bestimmte Substanzen in die Atmosphäre einzubringen, um die Wolkenbildung zu verstärken, was dann die Erde wieder abkühlen würde. Und wieder andere möchten riesige Spiegel ins Weltall
238
Strategien für die Zukunft
schießen, um die Sonnenstrahlen abzulenken. Man kann nur davor warnen, derartige Versuche zu unternehmen. Wir sollten nicht glauben, das Erdsystem so gut verstanden zu haben, dass wir mit ihm umgehen können wie mit einem Gebrauchsartikel. Wir sollten die Störung durch uns Menschen zügig beseitigen. Dann wird sich das Erdsystem, nach allem was wir heute wissen, wieder langsam, d. h. im Verlauf von einigen Jahrzehnten, normalisieren. Das Klimaproblem ist lösbar. Noch ist Zeit zum Handeln. Eine gewisse weitere globale Erwärmung der Erde können wir zwar nicht mehr verhindern, die ganz starken Veränderungen wären aber noch vermeidbar. Dies erfordert etwas, was in demokratischen Gesellschaften sehr selten ist. Wir müssen alle am selben Strang ziehen: Die Politik, die Wirtschaft und die Bürger – in Deutschland, aber auch weltweit. Das Klimaproblem ist auch ein Symptom anderer ungelöster weltpolitischer Probleme. Und dies wiederum bedeutet, dass wir letzten Endes alle weltpolitischen Probleme zusammen lösen müssen. Nachhaltigkeit ist in diesem übergreifenden Kontext zu verstehen. Nur wenn wir unser Handeln hinsichtlich der Auswirkungen auf alle Komponenten des Erdsystems überprüfen, wird ein Leben im Einklang mit der Natur möglich sein.
Anhang
Glossar
Absorption – Materie kann elektromagnetische Strahlung »verschlucken«, was im Allgemeinen zu einer Erwärmung führt. Besonders wichtig ist die Absorption von langwelliger Strahlung durch bestimmte atmosphärische Gase, welche die Grundlage für den Treibhauseffekt ist. Aerosole – Schwebstoffe in der Atmosphäre. Aerosole haben wichtigen Einfluss auf die Strahlungsbilanz der Atmosphäre. Durch den Menschen in die Atmosphäre eingebrachte Aerosole wirken abkühlend und dämpfen daher den anthropogenen Treibhauseffekt. Albedo – Rückstreuvermögen von Materie (Moleküle, Wolken, Landoberfläche, Meeresoberfläche etc.) bezüglich der einfallenden solaren Strahlung. Helle Flächen besitzen eine hohe Albedo, dunkle Flächen dagegen eine recht kleine. Atmosphäre – Die gasförmige Hülle der Erde. Die Atmosphäre eines Planeten bestimmt in entscheidendem Maße sein Klima. So ist die Venusoberfläche sehr heiß, da die Venusatmosphäre zum Großteil aus Kohlendioxid besteht und somit einen sehr starken Treibhauseffekt aufweist. Biogeochemische Rückkopplung – Das physikalische Klimasystem bestehend aus Atmosphäre, Ozean und Kryosphäre (Eissphäre) steht in Wechselwirkung mit den anderen Komponenten des Erdsystems (z. B. Vegetation, Kohlenstoffkreislauf etc.). Die Rückkopplungen dieser Komponenten auf das physikalische Klimasystem werden als
242
Anhang
biogeochemische Rückkopplungen bezeichnet. So war beispielsweise der CO2-Gehalt der Atmosphäre während der Eiszeiten relativ niedrig und damit der Treibhauseffekt abgeschwächt, was noch verstärkt abkühlend gewirkt hat. Biosphäre – Eine wichtige Komponente im Erdsystem, die einen wichtigen Einfluss auf das Klima ausübt. Die Biosphäre kann das Klima direkt beeinflussen (z. B. über die Albedo der Vegetation) oder indirekt durch Wechselwirkungen mit den Stoffkreisläufen (z. B. als Quelle oder Senke für Kohlendioxid). Brown’sche Bewegung – Es ist aus der Theoretischen Physik bekannt, dass große Teilchen durch die zufälligen Stöße mit kleinen Teilchen zu langsamen Bewegungen angeregt werden können. Dieses Prinzip der Brown’schen Bewegung kann auf das Klimasystem übertragen werden, das aus Komponenten mit sehr unterschiedlichen Zeitskalen besteht. So können beispielsweise die hochfrequenten (schnellen) zufälligen Wetterschwankungen von den trägeren Komponenten (z. B. dem Ozean) aufintegriert werden und zu niederfrequenten (langperiodischen) Schwankungen beispielsweise der Meeresoberflächentemperatur führen. Corioliskraft – Einer der Effekte der Erdrotation auf die großräumigen Bewegungen. Die Tatsache, dass Winde in Hochs und Tiefs isobarenparallel wehen, resultiert aus einem Kräftegleichgewicht zwischen der Druckgefällekraft und der Corioliskraft, das man als geostrophisches Gleichgewicht bezeichnet. Eiskalben – Von Eisschilden brechen pausenlos Stücke ab, die direkt in den Ozean gelangen. Dieses Kalben beeinflusst die Salzbilanz des Ozeans und ist daher auch für die allgemeine Zirkulation des Ozeans wichtig.
Glossar
243
Eiswolken – Eiswolken befinden sich in großen Höhen und werden auch als Zirren bezeichnet. Die von Flugzeugen verursachten Kondensstreifen sind derartige Eiswolken. FCKWs – Fluorchlorkohlenwasserstoffe sind künstliche Produkte, die nur durch den Menschen in die Atmosphäre kommen und die Ozonschicht zerstören können. Die FCKWs tragen aber auch zum anthropogenen Treibhauseffekt bei und damit zu einer globalen Aufheizung der Atmosphäre. Eiszeitzyklen – Die Erdgeschichte hat im Laufe der Jahrtausende starke Klimaumschwünge erlebt. Die prominentesten Schwankungen sind die Eiszeiten. Man kann verschiedene Zyklen identifizieren, die Perioden von ca. 100 000, 41 000 und 23 000 Jahren besitzen. Diese werden von langsamen Veränderungen der Erdbahnparameter hervorgerufen, die genau diese Perioden aufweisen. Positive Rückkopplungen im Erdsystem selbst wirken verstärkend, wie beispielsweise die gleichphasigen Veränderungen in den Treibhausgaskonzentrationen. El Niño – Die stärkste kurzfristige natürliche Klimaschwankung. El Niño äußert sich als eine großflächige Erwärmung des äquatorialen Pazifik, die im Mittel alle vier Jahre wiederkehrt und weltweite Klimaanomalien hervorruft. Das El Niño-Phänomen ist Teil eines Zyklus, den man als El Niño / Southern Oscillation (ENSO) bezeichnet. Die Kaltphase des Zyklus wird als La Niña bezeichnet. ENSO ist vorhersagbar und stellt den Durchbruch in der Jahreszeitenvorhersage dar. Emission – Der Begriff Emission wird in zweierlei Hinsicht benutzt. Zum einen bezeichnet man den Ausstoß von Treibhausgasen durch den Menschen als anthropogene Emission. Zum anderen sendet Materie entsprechend ihrer Temperatur elektromagnetische Strahlung aus. Diesen Prozess bezeichnet man ebenfalls als Emission.
244
Anhang
Erdkrustenbewegung – Die Erdkruste kann sich beispielsweise unter dem Druck von großen Eisschilden absenken und nach ihrem Abschmelzen wieder anheben. Die von den Eismassen der letzten Eiszeit entlastete skandinavische Halbinsel steigt zurzeit an einigen Stellen um bis zu einem Meter in hundert Jahren an. Fossile Brennstoffe – Fossile Brennstoffe sind Erdöl, Erdgas und Kohle. Sie sind vor Jahrmillionen gebildet worden. Das Verfeuern der fossilen Brennstoffe zwecks Energiegewinnung ist die wichtigste anthropogene Quelle für das Kohlendioxid. Fingerabdruckmethode – Komplexes statistisches Verfahren zur Identifizierung des Einflusses des Menschen auf das Klima. Dabei nutzt man analog zur Kriminalistik die Tatsache aus, dass jeder Einfluss auf das Klima, natürliche wie anthropogene, eine spezielle Raumzeitstruktur aufweist. Mit Hilfe derartiger Fingerabdruckmethoden kann man heute schon den menschlichen Einfluss auf das Klima nachweisen. Gleissberg-Zyklus – Die auf die Erde einfallende Sonnenstrahlung unterliegt Schwankungen. Auf der Zeitskala von Jahrzehnten ist vor allem der Gleissberg-Zyklus wichtig, mit einer Periode von ca. 80 Jahren und einer geschätzten Amplitude von ca. 0,2 – 0,3 % der gesamten Einstrahlung. IPCC – Das Intergovernmental Panel on Climate Change wurde von der Umweltorganisation der Vereinten Nationen (UNEP) und der Weltorganisation für Meteorologie (WMO) 1988 gegründet, um einerseits den wissenschaftlichen Kenntnisstand in der Klimaforschung zu dokumentieren und andererseits die Weltpolitik zu beraten. An den Berichten des IPCC arbeiten viele Hundert der weltweit führenden Klimaforscher mit. Die IPCC-Berichte (der jüngste stammt aus dem Jahr 2007) gelten als die zuverlässigsten Sachberichte zum Thema globaler Klimawandel.
Glossar
245
Klimamodelle – Man schafft sich mit Hilfe der Gesetze der Physik ein Abbild der Erde, mit dem man Experimente durchführen kann. Die Summe aller physikalischen Gleichungen und Parameterisierungen, welche die Entwicklung des Klimasystems beschreiben, bezeichnet man als Klimamodell. Wegen der Komplexität der entsprechenden mathematischen Gleichungen werden diese näherungsweise mit Hilfe der Methoden der numerischen Mathematik und von Höchstleistungscomputern gelöst. Klimasubsysteme – Das Klimasystem besteht aus verschiedenen Komponenten, die als Klimasubsysteme bezeichnet werden. Hier sind vor allem die Atmosphäre, der Ozean, die Kryosphäre und die Biologie zu nennen. Die verschiedenen Klimasubsysteme haben recht unterschiedliche Zeitskalen und stehen in enger Wechselwirkung untereinander. Kioto-Protokoll – Das Kioto-Protokoll wurde im Jahr 1997 beschlossen. Es schreibt vor, dass die Industrienationen ihren Ausstoß von Treibhausgasen um im Mittel 5,2 % relativ zu 1990 im Zeitraum 2008 – 2012 reduzieren. Das Kioto-Protokoll ist im Februar 2005 mit der Ratifizierung Russlands in Kraft getreten. Kondensation – Wasser kann in verschiedenen Zuständen vorkommen. Den Phasenübergang von Wasserdampf zu Flüssigwasser bezeichnet man als Kondensation. Bei der Kondensation wird Wärme frei, die als Kondensationswärme bezeichnet wird. Die Kondensation spielt eine wichtige Rolle bei der Wolkenbildung. Kryosphäre – Das Klimasubsystem, das die Summe allen Eises auf der Erde beinhaltet. Zur Kryosphäre gehören das Meereis, das Inlandeis, das Schelfeis, die Gebirgsgletscher und die mit Schnee bedeckten Flächen. La Niña – Die kalte Phase des El Niño Southern Oscillation (ENSO)-Phänomens. La Niña-Ereignisse äußern sich in einer anomalen
246
Anhang
Abkühlung des äquatorialen Pazifik und haben wie El Niño-Ereignisse weltweite klimatische Auswirkungen. Lorenz-Modell – Ein einfaches, konzeptionelles und nichtlineares Drei-Komponenten Modell, anhand dessen man einige charakteristische Eigenschaften chaotischer Systeme, etwa des Wetters, studieren kann. Meridionaler Temperaturgradient – Temperaturgegensatz zwischen den Tropen und den Polen. Der meridionale Temperaturgradient bestimmt in entscheidendem Maße die Struktur der allgemeinen atmosphärischen Zirkulation. Milankovitch-Theorie – Die Theorie zur Erklärung der Eiszeitzyklen. Die Bahn der Erde um die Sonne unterliegt langperiodischen Schwankungen, die das Klima auf der Erde beeinflussen. Montrealer Protokoll – Ein internationales Abkommen zum Schutze der Ozonschicht, das im Jahr 1987 beschlossen wurde. Zusammen mit den inzwischen beschlossenen Verschärfungen regelt das Montrealer Protokoll den Ausstoß der FCKWs. Es besteht die Hoffnung, dass mit dem Montrealer Protokoll eine langfristige Erholung der stratosphärischen Ozonschicht zu erreichen ist. Ozon – Ozon ist dreiatomiger Sauerstoff. Das meiste Ozon kommt in der Stratosphäre (oberhalb von etwa 15 km Höhe) vor. Die dortige Ozonschicht absorbiert die für Lebewesen schädliche UV-Strahlung, sodass sie an der Erdoberfläche in nur geringer Intensität ankommt. Der Mensch produziert aber auch Ozon, vor allem im Sommer während typischer Smog-Wetterlagen. Dieses bodennahe Ozon ist nicht zu verwechseln mit dem stratosphärischen Ozon. Ozonloch – Die starke Ausdünnung der Ozonschicht über der Antarktis, die jedes Jahr zu Beginn des Frühlings auf der Südhalbkugel
Glossar
247
beobachtet wird. Das Ozonloch geht auf den Menschen als Verursacher zurück. Der anthropogene Ausstoß von FCKWs ist der Hauptgrund für die Ozonzerstörung. Parameterisierung – Die approximative (numerische) Lösung der das Klimasystem bestimmenden mathematischen Gleichungen erfolgt auf einem Rechengitter. Physikalische Prozesse mit Skalen kleiner als die Maschenweite des Rechengitters, wie beispielsweise die Wolken, können nicht explizit aufgelöst werden und müssen daher mit Hilfe der an den Gitterpunkten verfügbaren Informationen dargestellt (parameterisiert) werden. Typische Maschenweiten in globalen Klimamodellen belaufen sich auf einige wenige hundert Kilometer. Die Parameterisierung von subskaligen Prozessen stellt eine der wichtigsten Unsicherheiten in Klimamodellen dar. Passate – Ein Windsystem, das von den Subtropen zum Äquator gerichtet ist. Je näher man zum Äquator kommt, desto stärker wird die westwärts gerichtete Komponente der Passate. Die Passate in der Nähe des Äquators spielen eine wichtige Rolle bei der Wechselwirkung zwischen Ozean und Atmosphäre und für das Entstehen von El Niño- und La Niña-Ereignissen. Polare Stratosphärenwolken – Eiswolken, die sich in der Stratosphäre bei Temperaturen von –78 °C und darunter in den Polregionen bilden können. Sie spielen eine zentrale Rolle für die Entwicklung des Ozonlochs über der Antarktis. Polarwirbel – Ein sehr stabiles winterliches Zirkulationsregime über den Polen, das den Austausch von Luftmassen verhindert. Insbesondere der Polarwirbel über der Antarktis ist sehr stabil, sodass in ihm die Bedingungen für die Bildung von polaren Stratosphärenwolken gegeben sind.
248
Anhang
Rheologie – Die Lehre vom Fließen und der Deformation von Körpern. Die Rheologie bestimmt unter anderem, wie sich Eis unter dem Einfluss von Kräften, beispielsweise dem Windschub, verhält. Schelfeis – Inlandeis kann mit seinen Ausläufern bis in den Ozean hineinragen. Der Teil des Eisschilds, der auf dem Wasser schwimmt, wird als Schelfeis bezeichnet. Schwalbe-Zyklus – Der 11-jährige Sonnenfleckenzyklus, der die auf die Erde einfallende solare Strahlung periodisch verändert. Die Amplitude des 11-jährigen Sonnenfleckenzyklus beträgt etwa 0,1 % der gesamten Einstrahlung. Solarkonstante – Die am Oberrand der Erdatmosphäre pro Flächeneinheit einfallende Sonnenstrahlung. Die Solarkonstante hat einen Wert von 1367 W / m2. Die Solarkonstante unterliegt periodischen Schwankungen (Schwalbe- und Gleissberg-Zyklen). Solarer Spektralbereich – Jeder Körper sendet entsprechend seiner Temperatur elektromagnetische Strahlung aus (siehe Emission). Die Wellenlänge des Maximums der Strahlung ist von der Temperatur abhängig. Je höher die Temperatur eines Körpers, desto kürzer ist die Wellenlänge der emittierten Strahlung. Die sehr heiße Sonne emittiert daher vor allem kurzwellige Strahlung im sichtbaren Bereich. Der Frequenzbereich, in dem die Sonne hauptsächlich emittiert, wird als solarer Spektralbereich bezeichnet. Spurengase – Die Hauptbestandteile der Erdatmosphäre sind Stickstoff (78 %) und Sauerstoff (21 %). Die restlichen Gase werden wegen ihrer geringen Konzentration als Spurengase bezeichnet. Es sind gerade einige dieser Spurengase, wie Wasserdampf und Kohlendioxid, die einen entscheidenden Einfluss auf das irdische Klima haben (Treibhauseffekt).
Glossar
249
Stratosphäre – Man kann die Erdatmosphäre entsprechend des vertikalen Temperaturprofils in Stockwerke einteilen. Das unterste Stockwerk bis zu Höhen von 10 – 15 km nennt man die Troposphäre. Darüber befindet sich die Stratosphäre, die sich bis zu einer Höhe von etwa 50 km erstreckt. Die Stratosphäre enthält die für das Leben auf der Erde so wichtige Ozonschicht. Thermohaline Zirkulation – Ein ozeanisches Förderband, das große Wärmemengen transportiert. In den hohen nördlichen Breiten (Grönland-See, Labrador-See) sinken kalte (und damit dichte) Wassermassen ab, die in großen Tiefen Richtung Äquator strömen. An der Oberfläche strömt dafür warmes Wasser nach Norden. Diese Umwälzbewegung wird als thermohaline Zirkulation bezeichnet. Sie ist für das Klima Nordeuropas von herausragender Bedeutung. Teil der thermohalinen Zirkulation ist der Golfstrom. Thermischer Spektralbereich – Die Erde besitzt im Vergleich zur Sonne vergleichsweise kalte Temperaturen. Die von der Erde emittierte elektromagnetische Strahlung befindet sich daher vor allem im nicht sichtbaren, infraroten Spektralbereich, der als thermischer Spektralbereich bezeichnet wird. Topographie – Das Relief des Meeresbodens oder des Inlandeises. Die Topographie des Ozeans ist eine wichtige Randbedingung für ozeanische Strömungen, die Topographie von Eisschilden eine wichtige für die darüber liegende Atmosphäre. Treibhauseffekt – Bestimmte atmosphärische Spurengase absorbieren und emittieren elektromagnetische Strahlung im thermischen Spektralbereich und führen damit zu einer zusätzlichen Erwärmung der Erdoberfläche und der unteren Luftschichten. Der natürliche Treibhauseffekt hat eine Größenordnung von etwa 33 °C. Der Mensch erhöht die Konzentration bestimmter klimarelevanter Spurengase, wie beispielsweise des Kohlendioxids, und verstärkt damit
250
Anhang
den Treibhauseffekt, was zu einer globalen Erwärmung führen muss. Treibhausgase – Die Spurengase, welche am Treibhauseffekt beteiligt sind. Das wichtigste Treibhausgas für den natürlichen Treibhauseffekt ist der Wasserdampf, mit einem Anteil von etwa 60 %. Für den von uns Menschen hervorgerufenen »anthropogenen« Treibhauseffekt spielt das Kohlendioxid mit einem Anteil von etwa 50 % die wichtigste Rolle. Troposphäre – Das unterste Stockwerk der Atmosphäre, das sich abhängig von der geographischen Breite bis in Höhen von etwa 10 – 15 km erstreckt. Die wichtigen Wetterabläufe spielen sich in der Troposphäre ab. Versauerung der Weltmeere – Ein Teil (ca. 30 %) des von uns Menschen ausgestoßenen Kohlendioxids (CO2) wird von den Weltmeeren aufgenommen, was zu einer Versauerung (Absenkung des pHWertes) des Meerwassers führt. Dieser Effekt ist bereits messbar. Seit Beginn der Industrialisierung ist der pH-Wert bereits um etwa 0,11 Einheiten gesunken. Warmzeit – Es hat in der Erdgeschichte gravierende Klimaveränderungen gegeben. Die warmen Phasen werden als Warmzeiten bezeichnet, die kalten Phasen als Eiszeiten. Wir befinden uns momentan in einer Warmzeit, dem Holozän. Die letzte große Warmzeit war die Eem-Warmzeit vor etwa 125 000 Jahren. Wasserdampfrückkopplung – Eine anfängliche Temperaturänderung führt zu einer Veränderung der Wasserdampfkonzentration. Da Wasserdampf ein Treibhausgas ist, wird diese Veränderung die Temperatur beeinflussen. Im Allgemeinen ist die Wasserdampfrückkopplung positiv, d. h. sie wirkt verstärkend. Infolge einer durch den Menschen angestoßenen globalen Erwärmung wird sich auch der
Glossar
251
Wasserdampfgehalt der Atmosphäre erhöhen, da die Aufnahmefähigkeit der Luft bezüglich Wasserdampf mit der Temperatur ansteigt. Mehr Wasserdampf bedeutet einen stärkeren Treibhauseffekt und damit verstärkt die Wasserdampfrückkopplung den Effekt durch den anthropogenen Ausstoß von Treibhausgasen. Wetter – Die Schwankungen des Zustandes der Atmosphäre auf Zeitskalen von Minuten bis zu einigen Tagen. Zirren – Zirren sind aus Eispartikeln bestehende hohe Wolken, die sehr dünn sind und daher durchlässig für solare Strahlung. Zirren absorbieren aber stark im langwelligen Bereich des Spektrums. Eine Zunahme des Bedeckungsgrads von Zirren würde daher zu einer Erwärmung der Erdoberfläche und der unteren Luftschichten führen.
Literaturhinweise
Bundesministerium für Bildung und Forschung: Herausforderung Klimawandel. Erhältlich vom BMBF, Postfach 30 02 35, 53182 Bonn, 2003. Bjerknes, J.: Atmospheric teleconnections from the equatorial Pacific. In: Mon. Wea. Rev. 97, S. 163 – 172; 1969. Dijkstra, H. A.: Nonlinear Physical Oceanography. A dynamical Systems approach to the large-scale ocean circulation and El Niño. Dordrecht, London, Norwell, New York 2000. Hasselmann, K.: Stochastic climate models. Part I: Theory. In: Tellus 28, S. 473 – 485; 1976. Hurrell, J. W.: Decadal trends in the North Atlantic Oscillation: regional temperatures and precipitation. In: Science 269, S. 676 – 679; 1995. IPCC 2001a: Climate Change 2001. The Scientific Basis. Working Group I. Erhältlich von IPCC, c/o WMO, C. P. 2300, 1211 Genf, Schweiz, 2001. IPCC 2001 b: Synthesebericht. Deutsche IPCC Koordinierungsstelle des BMBF und des BMU, 53227 Bonn, 2001.
Literaturhinweise
253
Latif, M. und T. P. Barnett: Causes of decadal climate variabilty over the North Pacific and North America. In: Science 266, S. 634 – 637; 1994. Lorenz, E. N.: Deterministic nonperiodic flow. In: J. Atmos. Sci. 20, S. 130 – 141; 1963. Lozan, J., Graßl, H. und Hupfer, P. (Hg.): Das Klima des 21. Jahrhunderts. Warnsignal Klima. Erhältlich von J. Lozan, Büro Wissenschaftliche Auswertungen, Schulterblatt 86, 20357 Hamburg, 1998. Palmer, T. N.: A nonlinear dynamical perspective on climate change. In: Weather 48, S. 314 – 326; 1993. Palmer, T. N.: Extended-range atmospheric prediction and the Lorenz model. In: Bull. Am. Met. Soc. 74, S. 49 – 65; 1993. Philander, S. G.: Is the temperature rising? The uncertain science of global warming. Princeton, New Jersey 1998. Schmincke, H.-U.: Volcanism. Berlin, 2004. Schönwiese, C.-D.: Klimatologie. Stuttgart 2003. Stommel, H.: Thermohaline convection with two stable regimes of flow. In: Tellus 13, S. 224 – 230; 1961. Sverdrup, Sc. U.: Wind-driven currents in a baroclinic ocean with application to the equatorial currents of the eastern Pacific. In: Proc. Nat. Acad. Sei. 33, S. 318 – 326; 1947. Timmermann, A., Latif, M., Voss, R. und Grötzner, A.: Northern Hemispheric Interdecadal Variability: A coupled air-sea mode. In: J. Climate 11, S. 1906 – 1931; 1998.
254
Anhang
Umweltbundesamt. Klimaänderung. Festhalten an der vorgefassten Meinung. Wie stichhaltig sind die Argumente der Skeptiker? Berlin, 2004. Visbeck, M. et al: Atlantic Climate Variability Experiment (ACVE), Prospectus 1998. www.ldeo.columbia.edu/~visbeck/acve WBGU (Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen). Sondergutachten: Die Zukunft der Meere – zu warm, zu hoch, zu sauer, S. 67 – 76; 2006.
Klimamodellierung Promet, 2002, Jahrgang 28: »Numerische Klimamodelle – Was können sie, wo müssen sie verbessert werden? Teil I: Das Klimasystem der Erde«. Promet, 2003, Jahrgang 29, Heft 1 – 4: »Numerische Klimamodelle – Was können sie, wo müssen sie verbessert werden. Teil II: Modellierung natürlicher Klimaschwankungen«.
Populärwissenschaftliche Bücher Crutzen, P. J. und Müller, M.: Das Ende des blauen Planeten? Der Klimakollaps. Gefahren und Auswege. München 1997 Grassl, H. (Hg.): Wetterwende. Vision: Globaler Klimaschutz. Frankfurt a. M. / New York 1999.
Literaturhinweise
255
Grassl, H. und R. Klingholz: Wir Klimamacher. Auswege aus dem globalen Treibhaus. Frankfurt am Main 1990. Latif, M.: Hitzerekorde und Jahrhundertflut. Herausforderung Klimawandel. München 2003. Stevens, W. K.: The change in the weather. People, Weather, and the science of climate change. New York 1999.
Internetseiten www.dkrz.de für Bilder und Animationen zum Thema Wetter und Klima www.hamburger-bildungsserver.de allgemeine Informationen zum Thema Klima www.ipcc.ch Berichte des Intergovernmental Panel on Climate Change www.umweltbundesamt.de Informationen zum Klimaschutz. Diskussion einiger Skeptikerargumente
Abbildungsnachweise Alle Grafiken: Peter Palm, Berlin. Im Farbteil: Abb. 1: NASA; Abb. 2: © picture-alliance/dpa; Abb. 3 o.: © Sammlung Gesellschaft für ökologische Forschung; Abb. 3 u.: © Gesellschaft für ökologische Forschung; Abb. 4: NASA.