I Christian Streffer Carl Friedrich Gethmann Klaus Heinloth Klaus Rumpff Andreas Witt Ethische Probleme einer langfristi...
170 downloads
1579 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
I Christian Streffer Carl Friedrich Gethmann Klaus Heinloth Klaus Rumpff Andreas Witt Ethische Probleme einer langfristigen globalen Energieversorgung
II
Studien zu Wissenschaft und Ethik
Im Auftrag des
Instituts für Wissenschaft und Ethik herausgegeben von
Matthias Lutz-Bachmann und Dieter Sturma Band 2
Walter de Gruyter · Berlin · New York
III
Christian Streffer Carl Friedrich Gethmann Klaus Heinloth Klaus Rumpff Andreas Witt
Ethische Probleme einer langfristigen globalen Energieversorgung
Walter de Gruyter · Berlin · New York
IV
Ü Gedruckt auf säurefreiem Papier,
das die US-ASNI-Norm über Haltbarkeit erfüllt
ISBN 13: 978-3-11-018431-0 ISBN 10: 3-11-018431-1 Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbiografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
© Copyright 2005 by Walter de Gruyter GmbH & Co. KG, 10785 Berlin Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany Einbandgestaltung: Christopher Schneider, Berlin Satz: Dörlemann Satz, Lemförde Druck und buchbinderische Verarbeitung: Hubert & Co. GmbH & Co. KG, Göttingen
V
Vorwort Die Geschichte der Energieversorgung hat die Menschheitsgeschichte entscheidend geprägt. Die Entdeckung und Nutzbarmachung des Feuers mit ihrer mythologischen Verklärung der prometheischen Gabe bei den Griechen, die Entwicklung sowie Nutzung der Wasser- und Windkraft über Jahrtausende, die Entwicklung der Dampfmaschine ebenso wie die Nutzbarmachung der Elektrizität sind Marksteine, die die Entwicklung der Menschheit hinsichtlich ihrer Zahl und Lebensqualität entscheidend beeinflusst haben. Eine möglichst optimale Nutzung der Energiequellen durch technologische Gestaltung hat daher den menschlichen Geist immer wieder gefordert und zu Hochleistungen angespornt. Kriegerische Auseinandersetzungen sind häufig wegen der Energiequellen geführt worden. Gerade in jüngster Zeit erleben wir, in welcher Weise der Zugang zur Energie und die Ausbeutung, heute vor allem Öl und Gas, die Weltwirtschaft bewegt. Mit weiterhin wachsender Weltbevölkerung und dem Verlangen nach Verbesserung des weltweiten Lebensstandards wird dieser Druck noch zunehmen. Die Energieversorgung kann und darf nicht mehr nur regional gesehen werden, die globale Sicht ist notwendig, dieses gilt vor allem auch wegen der damit verbundenen Wirkungen auf die Umwelt des Menschen, auf die Erde insgesamt und auf die sie umgebende Atmosphäre. Die Entwicklung und Nutzung von Energietechnologien hat auch und wohl zum ersten Mal in dieser ausgeprägten Weise deutlich gemacht, dass Grenzen erreicht werden, an denen erhebliche Besorgnisse in der Bevölkerung aufkommen, die weiteren Entwicklungen Einhalt gebieten. Sehr sorgfältige Überlegungen in wissenschaftlich-technologischer, ökologischer und ökonomischer Hinsicht sowie in unseren demokratisch verfassten Staaten Prozesse der Kommunikation sind notwendig. So ergeben sich gerade bei der Energieversorgung neben der technologischen Machbarkeit vielfältige ethische, soziologische und ökonomische sowie rechtliche Fragen, die eine interdisziplinäre Behandlung der anstehenden Probleme herausfordern. Dieser Aufgabe haben sich die Autoren des vorliegenden Bandes, eine Projektgruppe des „Instituts für Wissenschaft und Ethik an den Universitäten Bonn und Essen“, angenommen. In vielfachen Diskussionsrunden sind die verschiedenen Problemkreise erörtert und anhand von Textentwürfen besprochen worden. Es werden in dem Band die heute genutzten Energiequellen mit ihren zeitlichen Reichweiten und die technischen Möglichkeiten ihrer Nutzung dargestellt. In sehr umfassender Weise werden die regenerativen Energiequellen mit ihrem heutigen und möglichen zukünftigem Einsatz besprochen. Ferner werden auch Optionen, die noch
VI
Vorwort
in der Zukunft liegen, behandelt. Schließlich wird eine Bewertung der Energieoptionen unter den oben angesprochenen Gesichtspunkten vorgenommen. Diese Arbeiten sind durch finanzielle Mittel von dem Stifterverband für die deutsche Wissenschaft ermöglicht worden. Für diese Unterstützung danken die Autoren sehr. Essen im Juni 2005
Christian Streffer Institut für Wissenschaft und Ethik e.V.
Inhaltsverzeichnis
VII
Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
V
1. Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
2. Kriterien für die Beurteilung von Energiesystemen 2.1 Die regulative Idee der Nachhaltigkeit und die Unverzichtbarkeit von Kriterien . . . . . . . . 2.2 Entfaltung der Kriterien . . . . . . . . . . . . 2.2.1 Wirtschaftlichkeit . . . . . . . . . . . . 2.2.2 Langfristigkeit . . . . . . . . . . . . . . 2.2.3 Umweltverträglichkeit . . . . . . . . . 2.2.4 Sozialverträglichkeit . . . . . . . . . . 2.2.5 Verteilungsgerechtigkeit . . . . . . . .
7
Inhaltsverzeichnis
. . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
7 10 11 20 27 29 51
3. Darstellung der verschiedenen Energieoptionen . . . . 3.1 Fossile Energieträger . . . . . . . . . . . . . . . . . 3.1.0 Reserven, Ressourcen und Reichweiten . . . 3.1.1 Erdöl . . . . . . . . . . . . . . . . . . . . . 3.1.2 Erdgas . . . . . . . . . . . . . . . . . . . . . 3.1.3 Kohle . . . . . . . . . . . . . . . . . . . . . 3.1.4 Umweltprobleme der Verbrennung fossiler Brennstoffe . . . . . . . . . . . . . . . . . . 3.2 Kernenergie . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Physikalische Grundlagen . . . . . . . . . . 3.2.2 Technik . . . . . . . . . . . . . . . . . . . . 3.2.3 Die langen Schatten des Krieges . . . . . . . 3.2.4 Märkte und Prognosen . . . . . . . . . . . . 3.2.5 Neue Reaktorgenerationen . . . . . . . . . . 3.2.6 Kosten . . . . . . . . . . . . . . . . . . . . . 3.2.7 Reichweite der Kernbrennstoffe . . . . . . . 3.2.8 Umweltprobleme durch die Kernenergie . . 3.3 Kernfusionsenergie – eine Option für die Zukunft!? 3.3.1 Natürliche Kernfusionsprozesse in der Sonne 3.3.2 Technisch induzierte Kernfusionsprozesse . . 3.3.3 Erfolge und Misserfolge auf dem Weg zur Kernfusionsenergie . . . . . . . . . . . . . . 3.4 Erneuerbare Energien . . . . . . . . . . . . . . . . 3.4.1 Allgemeines . . . . . . . . . . . . . . . . . . 3.4.2 Sonnenlicht . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
57 57 57 63 73 84
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
90 120 120 122 125 128 131 135 139 144 157 157 158
. . . .
. . . .
. . . .
. . . .
. . . .
160 166 166 171
VIII
Inhaltsverzeichnis
3.4.3 Windenergie . . . . . . . . . . . . . . . . . . . . . 3.4.4 Exkurs: Technische und wirtschaftliche Grenzen der Einspeiseleistung aus schwankenden Energiequellen . 3.4.5 Wasserkraft . . . . . . . . . . . . . . . . . . . . . . 3.4.6 Energie der Gezeiten . . . . . . . . . . . . . . . . . 3.4.7 Energie der Meereswellen . . . . . . . . . . . . . . 3.4.8 Biomasse . . . . . . . . . . . . . . . . . . . . . . . 3.4.9 Geothermische Energie . . . . . . . . . . . . . . . . 3.4.10 Erneuerbare Energien – Märkte und Prognosen . . . 3.5 Weltraumgestützte Solarkraftwerke . . . . . . . . . . . . . 3.5.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Technik . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3 Das geplante japanische Pilotkraftwerk . . . . . . . 3.5.4 Kosten . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.5 Ökologie und Risiken . . . . . . . . . . . . . . . . 3.6 Steigerung der Energieeffizienz („Energiesparen“) . . . . . 3.6.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Verringerung von Energieverlusten . . . . . . . . . . 3.6.3 Verringerung des End- und Nutzenergiebedarfs . . . 3.6.4 Energieeffizienz und Wirtschaftswachstum . . . . . 3.6.5 Bescheidenerer Lebensstil . . . . . . . . . . . . . . 4. Beurteilung der verschiedenen Energieoptionen 4.1 Fossile Energieträger . . . . . . . . . . . . . 4.1.1 Wirtschaftlichkeit . . . . . . . . . . . 4.1.2 Langfristigkeit . . . . . . . . . . . . . 4.1.3 Umweltverträglichkeit . . . . . . . . 4.1.4 Sozialverträglichkeit . . . . . . . . . 4.1.5 Verteilungsgerechtigkeit . . . . . . . 4.2 Kernenergie . . . . . . . . . . . . . . . . . . 4.2.1 Wirtschaftlichkeit . . . . . . . . . . . 4.2.2 Langfristigkeit . . . . . . . . . . . . . 4.2.3 Umweltverträglichkeit . . . . . . . . 4.2.4 Sozialverträglichkeit . . . . . . . . . 4.2.5 Verteilungsgerechtigkeit . . . . . . . 4.3 Kernfusionsenergie . . . . . . . . . . . . . . 4.3.1 Wirtschaftlichkeit . . . . . . . . . . . 4.3.2 Langfristigkeit . . . . . . . . . . . . . 4.3.3 Umweltverträglichkeit . . . . . . . . 4.3.4 Sozialverträglichkeit . . . . . . . . . 4.3.5 Verteilungsgerechtigkeit . . . . . . . 4.4 Erneuerbare Energien . . . . . . . . . . . . 4.4.1 Wirtschaftlichkeit . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. 192 . . . . . . . . . . . . . . . . . . .
200 208 216 219 225 255 265 273 273 275 276 276 278 278 278 280 289 290 292
. . . . . . . . . . . . . . . . . . . . .
295 295 295 296 297 298 299 302 302 303 303 305 306 308 308 309 309 310 311 311 312
Inhaltsverzeichnis
4.5
4.6
4.7 4.8 4.9
4.4.2 Langfristigkeit . . . . . . . . . . . 4.4.3 Umweltverträglichkeit . . . . . . 4.4.4 Sozialverträglichkeit . . . . . . . 4.4.5 Verteilungsgerechtigkeit . . . . . Weltraumgestützte Solarkraftwerke . . . 4.5.1 Wirtschaftlichkeit . . . . . . . . . 4.5.2 Langfristigkeit . . . . . . . . . . . 4.5.3 Umweltverträglichkeit . . . . . . 4.5.4 Sozialverträglichkeit . . . . . . . 4.5.5 Verteilungsgerechtigkeit . . . . . Steigerung der Energieeffizienz . . . . . 4.6.1 Wirtschaftlichkeit . . . . . . . . . 4.6.2 Langfristigkeit . . . . . . . . . . . 4.6.3 Umweltverträglichkeit . . . . . . 4.6.4 Sozialverträglichkeit . . . . . . . 4.6.5 Verteilungsgerechtigkeit . . . . . Zielkonflikte und Gewichtungskriterien Abwägung der Energieoptionen . . . . . 4.8.1 Heute verfügbare Optionen . . . 4.8.2 Zukünftige Energieoptionen . . . Pragmatische Schlussfolgerungen . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
IX 314 315 316 317 317 317 318 318 318 319 319 319 320 320 320 321 321 323 323 330 332
Größenangaben und Einheiten für Energie . . . . . . . . . . . . . . 336 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 Namen- und Sachwortverzeichnis . . . . . . . . . . . . . . . . . . . 353 Die Autoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
X
Inhaltsverzeichnis
Einleitung
1.
1
Einleitung
Der Mensch benötigt für sein Überleben Energie u.a. in Form von Nahrung, Wärme und Licht. Ohne diese Energieformen ist kein menschenwürdiges Leben möglich; ihre dauerhafte Verfügbarkeit ist eine Grundvoraussetzung für das menschliche Leben im Rahmen höherer Gesellschaftsformen. Von daher spielte Energie bei der Entstehung und Entwicklung menschlicher Gesellschaften stets eine Schlüsselrolle. Daher wird die Beherrschung des Feuers und damit die Verfügbarmachung einer neuen Energiequelle als Indikator für den Beginn der menschlichen Kultur angesehen. Die Herrschaft über das Feuer änderte das Leben des Menschen umfassend: Durch die Erzeugung von Wärme verringerte sich seine Abhängigkeit von den Unbillen der Witterung und die Möglichkeit Nahrung zu kochen revolutionierte seine Ernährungsgewohnheiten. Der griechische Mythos macht diese Erfahrung anschaulich: Es ist der Gott Prometheus, der dem Menschen das Feuer bringt und ihm damit zugleich ein Machtmittel an die Hand gibt, das ihn den Tieren überlegen und den Göttern ähnlich macht. Jahrtausendelang blieb die Wirtschaft des Menschen hauptsächlich auf die Nutzung traditioneller Biomasse wie Holz, Stroh und Tierdung beschränkt. Bereits in den frühen Hochkulturen trat neben die traditionelle Biomasse-Nutzung jedoch auch die Energiegewinnung aus Wind- und Wasserkraft unter Zuhilfenahme von aufwendigen technischen Geräten. Das Aufblühen der städtischen Kultur und die Wiederbelebung des Fernhandels im Europa des 12. und 13. Jahrhunderts beruhte nicht zuletzt auf einer verbesserten technischen Nutzung der Wind- und Wasserkraft. Trotz dieser Erfolge blieb mechanische Energie in der Hauptsache weiterhin an menschliche Arbeitskraft gebunden, und ausreichende Verfügbarkeit über diese Energieform bedeutete im Kontext vormoderner Gesellschaften meist Leibeigenschaft oder Sklaverei. Die jahrtausendelange Abhängigkeit der menschlichen Wirtschaft von erneuerbaren Energiequellen änderte sich erst mit der Förderung von fossilen Rohstoffen am Beginn der industriellen Revolution im 19. Jahrhundert. Die Dampfmaschine, verbunden mit der industriellen Massenförderung von Kohle, bildete das Rückgrat dieser Revolution und drängte die Bedeutung physischer menschlicher Arbeitskraft zunehmend zurück. Damit leistete die Dampfmaschine einen objektiven Beitrag zur Überwindung von Leibeigenschaft und Sklaverei. Die Nutzung fossiler Brennstoffe in Wärmekraftmaschinen machte in den Industrieländern Energiedienstleistungen aller Art in einem bis dahin nie bekanntem Ausmaß verfügbar und führte zu einem – verglichen mit
2
Einleitung
vormodernen Zeiten – hohen Wohlstand. Neben der zuverlässigen Verfügbarkeit von Wärme und Licht wurde nun erstmals auch breiten Bevölkerungsschichten räumliche Mobilität in einem bis dahin nicht gekannten Ausmaß möglich. Die Erfindung des Generators durch Siemens Ende des 19. Jahrhunderts und der Beginn der großindustriellen Erzeugung elektrischer Energie verlieh der Entwicklung einen weiteren Schub, indem sie die technische Voraussetzung dafür schuf, Energie ununterbrochen auch für private Haushalte bereitstellen zu können. Nach zaghaften Anfängen in den Ballungszentren der Industrieländer trat die Elektrifizierung einen weltweiten Siegeszug an; eine Entwicklung, die angesichts der Tatsache, daß rund zwei Milliarden Menschen immer noch keinen Zugang zum öffentlichen Stromnetz haben, noch längst nicht abgeschlossen ist. Wie die Erfahrung vieler Schwellenländer zeigt, ist die Bereitstellung von ausreichender und bezahlbarer Energie für die Menschen in den Entwicklungsländern zugleich ein wichtiges Instrument im Kampf gegen Hunger, Armut und Umweltzerstörung. Genügend Energie zu erzeugen, um heute sechs, bald wahrscheinlich schon zehn Milliarden Menschen auf der Erde zumindest ein menschenwürdiges Leben zu ermöglichen, ist daher eines der zentralen Probleme des 21. Jahrhunderts. In den Industrieländern stehen heute praktisch in jedem Wohn- und Arbeitsraum elektrische Anschlüsse zur Verfügung. Sie ermöglichen so die Abfrage von Energiedienstleistungen an jedem Ort und zu jeder Zeit in nahezu beliebiger Höhe. Dem modernen Menschen ist die Allgegenwart von leicht verfügbarer und preiswerter Energie so selbstverständlich geworden, dass ihm die dahinter verborgene ungeheure technische Logistik nur noch selten bewusst wird. Vielen Menschen fehlt daher ein Gefühl für die Abhängigkeit ihrer Energieversorgung von begrenzten Ressourcen. Trotz der Erfindung des Generators und der Erschließung der Kernenergie als neuer Primärenergiequelle Mitte des 20. Jahrhunderts sind fossile Brennstoffe bis heute die mit Abstand dominierende Primärenergiequelle. Die Wärmekraftmaschinen des Industriezeitalters sind in ihrer Mehrzahl „Carbonivoren“ geblieben, d. h. eine Art Kohlenstoffresser, die ihre Energie aus fossiler Pflanzennahrung beziehen. Im Gegensatz zur Nahrungsbasis der tierischen Pflanzenfresser „ernähren“ die Wärmekraftmaschinen sich jedoch von einer nicht erneuerbaren Ressource. Die Begrenztheit der fossilen Rohstoffreserven, die von den modernen Industriegesellschaften oft verdrängt wird, erzwingt langfristig eine ähnlich einschneidende Umstrukturierung der Energiesysteme, wie sie zuletzt zu Beginn der industriellen Revolution stattgefunden hat, und sie wird möglicherweise ähnlich einschneidende ökonomische und soziale Folgen mit sich bringen. Aber nicht nur die faktische Begrenztheit der fossilen Ressourcen ist es,
Einleitung
3
die längerfristig eine Ablösung der fossilen Brennstoffe als Primärenergiequelle unausweichlich macht, auch die mit dem Abbau und der Verbrennung von fossilen Brennstoffen einhergehenden Umwelt- und Klimaprobleme haben ein in der Kultuzrgeschichte bislang nie gekanntes Ausmaß erreicht. Auf der Suche nach der fossilen Nahrung für seine Wärmekraftmaschinen ist der Mensch selbst in die abgelegensten Räume des Planeten vorgedrungen, hat dabei die Landschaft massiv verändert und teilweise schwer geschädigt. Für den Tagebergbau von Stein- und Braunkohle sind ganze Landstriche in den USA, Australien und Deutschland in verwüstete Landschaften verwandelt worden, die heute mühselig rekultiviert werden müssen, und selbst an so unwirtlichen Orten wie dem Nigerdelta und den arktischen Regionen Sibiriens wird Öl und Gas gefördert, oft ohne Rücksicht auf die natürlichen Ökosysteme und die dort lebende indigene Bevölkerung. Schadstoffemissionen aus der Verbrennung fossiler Brennstoffe bedeuten eine Belastung der menschlichen Gesundheit, führen zu Immissionsschäden an Pflanzen und zu globalen Umweltveränderungen. Die seit Beginn der Industriealisierung steigende Freisetzung ehemals fossil gebundenen Kohlenstoffs hat zudem den natürlichen Kohlenstoffkreislauf der Biosphäre aus dem Gleichgewicht gebracht und zu einem Anstieg des Kohlendioxidanteils in der Atmosphäre um rund ein Drittel geführt. Da Kohlendioxid neben Methan und anderen Gasen als Treibhausgas wirkt, stimmen Klimatologen weitgehend darin überein, dass noch in diesem Jahrhundert die weltweite Durchschnittstemperatur abhängig von der weiteren Emission von Treibhausgasen um ein bis vier Grad ansteigen wird, mit bislang unklaren Folgen für das weltweite Klima und die natürliche Vegetationsdecke der Erde. Auch die nichtfossilen Energien, d. h. die Kernenergie und die erneuerbaren Energien haben problematische Umweltfolgen mit sich gebracht. Beim Abbau von Uran sind in vielen Teilen der Welt, so z. B. in den USA, Kasachstan und der ehemaligen DDR radioaktive Nuklide freigesetzt und teilweise auch in die Nahrungskette eingetragen worden. Zudem fällt beim Betrieb von Kernkraftwerken radioaktiver Müll an, für den bislang weltweit kein Endlager existiert und der teilweise in nicht optimal geschützten Zwischenlagern deponiert wird. Bei den erneuerbaren Energien hat vor allem eine nicht nachhaltige Nutzung traditioneller Biomasse in vielen Entwicklungsländern, insbesondere aber in Afrika und Indien, zu einem ausgesprochenem Raubbau an den natürlichen Ökosystemen geführt. Große Staudämme wie der Assuan Staudamm in Ägypten haben einen bedeutenden Beitrag zur Elektrifizierung der Dritten Welt geleistet, zugleich aber auch massive Einschnitte in die natürliche Flussökologie mit allen damit verbundenen Folgeproblemen bewirkt. Die Gewinnung und
4
Einleitung
Bereitstellung von für das menschliche Überleben notwendige Energie beginnt also paradoxerweise eben dieses Leben zu gefährden. Eine umweltverträgliche Energieversorgung, die allen Menschen ausreichend Nutzenergie bereitstellt, ist daher eine Schlüsselfrage des menschlichen Überlebens im 21. Jahrhundert. Neben der Versorgungssicherheit haben in den letzten Jahren Fragen der Umweltverträglichkeit von Energiesystemen zunehmend an Bedeutung gewonnen. Trotz oder gerade wegen der unerwünschten ökologischen Nebenfolgen von Energiesystemen herrscht sowohl weltweit als auch in Deutschland kein Konsens über die zukünftigen einzuschlagenden Pfade der Energiegewinnung: Sollen die mit Blick auf die Versorgungssicherheit zuverlässigen fossilen Energiesysteme – wenn auch unter erhöhten Umweltauflagen – weiterbetrieben werden, solange dies die Ressourcenbasis erlaubt, oder sollten sie bereits mittelfristig durch alternative Energiequellen ersetzt werden? Welcher der beiden alternativen Primärenergiequellen – erneuerbare Energien oder Kernenergie – wäre im Falle einer notwendigen Umstrukturierung der Energiewirtschaft der Vorzug zu geben? Sollten beide Pfade gleichberechtigt verfolgt werden oder sollte auf die nukleare Energieoption wegen ihres Gefahren- und Missbrauchspotenzials womöglich gänzlich verzichtet werden? Werden neuartige Technologien, wie die Fusionsenergie oder weltraumgestützte Solarkraftwerke schon bald eine umweltfreundliche Lösung der Energiefrage bringen? Dies sind die zentralen Fragen im Hinblick auf die zukünftige globale Energiepolitik. Hinsichtlich der möglichen Alternativen herrscht kein Konsens. Die im Hinblick auf eine großtechnische Nutzung ausgereifteste Alternative zu den fossil dominierten Energiesystemen, nämlich die Kernenergie, ist seit ihrer Einführung Gegenstand hitziger Kontroversen und trifft in vielen Ländern auf Akzeptanzprobleme. Gerade in der Bundesrepublik Deutschland hat die Auseinandersetzung um die Kernenergie in der Vergangenheit – wie etwa um die ehemals geplante Wiederaufbereitungsanlage in Wackersdorf – nachgerade bürgerkriegsähnliche Zustände angenommen. Um keine andere Technologie, die moderne Reproduktionsmedizin und die Gentechnik vielleicht ausgenommen, wurde und wird ähnlich leidenschaftlich gestritten. In der Frage der Kernenergienutzung besteht sowohl innergesellschaftlich als auch international kein politischer Konsens. In drei Ländern Europas, nämlich Österreich (1979), Italien (1987) und Schweden (1980), hat sich die Bevölkerung in der Vergangenheit in Volksentscheiden gegen die Nutzung der Kernenergie ausgesprochen. Vor dem Hintergrund fehlender gesellschaftlicher Akzeptanz haben mittlerweile fünf von acht EU-Staaten mit Kernkraftwerken, darunter auch Deutschland, einen Atomausstieg beschlossen oder zumindest angekündigt. Andere europäische Länder, darunter insbesondere Frankreich, halten hingegen an der
Einleitung
5
Kernenergie fest und das Parlament des EU-Neumitglieds Finnland hat im Frühjahr 2002 sogar für den Neubau eines Kraftwerks votiert. Außerhalb Europas ist die Kernenergie weiterhin eine bedeutende energiepolitische Option. Besonders die energiehungrigen Schwellenländer Ost- und Südostasiens, insbesondere China und Indien, streben einen raschen Ausbau ihrer bereits bestehenden Kraftwerkskapazitäten an, bzw. haben, wie Indonesien, Nordkorea und Vietnam einen Einstieg in diese Technologie angekündigt. Erschwert wird der Streit um die energiepolitische Zukunft vor allem dadurch, dass sich in der Energiefrage zahlreiche soziale, ökonomische und ökologische Probleme überschneiden, die nicht getrennt voneinander betrachtet werden dürfen. Einzelne Umweltkatastrophen oder steigende Energiepreise führen regelmäßig dazu, dass in der öffentlichen Wahrnehmung jeweils ökologische oder ökonomische Probleme der Energiefrage im Vordergrund stehen, was aber eine langfristig angelegte Energiepolitik erschwert, wenn nicht unmöglich macht. Neben solchen Verzerrungen in der öffentlichen Wahrnehmung sind es jedoch nicht zuletzt genuin ethische Probleme, die einen rationalen gesellschaftlichen Konsens in der Energiefrage blockieren. An erster Stelle zu nennen sind hier die Verantwortung gegenüber zukünftigen Generationen, Probleme der Verteilungsgerechtigkeit und der Risikobeurteilung. Angehörige technischer Berufe neigen verständlicherweise dazu, nach ausschließlich technischen Lösungen der Energiefrage zu suchen und reagieren oftmals irritiert, wenn in der Öffentlichkeit eine stärkere Berücksichtigung der mit Energiesystemen verbundenen ethischen Probleme eingefordert wird. Umgekehrt hat sich die in den Sozial- und Geisteswissenschaften geführte Debatte um die Vertretbarkeit von Energiesystemen oftmals auf rein qualitative Aspekte der betrachteten Systeme konzentriert und dabei nur unzureichend die naturwissenschaftlich-technischen Rahmenbedingungen und die quantitativen Probleme berücksichtigt. Schließlich wird die öffentliche Debatte über Probleme der Langzeitverantwortung und Risikoakzeptanz oftmals emotional und dazu noch auf der Basis nicht explizit gemachter weltanschaulicher Voreinstellungen geführt, was die Skepsis der technisch und naturwissenschaftlich orientierten Diskursteilnehmer gegenüber solchen Argumenten nur noch verstärkt. Die durch Presse, Funk und Fernsehen vermittelte Debatte hat – ähnlich wie in der Bioethik-Diskussion – zu dem irreführenden Eindruck geführt, dass im Gegensatz zu den technischen Problemen die Beurteilung ethischer Probleme letztlich eine rein subjektive Angelegenheit, ja womöglich reine Geschmacksfrage ist. An dieser Stelle kann die philosophische Ethik mit ihrem Anspruch auf rationale Konfliktbewältigung in ethischen Fragen einen wichtigen Beitrag zur Lösung der Energiefrage leisten.
6
Einleitung
Vor dem Hintergrund dieser Vorüberlegungen wird eine Arbeit über die ethischen Probleme der Energiefrage daher vor allem zwei Dinge leisten müssen: Einerseits wird sie möglichst alle relevanten Aspekte der betrachteten Energiesysteme berücksichtigen müssen, andererseits sollte sie einen Beitrag zu einem rationalen Umgang mit den ethischen Problemen leisten. Schon in der von Platon überlieferten Fassung des Mythos erweist sich die bloße Fertigkeit des Umgangs mit dem Feuer jedoch als außerordentlich problematisch.1 Die stark emotionale und oftmals von persönlichen Angriffen begleitete Debatte über Energietechnologien hat den Diskurs in der Bundesrepublik sehr schwierig gemacht. Angesichts der Bedeutung der weltweiten Energieversorgung für die weitere Entwicklung der Menschheit und bei dieser Diskussionslage stellt sich für die Wissenschaften die Aufgabe, die naturwissenschaftlichen, technischen und ethischen Fragen in einem alle wichtigen Gesichtspunkte umfassenden Sachstandsbericht sowie weitere Aspekte zusammenzufassen und einen Bewertungsrahmen für eine rationale Beurteilung der Energieoptionen zu liefern. Dieser Versuch wird im Folgenden unternommen. Es werden ferner auf der Basis der Analysen Vorschläge gemacht, welche Wege für die Energieversorgung in den nächsten Jahrzehnten gegangen werden sollten.
1
Protagoras 321 a – 323 d.
Die regulative Idee der Nachhaltigkeit und die Unverzichtbarkeit von Kriterien
2.
Kriterien für die Beurteilung von Energiesystemen
2.1
Die regulative Idee der Nachhaltigkeit und die Unverzichtbarkeit von Kriterien
7
Das Leitbild der Nachhaltigkeit dominiert spätestens seit der Umweltkonferenz von Rio de Janeiro 1992 auch die energiepolitische Debatte, nachdem es zuvor vor allem die Umwelt- und Entwicklungspolitik geprägt hatte. Es erscheint in einer Arbeit über ethische Probleme der Energieversorgung daher unausweichlich zumindest einige Vorüberlegungen über die Tragfähigkeit der Nachhaltigkeitsidee anzustellen. Die klassische Form der Nachhaltigkeitsidee wurde im 18. Jahrhundert in der preußischen Staatsforstverwaltung entwickelt.1 Angesichts eines ständig wachsenden Bedarfs an Nutz- und Brennholz, der die natürliche Regenerationskraft der Wälder zu überfordern drohte, forderte ihr Leiter, Georg Ludwig Hartig, „Nachhaltigkeit“ in der Bewirtschaftung der Staatsforste ein: „Es lässt sich keine dauerhafte Forstwirtschaft denken und erwarten, wenn die Holzabgabe aus den Wäldern nicht auf Nachhaltigkeit berechnet ist. Jede weise Forstdirektion muss daher die Waldungen des Staates ohne Zeitverlust taxieren lassen und sie zwar so hoch als möglich, doch so zu benutzen suchen, dass die Nachkommenschaft wenigstens ebenso viel Vorteil daraus ziehen kann, als sich die jetzt lebende Generation zueignet“ (Hervorhebung durch die Verfasser).2 Bereits in der Formulierung von Hartig werden eine möglichst effiziente Nutzung der natürlichen Ressourcen in der Gegenwart und die Berücksichtigung der Interessen zukünftiger Generationen als gleichrangige Ziele genannt, zwischen denen ein vernünftiger Ausgleich gefunden werden muss. Die Nutzung natürlicher Ressourcen durch gegenwärtige Gene1
2
Zur Begriffsgeschichte der Nachhaltigkeitsidee und aktuellen Kontroversen um ihre Deutung vgl. Jörissen / Kopfmüller / Brandl / Paetau: Ein integratives Konzept nachhaltiger Entwicklung, hrsg. vom FZ Karlsruhe, Karlsruhe 1999 [=FZKA 6393], S. 11–35; Steger et al.: Nachhaltige Entwicklung und Innovation im Energiebereich, Berlin 2002, S. 9–38; H. Diefenbacher: Gerechtigkeit und Nachhaltigkeit. Zum Verhältnis von Ethik und Ökonomie, Darmstadt 2001, S. 58–72; J. R. Engel: Sustainable Development, in: Encyclopedia of Bioethics, ed. by T. R. Warren, New York 1995, S. 2456 ff. Georg Ludwig Hartig: „Anweisungen zur Taxation der Forste zur Bestimmung des Holzertrags der Wälder“, Berlin 1795, zitiert nach Spektrum der Wissenschaft, März 2002, S. 102.
8
Kriterien für die Beurteilung von Energiesystemen
rationen, so könnte die Maxime modern formuliert lauten, findet dort ihre Grenze, wo zukünftige Generationen um ihre Chance auf eine gleichwertige Nutzung gebracht werden. Dieses Verständnis von Nachhaltigkeit liegt auch der mittlerweile als klassisch geltenden Definition der Brundtland-Kommission (Report of the World Commission on Environment and Development) von 1987 zugrunde: „Humanity has the ability to make development sustainable to ensure that it meets the needs of the present without compromising the ability of future generations to meet their own needs“ (Hervorhebung durch die Verfasser).3 In ihrer Kernbedeutung ist Nachhaltigkeit also eine moralische Maxime ohne konkrete inhaltliche Vorgaben. Auf welche Weise sichergestellt wird, dass auch zukünftige Generationen ihre Bedürfnisse adäquat befriedigen können, bleibt zumindest in der Brundtland-Definition offen. Die Nachhaltigkeitsmaxime der preußischen Staatsforstverwaltung hat einen materialen Inhalt, insofern sie konkret auf die Erhaltung der natürlichen Holzressourcen in den Wäldern zielt, sie stammt jedoch aus einer vorindustriellen Zeit, in der Holz fast den gesamten Energiebedarf des Landes decken musste, und somit – anders als heute – noch keine alternativen Energieoptionen zur Verfügung standen. Nachhaltigkeit muss daher heute vor dem Hintergrund alternativer Energieoptionen immer wieder neu bestimmt werden. Ein bestimmtes Energiesystem ist immer nur ein mehr oder weniger adäquates Mittel zur Erreichung der in der Nachhaltigkeitsidee formulierten Zielvorstellung. Seine Adäquatheit muss vor dem Hintergrund neuer Technologien und/oder neuer wissenschaftlicher Erkenntnisse immer wieder von neuem überprüft werden. Die Nachhaltigkeitsidee in ihrer „klassischen“ Form ähnelt damit anderen regulativen Ideen, wie denen der Freiheit oder Gerechtigkeit.4 Auch diese sind auf die Zukunft ausgerichtet und definieren keinen konkreten Zustand, in dem das Ideal als ein für alle Mal verwirklicht gelten könnte. Im Gegensatz zu zentralen ethischen Begriffen wie „Freiheit“ und „Gerechtigkeit“ besteht für den Terminus der Nachhaltigkeit jedoch noch keine philosophische Auslegungstradition und auch in den Wirtschaftswissenschaften ist sein terminologischer Gebrauch unscharf. In der Konkretisierung der Forderung nach ausreichender Bedürfnisbefriedigung heutiger Menschen bei gleichzeitiger Berücksichtigung der Be3 4
United Nations (Hrsg.): Report of the World Commission on environment and development, A/42/427, UN 1987, S. 24. Vgl. dazu vor allem H.G. Nutzinger: Nachhaltigkeit und Innovation: Zwei begriffliche Ebenen und eine doppelte Restriktionsanalyse, in: Steger (Hrsg.): Nachhaltige Entwicklung und Innovation im Energiebereich, Graue Reihe Nr. 28, Bad-Neuenahr-Ahrweiler 2001, S. 32–42.
Die regulative Idee der Nachhaltigkeit und die Unverzichtbarkeit von Kriterien
9
dürfnisse zukünftiger Generationen ist der Nachhaltigkeitsbegriff in der aktuellen Debatte vor allem durch einen Zielkonflikt zwischen der Forderung nach Wohlstand für möglichst viele Menschen und dem Erhalt der natürlichen Lebensgrundlagen im Hinblick auf zukünftige Generationen gekennzeichnet.5 Hinsichtlich der Gewichtung dieser beiden Ziele lassen sich vor allem zwei Nachhaltigkeitsinterpretationen unterscheiden. Eine „starke“ Interpretation der Nachhaltigkeit fordert eine Orientierung an der Belastbarkeit von Ökosystemen und einen absoluten Vorrang von Umweltschutzzielen während eine „schwache“ Deutung eine Gleichberechtigung von umweltund entwicklungspolitischen Zielen sieht.6 Als wichtige „schwache“ Deutung hat sich in Anlehnung an den Brundtland-Bericht das Drei-Dimensionen-Konzept der Nachhaltigkeit etabliert, in dem die drei Dimensionen Gesellschaft, Wirtschaft und Umwelt als gleichberechtigt angesehen werden.7 Die verschiedenen, heute diskutierten Nachhaltigkeitsinterpretationen unterscheiden sich vor allem darin, welcher Dimension jeweils größere Bedeutung beigemessen wird. In diesem Zusammenhang ist strittig, ob, und wenn ja in welchem Umfang eine Substitution knapper natürlicher Ressourcen durch gesellschaftliches Kapital möglich und gerechtfertigt ist.8 Als Ergebnis dieser Vorüberlegungen bleibt festzuhalten, dass der Begriff der Nachhaltigkeit in seiner ursprünglichen Bedeutung eine allgemeine moralische Maxime enthält – nämlich die Bedürfnisse zukünftiger Generationen beim Handeln in der Gegenwart angemessen zu berücksichtigen – während heute unter diesem Oberbegriff inhaltlich divergierende wirtschaftliche, soziale und umweltpolitische Ziele zusammengefasst werden. Ersteres Verständnis von Nachhaltigkeit ist für eine Beurteilung von Energiesystemen zu allgemein gefasst, letzteres verlangt eine differenzierte Analyse nach wirtschaftlichen, sozialen und ökologischen Gesichtspunkten, mit anderen Worten: Kriterien.
5 6
7 8
vgl. zu diesem Zielkonflikt J. R. Engel: Sustainable Development, in: Encyclopedia of Bioethics, ed. by Warren T.R., New York 1995, S. 2456ff. ebd.; vgl. dazu auch Diefenbacher 2001, S. 66 ff.; sowie A. Leist: Ökologische Ethik II: Gerechtigkeit, Ökonomie, Politik, in: Nida-Rümelin (Hrsg.): Angewandte Ethik, Stuttgart 1996, S. 434/435. Es wird Hr. T. Petrovic an dieser Stelle für die in vielen Gesprächen gewonnenen wertvollen Anregungen zur aktuellen Nachhaltigkeitsdebatte gedankt. Leist 1996, S. 437; Diefenbacher 2001, S. 70.
10
Kriterien für die Beurteilung von Energiesystemen
2.2
Entfaltung der Kriterien
Die meisten Differenzen in der Beurteilung von Energiesystemen resultieren aus der verschiedenartigen Gewichtung einzelner Teilaspekte eines Systems. Für eine ausgewogene Bewertung ist jedoch eine möglichst vollständige Berücksichtigung aller relevanten Faktoren nötig. Zugleich darf jedoch die Anzahl der Kriterien bei der Beurteilung von Energiesystemen nicht zu groß werden, wenn die Komplexität der Untersuchung auf ein vertretbares Maß beschränkt bleiben soll. Kriterien für die Beurteilung von Energiesystemen können zweckmäßig aus menschlichen Bedürfnissen abgeleitet werden. Dieser Ansatz lässt sich im Kontext der Energiefrage nicht nur pragmatisch rechtfertigen, sondern entspricht auch grundlegenden ethischen Einsichten. Vor allem der philosophische Diskurs um neo-aristotelische Ethikansätze hat deutlich gemacht, dass eine Ethik ohne eine gehaltvolle Theorie der menschlichen Bedürfnisse nicht zur Rechtfertigung gehaltvoller praktischer Orientierungen kommen kann.9 Die Plausibilität von Bedürfnistheorien wird dabei immer davon abhängen, wie elementar die betrachteten Bedürfnisse tatsächlich sind. Im Kontext der Energiefrage geraten zunächst zwei Klassen von Bedürfnissen in den Blick: Menschen haben elementare Bedürfnisse nach Nutzenergie in Form von Wärme und Licht (und darüber hinaus gehobene Bedürfnisse nach Mobilität und Kommunikation). Zudem hängt auch die landwirtschaftliche Produktion von Nahrungsmitteln auf das engste mit der Verfügbarkeit von Nutzenergie zusammen.10 Menschen sind zur Befriedigung ihrer Bedürfnisse nach Nahrung, sauberer Luft und Trinkwasser auf intakte Ökosysteme angewiesen.
x
x
Von Energiesystemen muss daher zunächst gefordert werden, dass sie preiswert ausreichend Nutzenergie zur Verfügung stellen, ohne längerfristig die natürlichen Grundlagen menschlichen Lebens auf der Erde zu gefährden. 9
10
Vgl. zu den neoaristotelischen Ansätzen exemplarisch M. Nussbaum, A. Sen (Hrsg.): The quality of life, Oxford 1993; M. Nussbaum: Für eine aristotelische Sozialdemokratie, in: Philosophie und Politik VI, hrsg. von J. Nida-Rümelin und W. Thierse, Essen 2002, S. 17–40. Die Landwirtschaft ist zwar kein Teil der Energiewirtschaft hängt aber auf das engste mit ihr zusammen. Zum einen entstehen Nahrungsmittel aus der photosynthetischen Leistung von Pflanzen, die alternativ auch als Energierohstoff genutzt werden könnten, zum anderen ist die Landwirtschaft in weiten Teilen der Welt mittlerweile sehr energieintensiv. Aus beiden Gründen besteht ein enger Zusammenhang zwischen der Produktion und Distribution von Nahrungsmitteln und der Verfügbarkeit von Energie.
Entfaltung der Kriterien
11
Sie sollten daher ein elementares Maß an Wirtschaftlichkeit und Umweltverträglichkeit garantieren. Diese beiden Kriterien, auf der Basis elementarer menschlicher Bedürfnisse gewonnen, sind notwendige, jedoch noch keine hinreichenden Bedingungen für die Beurteilung von Energiesystemen. Alle Aktivitäten der Energiegewinnung- und Bereitstellung sind mit Eingriffen in die soziale Sphäre verbunden, die von Wertvorstellungen und Normen geprägt wird, und daher haben Energiesysteme immer auch ethische Implikationen. In einem erweiterten Sinne können auch allgemein geteilte Wertvorstellungen als menschliche Bedürfnisse rekonstruiert werden. So haben Menschen ein Bedürfnis nach dem Wohlergehen ihrer Nachkommen, nach Gerechtigkeit und der Anerkennung elementarer Grundrechte. Daraus lassen sich drei Kriterien ableiten, denen Energiesysteme genügen sollten, nämlich die drei Kriterien der Langfristigkeit, Verteilungsgerechtigkeit und Sozialverträglichkeit. Diese Prinzipien genießen zwar weitgehend gesellschaftliche Anerkennung, sind jedoch in vielen entscheidenden Details umstritten. Dies betrifft insbesondere Umfang und Reichweite der Langzeitverantwortung und im Bereich der Verteilungsgerechtigkeit Form und Inhalt einer fairen Chancen-Risiken-Verteilung. Obwohl auch letztere Kriterien im weitesten Sinne aus menschlichen Bedürfnissen abgeleitet werden können, beruhen sie doch auf Bedürfnissen, die anders als die Bedürfnisse nach Nutzenergie und Nahrung keine anthropologischen Konstanten darstellen. Sie bedürfen daher einer genaueren normativen Begründung. Es wird weiter unten versucht werden, diese im Zusammenhang mit der Entfaltung der einzelnen Kriterien zu leisten. Auch wenn die hier vorgeschlagenen Kriterien in einigen Bereichen Überschneidungen aufweisen, also nicht strikt disjunkt sind, wird es aus pragmatischen Gründen im Kontext der Energiefrage als sinnvoll erachtet diese fünf Bereiche zu unterscheiden.
2.2.1 Wirtschaftlichkeit Unter Wirtschaftlichkeit wird hier verstanden, dass Energiesysteme zuverlässig ausreichend Nutzenergie11 zu wettbewerbsfähigen Preisen zur Verfügung stellen sollten. 11
Es wird bewusst der Begriff der Nutzenergie verwendet, weil Menschen Energie in Form von Arbeit, Wärme oder Licht nachfragen, nicht jedoch eine bestimmte Primär- oder Sekundärenergiequelle. In diesem Sinne spielt es auch keine Rolle, ob zusätzliche Nutzen-
12
Kriterien für die Beurteilung von Energiesystemen
Zuverlässig soll bedeuten, dass die Nutzenergie dem Verbraucher jederzeit und zu möglichst stabilen Bedingungen zur Verfügung gestellt werden kann, ausreichend, dass die bereitgestellte Nutzenergie zur Deckung des Bedarfs ausreicht und wettbewerbsfähig, dass dies zu konkurrenzfähigen Preisen geschieht. Um wirtschaftlich zu sein muss ein Energiesystem daher sowohl Versorgungssicherheit als auch Wettbewerbsfähigkeit gewährleisten. Es sind im Hinblick auf die Wirtschaftlichkeit eines Energiesystems jeweils drei Fragen zu klären: Wie zuverlässig, in welcher Menge und zu welchen Kosten kann Nutzenergie zur Verfügung gestellt werden? In modernen Industriegesellschaften besteht ein hoher Bedarf an nachfragegerechten, permanent verfügbaren Energiedienstleistungen. Die permanente Verfügbarkeit von preiswerter Energie genießt lebensweltlich eine hohe Wertschätzung. Dies wird meistens jedoch erst deutlich, wenn Störungen in der Versorgung auftreten. Verbraucher reagieren in der Regel sehr verärgert über zeitweilige Stromausfälle oder sonstige Unterbrechungen der Energieversorgung. In Deutschland sind die Gas- und Elektrizitätsversorger zudem durch § 1 des Energiewirtschaftsgesetzes (EnWG) gesetzlich auf die Sicherstellung der Versorgungssicherheit verpflichtet, wozu auch die Deckung eines zeitweilig auftretenden Spitzenbedarfs gehört.12 Im Kommentar zum EnWG heißt es dazu, unter Versorgungssicherheit sei die „stets ausreichende und ununterbrochene Befriedigung der Nachfrage nach Energie zu verstehen“ 13. Aus der Forderung nach einer ausreichenden und ununterbrochenen Befriedigung der Nachfrage folgt, dass Energiesysteme sowohl über das Potenzial verfügen müssen, die Nachfrage zu befriedigen, als auch über eine genügend hohe Verfügbarkeit. Die beiden Aspekte der ausreichenden Bedarfsdeckung und technischen Verfügbarkeit sollen im folgenden getrennt beleuchtet werden. Die Beantwortung der Frage nach einer „ausreichenden“ Energiebereitstellung erfordert zunächst eine Unterscheidung zwischen Bedürfnissen, Bedarf und Nachfrage.14 Bedürfnisse sind der Wunsch nach der Überwindung eines Mangels. Es gibt Grundbedürfnisse, im Hinblick auf Nutzenergie
12 13 14
ergie gegebenenfalls auch durch eine Steigerung der Energieeffizienz verfügbar gemacht wird. Vgl Energiewirtschaftsgesetz 1998, erläutert von Böwing et al., Frankfurt a.M. 1999, S. 41. Ebd., S. 41. Die hier vorgenommenen Begriffsdefinitionen folgen der 15. Auflg. des Gabler Wirtschafts-Lexikons, Stichworte „Bedarf “, „Bedürfnis“ und „Nachfrage“.
Entfaltung der Kriterien
13
etwa die nach Nahrung, Wärme und Licht, die im Wesentlichen bei allen Menschen gleich sind. Außer diesen im Folgenden als elementar bezeichneten Bedürfnissen existieren jedoch auch unbestimmte und individuell durchaus verschiedene Bedürfnisse nach Gütern und Dienstleistungen, die das Leben angenehmer machen. Diese konkretisieren sich erst durch ein real vorhandenes Angebot. Konkretisierte Bedürfnisse nach knappen Gütern, zu denen hier auch die elementaren gerechnet werden, werden im folgenden als Bedarf bezeichnet. Ob der jeweilige Bedarf gedeckt werden kann, hängt wiederum von der Kaufkraft der Wirtschaftssubjekte ab. Nur wenn diese auch über eine reale Kaufkraft verfügen, kann von einer Nachfrage im engeren Sinne gesprochen werden. In rein marktwirtschaftlicher Perspektive mag es genügen, wenn ein Energiesystem ausreichend Nutzenergie zur Deckung der Nachfrage bereitstellt. Eine solche Deckung der Nachfrage als alleiniger Maßstab bleibt jedoch in verschiedener Hinsicht defizitär. Zum einen wird die Nachfrage hauptsächlich über den Preis bestimmt. Liegt dieser sehr hoch, können die schwächeren Marktteilnehmer mangels Kaufkraft ihren Bedarf nicht decken. Die Nachfrage gibt den wirklichen Energiebedarf also möglicherweise nur unzureichend wieder. Zum anderen ist die hohe Nachfrage nach Energiedienstleistungen, insbesondere in den Industrieländern, ihrerseits zunehmend Gegenstand der Kritik geworden. Beide Probleme stehen außerhalb des Kontextes rein ökonomischer Erwägungen, verdienen im Rahmen ethischer Überlegungen aber eine nähere Betrachtung. Energiebedarf der Entwicklungsländer Für die meisten Entwicklungsländer gilt, dass sie ihren Energiebedarf, insbesondere an Elektrizität und Treibstoffen, derzeit in Ermangelung von Kapital nicht in ausreichendem Umfang befriedigen können. Dass ein Teil der Menschen in den Entwicklungsländern nicht über genügend Nutzenergie verfügt, um ein menschwürdiges Leben führen zu können, ist ein fortdauernder Missstand, der zudem gegen soziale Menschenrechte verstößt, wie sie z. B. in der UN-Menschenrechtskonvention von 1948 formuliert wurden. Zudem spielt die Verfügbarkeit von gehobenen Energiedienstleistungen durch Elektrizität und Treibstoffe eine Schlüsselrolle in der wirtschaftlichen Entwicklung dieser Länder. Im Sinne einer Förderung des weltweiten Wohlstands und der Entwicklung der Weltwirtschaft besteht auch seitens der Industrieländer ein starkes Interesse an einer ausreichenden Energiebereitstellung in Entwicklungsländern. Die Regierungen der Ent-
14
Kriterien für die Beurteilung von Energiesystemen
wicklungs- und der Industrieländer stehen daher vor der gemeinsamen Aufgabe kurzfristig die Bereitstellung ausreichender und preiswerter elementarer Nutzenergie, mittel- und langfristig aber den Aufbau einer leistungsfähigen Energieinfrastruktur zur Deckung des gehobenen Bedarfs anzustreben. Mit Blick auf das Kriterium der Wirtschaftlichkeit bedeutet dies, dass Energiesysteme nicht nur kurzfristig auf die Deckung der faktisch auf den Weltmärkten bestehenden Nachfrage ausgerichtet sein sollten, sondern langfristig auch einen Beitrag zur Deckung des wachsenden Energiebedarfs der Menschheit leisten können müssen. Energiebedarf der Industriegesellschaften Theoretisch sind dem Bedarf nach Energiedienstleistungen keine Grenzen gesetzt und daher gilt auch für die Energiewirtschaft das volkswirtschaftliche Prinzip „Sättigung tritt nie ein“. Der Energiebedarf und der damit verbundene Lebensstil westlicher Industriegesellschaften ist in der Gegenwart jedoch seinerseits Gegenstand der Kritik geworden. Exemplarisch kritisiert etwa Meyer-Abich, dass der hohe Energiebedarf in Industrieländern oft überhaupt erst durch ein entsprechendes Angebot und Werbung künstlich erzeugt werde.15 So sei die Nachfrage nach individueller Mobilität keineswegs zwingend.16 Alternativ könnte der Bedarf nach Mobilität auch durch öffentliche Verkehrsmittel gedeckt werden bzw. durch die Verringerung von Distanzen und die Beseitigung von Verkehrsursachen vollständig substituiert werden. Die Lebensstilkritik und die Frage, inwieweit „Energiesparen“ eine realistische Option im Rahmen der Energiefrage ist, wird weiter unten noch einmal aufgegriffen werden (vgl. 3.6.5). Für den Moment sollen lediglich einige vorläufige Überlegungen hinsichtlich der Frage angestellt werden, ob der empirisch vorfindbare Bedarf auch außerhalb des ökonomischen Kontextes als gerechtfertigt gelten kann. Im Sinne der oben skizzierten elementaren Bedürfnisse dürfte zunächst unstrittig sein, dass weltweit ein Bedarf an überlebensnotwendiger Nutzenergie in Form von Nahrung, Wärme und Licht für derzeit sechs Milliarden Menschen besteht. Der weltweite Bedarf an Nutzenergie geht jedoch weit über den zum bloßen Überleben notwendigen Anteil hinaus und dieser zusätzliche Bedarf ist Gegenstand der Kritik. Betrachten wir dazu zunächst den Charakter und Umfang dieses gehobenen Energiebedarfs. 15
16
Vgl. dazu exemplarisch K.M. Meyer-Abich: Kritik und Bildung der Bedürfnisse. Aussichten auf Veränderungen der Nachfrage- und Bedarfsstruktur, in ders.: Was braucht der Mensch um glücklich zu sein, München 1979, S. 58–77. Ebd., S. 62 ff.
Entfaltung der Kriterien
15
In den entwickelten westlichen Industriegesellschaften sind gehobene Energiedienstleistungen längst Teil des täglichen Lebens geworden. So hat der Umfang harter körperlicher Arbeit durch den Einsatz von Maschinen in Industrie und Landwirtschaft in allen entwickelten Ländern stark abgenommen. Der Einsatz von elektrischen Geräten hat auch die Arbeit im Haushalt wesentlich erleichtert. Mobilität – früher ein Privileg der Reichen – ist für jedermann erschwinglich geworden, und niemand mehr ist gezwungen, lange Strecken zu Fuß zurückzulegen. Auch den Unbillen der Witterung sind Menschen in Industrieländern weniger ausgesetzt als früher. Jederzeit beheizte Räume sind längst eine Selbstverständlichkeit geworden. Die nächtliche Beleuchtung der Städte mit elektrischem Licht hat zusätzliche Sicherheit gebracht. Insgesamt hat die permanente und bedarfsgerechte Verfügbarkeit von Nutzenergie das Leben in den Industrieländern angenehmer gemacht und zusammen mit der verbesserten medizinischen Versorgung in erheblichem Maße zu einem Anstieg der Lebenserwartung beigetragen. Vor diesem Hintergrund kann es nicht verwundern, dass die Verfügbarmachung von preiswerter Nutzenergie in der Politik der meisten Entwicklungsländer eine Schlüsselrolle spielt. Die aktuellen Erfahrungen mit Schwellenländern in Asien, wie z. B. Indien und China, entkräften auch die in der Vergangenheit oft vorgebrachte Kritik, der energieintensive Lebensstil westlicher Industrieländer sei lediglich Ausfluss einer ökologisch zerstörerischen anthropozentrischen Weltsicht der westlichen Tradition.17 Vielmehr zeigt sich, dass auch in diesen alten asiatischen Kulturen mit wachsendem Wohlstand die Nachfrage nach Nutzenergie des gehobenen Bedarfs steigt. Daraus kann geschlossen werden, dass der Energieverbrauch in erster Linie eine Frage des gesellschaftlichen Entwicklungsstandes und nicht des Kulturkreises ist. Von daher ist es sinnvoll davon auszugehen, dass der allgemein verbreitete Wunsch nach einem Mehr an Energiedienstleistungen auf einem natürlichen Streben des Menschen nach zusätzlichen Annehmlichkeiten beruht. Dieses natürliche Streben sollte bei allen Betrachtungen über den Energiebedarf in Rechnung gestellt werden. Gegen diese natürliche Neigung könnte eingewandt werden, dass es gute Gründe gibt, sie aus rationalen Erwägungen zu unterdrücken. Für dieses Beweisziel muss jedoch gezeigt werden, dass die negativen Folgen des energieintensiven Lebensstils, etwa in Form von Umweltschä17
vgl. zu dieser Diskussion exemplarisch H. Kessler: Problemaufriß: Das Natur- und Selbstverständnis der Moderne und das Problem eines ökologischen Weltethos, in: ders.: Ökologisches Weltethos im Dialog der Kulturen und Religionen, Darmstadt 1996, S. 1–32.
16
Kriterien für die Beurteilung von Energiesystemen
den, die unmittelbaren Vorteile in Form eines Anstiegs an Lebensqualität und Lebenserwartung übersteigen. Alle Appelle, einen bescheideneren Lebensstil um seiner selbst willen zu führen, sind hingegen angesichts der unmittelbaren und sehr konkret erfahrbaren Vorteile von Nutzenergie aller Wahrscheinlichkeit nach zum Scheitern verurteilt. Die Erhöhung von Lebensqualität und Lebenserwartung sind Zwecke, die sich rational rechtfertigen lassen. Daher kann auch die Bereitstellung von jederzeit verfügbarer Nutzenergie des gehobenen Bedarfs als ein geeignetes Mittel zur Erreichung dieser Zwecke gerechtfertigt werden. Dies bedeutet jedoch nicht, dass sich jeder Bedarf an gehobenen Energiedienstleistungen im Sinne der obigen Zwecke gleichermaßen zwingend rechtfertigen lässt: Ob Energiedienstleistungen wie individuelle Mobilität und mobile Kommunikation die Lebensqualität erhöhen, mag individuell unterschiedlich beurteilt werden. In diesem Sinne mag eine Bedürfniskritik im Sinne Meyer-Abichs durchaus möglich erscheinen. Zweifel bestehen jedoch hinsichtlich ihrer Verallgemeinerungsfähigkeit. Politische Programme, die Menschen davon überzeugen wollen, dass ihre geäußerten Bedürfnisse nicht ihre eigentlichen seien, haben oft eine antiemanzipatorische Tendenz.18 Aufgrund dieser negativen Erfahrungen sollte in pluralistischen Gesellschaften die Entscheidung darüber, welche Energiedienstleistungen die Lebensqualität erhöhen, den handelnden Wirtschaftssubjekten selbst überlassen bleiben. Immerhin bleibt erwägenswert, ob Menschen durch Erziehung und Aufklärung nicht zu einem bewussteren Umgang mit Energie angeleitet werden können.19 Unabhängig von Fragen der Bedürfniskritik ist es sinnvoll eine Internalisierung der negativen Folgen der Energieerzeugung und Bereitstellung in den Marktpreis anzustreben, was zur Zeit sicherlich noch nicht vollständig der Fall ist, damit Energiepreise die „wahren“ Kosten widerspiegeln.20 In welchem Umfang Energiedienstleistungen wie mobile Kommunikation, Kunstschnee und Fernreisen unter der Voraussetzung internalisierter externer Kosten nachgefragt werden, sollte jedoch dem Kaufverhalten der Verbraucher überlassen bleiben.
18 19 20
Vgl. zu dieser Diskussion D. Birnbacher: Was wir wollen, was wir brauchen und was wir wollen dürfen, in: K.-M. Meyer-Abich 1979, S. 34 ff. Meyer-Abich 1979, S. 74 ff. Vgl. zur Diskussion um die externen Kosten exemplarisch: VDEW (Hrsg.): Externe Kosten der Stromerzeugung. Stand der Diskussion; erstellt von Friedrich / Greßmann / Krewitt / Mayrhofer – IER, Frankfurt a. M. 1996, S. 15 ff.; sowie W. Krewitt: Externe Kosten der Stromerzeugung, in: E. Rebhan (Hrsg.): Energiehandbuch. Gewinnung und Nutzung von Energie, Berlin 2002, S. 987 ff.
Entfaltung der Kriterien
17
Neben der Lebensqualität spricht ein weiteres Argument gegen eine generelle Infragestellung des Energiebedarfs. Für die Erhaltung bestimmter Energiedienstleistungen, wie z. B. individueller Mobilität, werden in der lebensweltlichen Praxis von den Verbrauchern erhebliche Anstrengungen unternommen. Umgekehrt kann daraus geschlossen werden, welche Wertschätzung sie genießen und was für ein gesellschaftliches Konfliktpotenzial entsteht, wenn Ansprüche auf gehobene Energiedienstleistungen grundsätzlich in Frage gestellt werden. In politischer Hinsicht ist daher in Rechnung zu stellen, dass die Infragestellung von bestehenden Ansprüchen, sobald sie allgemeinverbindlich erhoben wird, gesellschaftliche Kosten in Form von Konflikten generiert. Diese Problematik existiert selbst dann, wenn die Kritik an bestimmten Formen der Energiedienstleistung im Einzelfall rational gerechtfertigt sein mag.21 Die Tatsache, dass alle Gesellschaften ein Interesse daran haben, Zahl und Ausmaß innergesellschaftlicher Konflikte zu begrenzen, spricht dafür, den Energiebedarf als solchen zumindest nicht a priori in Frage zu stellen, sondern zunächst zu prüfen, ob er im Rahmen der bestehenden technischen Möglichkeiten umweltverträglich befriedigt werden kann. Als Ergebnis dieser Überlegungen über den Bedarf an Energiedienstleistungen in Industrieländern kann daher festgehalten werden, dass für den faktischen Bedarf als Referenzrahmen zwei wichtige außerökonomische Argumente sprechen: Zum einen ist die Verfügbarkeit preiswerter Nutzenergie des gehobenen Bedarfs eine wichtige Voraussetzung für eine höhere Lebensqualität und Lebenserwartung, zum anderen birgt ihre Infragestellung, sobald sie allgemeinverbindlich erhoben wird, ein erhebliches gesellschaftliches Konfliktpotenzial. Wie der Kommentar zum deutschen Energiewirtschaftgesetz (EnWG) hervorhebt, soll die Befriedigung der Nachfrage nicht nur „ausreichend“, sondern auch „ununterbrochen“ erfolgen. Mögliche Unterbrechungen der Energieversorgung können sowohl technische als auch politische Ursachen haben. Es ist daher sinnvoll, eine technische und politische Versorgungssicherheit zu unterscheiden. Das technische Problem besteht darin, ein Energiesystem so einzurichten, dass es zumindest prinzipiell die gewünschte Nutzenergie nachfragegerecht rund um die Uhr zur Verfügung stellen kann. Bei Energierohstoffen ist die ununterbrochene Verfügbarkeit vor allem durch politische Einflüsse gefährdet. Da diese Rohstoffe oft extrem un21
Hier liegt ein analoger Fall wie in der Risikoakzeptanzproblematik vor, wo die Nichtakzeptanz von Risiken auch dann eine gesellschaftspolitische Realität darstellt, wenn sich die Risikowahrnehmung rational im Einzelfall nicht rechtfertigen lässt.
18
Kriterien für die Beurteilung von Energiesystemen
gleichmäßig über den Globus verteilt sind und teilweise in Krisenregionen liegen, können politische Faktoren zu einer Unterbrechung von Förderung und/oder Transport führen. Dies hat eine Verknappung des betreffenden Rohstoffs auf dem Weltmarkt und steigende Preise zur Folge. Ein totaler Ausfall eines Energierohstoffs ist bisher nie eingetreten, kurzfristig steigende Preise können aber zu erheblichen volkswirtschaftlichen Belastungen führen. Den jüngsten Rezessionen der Weltwirtschaft Anfang der 70er und 80er des 20. Jahrhunderts gingen Steigerungen des Ölpreises voraus. Probleme der politischen Versorgungssicherheit ergeben sich jedoch nur für Energierohstoffe, die sehr einseitig in einer bestimmten Region konzentriert sind. Zwischen der technischen und politischen Versorgungssicherheit besteht kein direkter Zusammenhang. Während die technische Versorgungssicherheit vor allem das „jederzeit“ der Energiebereitstellung verbürgt, garantiert die politische Versorgungssicherheit eine höhere Preisstabilität. Bei der Beurteilung von Energiesystemen ist daher jeweils sehr genau zwischen diesen beiden Formen der Versorgungssicherheit zu unterscheiden. In einer Marktwirtschaft werden Waren und Dienstleistungen unter den Bedingungen des Wettbewerbs produziert und angeboten. Dies hat zur Folge, dass sich längerfristig nur diejenigen auf dem Markt behaupten können, die ihre Güter und Dienstleistungen zu möglichst niedrigen Kosten herstellen und zu konkurrenzfähigen Preisen anbieten. Dieselben Bedingungen gelten im Prinzip auch in der Energiewirtschaft, wo verschiedene Energiesysteme auf der Basis verschiedener Primärenergieträger in der Bereitstellung von Nutzenergie miteinander in Konkurrenz stehen. Ohne staatliche Eingriffe ergeben sich für die Energieversorger lediglich auf betriebswirtschaftlichen Kalkulationen basierende Strom- und Wärmegestehungskosten, bzw. im Fall von Treibstoffen Kosten für Förderung, Aufbereitung und Distribution. Der Staat greift im Idealfall nur dort regelnd ein, wo übergeordnete, gesellschaftliche Interessen berührt sind. Diese liegen zum Beispiel dort vor, wo die Versorgungssicherheit gefährdet ist oder Umweltschäden entstehen. In solchen Fällen bemüht sich der Staat um die Schaffung eines geeigneten ordnungspolitischen Rahmens, durch den die Erreichung dieser Zwecke sichergestellt wird. Neben Fragen des Umweltschutzes haben gerade im Bereich der Energiewirtschaft von jeher Probleme der Versorgungssicherheit eine große Rolle gespielt, weshalb viele Staaten den Abbau heimischer Energierohstoffe subventionieren oder durch hohe Schutzzölle gegen Importe schützen. Der deutsche Steinkohleabbau etwa ist schon seit Jahrzehnten auf internationalen Märkten nicht mehr wettbewerbsfähig, wird jedoch aus Gründen der Versorgungssicherheit durch direkte staatliche Zuwendungen
Entfaltung der Kriterien
19
erhalten. Beispiele aus anderen Ländern ließen sich beliebig ergänzen. In den letzten Jahren haben zahlreiche Staaten vor dem Hintergrund knapper Ressourcen an Energierohstoffen und aus umweltpolitischen Motiven Gesetze zur Förderung neuer erneuerbarer Energien wie Windkraft und Fotovoltaik erlassen und so Märkte für diese Energiesysteme geschaffen. Gerade der Energiemarkt ist vor diesem Hintergrund durch ein undurchsichtiges Dickicht unterschiedlichster umweltrechtlicher Bestimmungen sowie direkte und indirekte staatliche Beihilfen zahlreichen Wettbewerbsverzerrungen ausgesetzt.22 Ob ein Energiesystem unabhängig von diesem komplizierten ordnungsrechtlichen Rahmen und/oder direkten staatlichen Subventionen wettbewerbsfähig ist, können selbst Energiewirtschaftsexperten oft nicht sicher beurteilen. Aus diesen Vorüberlegungen ergibt sich, dass Wettbewerbsfähigkeit nicht nur durch betriebswirtschaftliche Kalkulationen, sondern hauptsächlich durch den jeweils nationalen ordnungsrechtlichen Rahmen definiert wird, was direkte Vergleiche sehr erschwert, wenn nicht unmöglich macht. Für einen unmittelbaren Vergleich der Wettbewerbsfähigkeit sollen im Rahmen dieser Studie daher zunächst die rein betriebswirtschaftlichen Erzeugungskosten für Strom, Wärme und Treibstoffe herangezogen werden. Zudem sollen auch der Energieerntefaktor und die Effizienz der Ressourcennutzung als Teil der Wettbewerbsfähigkeit aufgefasst werden. Externe Kosten in Form von Umweltbelastungen sollen hingegen im Zusammenhang mit der Wettbewerbsfähigkeit unberücksichtigt bleiben. Diese können besser unter dem Kriterium der Umweltverträglichkeit anhand der direkten Folgewirkungen diskutiert werden. Als Gesamtfazit der Überlegungen zur Wirtschaftlichkeit bleibt festzuhalten, dass erst verschiedene Aspekte der Versorgungssicherheit und Wettbewerbsfähigkeit gemeinsam ein hinreichend differenziertes Bild eines Energiesystems ergeben.
22
Angesichts einer zunehmenden Liberalisierung des europäischen Energiemarktes hat das Problem direkter und indirekter Subventionen für bestimmte Energiequellen im Rahmen nationaler Energiepolitiken an Brisanz gewonnen. Vor diesem Hintergrund hat die EUKommission einen Arbeitsstab eingerichtet, der einen Überblick über die zahlreichen direkten und indirekten staatlichen Beihilfen der EU-Staaten erstellen soll. Ein erster vorläufiger Bericht liegt mittlerweile vor: European Comission (Hrsg.): „Inventory of public aid granted to different energy sources“ (SEC 1275, 22. 11. 02).
20
Kriterien für die Beurteilung von Energiesystemen
2.2.2 Langfristigkeit In der Diskussion um die regulative Idee der Nachhaltigkeit wurde deutlich, dass sie in ihrer klassischen Formulierung die Maxime beinhaltet, natürliche Ressourcen so zu nutzen, dass auch zukünftige Generationen noch einen gleichwertigen Nutzen aus ihnen ziehen können. Letztlich handelt es sich also um eine ethisch motivierte Norm, die in ihrem Kern auf Langfristigkeit zielt und ihren Geltungsanspruch aus der Verantwortung gegenüber zukünftigen Generationen ableitet. Sowohl im alltagspraktischen Verständnis, als auch in philosophisch-ethischer Perspektive ist jedoch durchaus unklar, ob tatsächlich eine Langzeitverantwortung gegenüber zukünftigen Generationen besteht. Bevor das Kriterium der Langfristigkeit eingeführt wird, sollen daher zunächst einige Fragen im Kontext des Problems der Langzeitverantwortung untersucht werden. Zunächst ist zu prüfen, ob heute lebende Menschen verpflichtet sind, die Interessen zukünftiger Generationen zu berücksichtigen. Erst wenn diese Frage bejaht wird, wäre zu klären, wie diese gegenüber den Interessen heutiger Menschen zu gewichten sind und ob wir hinsichtlich der Interessen zukünftiger Generationen überhaupt über begründetes Wissen verfügen. Die zeitlichen Fernfolgen menschlichen Handelns haben sich durch die Technik dramatisch erweitert. Eine Ethik, die auch die Interessen zukünftiger Generationen in ihre Reflexionen einbezieht, erscheint vor diesem Hintergrund dringender geboten denn je. Dem steht das paradoxe Phänomen entgegen, dass das Bewusstsein des modernen Menschen generationsübergreifenden Projekten eher feindlich gegenübersteht. Die zunehmende Individualisierung hat in der Moderne das Problem der bei allen Menschen ohnehin vorhandenen Gegenwartspräferenz insofern verschärft, als sich die egoistischen Gruppeninteressen der Vergangenheit, die zumindest eine Berücksichtigung zukünftiger Interessen der eigenen Gruppe garantiert haben, zusätzlich auf individuelle Interessen verengt haben und diese ragen meist nicht über die eigene Lebenszeit hinaus. Zudem ist es schwierig, die Interessen zukünftiger Generationen in liberale Ethiken, in deren Mittelpunkt die Präferenzen heute lebender Individuen stehen, zu integrieren. Hans Jonas hat daraus in seinem „Prinzip Verantwortung“ den Schluss gezogen, dass die traditionellen Ethiken den neuartigen Herausforderungen technischen Handelns nicht mehr gewachsen seien und daher durch eine „Zukunftsethik“ ergänzt werden müssen.23 23
H. Jonas: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation, Frankfurt a. M. 1979, vgl. hier zur These der Neuartigkeit insbesondere S. 26 ff. und zur Forderung nach einer Zukunftsethik S. 61 ff.
Entfaltung der Kriterien
21
Doch diese Schlussfolgerung ist möglicherweise voreilig. Vor jeder Forderung nach einer „neuen Ethik“ sollte immer zunächst die Prüfung stehen, ob die neuen Probleme im Rahmen der bewährten Ethiken nicht gelöst werden können. Die europäische Tradition des ethischen Universalismus hat besonders seit Beginn der Aufklärung dazu geführt, dass zunehmend mehr Menschen als moralisch autonome Subjekte mit gleichberechtigten Interessen anerkannt worden sind; hier ist insbesondere an die gesellschaftliche Stellung von Frauen oder ethnischer und religiöser Minderheiten zu denken. Dem modernen, aufgeklärten Verständnis nach müssen alle von Handlungen potenziell Betroffenen die Chance haben, ihre Interessen in einen diskursiven Prozess gleichberechtigt einzubringen. Diese Tendenz hat in der Folge zur Aufhebung von Doppelstandards geführt, in dem Sinne, dass heute bei politischen Entscheidungen nicht mehr akzeptiert wird, wenn die Interessen einiger Menschen unter Berufung auf ihren sozialen Status, ihre Rasse oder Religion übergangen werden. Ähnlich wie Rasse oder Geschlecht ist auch die Abfolge in der Zeit ein rein zufälliges Attribut und insofern müssen vor dem Hintergrund eines aufgeklärten ethischen Universalismus auch zukünftige Generationen als moralisch kompetente Subjekte anerkannt werden, denen gegenüber mögliche Verpflichtungen bestehen. Die Ausdehnung des Kreises der moralisch Berechtigten auf zukünftige Generationen wirft nun aber im Gegensatz zu den zuvor genannten Gruppen neuartige Probleme auf. Die Angehörigen zukünftiger Generationen können ihre Interessen im diskursiven Prozess der Gegenwart nicht geltend machen, da sie noch nicht existieren. Zum anderen ist fraglich, wie weit in die Zukunft hinein die Verantwortung für künftige Generationen reichen soll. Betrachten wir zunächst das erste Problem. Auch unter heute lebenden Menschen können nicht alle moralisch kompetenten Subjekte ihre Interessen im diskursiven Prozess der Gegenwart geltend machen. Dazu gehören etwa Kinder, psychisch Kranke oder Komatöse. Ihre Interessen müssen dementsprechend stellvertretend von Angehörigen oder Betreuern geltend gemacht werden. Analog dazu wäre denkbar, dass die Interessen zukünftiger Generationen durch eigens dazu bestellte Vertreter im Diskurs der Gegenwart wahrgenommen werden müssen.24 Alternativ wäre auch denkbar, dass alle heute Lebenden, die an weit in die Zukunft reichenden Planungen beteiligt sind, sich im Sinne der „Antizipation einer unbefristeten Diskursgemeinschaft“ 25 darauf verpflichten, die Interessen zukünftiger Generationen 24
25
Vgl. dazu C.F. Gethmann: Langzeitverantwortung als ethisches Problem im Umweltstaat, in: ders. / Kloepfer / Nutzinger: Langzeitverantwortung im Umweltstaat, Bonn 1993, S. 8 ff. ebd., S. 12.
22
Kriterien für die Beurteilung von Energiesystemen
zu berücksichtigen (was glücklicherweise oft schon geübte Praxis ist). Es schließt sich unmittelbar die Frage an, wie die antizipierten Interessen zukünftiger Generationen sowohl untereinander als auch gegen die Interessen heute Lebender zu gewichten sind. Dazu ist zunächst begrifflich zu klären, was unter zukünftigen Generationen verstanden werden soll. In der traditionellen Ethik spielen von jeher Konflikte zwischen gleichzeitig lebenden Generationen eine Rolle. Vereinfacht lassen sich diese gleichzeitig lebenden Generationen so rekonstruieren, dass ein Mensch ungefähr dann stirbt, wenn seine Urenkel geboren werden. Es leben dann also durchschnittlich immer drei Generationen zusammen, also Großeltern, Eltern und Kinder.26 Zwischen diesen gleichzeitig lebenden Generationen bestehen ohnehin gesellschaftlich und rechtlich normierte Verpflichtungen. Umstritten sind hingegen vor allem Art und Umfang der Verantwortungsbeziehung zwischen nicht gleichzeitig lebenden Generationen. Die erste „zukünftige“ Generation, der gegenüber strittige Verpflichtungen bestehen, wäre aus Sicht heute handelnder Menschen, der Generation „n“ demnach die Generation der Urgroßenkel, d. h. die Generation n + 3. Mit Blick auf diese zukünftigen Generationen im Sinne n > 3 stellen sich nun drei Fragen: Erstens, wie die Interessen zukünftiger Generationen gegenüber denen heute lebender Menschen zu gewichten sind, zweitens wie die Interessen verschiedener zukünftiger Generationen untereinander zu gewichten sind und drittens, ob die Verpflichtungen womöglich irgendwo in der Zukunft enden. Im Rahmen einer universalistischen Ethik müssten die Interessen zukünftiger Generationen strenggenommen in gleicher Weise gewichtet werden, wie die Interessen heute lebender Menschen. In diesem Punkt stößt das Modell jedoch offensichtlich an seine Grenzen, da bei einer gleichen Gewichtung die geringe Zahl der heute lebenden Menschen gegenüber der zu vermutenden ungeheuer großen Zahl künftiger Generationen kaum noch ins Gewicht fiele. Eine solche Gewichtung ist offensichtlich kontraintuitiv. Sie ist aber auch theoretisch unbefriedigend, weil zukünftige Generationen von Handlungen heutiger Menschen in unterschiedlich starkem Maße betroffen sind. Dabei gilt im allgemeinen, dass die Intensität und der Umfang der Fernfolgen mit wachsendem zeitlichem Abstand abnehmen, ohne dass sich ein Punkt angeben ließe, wo keine Fernfolgen mehr nachweisbar sind.27 26 27
Zur Unterscheidung der verschiedenen Generationsbegriffe vgl. D. Birnbacher: Verantwortung für zukünftige Generationen, Stuttgart 1988, S. 23 ff. Im Hinblick auf den anthropogenen Treibhauseffekt und die Endlagerung radioaktiver Brennelemente wird die lebensweltliche Erfahrung einer abnehmenden Intensität von
Entfaltung der Kriterien
23
Um sinnvoll von Verantwortung sprechen zu können, müssen Fernfolgen Akteuren nicht nur kausal zuschreibbar, sie müssen vom jeweiligen wissenschaftlichen Kenntnisstand der Gegenwart aus zumindest auch mit einiger Wahrscheinlichkeit absehbar sein. Die Zuverlässigkeit von Wahrscheinlichkeitsaussagen über das Eintreffen erwünschter wie unerwünschter Folgen nimmt aber immer weiter ab, je weiter sie sich in die Zukunft hinein erstrecken. Sowohl im Hinblick auf die mit zeitlichem Abstand abnehmende Intensität und den Umfang von Fernfolgen als auch die abnehmende Zuverlässigkeit von Prognosen, ist es daher gerechtfertigt, von mit wachsendem zeitlichen Abstand graduell abnehmenden Verbindlichkeiten gegenüber zukünftigen Generationen auszugehen. Da sich andererseits auch kein Zeitpunkt in der Zukunft angeben lässt, an dem nachweislich keine Fernfolgen mehr vorliegen, gibt es auch keinen Punkt in der Zukunft, an dem die Verpflichtung gegenüber zukünftigen Generationen vollständig erlischt.28 Zur Beschreibung dieser abnehmenden Zukunftsverpflichtung hat sich das aus den Wirtschaftswissenschaften entlehnte Modell der Diskontierung eingebürgert. Die Anwendung des aus dem Bereich der Zinswirtschaft stammenden Diskontierungsmodells (im Sinne einer negativen Verzinsung) auf Verpflichtungen, führt jedoch zu der moralisch inakzeptablen Schlussfolgerung, Verpflichtungen gegenüber autonomen Subjekten könnten beliebig diskontiert werden. Die Diskontierung von Zukunftsverpflichtungen ist daher sowohl in der Philosophie als auch in den Wirtschaftswissenschaften Gegenstand der Kritik.29 Zusätzliche Verwirrung entsteht dadurch, dass das Diskontierungsmodell je nach Kontext auf sehr unterschiedliche Inhalte angewendet wird. So kritisiert Birnbacher: „Zeitpräferenz, Zins und Unsicherheit sind allerdings drei so verschiedene Dinge, dass es eher nur Verwirrung stiftet, sie durch dasselbe formale Instrument zu repräsentieren“.30 Von philosophischer Seite ist vor allem eingewandt worden, dass eine Diskontierung, die es erlaubt, die Interessen gegenwärtiger Menschen höher zu gewichten als die zukünftig lebender, in Wirklichkeit nur unsere moralisch fragwürdige Gegenwartspräferenz reflektiert und damit nicht dem Anspruch einer universalistischen Ethik genügt. Dieser Vorwurf wäre stichhaltig, wenn Diskontierung von Zukunftsverantwortung ausschließlich
28 29 30
Fernfolgen teilweise in Frage gestellt. Unsere Kenntnis über das wahrscheinliche zeitliche Auftreten und den Umfang von Fernfolgen ist zweifellos oft beschränkt. Unsicherheit hinsichtlich der Intensität von Fernfolgen herrscht jedoch nur in mittelfristigen Zeithorizonten. In Zeithorizonten von mehreren zehntausend Jahren ist eine abnehmende Intensität von Fernfolgen nach wie vor ein heuristisch vernünftiger Ansatz. Vgl. auch Gethmann 1993, S. 14. Ein summarischer Überblick der Kritik bei Birnbacher 1988, S. 87 ff. ebd., S, 90
24
Kriterien für die Beurteilung von Energiesystemen
unter Berufung auf den zeitlichen Abstand legitimiert würde. Wie oben dargelegt, liegt das Hauptargument für die Diskontierung jedoch in der mit zeitlichem Abstand abnehmenden Intensität von Fernfolgen bei gleichzeitig wachsender Unsicherheit von Zukunftsprognosen.31 Zur Überwindung der aus dem Diskontierungsmodell entspringenden und mit der Idee des ethischen Universalismus nur schwer zu vereinbarenden Konsequenzen, werden verschiedene Lösungsstrategien diskutiert. Leist schlägt zur Überwindung des Dilemmas vor, zwischen „intergenerationeller Neutralität“ und „perspektivischer Gleichheit“ zu differenzieren.32 Auch im Falle einer Diskontierung, so argumentiert Leist, werde das Gleichheitsgebot nicht verletzt, solange alle Generationen Anspruch auf die gleiche Diskontierungsrate haben. Eine gleichbleibende Diskontierungsrate genügt den Anforderungen „intergenerationeller Neutralität“. Von einer gleich hohen Diskontierungsrate zu unterscheiden ist nach Leist hingegen die Forderung nach einer gleich starken Gewichtung der Interessen aller Generationen, die er als „perspektivische Gleichheit“ bezeichnet. Nur diese erfordere eine Diskontierungsrate gleich Null. Die ethischen Paradoxien, die bei der Anwendung des Diskontierungsmodells auf Probleme der Langzeitverantwortung auftreten, entstehen nach Gethmann hingegen dadurch, dass nicht klar genug zwischen einer Diskontierung von Verpflichtungen und der Gradierung von Verbindlichkeiten unterschieden wird.33 Während Verpflichtungen bestehen oder nicht bestehen, ist es, abhängig von den jeweiligen Rahmenbedingungen, legitim die aus Verpflichtungen resultierenden Verbindlichkeiten zu gradieren. Auf diese Weise werden sowohl die ethischen Dilemmata vermieden, die sich aus einer Diskontierung von Verpflichtungen ergeben, als auch diejenigen, die eine Ablehnung jeder Gradierung mit sich bringt. Die Verpflichtungen gegenüber zukünftigen Generationen werden in diesem Rekonstruktionsvorschlag nämlich uneingeschränkt anerkannt (d. h. nicht diskontiert), hinsichtlich ihrer Verbindlichkeit aber gradiert. Wenngleich also gute Gründe für eine Gradierung von Verbindlichkeiten, d. h. eine Diskontierung des Nutzens und Schadens zukünftiger Generationen sprechen, müssen irreversible Schädigungen vom Gradierungsmodell explizit ausgenommen werden.
31
32 33
Zur ethischen Relevanz der Unsicherheit von Prognosen vgl. C.F. Gethmann / G. Kamp: Gradierung und Diskontierung bei der Langzeitverpflichtung, in: Birnbacher / Brudermüller (Hrsg.): Zukunftsverantwortung und Generationensolidarität, Würzburg 2001, S. 148; zur Diskussion im Kontext der Nachhaltigkeitsdebatte, vgl. Steger et al. 2002, S. XXII. vgl. zu dieser Unterscheidung A. Leist: Ökologische Ethik II: Gerechtigkeit, Ökonomie, Politik, in: Nida-Rümelin (Hrsg.): Angewandte Ethik, Stuttgart 1996, S. 424 ff. Gethmann / Kamp 2001, S. 137–153.
Entfaltung der Kriterien
25
Irreversible Schäden wären dabei solche Schäden, die sich in einem Zeithorizont von mehreren Generationen mit menschlichen Mitteln nicht rückgängig machen lassen und bei denen auch keine Hoffnung besteht, dass sie sich von selbst zurückbilden werden.34 Zukünftige Generationen können für die aus irreversiblen Schäden resultierenden schlechteren Lebensbedingungen auch durch eine gleichbleibend hohe Diskontierungsrate nicht kompensiert werden, weil eine derartig hohe Diskontierungsrate die dann ohnehin schlechten Umweltbedingungen in der Zukunft noch weiter verschlechtern würde. Zum anderen unterwerfen irreversible Schäden zukünftige Generationen einem „intergenerationellen Oktroi“ 35, insofern sie mit einem nachteiligen Weltzustand konfrontiert werden, an dem sie nichts mehr ändern können. Der Grad der Irreversibilität von Umweltschäden kann jedoch unterschiedlich stark sein. Während etwa die Akkumulation von anthropogenen Treibhausgasen in der Atmosphäre zumindest theoretisch reversibel ist (z. B. durch Wiederaufforstungsmaßnahmen), gibt es Prozesse wie das Artensterben, die sich prinzipiell nicht rückgängig machen lassen. Andere Vorgänge, wie der Verbrauch nicht-erneuerbarer Ressourcen in der Gegenwart, sind zwar ebenfalls stark irreversibel, im Prinzip besteht jedoch die Möglichkeit zukünftige Generationen für den Nutzenverlust durch neue Energietechnologien zu kompensieren. Stark irreversible Schädigungen mit Nutzenverlusten, für die sich zudem keine Kompensation abzeichnet, sind hingegen ethisch inakzeptabel.36 Nach den Vorüberlegungen über Art und Umfang der Langzeitverantwortung soll nun – immer mit Blick auf die Energiefrage – die Frage nach den möglichen Interessen zukünftiger Generationen erörtert werden. Da sich die Berücksichtigung der Interessen zukünftiger Generationen als gerechtfertigt erwiesen hat, stellt sich unmittelbar die Frage, worin diese denn bestehen. Während Zukunftsskeptizisten bezweifeln, dass wir überhaupt irgendwelche Kenntnisse über ihre Interessen haben können, unterstellen Utopisten, diese nicht nur schon heute genau zu kennen, sondern auch über das Programm für die Herstellung einer optimalen Zukunft zu verfügen.37 Einige Skeptizisten folgern wiederum aus der Tatsache, dass wir über die Präferenzen zukünftiger Generationen nichts sicher wissen kön-
34 35 36
37
Vgl. zur Diskussion um verschiedene Grade der Irreversibilität Birnbacher 1998, S. 70 ff. ebd., S. 76. Es ist in diesem Zusammenhang interessant, dass bereits der ältesten Formulierung der Nachhaltigkeitsidee zumindest implizit die Vermeidung irreversibler Schädigungen zugrunde liegt, insofern die Nutzung der Holzressourcen der Staatsforste dort ihre Grenze findet, wo die Existenz der Wälder als Bedingung der Möglichkeit zukünftiger Holznutzung gefährdet ist. Vgl. zu diesem Problemkomplex Birnbacher 1988, S. 165 ff.
26
Kriterien für die Beurteilung von Energiesystemen
nen, dass sie im Handeln der Gegenwart auch nicht berücksichtigt werden brauchen. Die folgenden Überlegungen sollen zeigen, dass im Kontext der Energiefrage auch ohne den Rückgriff auf utopische Weltentwürfe Grund zu erkenntnistheoretischem Optimismus hinsichtlich der Zuverlässigkeit von Prognosen über die Bedürfnisse zukünftiger Generationen besteht. Zunächst basiert die Abhängigkeit des Menschen von Energie auf Naturgesetzen und es kann daher sicher davon ausgegangen werden, dass auch zukünftige Generationen ein Minimum an Energie u. a. in Form von Nahrung, Wärme und Licht zum Leben benötigen werden.38 Wie weit der Bedarf zukünftiger Generationen an Nutzenergie über das bloß lebensnotwendige Maß hinausgehen wird, können wir allerdings nicht sicher wissen. Denkbar ist, dass zukünftige Generationen einen bescheidenen Lebensstil vorziehen und damit auch weniger Energie als heute lebende Menschen benötigen werden. Aufgrund bisheriger Erfahrungen kann diese Möglichkeit jedoch nicht als wahrscheinlich gelten. Da das menschliche Streben nach einem möglichst angenehmen Leben aller Wahrscheinlichkeit nach eine anthropologische Konstante ist und Energiedienstleistungen aller Art für die Lebensqualität eine Schlüsselfunktion haben, muss es als wahrscheinlicher gelten, dass auch der Energiebedarf zukünftiger Generationen weit über das rein zum Überleben notwendige Maß hinausgehen wird. Künftige Generationen werden daher voraussichtlich genau soviel Energiedienstleistungen nachfragen wie heute lebende Menschen, möglicherweise sogar mehr. Vor diesem Hintergrund sollte zukünftigen Generationen zumindest die Option auf gehobene Energiedienstleistungen offen gehalten werden. Weiterhin ist menschliches Leben von natürlichen Ressourcen in Form von Nahrung, Trinkwasser und sauberer Luft abhängig. Die Verfügbarkeit dieser Ressourcen setzt wiederum intakte Ökosysteme voraus. Es kann daher auch kein vernünftiger Zweifel daran bestehen, dass zukünftige Generationen ein Interesse an einem langfristigen Erhalt der natürlichen Biosphäre haben. Die vorangegangen Überlegungen haben gezeigt, dass eine ethische Verpflichtung gegenüber zukünftigen Generationen besteht und dass über 38
Radikale erkenntnistheoretische Entwürfe, die auf das Induktionsproblem verweisen, demnach auch Naturgesetze „nur“ auf Erfahrungswerten basieren und somit theoretisch für die Zukunft nicht vorausgesetzt werden können, bleiben hier unberücksichtigt. Eine Veränderung der Naturgesetze ist eine bloße Möglichkeit ohne jede vernünftige Wahrscheinlichkeit. Nur in diesem erkenntnistheoretisch radikalen Skeptizismus kann auch die Zukunft als radikal offen verstanden werden, in einer erkenntnisimmanenten Perspektive, die hier als vernünftige Grundannahme favorisiert wird, gibt es jedoch nur eine deutlich eingeschränkte Zahl zukünftiger Weltzustände, über die sich zudem Aussagen hinsichtlich ihres Eintretens machen lassen, vgl. dazu auch Birnbacher 1988, S. 165 ff.
Entfaltung der Kriterien
27
ihre Interessen gut begründete Annahmen existieren. Auf der Basis dieser Annahmen lassen sich folgende Grundsätzen formulieren,: (1) Zukünftigen Generationen sollte eine leistungsfähige Energieinfrastruktur auf der Basis von langfristig verfügbaren Primärenergiequellen hinterlassen werden, die es ihnen zumindest prinzipiell erlaubt, ihre Bedürfnisse nach Nutzenergie in der gleichen Weise zu befriedigen wie heute lebende Menschen. (2) Schwerwiegende negative Umweltfolgen von Energiesystemen dürfen keinen stark irreversiblen Charakter haben. Insbesondere dürfen die natürlichen Voraussetzungen des Lebens allgemein und des menschlichen Lebens im besonderen auf der Erde nicht gefährdet werden. Als langfristig verfügbare Primärenergiequellen sollen solche Energiequellen gelten, die voraussichtlich auch noch zukünftigen Generationen, d. h. Generationen der Kategorie n > 3, zur Verfügung stehen werden, d. h. auch noch in mehr als 120 Jahren. Die Nutzung kurz- und mittelfristig verfügbarer nicht erneuerbarer Primärenergiequellen durch heute lebende Menschen lässt sich rechtfertigen, wenn die Energieinfrastruktur sukzessive auf die Basis langfristig verfügbarer Primärenergiequellen umgestellt wird.
2.2.3 Umweltverträglichkeit Menschen benötigen für ihr Überleben fruchtbare Böden zum Anbau von Nahrung, saubere Luft und Trinkwasser. Die Verfügbarkeit dieser natürlichen Ressourcen hängt wiederum von intakten Ökosystemen ab. Diese sind also nach wie vor eine Voraussetzung für menschliches Leben auf der Erde. Nach § 4, Absatz 2 des Energiewirtschaftsgesetzes liegt Umweltverträglichkeit vor, wenn „die Energieversorgung den Erfordernissen eines rationellen und sparsamen Umgangs mit Energie genügt, eine schonende und dauerhafte Nutzung von Ressourcen gewährleistet ist und die Umwelt möglichst wenig belastet wird.“ Besondere Aufmerksamkeit und Schutz verdienen vor allem jene Teile der Biosphäre, die für das Überleben der menschlichen Spezies funktional notwendig sind: x x x x
Die Atmosphäre (saubere Luft), Sauberes Wasser, Landwirtschaftliche Nutzflächen, Stabile Klima- und Vegetationszonen (als Voraussetzung für den weltweiten Anbau von Kulturpflanzen).
28
Kriterien für die Beurteilung von Energiesystemen
Eine Schlüsselrolle für die Reinhaltung der Luft, die Gewinnung von Trinkwasser und die Stabilität der Klimazonen kommt beim Schutz dieser überlebensnotwendigen Teilsysteme dem Erhalt der großen Ökosysteme zu, d. h. insbesondere dem der großen Wälder und Meere. Weiterhin ist die weltweite Artenvielfalt zumindest auch durch die Ausweitung von Energiesystemen, insbesondere durch massive Eingriffe in die Landschaft, bedroht. Im Gegensatz zu den vorher genannten Teilsystemen erscheint die natürliche Artenvielfalt für den Menschen nicht unmittelbar überlebensnotwendig. Für den Erhalt der Artenvielfalt sprechen aber ihre Bedeutung für die Stabilität der Ökosysteme, ihre Rolle als potenzielle genetische und pharmazeutische Ressource, sowie nicht zuletzt ästhetische Erwägungen. Ein wichtiger Indikator für die Umweltverträglichkeit ist daher auch der Erhalt einer möglichst großen Artenvielfalt. Von Energiesystemen gehen zudem unmittelbare Gesundheitsrisiken für Menschen in Form von Schadstoffemissionen und technischen Großunfällen aus. Insbesondere durch Großunfälle können Menschen geschädigt werden, ohne dass dabei Umweltschäden im engeren Sinne entstehen. Gesundheitsrisiken für Menschen sollen im Rahmen dieser Studie jedoch generell unter dem Aspekt der Umweltverträglichkeit behandelt werden. Über das bloße Überleben hinaus schätzen Menschen die Natur auch als Erholungsraum und wegen ihrer Schönheit. Vor diesem Hintergrund sollten Eingriffe in ein Landschaftsbild auch auf ästhetische Bedürfnisse Rücksicht nehmen. Mit Blick auf den unterschiedlichen Schweregrad der Umweltbeeinträchtigungen, wird vorgeschlagen, die Beurteilung der Umweltverträglichkeit eines Energiesystems nach folgenden, in ihrer Priorität abgestuften, Normen vorzunehmen: 1. Durch technisches Handeln verursachte Eingriffe in die gesamte Biosphäre oder einzelne Ökosysteme dürfen keine irreversiblen Schäden hervorrufen, die die natürlichen Überlebensgrundlagen der Menschheit gefährden. 2. Durch Energiesysteme hervorgerufene Gesundheitsrisiken für Menschen müssen in einem vertretbaren Verhältnis zum Nutzen der Energiebereitstellung stehen. 3. Die mit Energiesystemen verbundenen Landschaftseingriffe sollten auf ästhetische Bedürfnisse Rücksicht nehmen. Ästhetische Beeinträchtigungen sind jeweils gegen den Nutzen der Energiebereitstellung abzuwägen.
Entfaltung der Kriterien
29
2.2.4 Sozialverträglichkeit Menschen leben in Gemeinschaften und haben daher ein Interesse an einem Fortbestand verlässlicher sozialer Institutionen und der Geltung individueller Grundrechte. Energiesysteme verändern auf vielfältige Weise menschliche Gesellschaften und ihre Implementierung ohne Rücksicht auf soziale Aspekte kann unbeabsichtigte negative gesellschaftliche Folgewirkungen haben. Auch wenn gewisse negative Folgewirkungen möglicherweise unvermeidlich sind und gegen vielfältige positive Folgewirkungen aus der Bereitstellung von Nutzenergie abgewogen werden müssen, so sollten Energiesysteme doch so sozialverträglich wie möglich gestaltet werden. Angesichts der unbezweifelbaren positiven Wirkungen ausreichender Energieversorgung haben Probleme der Sozialverträglichkeit lange Zeit keine Rolle in der Energiedebatte gespielt. Dies hat sich im Zusammenhang mit dem wachsenden Umweltbewusstsein seit Anfang der sechziger Jahre und der nachlassenden Akzeptanz in der Bevölkerung für verschiedene großindustrielle Projekte der Energiebereitstellung, darunter hauptsächlich die Kernenergie, geändert. Vor diesem Hintergrund hat der Naturphilosoph Meyer-Abich in den siebziger Jahren Sozialverträglichkeit als Kriterium in den energiepolitischen Diskurs eingeführt.39 Sein Verständnis von Sozialverträglichkeit hat sich an soziologisch geprägten Modellen der Risikoakzeptanz sowie dem gesellschaftspolitischen Leitbild eines alternativen Lebensstils orientiert.40 Wegen der starken Prägung die der Begriff „Sozialverträglichkeit“ durch die partizipative Technikfolgenabschätzung erhalten hat, erscheint es unumgänglich, die von Meyer-Abich und anderen in der Folgezeit durchgeführten Sozialverträglichkeitskonzepte zumindest kurz zu diskutieren. In der von Meyer-Abich, Schefold und Weizsäcker in den achtziger Jahren herausgegebenen Studienreihe zur „Sozialverträglichkeit von Energiesystemen“ sollten die verschiedenen Energieoptionen im Hinblick auf ihre „Verträglichkeit mit der gesellschaftlichen Ordnung und Entwicklung“ un39
40
Erstmalig in: K. M. Meyer-Abich: Gesamtgesellschaftliche Rahmenbedingungen des Energiesektors, in: Zukunft Energie – Trends und Alternativen. Schriftenreihe des Instituts für Zukunftsforschung Bd. 54, Berlin 1976; ders.: Soziale Verträglichkeit – ein Kriterium zur Beurteilung alternativer Energieversorgungssysteme, in: Evangelische Theologie 1, Januar / Februar 1979, S. 447–462; ders.: Die Menschheit und das Feuer. Zur Sozialverträglichkeit der Energieversorgung seit Prometheus, in: Scheidewege, Heft 2. Jahrgang 9, 1979, S. 474–462. Vgl. dazu vor allem: Meyer-Abich / Schefold: Wie möchten wir in Zukunft leben. Der „harte“ und der „sanfte“ Weg, München 1981, S. 23 ff. und 105 ff. [= Die Sozialverträglichkeit von Energiesystemen Bd. 1]; sowie dieselben: Die Grenzen der Atomwirtschaft, München 1986, S. 78 ff [= Bd. 8].
30
Kriterien für die Beurteilung von Energiesystemen
tersucht werden.41 Damit lassen sich diese Studien dem Bereich der partizipativen Technikfolgenabschätzung zuordnen, die ihren normativen Maßstab für die Bewertung von Technik aus in der Gesellschaft faktisch vorfindbaren Wertüberzeugungen ableiten.42 Im Zentrum der Sozialverträglichkeitsstudien standen dabei hauptsächlich die möglichen gesellschaftlichen Auswirkungen einer verstärkten Kernenergienutzung. Ihre Ausdehnung, so etwa die Befürchtung des Juristen Rossnagel in Band 3 der Reihe, beinhalte wegen ihrer Sicherheitsrisiken eine gefährliche Tendenz zur Verstärkung obrigkeitlicher Strukturen bis hin zur Entstehung eines Polizeistaates.43 Bei aller Berechtigung des Hinweises auf sicherheitspolitische Risiken der Kernenergie, die an dieser Stelle nicht diskutiert werden können, erscheint aus heutiger Sicht die Stoßrichtung des Projektes „Sozialverträglichkeit“ zu einseitig und dies in einem doppelten Sinne: Einmal fokussierte es einseitig auf Fragen der Sozialverträglichkeit einer bestimmten Primärenergiequelle, nämlich die Kernenergie, und zum anderen innerhalb dieser Technologie wiederum einseitig nur auf die technischen und sozialen Risiken, d. h. mögliche mit der Energieerzeugung verbundene unerwünschte Nebenfolgen. Durch diese Fokussierung geriet der eigentliche Zweck der Kernenergienutzung, nämlich die sichere und ausreichende Bereitstellung von elektrischer Energie, an den Rand der Betrachtung. Als besonders problematisch erscheint rückblickend, dass im Rahmen des Projektes Sozialverträglichkeit auch über normative gesellschaftspolitische Leitbilder definiert worden ist.44 Hinter diesem Konzept hat die Vorstellung gestanden, dass mit der Option für ein bestimmtes Energiesystem zugleich auch eine Vorentscheidung über die Wahl eines bestimmten Lebens- und Wirtschaftsstils getroffen werde. Dabei wurde dem Sonnenenergiepfad S ein ganzheitlicher, „sanfter“ und postmaterialistischer Lebensstil, der Kernenergievariante K hingegen ein technikzentrierter „harter“ und konsumorientierter Lebensstil zugeordnet.45 Da die Wirtschaftlichkeit der beiden Energiepfade im Rahmen der Studie als gleichwertig beurteilt worden ist,46 haben Meyer-Abich und
41
42 43
44 45 46
Meyer-Abich / Schefold 1981, S. 98; zur forschungspolitischen Einordnung der Studie vgl. B. Schefold: Ausstieg oder Ausbau?, in: D. Schmitt: Handbuch Energie, Pfullingen 1990, S. 143–155. Vgl. C.F. Gethmann, A. Grunwald: Technikfolgenabschätzung: Konzeptionen im Überblick, Graue Reihe Nr. 1, Bad Neuenahr-Ahrweiler 1996, S. 19. vgl. dazu vor allem Bd. 3 der Reihe zur Sozialverträglichkeit von Energiesystemen von A. Rossnagel: Bedroht die Kernenergie unsere Freiheit, 2. Auflg. München 1983, eine gegenteilige Position bei: H. Hoffmann: Rechtsfragen der atomaren Entsorgung, Stuttgart 1981. Meyer Abich / Schefold 1986, S. 78 ff., besonders S. 90 ff. ebd.; vgl. dies. München 1981, S. 23 ff. Meyer-Abich / Schefold 1986, S. 97–122.
Entfaltung der Kriterien
31
Schefold versichert, es sei ein Klischee, dass man mit der Sonnenenergie „nicht nur einfacher leben könne, sondern dies auch müsse“ 47. Der entscheidende Vorteil der Sonnenvariante liege jedoch in der Chance „die Technik kulturell einzubetten und sie dem Lebensstil nachzuordnen“, während im Energiesystem K „eine solche lebensstilorientierte Variante“ eben nicht bestehe, „weil es hier um ein reichliches und möglichst billiges Energieangebot geht“ 48 Das gesamte Projekt beruht somit auf zwei problematischen und systematisch nicht näher begründeten Grundannahmen, zum einen dass mit der Option für eine bestimmte Primärenergiequelle zugleich eine Festlegung auf einen bestimmten Lebensstil erfolgt, zum anderen die klare Präferenz der Autoren für einen bestimmten, nämlich alternativen Lebensstil. Zunächst ist fraglich, ob die Option für eine bestimmte Primärenergiequelle sowohl den Einzelnen als auch die ganze Gesellschaft tatsächlich zugleich auf einen bestimmten Lebensstil festlegt. Diese These ist weder a priori einsichtig, noch ist sie empirisch belegt. Es ist nicht ersichtlich, inwiefern ein einseitig auf der Kernenergie als Primärenergiequelle aufbauendes Elektrizitätssystem, wie es z. B. in Frankreich existiert, Menschen daran hindert einen ganzheitlichen und bescheidenen Lebensstil zu führen, sofern sie dies wünschen. Umgekehrt dürfte unstrittig sein, dass bei unwirtschaftlichen Energieoptionen in jedem Fall ein Zusammenhang zwischen Energieoption und Lebensstil besteht, allerdings ein negativer: In einer Gesellschaft, in der Energie extrem knapp ist, besteht für das Gros der Bevölkerung faktisch keine Option auf einen konsumorientierten Lebensstil. Die Fixierung der genannten Studien auf die politischen Risiken eines „möglichst billigen Energieangebots“ haben die ebenfalls erheblichen Risiken einer verringerten Versorgungssicherheit zu Unrecht in den Hintergrund treten lassen.49 Die zweite problematische Vorannahme des Projektes ist die teils implizit teils explizit gemachte Präferenz der Autoren für einen alternativen Lebensstil im Sinne eines normativen gesellschaftlichen Leitbildes. Pro-
47 48 49
ebd., S. 90. ebd. In Band 1 der Reihe vermerkt Meyer-Abich beiläufig: „Inzwischen heißt es auch in der entgegengesetzten Richtung, das Leben mit den Alternativen werde ebenfalls keine reine Freude sein, und insbesondere die (…) favorisierte Nutzung der Energiequelle Energieeinsparung werden einen dirigistischen Kalorienstaat hervorbringen, in dem z. B. Blockwarte darauf Acht haben, dass nur ja niemand zuviel heizt. Das in beiden Fällen [gemeint sind die Kernenergie und Sonnenenergie] angesprochene Problem ist dasselbe [nämlich die Festlegung auf einen bestimmten Lebensstil durch die Wahl der Energiequelle] (…)“ (Meyer-Abich / Schefold 1981, S. 97, Einfügungen durch die Autoren).
32
Kriterien für die Beurteilung von Energiesystemen
blematisch an gesellschaftlichen Leitbildern ist vor allem ihre fehlende Verallgemeinerungsfähigkeit. Während die im Rahmen des Projektes von Rossnagel eingeführte Verfassungsverträglichkeit noch auf einen allgemein anerkannten Ordnungsrahmen verweist, um so einen breiten gesellschaftlichen Konsens herzustellen50, ist die verschiedentlich von Schefold und Meyer-Abich vorgetragene Option für einen „sanft“ genannten bescheidenen Lebens- und Wirtschaftsstil nicht verallgemeinerbar. Moderne Gesellschaften sind durch einen Pluralismus von Lebensentwürfen und das Fehlen verbindlicher Vorstellungen von einem „guten Leben“ gekennzeichnet und dies insbesondere auch in Fragen des Konsums. Der moderne Staat verzichtet im Rahmen einer Konfliktvermeidungsstrategie auf verbindliche Vorgaben für die individuelle Lebensgestaltung. So können Bürger im Rahmen ihrer Kaufkraft selbst über ihren Lebensund Konsumstil entscheiden. Das Kriterium der Sozialverträglichkeit muss diesem Pluralismus Rechnung tragen, wenn es verallgemeinerungsfähig sein soll. Es kann nicht Aufgabe einer Sozialverträglichkeitsstudie sein, ein bestimmtes Konsumverhalten als moralisch verbindlich auszuzeichnen. Eine jüngere Form der partizipativen Technikfolgenabschätzung sind die an der Akademie für Technikfolgenabschätzung in Baden-Württemberg unter Leitung von Ortwin Renn praktizierten Bürgerforen. Dort wurden Ende der neunziger Jahre durch Heinz-Ulrich Nennen und Georg Hörning mehrere Workshops mit nach Alter, Beruf und Werthaltung heterogen zusammengesetzten Bürgergruppen abgehalten, um so Einsichten in die Akzeptanz bestimmter Energietechnologien und möglicher CO2-Reduktionsstrategien gewinnen zu können.51 Anders als bei reinen Meinungsumfragen werden die Bürger in solchen Foren vor ihrem Votum durch Vertreter unterschiedlicher Fachgebiete und verschiedener forschungspolitischer Standpunkte intensiv über den zu bewertenden Gegenstand informiert. Auf diese Weise wird sichergestellt, dass alle Teilnehmer über einen möglichst gleichen Informationsstand verfügen. Zum anderen können sich die Teilnehmer, da sich die Bürgerforen über einen Zeitraum mehrerer Tag erstrecken, in Kleingruppen intensiv über die anstehenden Themen austauschen und so ein höheres Reflexionsniveau erreichen. Wegen dieser Rahmenbedingungen glaubt Hörning, „dass die Ergebnisse der Bürgerforen trotz der relativ geringen Teilnehmerzahl und ihrer nicht repräsentativen Zusammensetzung valide Empfehlungen geben kön-
50 51
vgl. Rossnagel 1981. Vgl. H.U. Nennen: Zur Bewertung potenzieller Technikfolgen im Diskurs ‚Energie und Ethik‘, in: H.U. Nennen / G. Hörning (Hrsg.): Energie und Ethik. Leitbilder im philosophischen Diskurs, Frankfurt a. M. 1999, S. 19–43.
Entfaltung der Kriterien
33
nen, für Lösungswege, die mit Zustimmung rechnen dürfen oder gar begrüßt würden“.52 Ähnlich wie Meyer-Abich gehen auch Nennen und Hörning in ihrer Studie von einem engen Zusammenhang zwischen Energietechnologien und Lebensstilen aus, weshalb den Bürgern im Rahmen der Bürgerforen verschiedene „Energiepfade“ zur Abstimmung vorgelegt wurden. Im Gegensatz zu den vorher skizzierten Sozialverträglichkeitsstudien vermeidet das Abstimmungsmodell allerdings den Fehler einer Parteinahme zugunsten eines bestimmten Lebensstils. Den anwesenden Bürgern wurden vier denkbare CO2-Reduktionsszenarien A,B,C und D zur Abstimmung vorgelegt. Von diesen Szenarien erreicht das Szenario A, das „business as usual“ vorsieht, keine nennenswerte CO2-Reduktion, während die Szenarien B,C und D eine 45 % Reduktion bis zum Jahr 2020 erreichen. Während Szenario B unter Einschluss der Kernenergie ausschließlich auf technische Lösungen setzt, sind bei Szenario C „begrenzte Abstriche bei den Konsumansprüchen gerechtfertigt“ und Szenario D erfordert sogar eine „betont ökologisch orientierte Lebensweise“.53 In den Bürgerforen votierte eine absolute Mehrheit der Beteiligten für das Szenario C also eine CO2-Reduktionsstrategie der begrenzten Konsumabstriche und langfristigem Ausstieg aus der Kernenergie. Trotz der beschriebenen Vorteile dieses Modells gegenüber Meinungsumfragen, ist hinsichtlich der Aussagekraft von Voten in Bürgerforen Skepsis angebracht. Es ist durchaus fraglich, ob Bürger, die im Rahmen eines Forums unverbindlich für Konsumabstriche votieren, auch in der Praxis dazu bereit sind. Insofern in Bürgerforen Rahmenbedingungen gegeben sind, die „Diskurse zur Überprüfung von Geltungsansprüchen“ 54 ermöglichen, erreichen sie allerdings ein weitaus höheres Maß an Rationalität, als sie durch die bloße Erfragung von Meinungen erreicht werden kann. Die Zusammenschau einiger Sozialverträglichkeitsstudien hat gezeigt, dass die Verknüpfung von Fragen der Sozialverträglichkeit mit solchen des Lebensstils schwierige geltungslogische und methodologische Probleme aufwirft und daher möglichst vermieden werden sollte. Wenn das Kriterium der Sozialverträglichkeit verallgemeinerungsfähig sein soll, dürfen die verschiedenen Lebensstile nicht bewertet werden. Umgekehrt kann aus der Neutralitätsthese abgeleitet werden, dass die Option für ein Energiesystem Menschen in der Wahl ihrer Lebensentwürfe möglichst nicht einschränken sollte.
52 53 54
Hörning ebd., S. 288. Ebd., S. 12. Ebd., S. 289.
34
Kriterien für die Beurteilung von Energiesystemen
Im Gegensatz zu den vorher diskutierten Studien, die eine Einschränkung von Lebensentwürfen durch die Option für eine bestimmte Primärenergiequelle postulieren, wird hier die Auffassung vertreten, dass mögliche Einschränkungen in erster Linie von der Wirtschaftlichkeit eines Energiesystems abhängen. Zwischen wirtschaftlichen und unwirtschaftlichen Energiesystemen besteht eine offenkundig unsymmetrische Beziehung: Energiesysteme, die eine möglichst preiswerte und sichere Energiebereitstellung garantieren, legen niemanden in seinem Lebensstil fest, steigende Energiepreise ziehen jedoch steigende Lebenshaltungskosten nach sich und erzwingen somit zwangläufig Konsumbeschränkungen. Eine sozialverträgliche Energieversorgung muss in erster Linie eine sichere und preiswerte Versorgung mit Nutzenergie gewährleisten. Von daher kann die Frage nach der Sozialverträglichkeit von Energiesystemen nicht getrennt von der Frage nach ihrer Wirtschaftlichkeit, insbesondere ihrer Versorgungssicherheit, diskutiert werden. Aufgabe der Politik sollte es daher vor allem sein, die gesetzlichen Rahmenbedingungen für eine ausreichende Versorgungssicherheit zu schaffen, auf deren Grundlage individuelle Lebensstile überhaupt erst entfaltet werden können. Die Sicherstellung der Versorgungssicherheit im Energiebereich sollte ein zentrales Element jeder staatlichen Wohlfahrtspolitik sein. Weiterhin hat der Staat die Aufgabe, die Einhaltung rechtsstaatlicher und menschenrechtlicher Standards bei der Implementierung und Ausweitung von Energiesystemen zu garantieren und so individuelle Freiheitsrechte zu schützen. Sozialverträglichkeit wird also durch die Schaffung eines ordnungspolitischen Rahmens für die Energiewirtschaft hergestellt, nicht jedoch durch die Option für bestimmte Primärenergiequellen oder Lebensstile. Die beiden Säulen eines sozialverträglichen Ordnungsrahmens sollten dabei Wohlfahrt und Rechtsstaatlichkeit sein. Worin die Aufgabe des Staates als Garantiemacht jeweils besteht, soll im Folgenden kurz entfaltet werden. Eine sichere und preiswerte Energieversorgung bildet die Grundvoraussetzung einer jeden modernen Wirtschaft und damit zugleich für den Wohlstand einer Gesellschaft. Vor diesem Hintergrund kann es nicht verwundern, dass alle modernen Staaten bemüht sind, einen ordnungspolitischen Rahmen für eine hohe Versorgungssicherheit zu schaffen. Darüber hinaus beinhaltet die allgemeinverbindlich erhobene Forderung nach Verzicht auf Energiedienstleistungen ein erhebliches gesellschaftliches Konfliktpotenzial, das durchaus mit dem Konfliktpotenzial fehlender Risikoakzeptanz verglichen werden kann. Da die Bedeutung der Versorgungssicherheit und ausreichenden Befriedigung der Nachfrage bereits unter dem Aspekt der Wirtschaftlichkeit diskutiert worden sind (vgl. 1.2.1.1), können die damit zusammenhängenden Fragen hier unerörtert bleiben.
Entfaltung der Kriterien
35
Die Diskussion verschiedener Studien hat gezeigt, dass die Frage nach der Sozialverträglichkeit von Energiesystemen aus methodischen Gründen nicht mit Fragen nach dem guten Leben vermengt werden sollte. Andererseits ist auch klar, dass Sozialverträglichkeit nicht völlig losgelöst von einem normativen Rahmen verstanden werden kann. Als ein solcher normativer Rahmen bieten sich die freiheitlichen Grundrechte der westlichen Verfassungstradition an.55 Einerseits tendiert die Entwicklung des liberalen westlichen Verfassungsstaates seit seinen Anfängen dahin, dass der Staat seinen Bürgern keine inhaltlichen Vorgaben hinsichtlich der individuellen Lebensgestaltung macht. Andererseits hat sich aber, angefangen mit der „bill of rights“, auch die Überzeugung durchgesetzt, dass der Staat allen Bürgern ein Recht auf individuelle Freiheitsrechte als Voraussetzung für individuelle Autonomie garantieren sollte. Die liberalen Freiheitsrechte sind im weiteren historischen Verlauf um soziale Rechte, wie das auf Arbeit oder die staatliche Garantie eines minimalen Lebensstandards, ausgedehnt worden. Der in der westlichen Verfassungstradition verankerte Grundrechtskatalog hat 1948 auch Eingang in die „Allgemeine Erklärung der Menschenrechte“ gefunden und ist von fast allen UN-Mitgliedsstaaten ratifiziert worden. Die darin zum Ausdruck kommenden Normen können daher als ein weltweiter ethischer Minimalkonsens aufgefasst werden, auch wenn einige Unterzeichnerstaaten Menschenrechte in der Praxis nicht respektieren. Die in der Menschenrechtsdeklaration genannten Grundrechte formulieren keine allgemeinverbindlichen Normen guten Lebens, sind aber zugleich spezifisch genug, einen allgemeinen Rahmen für Sozialverträglichkeit zu definieren. Folgende Grundrechtsartikel der UN-Menschenrechtsdeklaration von 1948 sind im Hinblick auf Energiesysteme besonders relevant 56: – Artikel 3: Jedermann hat das Recht auf Leben, Freiheit und Sicherheit der Person. – Artikel 17: (…) Niemand darf willkürlich seines Eigentums beraubt werden. – Artikel 19: Jedermann hat das Recht auf Freiheit der Meinung und Meinungsäußerung. – Artikel 23: Jedermann hat das Recht auf (…) angemessene und befriedigende Arbeitsbedingungen (…) das Recht auf gerechte und günstige
55 56
Dieser Weg wurde z. T. auch bereits im Rahmen des oben diskutierten Sozialverträglichkeitsprojektes diskutiert, vgl. Meyer-Abich / Schefold 1986, S. 78 ff. Zitiert nach: Menschenrechte in der Welt. Konventionen, Erklärungen, Perspektiven, hrsg. vom Auswärtigen Amt, 7. Auflg. Bonn 1989.
36
Kriterien für die Beurteilung von Energiesystemen
Entlohnung (…) das Recht zum Schutze seiner Interessen Gewerkschaften zu bilden (…) – Artikel 25 Jedermann hat das Recht auf einen für die Gesundheit und das Wohlergehen von sich und seiner Familie angemessenen Lebensstandard (…) Die hier zitierten Grundrechte sollten der modernen Menschenrechtsidee folgend in allen Ländern und allen gesellschaftlichen Teilbereichen universelle Geltung genießen. Ihre Einhaltung für den Bereich der Energiewirtschaft noch einmal gesondert einzufordern, mag vor diesem Hintergrund überflüssig erscheinen. Dabei ist jedoch zweierlei zu bedenken. Zum einen ist in weiten Teilen der Welt die Anerkennung von Menschenrechtsstandards keine geübte Praxis, zum anderen ist gerade der Energiesektor wegen seiner oft massiven Eingriffe in die Lebensbedingungen einzelner Menschen und ganzer Völker besonders konfliktträchtig und damit anfällig für Menschenrechtsverstöße.57 Die Forderung nach der Einhaltung von Menschenrechtsstandards im Energiesektor ist also keineswegs trivial. Auf dieser Grundlage lassen sich im Hinblick auf die Sozialverträglichkeit von Energiesystemen folgende Praxisnormen formulieren: x
x
x
57
Menschen dürfen durch Energiesysteme nicht in ihrem Recht auf Leben und körperliche Unversehrtheit verletzt werden. Dies betrifft alle Stufen der Energiebereitstellung, von der Gewinnung von Energierohstoffen, über die Energieerzeugung und den Transport von Energie. Unvermeidliche Risiken im Zusammenhang mit der Erzeugung und – Bereitstellung von Energie müssen so niedrig wie möglich gehalten und gegen den Nutzen abgewogen werden. Menschen, die im Zusammenhang mit Energiegewinnung, z. B. beim Bau von Großstaudämmen oder durch Braunkohletagebau, umgesiedelt werden und ihr immobiles Eigentum verlieren, müssen für den Verlust angemessen entschädigt werden. Die Interessen solcher potenziell von Zwangsumsiedlungen betroffener Menschen sind sehr sorgfältig gegen den gesamtgesellschaftlichen Nutzen und mögliche Alternativen der Energieerzeugung abzuwägen. Bei umstrittenen Projekten im Bereich der Energieversorgung müssen alle faktisch oder potenziell Betroffenen das Recht haben, ihre Interessen in den politischen Diskurs einzubringen. Vgl. exemplarisch die Zusammenstellung der „Gesellschaft für bedrohte Völker“ über Menschenrechtsverletzungen im Zusammenhang mit der Gewinnung von Erdöl: Dokumentation schmutziges Öl, Pogrom – bedrohte Völker, Nr. 210, Heft 3 2001 [online unter www.gfbv.de Stand 2/2003].
Entfaltung der Kriterien
37
Diese drei Normen basieren auf liberalen Freiheitsrechten, die vor allem staatliche Eingriffe in die individuelle Sphäre regeln. Sie werden um soziale Normen auf Grundlage der Artikel 23 und 25 ergänzt: x
x
Keine der im Energiesektor arbeitenden Personen sollte unzumutbaren Risiken oder entwürdigenden Arbeitsbedingungen ausgesetzt werden. Die Beschäftigten haben ein Recht auf Information über eventuelle Gesundheitsrisiken, die aus ihrer Tätigkeit entspringen. Sie müssen ihnen freiwillig zustimmen und gegebenenfalls durch höhere Löhne oder andere Vergünstigungen für diese Risiken kompensiert werden. Dies setzt das Recht auf gewerkschaftliche Organisation voraus. Die Energiesysteme eines Landes sollten so beschaffen sein, dass allen Menschen genügend Energie für ein menschenwürdiges Leben bereitgestellt werden kann. Daher sollte allen Menschen ein Zugang zu kommerzieller Energie gewährt werden.
Zweifellos sind die hier aufgeführten Grundrechte in der Praxis demokratischer Staaten bereits verwirklicht. Die Durchführung eines großindustriellen Projektes, bei der Menschen durch den Staat entschädigungslos enteignet oder in ihrem Recht auf freie Meinungsäußerung eingeschränkt würden, ist hier praktisch undenkbar (auch wenn in der Rechtspraxis in Einzelfällen bisweilen Verstöße auftreten mögen). Einhaltung von Menschenrechtsstandards im Energiesektor Besonders in Entwicklungsländern ist der Energiesektor wegen einer oft nur schwach entwickelten Rechtsstaatlichkeit anfällig für Menschenrechtsverstöße. Die Verantwortung für diese Verstöße liegt zweifellos primär bei den nationalen Regierungen. Gerade im Energiesektor haben demokratische Staaten jedoch die Möglichkeit über international operierende Energiekonzerne und Banken Einfluss auf die Einhaltung von Menschenrechtsstandards zu nehmen. In der Vergangenheit ist es insbesondere im Erdöl- und Erdgassektor regelmäßig zu Konflikten zwischen westlichen Konzernen und lokal ansässigen ethnischen Minderheiten gekommen. Die Struktur dieser Konflikte ist in allen Fällen ähnlich. In der Regel lassen sich internationale Konzerne in Verkennung der oftmals nur schwach ausgeprägten Rechtsstaatlichkeit dieser Länder Förderkonzessionen durch die jeweiligen Regierungen erteilen. Die vor Ort durch die Förderung unmittelbar betroffenen lokalen Bevölkerungsgruppen haben jedoch meistens keine Chance an den vorausgehenden Entscheidungsprozessen zu partizipieren und fühlen sich daher auch nicht an die Verträge gebunden.
38
Kriterien für die Beurteilung von Energiesystemen
Die Folge sind dann oftmals gewalttätige Auseinandersetzungen zwischen Firmenmitarbeitern und Einheimischen. Wegen weit verbreiteter politischer Korruption partizipieren die lokalen Bevölkerungsgruppen zudem oft nicht an den Gewinnen der Rohstoffförderung, so dass ungerechte Chancen-Risiken-Verteilungen entstehen. Konflikte zwischen Energiekonzernen und ethnischen Gruppen treten aber auch in Staaten mit einer starken Binnenkolonisation wie Brasilien oder Russland auf. In Sibirien etwa ist durch die Aktivitäten der Erdgasindustrie der Lebensraum des Nomadenvolks der Nenzen noch zu Sowjetzeiten weitgehend zerstört worden, ohne dass diese an den Gewinnen aus der Erdgasförderung beteiligt worden wären.58 Vor dem Hintergrund solcher und ähnlicher Konflikte haben unter der Federführung von „Brot für die Welt“ die Hilfswerke der Kirchen in Europa zusammen mit internationalen Menschenrechts- und Umweltorganisationen im Herbst 2000 unter dem Titel „Prinzipien für die Durchführung von Konzernaktivitäten in der Erdöl- und Erdgasindustrie unter besonderer Berücksichtigung von ökologisch und sozial sensiblen Gebieten“ einen Vorschlag für einen Verhaltenskodex der Erdöl- und Erdgasindustrie unterbreitet.59 Dieser Kodex sieht insbesondere eine intensive Beteiligung aller betroffenen Gruppen im Rahmen von Explorationsvorhaben vor. Anerkannte Verhaltenskodizes könnten die Basis für freiwillige standesethische Verpflichtungen international operierender Energiekonzerne bilden und einen wichtigen Beitrag zu einer Stärkung der Menschenrechtssituation im Energiesektor leisten. Ein anderes potenziell konfliktträchtiges Feld im Energiesektor sind Großstaudämme. Bei der Errichtung von Großstaudämmen ist es in der Vergangenheit immer wieder zu Menschenrechtsverstößen gekommen. Nach Schätzungen der Weltkommission für Staudämme wurden im 20. Jahrhundert zwischen 40 bis 80 Millionen Menschen im Rahmen von Staudammprojekten umgesiedelt oder vertrieben.60 Die Weltkommission für Staudämme unter Leitung von Professor Asmal wurde 1998 von der UNO eingerichtet, um vergangene Projekte auf ihren Nutzen hin zu bewerten und Verfahrensrichtlinien für den Bau zu-
58 59
60
Vgl. C. G. Hohenthal: Die Zivilisation stemmt sich gegen die Wildnis. Fast am Ende der Welt: Sibirien und das Erdgas, FAZ 1. 4. 89. Principles for the conduct of company operations within the oil and gas industry with particular emphasis on ecologically and socially sensitive areas, a discussion paper, hrsg. von Brot für die Welt, August 2000. Weltkommission für Staudämme (Hrsg.): Staudämme und Entwicklung: ein neuer Rahmen zur Entscheidungsfindung, Bericht der Weltkommission für Staudämme. Ein Überblick – 16. 11. 2000, S. 4; unter www.dams.org [Stand Mai 2003].
Entfaltung der Kriterien
39
künftiger Großstaudämme 61 festzulegen. Diese Kommission hat in ihrem im November 2000 vorgelegten vorläufigen Abschlussbericht erstmals einen umfassenden Kriterienkatalog und Verfahrensrichtlinien für die Vorgehensweise beim Bau von Großstaudämmen vorgelegt.62 Eines der wichtigsten Ergebnisse der Studie ist, dass in der Vergangenheit der weitaus größte Teil der Menschen, die vom Bau von Großstaudämmen betroffen gewesen sind, nicht gleichberechtigt in den Entscheidungsprozeß einbezogen worden sind. Diese Menschen sind Risiken ausgesetzt worden, die ihre Lebensqualität verringert haben, ohne dass sie gleichberechtigt an den Chancen partizipieren konnten. Die Weltkommission empfiehlt daher im Hinblick auf den Bau zukünftiger Staudämme einen „Rechte und Risiken“ Ansatz, in dessen Rahmen die Menschenrechte der Betroffenen gewahrt werden (Rechte) und zugleich eine möglichst faire Chancen-Risiko-Verteilung angestrebt wird (Risiken).63 Wie schwierig die Einbindung Betroffener in der Praxis oft ist, zeigt der aktuelle Konflikt um den geplanten Epupa-Damm an der Grenze zwischen Namibia und Angola, der den Lebensraum des auf vorstaatlichem Niveau lebenden Hirtenvolkes der Himba bedroht.64 Auch das Beispiel der Großstaudämme verdeutlicht, wie schnell energiewirtschaftliche Ziele mit rechtsstaatlichen Standards in Konflikt geraten können. Vor der Einführung oder Ausweitung eines Energiesystems sollte im konkreten Einzelfall daher jeweils sehr genau geprüft werden, ob alle faktisch oder potenziell Betroffenen eine Chance haben, ihre Interessen im politischen Diskurs geltend zu machen. Menschenrechtsverletzungen sind in der Vergangenheit sowohl im Zusammenhang mit der Förderung von Öl-, Gas- oder Uranreserven aufgetreten, wie beim Bau von Großstaudämmen. Es sind also nicht die Primärenergiequellen, sondern politische Rahmenbedingungen, d. h. in erster Linie die jeweilige Menschenrechtssituation vor Ort, die darüber entscheiden, ob die Nutzung einer Energiequelle sozialverträglich verläuft. Der Bau eines Großstaudamms, der in einem demokratischen Land unter Wahrung von Rechtsstandards abläuft, kann in einem anderen Land von schweren Menschenrechtsverletzungen begleitet sein. Das hier vorgetragene Verständnis von Sozialverträglichkeit unterscheidet sich damit dezidiert von einem Essentialismus, der Sozialverträglich-
61
62 63 64
Nach der Definition der UN-Staudammkommission handelt es sich um einen Großstaudamm, wenn der Damm eine Höhe von 15 m oder mehr erreicht und sein Speichervolumen 3 Millionen Kubikmeter überschreitet. ebd. ebd., S. 19. C. Ezzell: Die Himba und der große Damm, in: Spektrum der Wissenschaft, 04/2002, S. 74–83.
40
Kriterien für die Beurteilung von Energiesystemen
keit als eine intrinsische Eigenschaft von Energiesystemen auffasst. In diesem essentialistischen Verständnis sind fossile und nukleare Energiesysteme per se weniger sozialverträglich als solche auf der Basis von erneuerbaren Energien; eine Vorstellung, die schon durch die Wahl der Attribute „hart“ und „sanft“ evoziert wird.65 Probleme der Risikoakzeptanz Energiesysteme beinhalten großindustrielle Projekte der Energieerzeugung, der Aufbereitung und Distribution, die oft mit erheblichem Flächenverbrauch und unterschiedlichen technischen Risikozumutungen für große Bevölkerungsgruppen verbunden sein können. Solche großindustriellen Projekte stoßen in vielen westlichen Industriegesellschaften zunehmend auf Ablehnung in der Bevölkerung. Fehlende Akzeptanz birgt ein erhebliches gesellschaftliches Konfliktpotenzial und kann bis hin zu bürgerkriegsähnlichen Auseinandersetzungen führen, durch die Großprojekte vollständig blockiert werden.66 Konflikte stellen volkswirtschaftliche Kosten dar, die das Gemeinwesen belasten. Daher sollte jede Gesellschaft ein verständliches Interesse haben, Zahl und Umfang von Konfliktfeldern möglichst gering zu halten. Auch wenn in der Bevölkerung vorhandene Ängste vor als riskant wahrgenommenen Technologien rational oft nicht begründet sind, so stellen sie doch bei der Planung und Durchführung großindustrieller Projekte eine ernst zu nehmende Größe dar. In der Frage der Akzeptanzproblematik ist zunächst die wichtige Unterscheidung zu treffen, ob die Ablehnung bestimmter Formen der Energieerzeugung nur von lokal betroffenen Gruppen ausgeht, denen bestimmte Nachteile zugemutet werden, oder von breiten Bevölkerungskreisen geteilt wird. In modernen Wohlfahrtsstaaten existiert eine weitverbreitete Haltung, die Leistungen gesellschaftlicher Institutionen mit großer Selbstverständlichkeit in Anspruch zu nehmen, ohne zu den Kosten beizutragen, bzw. gegebenenfalls auch Risiken in Kauf zu nehmen. So besteht ein allgemeiner gesellschaftlicher Konsens über die Notwendigkeit einer zuverlässigen und preisgünstigen Energieversorgung, die sichere Verwahrung von psychisch kranken Straftätern und ein effizientes Verkehrssystem.
65 66
vgl. den Untertitel „Der ‚harte‘ und der ‚sanfte‘ Weg“ bei Meyer-Abich / Schefold 1981. Einen Überblick über die die teilweise militanten Auseinandersetzungen um die Kernenergie in Deutschland bietet: A. Ohme-Reinicke: Moderne Maschinenstürmer. Zum Technikverständnis sozialer Bewegungen seit 1968, Frankfurt a.M. 2000, S. 147 ff.
Entfaltung der Kriterien
41
Dennoch stoßen Zwischenlager für abgebrannte Brennelemente, forensische Kliniken und der Bau von Autobahnen in der Regel auf den erbitterten Widerstand betroffener Anwohner, sobald konkrete Standortvorschläge in die Öffentlichkeit gelangen. Solange die Notwendigkeit der genannten Zwecke auch durch die Anwohner bejaht wird, ist diese weitverbreitete „Nicht-in-meinem-Hinterhof-Mentalität“ nicht verallgemeinerbar und damit inkonsistent. Die Mentalität der betroffenen Anwohner, die sich meist in Bürgerinitiativen zusammenschließen, ist entgegen ihrem Selbstverständnis paradoxerweise sogar unpolitisch, weil sie häufig ihre partikularen Privatinteressen über Belange der Allgemeinheit stellen. Symptomatisch für diese Haltung ist das Ergebnis einer im Auftrag des Arbeitskreises Auswahlverfahren Endlagerstandorte (AkEnd / BMU) durchgeführten Umfrage. Demnach halten 53 % der befragten Bundesbürger die Errichtung eines Endlagers für dringlich, zugleich würden aber 80,6 % die Umsetzung eines Endlagers in ihrer eigenen Region ablehnen.67 Bestimmte Projekte, wie etwa die Zerstörung eines Dorfes durch den Braunkohletagebau, werden wegen des Verlustes nur schwer kompensierbarer Werte wie Geborgenheit niemals die Zustimmung der betroffenen Menschen finden. Bei bestimmten größeren Eingriffen, die mit erheblichen Nachteilen für die Betroffenen verbunden sind, scheint es daher wenig aussichtsreich, eine vollständige Zustimmung aller betroffenen Individuen zur Voraussetzung ihrer Legitimität zu machen. Ein demokratisch verfasstes Gemeinwesen würde handlungsunfähig, wenn es nicht mehr in der Lage ist, gesamtgesellschaftliche gegen partikulare Interessen durchzusetzen. Betroffene Anwohner können in demokratischen Staaten ihre Interessen im öffentlichen Diskurs geltend machen und alle rechtsstaatlichen Mittel zur Verhinderung eines bestimmten Projektes ausschöpfen. Aus alledem folgt, dass die Zustimmung von Anwohnern zu technischen Großprojekten kein alleiniges Kriterium für die Gesamtbeurteilung ihrer Sozialverträglichkeit sein kann, einmal weil solche Akzeptanzprobleme auch bei nichttechnischen Einrichtungen auftreten, deren Notwendigkeit unstrittig ist – man denke z. B. an forensische Kliniken – zum anderen, weil die Ablehnung betroffener Anwohner sich mittlerweile gegen fast alle Formen und Stufen der Energiegewinnung und -Bereitstellung richtet. Im Bereich der Energieerzeugung richten sich Bürgerinitiativen heute nicht nur gegen Landschaftsverbrauch durch Braunkohletagebaue, Bergsenkungen durch Untertagebergbau oder die Risiken von Kernkraftwerken, sondern neuerdings verstärkt auch gegen „neue“ erneuerbare Energien wie Windparks sowie Müll- und Klärschlammverbrennungsanlagen. Allein 67
Vgl. „Endlager gesucht“, in: Energieperspektiven 1/2003; ähnlich Ergebnisse finden sich auch in der EU-Umfrage zu Endlagern: EU (Hrsg.): Europeans and radioactive waste, report by INRA (Europe), Brüssel 1999 [11/00452/99], S. 55–72.
42
Kriterien für die Beurteilung von Energiesystemen
in Deutschland existieren im Jahre 2002 rund 500 Bürgerinitiativen gegen Windkraftanlagen, neuerdings auch gegen Offshore-Windparks vor der deutschen Küste. Die einzelnen Initiativen, von denen jede einzelne für sich die Verfolgung rationaler Ziele beansprucht, führen sich in der Summe selbst ad absurdum, da sich die Proteste gegen Energiesysteme auf der Basis fossiler, nuklearer und erneuerbarer Energien richten. Technische Risiken stoßen in der Gegenwart zunehmend auf Akzeptanzprobleme in der Bevölkerung. Der Einsatz einiger Technologien – prominente Beispiele sind die Kerntechnik, die Großchemie und die Gentechnik – werden unabhängig von der direkten persönlichen Betroffenheit durch konkrete Vorhaben in breiten Bevölkerungskreisen abgelehnt. Im Mittelpunkt dieser Ablehnung steht meist die Befürchtung, dass von diesen Technologien neuartige und unkalkulierbare Risiken ausgehen, von denen potenziell jeder betroffen sein kann. Die im Zusammenhang mit der Einführung neuer Technologien vorhandenen Ängste sind lange Zeit politisch nicht ernst genommen worden, was zu massiven gesellschaftlichen Konflikten geführt hat. So wurden bei der Einführung der Kernenergie die Sicherheitsstandards in der Regel durch Ingenieure und Verwaltungsbeamte anhand von bewährten technischen Normen festgelegt. Die mit dieser Technologie verbundenen Risiken im Normalbetrieb, nach Störfällen und großen Unfällen wurden dabei mit Wahrscheinlichkeiten belegt, die in der breiten Öffentlichkeit oftmals auf Unverständnis stießen. Die Folge waren massive Akzeptanzschwierigkeiten. Bei der Festlegung dieser technischen Sicherheitsstandards und Risikowerte wurde nicht bedacht, dass technische Normen allein einer Gesellschaft nicht den schwierigen Diskurs um die Frage ersetzen können, welches Risiko sie in Relation zu einem gegebenen Nutzen in Kauf zu nehmen bereit ist.68 Auf diese Frage kann die Technik qua technischer Normung allein keine Antwort geben. Sie vermag allerdings eine empirisch und wissenschaftlich fundierte Aussage über die Größe von Risiken zu treffen, und damit eine rationale Grundlage für den gesellschaftlichen Diskurs zu schaffen. Die massiven Akzeptanzprobleme der Kernenergie haben dazu geführt, dass die bis in die siebziger Jahre hinein von den Ingenieurwissenschaften dominierte Risikoforschung in weiten Teilen durch eine soziologische abgelöst worden ist. Der Risikobegriff der Soziologie orientiert sich dabei vor allem an empirisch vorfindbaren Risikowahrnehmungen in der Bevölkerung und einer soziologischen Rekonstruktion von Technik als gesellschaftlichem Teilbe68
Vgl. dazu ausführlich D. Birnbacher: Ethik und Heuchelei in der Risikodebatte, in: FZ Jülich et al. (Hrsg.): Ethik und Heuchelei, Bonn 2000, 156–177.
Entfaltung der Kriterien
43
reich. Als charakteristisch für dieses neue Risikoverständnis können die Arbeiten des Soziologen Ulrich Beck gelten. In seinem Werk „Risikogesellschaft“ kommt Beck zu dem Schluss, dass postmoderne Gesellschaften durch großtechnische Risiken mit einer sozial ungleichen Chancen-RisikoVerteilung und einer diffusen Risikozumutung charakterisiert sind.69 Der rationale Risikobegriff der Technik beruht demnach selbst bloß auf Konvention und dient letztlich nur der Rechtfertigung technokratisch dominierter Gesellschaftssysteme: „Gefahren werden zu Risiken kleingerechnet, wegverglichen und als unwahrscheinliche ‚Restrisiken‘ rechtlich und wissenschaftlich normalisiert, wodurch Proteste zu Ausbrüchen von ‚Irrationalität‘ stigmatisiert werden. Wer Grenzwerte hochsetzt, macht per Verwaltungsakt aus schwarz weiß, aus Gefahr Normalität.“ 70 Die dauerhafte Risikozumutung durch großtechnische Anlagen, die sich zudem der Kontrolle des Einzelnen entziehen, führt nach Beck dazu, dass der moderne Mensch großtechnischen Risiken letztlich mit derselben Hilflosigkeit gegenübersteht, mit der vormoderne Menschen Naturkatastrophen begegnet sind.71 Die soziologische Kritik am rationalen Risikobegriff der Ingenieurwissenschaften und ihre Hinwendung zur empirisch vorfindbaren Risikoakzeptanz in der Bevölkerung hat jedoch ihrerseits eine Reihe von Folgeproblemen nach sich gezogen. Das schwerwiegendste Problem, das eine auf dem soziologischen Risikoverständnis aufbauende partizipative Technikfolgenabschätzung aufwirft, besteht darin, dass die Risikowahrnehmung in der Bevölkerung starken Verzerrungen unterliegt.72 Empirische Studien zur Risikowahrnehmung zeigen regelmäßig, dass die Risiken technischer Großunfälle, wie z. B. Flugzeugabstürze, im Bewusstsein der meisten Menschen vollkommen überrepräsentiert sind, während alltägliche Risiken, wie sie vom Rauchen oder Autofahren ausgehen, systematisch unterschätzt werden. Die Verzerrungen, denen die individuelle menschliche Risikowahrnehmung unterliegt, sind bei allen Menschen erstaunlich ähnlich73:
69 70 71 72
73
U. Beck: Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt a.M. 1986, insbesondere S. 25–111. U. Beck: Gegengifte. Die organisierte Unverantwortlichkeit, Frankfurt a.M. 1988, S. 104. Vgl. ebd., S. 115 ff., insbesondere S. 121. Vgl. z. B. die frühe Studie von B. Fischhoff, P. Slovic, S. Lichtenstein: How safe is safe enough? A psychometric study of attitudes towards technological risks and benefits, in: Policy Sciences 9 (1978), S. 127–152. Angaben nach Streffer et al.: Umweltstandards. Heidelberg 2000, S. 322ff.; sowie J. NidaRümelin: Orientierung in Situationen des Risikos und der Unsicherheit – entscheidungstheoretische und ethische Aspekte, in: Nennen / Hörning (Hrsg.) 1999, S. 54.
44 x x
x
x
Kriterien für die Beurteilung von Energiesystemen
Neuartige Risiken werden als bedrohlicher eingestuft als etablierte. Das mögliche Schadensausmaß ist im Bewusstsein stärker präsent als die Eintrittswahrscheinlichkeit. Räumlich oder zeitlich entfernt auftretende Folgen werden unabhängig von ihrer Eintrittswahrscheinlichkeit als weniger bedrohlich wahrgenommen. Risiken, die freiwillig in Kauf genommen werden, oder auf die der handelnde, betroffene Mensch Einfluss zu haben glaubt, werden stärker akzeptiert als solche, denen man unfreiwillig ausgesetzt wird.
Auch innerhalb einzelner Risikokategorien bleibt die Wahrnehmung inkohärent: Wird nach der durchschnittlichen Kilometerzahl gefragt, nach der es beim PKW-Fahren zu einem tödlichen Unfall kommt, wird das Risiko um mehrere Größenordnungen überschätzt. Obwohl das Risiko, mit einem PKW tödlich zu verunglücken, maßlos überschätzt wird, nehmen die meisten der Befragten ganz selbstverständlich mit ihrem PKW am Straßenverkehr teil.74 Letzteres Beispiel zeigt, dass nicht nur zwischen der messbaren Risikorealität und der Risikowahrnehmung eine Differenz besteht, sondern zudem auch zwischen der verbal bekundeten Risikoeinschätzung von Individuen und derjenigen, die sich im praktischen Alltagshandeln offenbart (revealed preference).75 Die erstaunliche Folgenlosigkeit der Risikowahrnehmung für die Alltagspraxis spiegelt sich auch in der Wahrnehmung kollektiver Umweltrisiken. So hat eine repräsentative Befragung der Akademie für Technikfolgenabschätzung in Baden-Württemberg ergeben, dass eine Mehrheit der Befragten von rund 50 % den Klimawandel noch vor BSE, Atomkraftwerken und anderen zivilisatorischen Gefahren für das Risiko mit dem größten Katastrophenpotenzial hält.76 Dennoch bezeichnen nur rund ein Fünftel der Befragten das Risiko als inakzeptabel oder fühlen sich persönlich bedroht. Und nur eine kleine Minderheit von 11 % fühlt sich für den Treibhauseffekt mitverantwortlich, während die Mehrheit die Verantwortung bei Industrie und Staat verortet (jeweils 28 %). Aus diesen Ergebnissen müsste der paradoxe Schluss gezogen werden, dass zwischen dem Katastrophenpotenzial und seiner subjektiv bekundeten Akzeptabilität keinerlei Zusammenhang besteht. In Wirklichkeit ist es im Falle des Treibhauseffektes nur der zeitverzögerte Eintritt der erwarteten Schäden, der das Risiko aus Sicht der Befragten als akzeptabel erschei-
74 75 76
Nida-Rümelin 1999, S. 52/53. Ebd., S. 52. M. Zwick: Der globale Klimawandel in der Wahrnehmung der Öffentlichkeit, in TA-Informationen 4/2001, S. 26–31.
Entfaltung der Kriterien
45
nen lässt.77 Die Risikowahrnehmung unterliegt hier der oben bereits genannten Verzerrung, räumlich und zeitlich entfernt liegende Risiken unabhängig von Eintrittswahrscheinlichkeit und Schadensausmaß zu unterschätzen. Ein weiterer Grund für die Abweichungen zwischen technisch-rationalen und sozial-subjektiven Risikoeinschätzungen liegt darin, dass sich subjektive Risikowahrnehmungen neben dem Schadensausmaß auch stark an möglichen sozialen Folgen und Implikationen von Risiken orientieren.78 Dazu gehört vor allem auch die Frage nach einer fairen Verteilung von Chancen und Risiken.79 Differenzen zwischen der subjektiven und rationalen Risikobeurteilung entstehen also auch dadurch, dass normative Vorstellungen in die subjektive Risikowahrnehmung einfließen. Subjektive Risikowahrnehmungen sind daher nicht einfach irrational, vielmehr muss nach der Rationalität der in die Beurteilung einfließenden normativen Wertvorstellungen gefragt werden. Die Forderung nach einer fairen Verteilung von Chancen und Risiken ist sicherlich ein berechtigtes Anliegen, das im Rahmen der vorliegenden Studie unter dem Kriterium der Verteilungsgerechtigkeit ausführlich diskutiert wird (vgl. 2.2.5). Vor dem Hintergrund einer durch zahlreiche Verzerrungen gekennzeichneten subjektiven Risikowahrnehmung sind verschiedene philosophische Lösungsvorschläge zum Umgang mit Risiken unterbreitet worden. Ein Ansatz orientiert sich an der im Alltagshandeln offenbarten Risikoeinschätzung (revealed preference). So hat Gethmann von den Individuen im Hinblick auf ihre praktisch und verbal bekundeten Risikoeinschätzungen „pragmatische Konsistenz“ eingefordert. Das Prinzip der „pragmatischen Konsistenz“ besagt, dass Individuen Risikotypen, die sie in lebensweltlichen Handlungskontexten im Hinblick auf einen bestimmten Nutzen akzeptieren, bei vergleichbarem Nutzen auch in einem anderen Kontext in Kauf nehmen sollten.80 Nach Gethmann suggeriert der Begriff der Akzeptanz die falsche Vorstellung, Individuen könnten sich gegenüber Risiken absolut verhalten, in dem Sinne, dass sie ausschließlich eine Wahl zwischen verschieden großen
77 78 79 80
So auch die Deutung der Befunde durch die Autoren, ebd., S. 30. Streffer et al., 2000, S. 322. Ebd., S. 334 ff. C.F. Gethmann: Handeln unter Risiko. Probleme der Verteilungsgerechtigkeit, in: Essener Unikate 4/5 1994, S. 20–29; ders.: Ethische Probleme der Verteilungsgerechtigkeit im Umweltstaat, in: Verteilungsgerechtigkeit im Umweltstaat, Bonn 1995, S. 18 ff. Der Versuch die „revealed“ und nicht die „expressed preference“ zur Beurteilung der Akzeptabilität von Risiken heranzuziehen, wurde bereits 1969 durch Starr gemacht, vgl. Fischhoff et al. 1978, S. 128.
46
Kriterien für die Beurteilung von Energiesystemen
Risiken träfen. Wenn dem so wäre, würden Menschen zwischen möglichen Risikooptionen immer die kleinste wählen. Das entspricht jedoch nicht der lebensweltlichen Praxis. In Wirklichkeit werden nämlich niemals Risiken sondern immer Handlungen gewählt, mit denen bestimmte Zwecke verfolgt werden. Handlungen können neben den intendierten auch unerwünschte Nebenfolgen haben. Das mögliche Eintreffen unerwünschter Nebenfolgen, also das Risiko, ist jedoch offensichtlich nicht der intendierte Zweck einer Handlung. Ob bestimmte mit einer Handlung verbundene Risiken als vertretbar gelten können, kann folglich immer nur im Hinblick auf die intendierten Folgen, d. h. die Zwecke diskutiert werden. Im Hinblick auf einen großen Nutzen können auch hohe Risiken rational gerechtfertigt sein, während sie im Hinblick auf einen kleinen Nutzen als zu groß erscheinen. Gethmann hat daher vorgeschlagen, anstelle des missverständlichen Begriffes Risikoakzeptanz generell von der „Inkaufnahme“ bzw. „Nicht-Inkaufnahme“ von Risiken zu sprechen, da diese Terminologie stärker auf die Tatsache verweist, dass Handlungen vernünftiger Personen auf Zwecke und nicht auf Risiken zielen.81 Das Prinzip der pragmatischen Konsistenz setzt voraus, dass es möglich ist, Handlungsoptionen und Risiken miteinander zu vergleichen. Zwar sind gegen Risikovergleiche bisweilen Inkommensurabilitätseinwände geltend gemacht worden, in pragmatischen Kontexten sind solche Vergleiche jedoch unverzichtbar. Gewichtiger erscheint der gegen die pragmatische Konsistenz vorgebrachte Einwand, dass die in Betracht stehenden Situationen vergleichbar sein müssen. So ist es keinesfalls zwingend, dass eine Person, die in der Freizeit einer riskanten Sportart nachgeht, sich aus Gründen der Kohärenz auch auf eine risikofreudige Geldanlagestrategie festlegen muss.82 Die Plausibilität der Forderung nach pragmatischer Konsistenz wird daher im konkreten Einzelfall von der Vergleichbarkeit der betrachteten Risikokontexte abhängen. Dem Vorschlag, die lebensweltlich bekundete Risikoeinstellung von Individuen zur Grundlage der Akzeptabilitätsbeurteilung von Risiken zu machen, steht das Konzept einer informierten Zustimmung aller potenziell von technischen Risiken betroffenen Individuen gegenüber. So vertritt etwa die amerikanische Technikphilosophin Shrader-Frechette die Auffassung, dass Individuen keine technischen Risiken zugemutet werden 81 82
C.F. Gethmann: Zumutbarkeit und Inkaufnahme von Risiken, in: Jahrbuch für Wissenschaft und Ethik, Bd. 4 Berlin 1999, S. 283–291. Vgl. zu dieser Kritik am Prinzip der pragmatischen Konsistenz, Birnbacher 2000, S. 167; Streffer et al., S. 321.
Entfaltung der Kriterien
47
dürfen, die sie nicht verstehen und denen sie nicht freiwillig zugestimmt haben.83 Im Kontext kollektiver technischer Risiken erscheint dieses in der biomedizinischen Ethik bewährte Prinzip des „informed consent“ jedoch undurchführbar: Während ein Patient zu Recht allein über die Zumutbarkeit einer riskanten Operation entscheiden kann, ist technisches Handeln immer mehr oder weniger unvermeidlich mit Zumutungen an einen diffusen Adressatenkreis verbunden.84 Da unfreiwillige Risikozumutungen in modernen Industriegesellschaften unvermeidlich sind, sollte sich nach Gethmann der gesellschaftliche Diskurs darauf konzentrieren, ob die mit dem technischen Handeln angestrebten Zwecke das Risiko rechtfertigen oder nicht.85 Unter dem Eindruck einer technischen Katastrophe aber auch durch veränderliche Energiepreise kann sich die Zustimmung oder Ablehnung für ein Energiesystem schon in relativ kurzer Zeit ändern. Dazu zwei Beispiele: 1. 1980 beschloss eine Mehrheit der schwedischen Bevölkerung im Rahmen eines Referendums, noch ganz unter dem Eindruck des erst kurz zurückliegenden Reaktorunfalls im amerikanischen Three-Mile-Island bei Harrisburg stehend, die Abschaltung aller Kernkraftwerke bis 2010. In Ermangelung wirtschaftlicher Alternativen, – in Schweden werden 44 % der Stromerzeugung durch Kernenergie gedeckt –, wurden lange Zeit keine ernsthaften Schritte unternommen, den Ausstiegsbeschluss umzusetzen. Als im November 1999, also fast zwei Jahrzehnte nach dem Ausstiegsbeschluss, der erste Block des Kernkraftwerks Barsebaeck 1 stillgelegt wurde, war die öffentliche Meinung wieder eine andere: In einer jüngst von der Europäische Union (EU) veröffentlichten Studie über die Haltung der EU-Bürger zu Fragen der atomaren Endlagerung fand die Kernenergie in Schweden – unter der Voraussetzung sicherer Endlager – eine Zustimmung von über 70 Prozent.86 83 84
85 86
K. Shrader-Frechette: Risk, in: Routlegde Encyclopedia of philosophy, S. 331 ff.; dies. ebd.: Risk assessment, S. 334 ff. vgl. zur Risikozumutung im medizinischen Kontext auch C.F. Gethmann: Zur Problematik des Begriffs der Zumutbarkeit, in: ders., Honnefelder, Schwemmer, Siep (Hrsg.): Die „Natürlichkeit“ der Natur und die Zumutbarkeit von Risiken, Reihe A, Bd. 1, Bonn 2001, S. 55–63. Vgl. Gethmann 1999, S. 289/290. EU (Hrsg.): Europeans and radioactive waste, Eurobarometer 56.2, report by INRA (Europe), Brüssel 19. 4. 02, S. 45 Table IX.4; der Frage, ob die Kernenergie unter der Voraussetzung einer sicheren Endlagerung eine Option bleiben sollte, stimmten 47,3 % der Schweden stark und 26,3 % tendenziell zu.
48
Kriterien für die Beurteilung von Energiesystemen
2. Windenergie genießt in Deutschland wegen ihrer Umweltfreundlichkeit traditionell hervorragende Akzeptanzwerte. Ihr Image hat sich jedoch deutlich verschlechtert seit Stromerzeugung aus Windenergie mit rund 10 000 MW installierter Leistung eine neue Größenordnung erreicht hat. Seither häufen sich die Klagen von Anwohnern über Lärmbelästigung, Diskoeffekte und Eingriffe in das Landschaftsbild.87 Mittlerweile existieren in Deutschland rund 500 Bürgerinitiativen gegen den Bau von Windkraftanlagen. Die gesamtgesellschaftliche Akzeptanz der Windenergie ist in Deutschland nach wie vor sehr hoch, allerdings könnte ein weiterer ungebremster Ausbau des Windstromanteils vor dem Hintergrund steigender durchschnittlicher Stromgestehungskosten im deutschen Kraftwerkspark auch einen gesamtgesellschaftlichen Stimmungsumschwung herbeiführen. Diese beiden Beispiele illustrieren, dass Akzeptanzlagen aufgrund vielfältiger Einflüsse dauernden Veränderungen unterliegen. Hinzu tritt, dass die Meinungen von Menschen sehr stark durch vorherrschende Stimmungslagen beeinflusst werden. Die Bedingungen, unter denen sich Überzeugungen ausbilden, entsprechen nur wenig dem Ideal des autonomen Individuums, das seine Überzeugungen allein aufgrund von rational überprüfbaren Argumenten ausbildet und diese im öffentlichen Diskurs argumentativ vertritt. In Wirklichkeit orientieren sich sehr viele Menschen in ihren Meinungen an vorherrschenden Stimmungen und zeigen wenig Neigung, eine Mindermeinung offensiv zu vertreten. Noelle-Neumann, die Leiterin des Allensbacher Instituts für Meinungsforschung, hat diesen Mechanismus als „Schweigespirale“ charakterisiert: Fühlen sich Menschen in Übereinstimmung mit dem öffentlichen Meinungsbild, sind sie viel eher bereit, ihre Meinung auch in der Öffentlichkeit zu vertreten. Wenn sie das Gefühl haben in der Minderheit zu sein, werden sie hingegen vorsichtiger und schweigsamer, was in der Öffentlichkeit den Eindruck von der Schwäche dieser Position verstärkt und die Bereitschaft anderer Menschen, sich zu dieser öffentlich zu bekennen, weiter verringert. Die Kernenergiedebatte in Deutschland hat in dieser Hinsicht zwei wichtige Wendungen erlebt: Wurde die Kernenergie 1977 von einer Zwei-Drittel-Mehrheit in der Bevölkerung befürwortet, so kehrten sich die Mehrheitsverhältnisse bis 1988 vollständig zugunsten der Gegner um.88 Dieser Stimmungsumschwung beruhte nicht zuletzt auf der erstaunlichen Bereitschaft der Kernkraftgegner, ihre ursprüngliche Mindermei87 88
Eine Sammlung typischer Einwände bei: M. Keller: Angriff der Mühlenmonster, in: Die Woche 1. 8. 1997, S. 26. Darstellung hier und im folgenden nach Noelle-Neumann: Heuchelei, Gesprächskultur und Schweigespirale, in: FZ Jülich et al. ebd., S. 178–184.
Entfaltung der Kriterien
49
nung auch in der Öffentlichkeit offensiv zu vertreten.89 Gegner wie Befürworter der Kernenergie hatten aufgrund dieser Haltung bereits in den siebziger Jahren den Eindruck, die Mehrheit der Bevölkerung lehne diese Technologie ab. Obwohl seit Ende der achtziger Jahre die Argumente bei Befürwortern wie Gegnern im wesentlichen gleich geblieben sind, haben sich die Gewichte in den 90er Jahren wieder zugunsten der Befürworter verschoben, so dass sich heute Befürworter wie Gegner in gleich großen Lagern gegenüberstehen. Noelle-Neumann wertet dies als Indiz dafür, dass sich sowohl der erstaunlich schnelle Stimmungsumschwung gegen die Kernenergie als auch die langsame Rückbewegung in den 90er Jahren in der Hauptsache auf eine veränderte Stimmungslage und nicht auf neue Argumente zurückführen lassen. Wie sich das Meinungsklima auch auf den wissenschaftlichen Diskurs auswirken kann, hat Noelle-Neumann anhand der „Buh-Frage“ gezeigt. Dabei werden Interviewpartner befragt, welcher Redner, der bei einem kontroversen Thema eine bestimmte Position vertreten hat, durch das Publikum wahrscheinlich ausgebuht worden ist. Als diese Frage 1989 erstmals im Zusammenhang mit der Kernenergiedebatte gestellt wurde, glaubten 72 Prozent der Befragten, dass der Redner, der sich für die Kernenergie aussprach, ausgebuht wurde.90 Die Buh-Frage skizziert ein Meinungsklima, bei dem auch ein Wissenschaftler wenig motiviert ist, sich öffentlich zugunsten einer umstrittenen Technologie zu äußern. Diese und andere empirische Befunde der Allensbacher Meinungsforscher deuten darauf hin, dass die Zustimmung oder Ablehnung, die eine Technologie in der öffentlichen Debatte erfährt, in einem hohen Maße durch veränderliche Stimmungen beeinflusst wird. Dass die öffentliche Wahrnehmung und Medienberichterstattung bei umstrittenen Technologien starken Wandlungen unterliegt, belegen auch Untersuchungen aus dem Bereich der Biotechnologie.91 Neben der Risikoproblematik sollte in der Diskussion um die gesamtgesellschaftliche Akzeptanz von Energietechnologien nicht übersehen werden, dass auch Energiepreise Akzeptanzbedingungen unterliegen. Nach einer aktuellen Allensbachumfrage von 2003 etwa lehnen 60 % der Bundesbürger höhere Energiepreise zur Förderung erneuerbarer Energie
89
90 91
Die Kernkraftgegner zeigten damit ein Verhalten, dass sich im Rahmen der Schweigespirale nicht erklären lässt. Offensichtlich berücksichtigt das von Noelle-Neumann vorgestellte Modell zu wenig den Faktor der persönlichen Motivation. Ebd., S. 181. Vgl. B. Schneider / L. Harden: Biotechnologie als interdisziplinäres Studienfach – Volkswirte, Chemiker und Medienwissenschaftler entdecken Gemeinsamkeiten, in: Heiden / Burschel / Erg (Hrsg.): Biotechnologie als interdisziplinäre Herausforderung, Heidelberg 2001, S. 144 ff.
50
Kriterien für die Beurteilung von Energiesystemen
ab.92 Die Akzeptanzproblematik im Energiesektor erweist sich bei näherer Betrachtung also als Risiko-Kosten-Zweigestirn mit instabilem Schwerkraftfeld. Instabil ist dieses Zweigestirn insofern, als es auf schwankenden Stimmungslagen beruht, bei denen einmal die Risiken, ein anderes mal die Energiepreise die Akzeptanzlagen dominieren. Problematisch an den fluktuierenden Akzeptanzlagen ist vor allem, dass auf dieser Grundlage keine langfristig orientierte Energiepolitik möglich ist.93 Als Fazit der Überlegungen zu gesamtgesellschaftlichen Akzeptanzproblemen von Technologien kann festgehalten werden, dass es zwar Aufgabe der Politik und nicht der Technik ist, festzustellen, welche Risiken der Gesellschaft relativ zu einem gegebenen Nutzen zugemutet werden dürfen, dass andererseits die subjektiven Risikowahrnehmungen in der Bevölkerung zu vielen Verzerrungen und Schwankungen unterliegen, als dass sie im Sinne normativer Akzeptabilität die Grundlage einer rationalen Technikfolgenbeurteilung bilden könnten.94 Vor dem Hintergrund einer durch Verzerrungen geprägten öffentlichen Risikowahrnehmung erscheint es fraglich, in welchem Maße Akzeptanzlagen bei der Beurteilung von Energietechnologien berücksichtigt werden sollten. Andererseits ist die Risikowahrnehmung durch real vorhandene Ängste geprägt, die für viele Betroffene mit einem Verlust an Lebensqualität, z. T. sogar mit dem Auftreten psychosomatischer Erkrankungen verbunden sind.95 Die sich in empirischen Studien äußernden Akzeptanzhaltungen verdienen also ernst genommen zu werden, müssen jedoch wegen der beschriebenen Verzerrungen in ihrem Geltungsanspruch relativiert werden. Im Rahmen der vorliegenden Studie wird daher ein Mittelweg vorgeschlagen: Im Hinblick auf das hohe Konfliktpotenzial, das technische Risiken aufwerfen, sollte ein Energiesystem möglichst hohe Zustimmung in der Bevölkerung finden. Akzeptanzlagen enthalten für sich allein genommen jedoch noch keine normative Aussage über die Akzeptabilität einer Technologie.
92 93
94
95
vgl. Institut für Demoskopie Allensbach (Hrsg.): Bewertung der Struktur der Energieversorgung. Ergebnisse einer Repräsentativbefragung, Allensbach 2003, S. 24. Zur Bedeutung eines stabilen Konsenses für die Energiepolitik, vgl. R. von BenningsenFoerder: Umwelt und Energie – Kennzeichen des künftigen Fortschritts, in: D. Schmitt (Hrsg.): Handbuch Energie, Pfullingen 1990, S. 420–431. Zur Kritik an den Modellen der partizipativen Technikfolgenabschätzung vgl. A. Grunwald (Hrsg.): Rationale Technikfolgenbeurteilung. Konzepte und methodische Grundlagen, Heidelberg 1999, S. 23–25. Vgl. Zum Auftreten psychosomatischer Erkrankungen, Streffer et al., 2000, S. 332 ff.
Entfaltung der Kriterien
51
2.2.5 Verteilungsgerechtigkeit Ein ethisches Hauptproblem moderner Technologien besteht darin, dass Nutznießer und gefährdete Personen technischen Handelns oftmals nicht identisch sind. Insbesondere im Bereich der Energiewirtschaft führt technisches Handeln neben der erwünschten Folge, nämlich der zuverlässigen Bereitstellung von Nutzenergie aller Art, zu räumlich und auch zeitlich weit entfernt liegenden unerwünschten Nebenfolgen. Von diesen unerwünschten Nebenfolgen sind aber oftmals Menschen betroffen, die selbst keinen Vorteil aus der Energiebereitstellung ziehen können. Das Eintreffen unerwünschter Nebenfolgen, über das sich in der Regel nur Wahrscheinlichkeitsaussagen treffen lassen, wird im Folgenden als Risiko bezeichnet. Eine Ungleichverteilung von Chancen und Risiken wird nicht nur von den Betroffenen selbst als ungerecht empfunden, sondern widerspricht auch grundlegenden moralischen Intuitionen und anerkannten Normen. Wie eine gerechte Verteilung von Chancen und Risiken auf kollektiver Ebene aussehen könnte, ist jedoch ein philosophisch nicht befriedigend gelöstes Problem. Eine naheliegende Strategie läge darin, eine arithmetische Gleichverteilung von Chancen und Risiken zu fordern.96 Diese Strategie führt jedoch sowohl zu praktischen als auch theoretischen Schwierigkeiten. Zum einen lässt sich eine strenge Gleichverteilung unter empirischen Bedingungen nicht realisieren, zum anderen ist sie auch in philosophischer Hinsicht unbefriedigend, weil Individuen durch wirtschaftliche Leistungen unterschiedliche Rechte auf Chancen erwerben und verschiedene Bedürfnisse haben. Gleiches gilt auf staatlicher Ebene. Zum einen erwerben wirtschaftlich starke Länder durch ihre Leistungen zumindest prima facie einen höheren Anspruch auf Nutzenergie, zum anderen hängt der Energiebedarf eines Landes stark von naturräumlichen Faktoren ab. Eine Gleichverteilung der Chancen, d. h. der weltweit erwirtschafteten Energiedienstleistungen, würde also weder auf die Leistungen noch die Bedürfnisse der Menschen Rücksicht nehmen. Die durch den klassischen ökonomischen Liberalismus geforderte „Verteilung nach Verdienst“ ist sicherlich ökonomisch effizient, moralisch jedoch unbefriedigend, da Bedürfnisse und Anstrengungen der Individuen nicht berücksichtigt werden. Eine Verteilung, die sich allein auf Marktmechanismen stützt, kann im Falle der Energiewirtschaft bestenfalls eine gerechte Verteilung von Energiedienstleistungen gewährleisten, sie liefert jedoch keine Antwort auf eine gerechte Verteilung von Risiken. Aus öko96
Unterscheidung der Verteilungsstrategien hier und im Folgenden nach C.F. Gethmann: Ethische Probleme der Verteilungsgerechtigkeit im Umweltstaat, in: ders. / Kloepfer / Reinert: Verteilungsgerechtigkeit im Umweltstaat, Bonn 1995, S. 9 ff.
52
Kriterien für die Beurteilung von Energiesystemen
nomischer Sicht läge es nahe, dass unerwünschte Nebenfolgen nach dem Verursacherprinzip entschädigt werden müssten. Dem steht jedoch entgegen, dass die Kausalketten oft unklar und viele Schäden, wie sie durch kombinierte Expositionen entstehen, kumulativ sind, so dass sie keinem einzelnen Verursacher kausal zugeschrieben werden können.97 So werden Immissionsschäden an Pflanzen und Gebäuden, wie sie z. B. durch Abgase aus dem Kraftfahrzeugverkehr entstehen, in der Praxis durch die Allgemeinheit getragen. Solange die von unerwünschten Nebenfolgen betroffenen Personen zugleich auch Nutznießer der intendierten Energiedienstleistungen sind, wirft eine solche Verteilung keine besonderen moralischen Probleme auf. Moralisch fragwürdig wird sie jedoch, wenn zeitlich und räumlich entfernt lebende Menschen betroffen sind, die in keiner Weise am Nutzen partizipieren. Besondere Probleme wirft in dieser Hinsicht der durch die Emission von Treibhausgasen hervorgerufene anthropogene Treibhauseffekt auf, der für alle Länder unabhängig von ihrem Anteil an den Treibhausgasemissionen Risiken birgt. Die liberale Ökonomie bietet offensichtlich kein schlüssiges Konzept, wie eine faire Chancen-Risiken Verteilung zu denken ist. Auch die in der sozialistischen Denktradition favorisierte „Verteilung nach Bedürfnis“ liefert ebenfalls nur eine Antwort auf die Frage nach der richtigen Verteilung von Nutzenergie, nicht jedoch nach der von Risiken. Die frühere Praxis realsozialistischer Staaten, allen Bevölkerungsgruppen Energie zu Niedrigstpreisen zur Verfügung zu stellen, hat die Risiken der Energiebereitstellung eher noch erhöht denn verringert. Die Verteilungsregel „Verteilung nach Bedürfnis“ bietet für sich genommen also ebenfalls keine Gewähr für eine faire Verteilung von Chancen und Risiken. Gleiches gilt für utilitaristische Ethikkonzeptionen, die eine Maximierung des gesamtgesellschaftlichen Nutzens anstreben. Zumindest in der klassisch utilitaristischen Ethik ist die Nutzenmaximierung auch mit sehr ungleichen Verteilungen gesellschaftlicher Güter vereinbar. Analog lassen sich in ihrem Rahmen auch Zustände denken, die mit einer beliebig starken Ungleichverteilung von Chancen und Risiken einhergehen, solange nur der Gesamtnutzen sehr hoch ist. Solche Verteilungen widersprechen etablierten gesellschaftlichen Gerechtigkeitsvorstellungen und sind auch theoretisch unbefriedigend. Vor dem Hintergrund der Defizite utilitaristischer Theorien haben verpflichtungsethische Gerechtigkeitskonzeptionen wieder stärkeres Interesse gefunden. Eine besonders einflussreiche und differenzierte verpflichtungsethische Gerechtigkeitskonzeption hat John Rawls mit seiner „Theorie der Gerechtigkeit“ vorgelegt. Aufbauend auf der klassischen Vertragstheorie und verpflichtungsethischen Ansätzen
97
Streffer et al. 2000.
Entfaltung der Kriterien
53
Kants hat Rawls in seiner Theorie der Gerechtigkeit ein formales Begründungsverfahren entwickelt, dass keiner materialen Voraussetzungen bedarf. Wegen seiner hohen Verallgemeinerungsfähigkeit erscheint dieses vertragstheoretische Argument in besonderem Masse geeignet, als rationales Begründungsverfahren einer Chancen-Risiken-Verteilung im Energiesektor zu dienen. Im Folgenden soll daher das Rawlsche Vertragsargument zunächst in seinen wesentlichen Elementen entfaltet und in einem zweiten Schritt für die besonderen Bedingungen einer Verteilung von Chancen und Risiken in der Energiewirtschaft weiterentwickelt werden. Rawls’ Theorie der Gerechtigkeit hat dem von Hobbes entwickelten vertragstheoretischen Argument, das durch empiristische Missverständnisse lange Zeit nur noch ein Schattendasein in der philosophischen Debatte gefristet hat, im philosophischen Diskurs zu neuer Geltung verholfen. Anders als im klassischen Kontraktualismus geht es Rawls jedoch nicht um die Rechtfertigung politischer Herrschaft, sondern um eine prinzipientheoretische Grundlegung sozialer und politischer Gerechtigkeit. Ziel der Rawlschen Theorie ist es, Verteilungsregeln zu entwickeln, denen von rationalen Eigeninteressen geleitete Individuen im Rahmen einer Verfassungswahl unter ganz bestimmten Randbedingungen zustimmen können. Genau wie seine kontraktualistischen Vorgänger beruft Rawls sich zur Entwicklung seines Arguments also auf die rationalen Eigeninteressen von Individuen und nicht auf moralische Prinzipien. Der Kern des Vertragssituationsarguments bei Rawls besteht in der Überlegung, dass die Verfassungswahl dann, und nur dann, rational und fair ablaufen kann, wenn die Wahl nicht durch nicht verallgemeinerungsfähige Partikularinteressen verzerrt wird. Die Grundsätze der Gerechtigkeit müssen hinter einem „Schleier des Nichtwissens“ (veil of ignorance) festgelegt werden, hinter dem die Individuen nicht wissen, welche soziale Stellung sie in der Gesellschaft haben, oder welche natürlichen Fähigkeiten und Charakterdispositionen sie besitzen.98 Der „Schleier des Nichtwissens“ gewährleistet zweierlei: Zum einen führt er zu Verteilungsregeln, die weitgehend mit unseren Gerechtigkeitsintuitionen übereinstimmen, zum anderen ermöglicht erst die Abwesenheit widerstreitender Interessen den Individuen im Rahmen der fiktiven Vertragssituation einen für jedermann zustimmungsfähigen Konsens zu finden.99 Der „Schleier des Nichtwissens“ zwingt die Individuen die Verfassungswahl an rationalen und verallgemeinerungsfähigen 98 99
Vgl. J. Rawls: Eine Theorie der Gerechtigkeit, Frankfurt a. M. 1979 [engl. Originalausgabe Harvard 1971], S. 159 ff. Vgl. dazu W. Kersting: Die politische Philosophie des Gesellschaftsvertrags, Darmstadt 1994, S. 269 ff.
54
Kriterien für die Beurteilung von Energiesystemen
Prinzipien zu orientierten. Eine Besonderheit der Rawlschen Vertragstheorie ist, dass er den „Schleier des Nichtwissens“ ausdrücklich als moralisches Element einführt. Rawls ist sich stärker als seine Vorgänger der Tatsache bewusst, dass die Wahl der Randbedingungen die Vertragswahl weitgehend präjudiziert, diese aus dem Argument selbst aber nicht abgeleitet werden können. Dass man versuchen sollte, verschiedene Weltzustände jenseits individueller Interessen zu beurteilen, ist mithin eine genuin moralische Forderung. Im Gegensatz zu den Klassikern wie Hobbes, die den Naturzustand als empirische Tatsache aufzufassen scheinen, bemüht Rawls sich daher um eine außervertragliche Begründung für die Vertragssituation. Dabei versucht er die Randbedingungen der Vertragssituation in ein kohärenztheoretisches Begründungsargument einzubetten, auf dessen Einzelheiten hier nicht näher eingegangen werden kann.100 Dieses Argument besagt im Wesentlichen, dass die Vertragsbedingungen mit moralischen Alltagsüberzeugungen kohärent sein müssen, wenn das Vertragsargument zu moralisch akzeptablen Urteilen führen soll. Nach Rawls werden sich die Individuen hinter dem Schleier des Nichtwissens vor allem auf zwei in ihrer Priorität gestufte Prinzipien einigen: Zum einen werden die Individuen ein gleiches Recht auf ein System gleicher Grundfreiheiten einfordern, das mit den Grundfreiheiten der Anderen verträglich ist, zum anderen werden sie fordern, dass wirtschaftliche oder sonstige Ungleichheiten dadurch gerechtfertigt werden müssen, dass sie jedermann einen Vorteil bringen.101 Rawls geht also nicht davon aus, dass rationale Individuen in Unkenntnis ihrer sozialen Lage zwingend für ein möglichst hohes Maß wirtschaftlicher Gleichheit votieren werden. Wenn eine Ungleichverteilung allen zum Vorteil gereicht, etwa in dem Sinne, dass alle von einem höheren Wohlstand profitieren, ist es auch hinter dem Schleier des Nichtwissens durchaus rational, Ungleichverteilungen in Kauf zu nehmen. Wenn etwa die Motivation für das wirtschaftliche Handeln von Menschen hauptsächlich im Gewinnstreben liegt, ist es vernünftig, Einkommensunterschiede zu akzeptieren, da nur so ausreichende Leistungsanreize für eine hohe wirtschaftliche Produktivität gesetzt werden. Das einzige Motiv, das Menschen daran hindern könnte, diese rationale Option abzulehnen, ist Sozialneid, aber diese irrationale Motivation ist durch den Schleier des Nichtwissens ausgeschlossen. „Ungerechtigkeit“, so folgert Rawls, „besteht demnach einfach in Ungleichheiten, die nicht jedermann Nutzen bringen.“ 102 Im Konfliktfall genießt zwischen den beiden Prinzipien das erstere Vorrang, d. h. „dass Verletzungen der vom ersten Grundsatz geschützten gleichen Grund100 101 102
vgl. dazu Kersting 1994, S. 284 ff. Rawls 1979, S. 81 und 336ff. ebd., S. 83.
Entfaltung der Kriterien
55
freiheiten nicht durch größere gesellschaftliche oder wirtschaftliche Vorteile gerechtfertigt oder ausgeglichen werden können.“ 103 Nach Rawls sollte anstelle eines utilitaristischen Maximierungsprinzips die Maximin-Regel Anwendung finden, nach der bei Entscheidungen unter Unsicherheit von den ungünstigsten Kombinationen auszugehen ist, d. h. im Moment der Verfassungswahl sollte jeder Wähler die Möglichkeit in Betracht ziehen, die schlechteste soziale Position zugewiesen zu bekommen. Der Verfassungswähler wird daher nach Rawls immer bestrebt sein, die Stellung der am schlechtesten Gestellten möglichst erträglich zu gestalten. Letztere Strategie, die davon ausgeht, den ungünstigsten Fall zum Maßstab der Handlungsweise zu machen, ist von vielen Interpreten kritisiert worden: Sie setze bereits eine psychische Disposition im Sinne einer risikoaversen Haltung voraus, über die die Individuen in der Vertragssituation wegen fehlender Charaktereigenschaften ja gar nicht verfügen.104 Dem muss jedoch entgegengehalten werden, dass der Urzustand bei Rawls so konzipiert ist, dass die Individuen hinter dem Schleier des Nichtwissens nicht einmal Wahrscheinlichkeitsangaben über die empirische Beschaffenheit der Gesellschaft treffen können. Unter der Bedingung extremer Unsicherheit versagt hingegen jede rationale Risikostrategie und es könnte jenseits emotionaler Risikodispositionen rational sein, die Stellung der am schlechtesten Gestellten möglichst hoch anzusetzen.105 Das von Rawls entwickelte Vertragsargument eignet sich auch zur rationalen Beurteilung der Frage, ob eine gegebene Chancen-Risiko-Verteilung als gerecht bezeichnet werden kann. Konflikte um Chancen-Risiko-Verteilungen im Bereich der Energiewirtschaft sind oft emotional aufgeladen und werden durch individuelle Interessen verzerrt. Auch für diese Konflikte bietet es sich an, sie im Kontext des vertragstheoretischen Gedankenexperiments zu betrachten. Analog zur Verfassungswahl der Rawlschen Vertragssituation soll eine Gruppe von Individuen (im Folgenden als Energieoptionsentscheider bezeichnet) eine Wahl zwischen verschiedenen Energieoptionen hinter einem Schleier des Nichtwissens fällen. Der Schleier des Nichtwissens bedeutet im Kontext der Energiefrage, dass die Individuen weder wissen, welchen sozialen Status sie haben, noch an welchem Ort und zu welchem Zeitpunkt sie leben werden. Diese Bestimmung soll verhindern, dass die Wahl der Energieoption durch nicht verallgemeinerungsfähige egoistische Interessen verzerrt wird. 103 104 105
ebd., S. 82. Kersting 1994, S. 282. Vgl. zur Diskussion um die Rationalität der risikoaversen Strategie unter Bedingungen der Unsicherheit, D. Hübner: Entscheidung und Geschichte, Rationale Prinzipien, narrative Strukturen und ein Streit in der ökologischen Ethik, Freiburg 2001, S. 187–329.
56
Kriterien für die Beurteilung von Energiesystemen
Da Energieoptionen sowohl räumlich als auch zeitlich weitreichende Folgen haben, müssen die rationalen Individuen nicht nur die Mitglieder einer fiktiv zu schaffenden Gesellschaft, sondern die gesamte heutige und zukünftige Menschheit repräsentieren. Unter diesen Randbedingungen werden die Energieoptionsentscheider zu ähnlichen Prinzipien gelangen wie die Verfassungswähler. Vernünftigerweise werden auch die Energieoptionsentscheider dafür votieren, dass eine Ungleichverteilung von Chancen und Risiken zulässig ist, wenn sie allen Mitgliedern einer Gesellschaft Vorteile bringt. Ungleichheiten, von denen nur bestimmte Gruppen profitieren, werden hingegen nicht zustimmungsfähig sein. Die Energieoptionsentscheider werden im Rahmen der gerechtfertigten Ungleichverteilung nicht unbedingt für das Maximin-Prinzip plädieren, nach dem die am schlechtesten Gestellten möglichst gut gestellt werden müssen. Sie werden jedoch mit Sicherheit für bestimmte Untergrenzen der Chancen-Risiken-Verteilung plädieren, d. h. dafür, dass auch die am schlechtesten Gestellten, denen hohe Risiken bei minimalen Chancen zugemutet werden, ein menschenwürdiges Leben führen können. Menschenunwürdige Lebensbedingungen Einzelner können auch durch einen wie immer gearteten gesellschaftlichen Gesamtnutzen nicht gerechtfertigt werden. Mit Blick auf die Energieoptionen werden sich die Entscheider also auf zwei Prinzipien einigen: x
x
Ungleichheiten in der Chancen-Risiken-Verteilung der Energieerzeugung müssen durch einen gesamtgesellschaftlichen Vorteil gerechtfertigt werden. Im Grenzfall umfasst die Gesellschaft die gesamte heutige und zukünftige Menschheit. Die in der Chancen-Risiken-Verteilung am schlechtesten Gestellten müssen zumindest ein menschenwürdiges Leben führen können.
Im Anschluss an diese Überlegungen wird vorgeschlagen, Energieoptionen mit einer typischen Verteilung von Chancen und Risiken dann als gerecht zu beurteilen, wenn Individuen mit aufgeklärtem Eigeninteresse ihnen hinter einem Schleier des Nichtwissens zustimmen können.
Fossile Energieträger
3.
Darstellung der verschiedenen Energieoptionen
3.1
Fossile Energieträger
57
Fossile Brennstoffe sind mit einem Anteil an der kommerziellen Primärenergie von knapp 90 Prozent die mit Abstand bedeutendsten Primärenergieträger der Welt. Derzeit (2000) wird der weltweite Bedarf an Primärenergie in Höhe von etwa 400 EJ zu 40 Prozent aus Erdöl, 22 Prozent aus Erdgas und 26 Prozent aus Kohle
x x x
gedeckt.1 Große Energieagenturen, wie die der OECD zugeordnete International Energy Agency (IEA) gehen davon aus, dass diese Zusammensetzung in den nächsten zwanzig Jahren im wesentlichen gleich bleiben wird.2
3.1.0 Reserven, Ressourcen und Reichweiten Es ist allgemein üblich die vorhandenen Vorkommen an Erdöl und Erdgas, die gemeinsam auch als Kohlenwasserstoffe bezeichnet werden, in Reserven und Ressourcen zu unterteilen3: Reserven sind demnach der Teil der Gesamtressourcen, der mit großer Genauigkeit erfasst worden ist und mit dem derzeitigen technischen Möglichkeiten wirtschaftlich gewinnbar ist.
x x
Diese sehr konservative Definition der Reserven erklärt sich aus ihrer Herkunft aus der Wirtschaft. Sie wurde von der amerikanischen Security und Exchange Commission (SEC) festgelegt, die ihre Kunden vor unrentablen Investitionen schützen wollte.4 1 2 3
4
Zahlen nach Internationale Energie Agentur (Hrsg.): Weltenergieausblick 2000. Zusammenfassung, Paris 2001, 8 ff. Ebd. S. 7. vgl. zu dieser Unterscheidung Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) (Hrsg.): Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen 1998, BGR 1999, S. V; im folgenden als BGR 1999 zitiert. vgl. Esso Energieprognose 2001, S 1.
58
Darstellung der verschiedenen Energieoptionen
Die stark an Wirtschaftlichkeit ausgerichteten Kriterien erklären auch das für den Laien paradoxe Phänomen des Reservenwachstums bei den Erdöl- und Erdgasvorräten, denn neue technische Innovationen und steigende Ölpreise haben in der Vergangenheit immer wieder dazu geführt, dass unrentable Vorkommen in die Gruppe der Reserven aufstiegen. Typische Beispiele dafür sind das Nordseeöl und die kanadischen Ölsande, die erst durch steigende Preise während der Ölkrisen vor allem der siebziger Jahre abbauwürdig und somit als Reserven eingestuft wurden. Die Höhe der Reserven hängt also letztlich vom Marktpreis ab und ist zusammen mit diesem Schwankungen unterworfen. Wie das Beispiel des Nordseeöls zeigt, erhöhen sich bei steigenden Preisen paradoxerweise die Schätzungen für die Reserven. Erfahrungen mit der Ausbeutung längst erschlossener Erdölfelder haben zudem gezeigt, dass die konservative Definition, nur die Vorkommen als Reserven einzustufen, die mit großer Genauigkeit erfasst worden sind, in aller Regel zu einer Unterschätzung ihres Gesamtpotenzials geführt haben, so dass heute in geologischen Schätzungen über das Gesamtpotenzial bereits erschlossener Felder ein Reservenwachstum als Erfahrungswert fest einkalkuliert wird.5 Ressourcen sind gegenüber den Reserven der Teil der Gesamtressourcen, der nachgewiesen, aber derzeit nicht wirtschaftlich gewinnbar oder der nicht nachgewiesen, aber in dem betreffenden Gebiet aus geologischen Gründen erwartet werden kann („yet to find“)
x x
Die weltweiten Kohlevorkommen werden durch die BGR (Bundesanstalt für Geowissenschaften und Rohstoffe) unterteilt in6 „bauwürdige ausbringbare Reserven“, die zu konkurrenzfähigen Preisen abgebaut werden können und „übrige In situ-Ressourcen“ die mit heute verfügbarer Technologie, allerdings derzeit nicht wirtschaftlich abgebaut werden können.
x
x
Auch die Kohlevorkommen werden daher im folgenden in Anlehnung an die vereinheitlichte BGR-Terminologie einfach in Reserven und Ressourcen unterteilt. Reserven und Ressourcen bilden zusammen die Gesamtres-
5 6
Vgl. dazu: USGS (Hrsg.): Reserve Growth Effects on Estimates of Oil an Natural Gas Resources, FS-119-00 USGS 2000. BGR 1999, S. VI; vgl. auch W. Stahl: Die weltweiten Reserven an Energierohstoffen: Mangel oder Überfluß?, BGR 1998, S. 7, unter: www.bgr.de [Stand: Oktober 2001]; seit 1997 existiert eine neue UN-Rahmenklassifikation für Steinkohle diese ist differenzierter und unterteilt nach geologischem und bergtechnischem Untersuchungsstand sowie Abbauwürdigkeit, vgl. dazu BGR 1999 S. 227 ff.
Fossile Energieträger
59
Abb. 3.1: Das Konzept der Statischen Reichweite
sourcen eines Energierohstoffs. Während die Schätzungen der Reserven dem Einfluss des Marktpreises unterliegen, beruhen die Schätzungen über die Gesamtressourcen ausschließlich auf geologischen Daten. Von den Gesamtressourcen zu unterscheiden ist das hauptsächlich geologisch interessante Gesamtpotenzial einer Ressource, die Estimated Ultimate Recovery [EUR], die den Umfang einer Ressource vor Eingriff des Menschen zusammenfasst. Für Erdöl wird die EUR derzeit auf 350 Mrd. t geschätzt, von denen etwa ein Drittel bereits verbraucht sind, für Erdgas auf 440 Billionen m3, von denen erst 13 Prozent verbraucht sind.7 Die statische Reichweite wird aus dem Quotienten der derzeitigen Reserven und der letzten Jahresförderung eines fossilen Brennstoffs ermittelt.8 Die statische Reichweite gibt also an, wie lange die Reserven eines fossilen Brennstoffes bei gleichbleibender Förderhöhe ausreichen würden. Bei der statischen Reichweite handelt es sich folglich um eine Momentaufnahme in einem dynamischen Geschehen, das durch
7
8
Zahlen nach H. Rempel: Geht die Kohlenwasserstoff-Ära zu Ende?, Vortrag am 23. 5. 2000 auf einer DGMK/BGR Veranstaltung in Hannover gehalten, BGR 2000, S. 5, unter: www.bgr.de [Stand: November 2001]. ebd.
60
Darstellung der verschiedenen Energieoptionen
Abb. 3.2: Statische Reichweite der Energierohstoffe für das Jahr 1998 [nach BGR 1999]
neue Techniken und die Entdeckung neuer Vorkommen, Veränderungen in der jährlichen Fördermenge und den Marktpreis
x x x
ständigen Veränderungen unterworfen ist. „Statisch“ ist der Wert also nur insofern, als er eine fixe Größe für den Zeitpunkt x angibt. Bislang haben sich die errechneten Reichweiten für Erdöl und Erdgas wegen der konservativen Definition der Reserven immer als zu kurz erwiesen. So beliefen sich die bestätigten Reserven für Erdöl 1940 auf 6 Milliarden Tonnen, was damals einer Reichweite von 21 Jahren entsprach. 1960 waren die Reserven auf 41 Milliarden Tonnen angestiegen, weshalb auch die Reichweite trotz eines stark gestiegenen weltweiten Ölbedarfs auf 38 Jahre anstieg und 1998 betrugen die bestätigten Reserven 140 Milliarden Tonnen bei einer Reichweite von 40 Jahren.9 Die von der (BGR) in Hannover ermittelte statische Reichweite der fossilen Reserven für das Jahr 1998 beträgt für 10 Erdöl 42 Jahre, Erdgas 65 Jahre, Steinkohle 160 Jahre und Braunkohle 200 Jahre.
x x x x
9 10
Esso-Energieprognose 2001, S 2. Zahlen nach BGR 1999.
Fossile Energieträger
61
Unter Berücksichtigung der verbleibenden Ressourcen, also der Gesamtressourcen, ergeben sich Reichweiten von x x x x
63 Jahren für konventionelles Erdöl, 160 Jahren für konventionelles Erdgas, 220 Jahre für Steinkohle 11 und 230 Jahre für Braunkohle.
Die Werte, die die BGR für die statische Reichweite des Erdöls angibt, werden in der Esso-Energieprognose 2001 als zu konservativ kritisiert, insbesondere weil das Potenzial der nicht-konventionellen Vorkommen in dieser Reichweite nicht berücksichtigt werde.12 Dieser Vorwurf trifft jedoch nicht zu, da die Bundesanstalt für Geowissenschaften und Rohstoffe die nicht-konventionellen Vorkommen sehr wohl berücksichtigt, diese jedoch gesondert ausweist.13 Das Vorgehen der BGR, die nicht-konventionellen Vorkommen von den konventionellen zu unterscheiden, ist durchaus gerechtfertigt, da nicht-konventionelle Erdölvorkommen aus nicht-flüssigen Ölsanden und Ölschiefern bestehen, die weder vom Standpunkt des Experten noch aus der Sicht des Laien mit flüssigem „Erdöl“ gleichgesetzt werden können. Diese Ölschiefer und Ölsande werden der Esso-Prognose zufolge bald durch technische Innovationen und steigende Preise eine größere Rolle auf dem Welterdölmarkt spielen.14 Die Schwellenpreise für den Abbau von Ölsanden liegen derzeit je nach Lager bei 20–50 US-$ und für Ölschiefer bei mehr als 60 US-$ pro Barrel.15 Derzeit ist Kanada das einzige Land der Welt, das aufgrund besonders günstiger Abbaubedingungen Ölsande wirtschaftlich, d. h. zu Kosten von 10 $ pro Barrel, fördern kann (zum Vergleich: die Förderkosten für arabisches Erdöl liegen heute bei rund 2 $/Barrel und die für Nordseeöl bei 9 $/Barrel).16 Deshalb hat Esso die kanadischen Ölsande in Höhe von 24 Milliarden Tonnen in der Esso-Prognose 2003 erstmals in den Rang von Reserven heraufgestuft.17 Andererseits hat sich die Ölschieferoption in der Vergangenheit als unrealistisch erwiesen.18 11
12 13 14 15 16 17 18
In der neuesten Auflage der BGR-Studie von 2003 sind die statischen Reichweiten der Kohleressourcen dramatisch nach oben korrigiert worden, nämlich auf 1425 Jahre für Steinkohle und 1264 für Braunkohle, vgl. BMWi (Hrsg.): Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen – Zusammenfassung – Dokumentation Nr. 519, BMWi 2002, S. 29. Esso-Energieprognose 2001, S 2ff. vgl. Stahl, 1998, S. 10 ff. Esso-Energieprognose 2001, S 3. vgl. dazu Stahl, 1998, S. 10 ff. vgl. BGR 1999, S. 95 ff. Oeldorado 2003, S. 1. vgl. zu den Erfahrungen der letzten Ölkrise D. Yergin: Der Preis. Die Jagd nach Öl, Geld und Macht, Frankfurt a.M. 1991, S. 763.
62
Darstellung der verschiedenen Energieoptionen
Abhängig von bestimmten Schwellenpreisen könnten auch andere nicht-konventionelle Ölvorkommen in den nächsten Jahren in den Rang von Reserven aufsteigen. Gleiches gilt für nicht-konventionelles Erdgas, das aus Flözgas, Aquifergas und Gashydraten besteht, die unter jetzigen Marktbedingungen ebenfalls nicht wirtschaftlich förderbar sind, aber in Zukunft verstärkt als Energierohstoffe genutzt werden könnten. Unter Berücksichtigung dieser nicht-konventionellen Vorkommen kommt die Esso-Energieprognose daher für die Reserven auf wesentlich höhere Reichweiten, nämlich von x x
260 Jahren für Erdöl und 190 Jahren für Erdgas.
Unter Berücksichtigung eines weltweit steigenden Verbrauchs errechnet Esso für das Jahr 2020 statische Reichweiten von 185 Jahren für Erdöl und 115 Jahren für die Gasvorräte. Die riesigen Größen der konventionellen Erdöl- und Erdgasressourcen sowie der nicht-konventionellen Vorkommen sollten jedoch nicht darüber hinwegtäuschen, dass ihre Gewinnung erheblich höhere Kosten verursachen wird als die der jetzigen konventionellen Reserven. Es wurde bereits darauf hingewiesen, dass sich die Förderung nichtkonventioneller Erdölreserven erst rechnen wird, wenn sich der Weltmarktpreis dauerhaft deutlich über 20 $ pro Barrel stabilisiert, was aktuell eingetreten ist, für einige nichtkonventionelle Vorkommen sind sogar Schwellenpreise von über 50 $ pro Barrel erforderlich. Insbesondere hinsichtlich der nicht-konventionellen Ressourcen gilt, dass für ihren Abbau teilweise Schwellenpreise existieren, die nicht nur jetzt sondern auch in Zukunft als prohibitiv hoch angesehen werden müssen, zudem ist der Abbau nichtkonventionellen Erdöls mit größeren Umweltbelastungen verbunden. Zur Illustration des Sachverhalts, dass sich nicht alle überhaupt vorhandenen fossilen Ressourcen wirtschaftlich gewinnen lassen, können auch Erfahrungen aus dem Ruhrbergbau hilfreich sein. Während in der Frühindustrialisierung in der Gegend südlich der Ruhr Steinkohle noch mit geringem technischen Aufwand gewonnen werden konnte, ist in der industriellen Revolution des 19. Jahrhunderts Kohle bereits in mehreren hundert Meter Tiefe geschürft worden. Im Zuge der Erschöpfung der leicht gewinnbaren Reserven im südlichen Ruhrgebiet und der damit verbundenen Nordwanderung des Bergbaus verlagert sich ihre Gewinnung in immer tiefere Schichten und ist dadurch technisch immer aufwändiger und teurer geworden. Der Abbau der Ruhrkohle bei heute 1000 bis 1500 Metern Tiefe ist technisch aufwändig und so kostenintensiv, dass er international nicht mehr konkurrenzfähig ist, weshalb die Einstufung der deutschen Steinkohleressourcen als Reserven umstritten ist.
Fossile Energieträger
63
Neben der Frage der Wirtschaftlichkeit wird oft übersehen, dass unabhängig vom Marktpreis die Gewinnung fossiler Ressourcen durch den Energie-Erntefaktor begrenzt wird. Die Gewinnung von immer schwerer zugänglichen Ressourcen erfordert nämlich einen zunehmend höheren Energieaufwand, der das Verhältnis vom Energieeinsatz zum Energiegehalt des geförderten Rohstoffs immer ungünstiger ausfallen lässt. Stiege etwa der Energieaufwand im deutschen Bergbau um den Faktor 10, so schrumpfte der Energie-Erntefaktor auf 1, d. h. dass für die Förderung einer Tonne Steinkohle genauso viel Energie verbraucht würde, wie aus dieser Tonne gewonnen werden könnte.19 Analog dazu gibt es auch eine wirtschaftliche Untergrenze für die Ausbeutung von Erdölund Erdgasfeldern: Deren Energiegehalt muss mindestens die für Exploration und Förderung eingesetzte Energie amortisieren. Trotz der Bedeutung fossiler Energiereserven gibt es bislang wenige Studien über die Höhe des Energie-Erntefaktors bei der Gewinnung verschiedener fossiler Rohstoffe. Eine umfangreiche Fallstudie über den Energie-Erntefaktor einer bereits erschöpften fossilen Reserve liegt derzeit nur über die bereits erschöpften Erdölfelder des Gifhorner Troges vor.20 Zusammenfassend kann also gesagt werden, dass das Potenzial der fossilen Gesamtressourcen gigantisch ist, dass jedoch der Abbau des jetzt als Ressourcen klassifizierten Anteils höhere Kosten verursachen wird als der der Reserven und dass unabhängig vom Marktpreis ein Teil der Ressourcen aufgrund eines zu niedrigen Energie-Erntefaktors weder jetzt noch in Zukunft abbauwürdig sein wird. Im Folgenden soll das Potenzial der drei wichtigsten fossilen Primärenergieträger Öl, Gas und Kohle näher beleuchtet werden.
3.1.1 Erdöl Erdöl ist derzeit mit 40 Prozent am Weltenergieverbrauch der mit Abstand bedeutendste Primärenergieträger. In Deutschland sind im Jahr 2000 127,3 Millionen Tonnen Erdöl verbraucht worden, davon etwa die Hälfte für Kraftstoffe, knapp ein Drittel als Heizöl; der Rest ist auf die Nutzung zur Herstellung von MHHHineralölprodukten wie Flüssiggas, Schmierstoffe, Bitumen und Wachse entfallen.21 19 20
21
Beispiel nach Heinloth 1983, S. 36/37. J. Teuber, M. Hofmann, M. Kosinowski, H. Sattler, K. Schumacher: Der kumulierte Energieaufwand für die Erdölgewinnung am Beispiel ausgewählter Felder des Gifhorner Troges, in: DGMK Tagungsbericht 9901, Hamburg 1999, S. 31–40. Esso Energieprognose 2001, S. 2. Zur internationalen Verteilung vgl. International Energy Outlook 2001, S. 29.
64
Darstellung der verschiedenen Energieoptionen
Zur Zeit sind weltweit unstrittige Reserven in Höhe von 150 Mrd. Tonnen bei einer Reichweite von 40 Jahren bekannt. Daneben existieren Ressourcen in einer Höhe von 76 Milliarden Tonnen sowie noch größere Vorkommen an nicht-konventionellem Erdöl. Als nicht-konventionelles Erdöl gilt nicht fließfähiges Erdöl, also Schweröl, Ölsande und Ölschiefer. Einen Überblick über die Gesamtressourcen an konventionellem und nichtkonventionellem Erdöl bietet Abb. 3.3.
Abb. 3.3: Gesamtressource an Erdöl [BGR 1999]
Wie aus dem Diagramm hervorgeht, übersteigen die Ressourcen an nichtkonventionellem Erdöl die an konventionellem um ein Vielfaches. Es wurde bereits erwähnt, dass die Esso-Energieprognose davon ausgeht, dass nicht-konventionelle Vorkommen, wie Ölschiefer und Ölsande auf dem Welterdölmarkt in Konkurrenz zu konventionellem Erdöl schon bald eine größere Rolle spielen werden. Die nicht-konventionellen Ressourcen sollen bei der folgenden Betrachtung jedoch zunächst ausgeklammert werden, da sie kein Erdöl im engeren Sinne darstellen. Aus den bekannten Förderverlaufskurven für bereits weitgehend erschöpfte Erdölregionen lassen sich auch wahrscheinliche Szenarien für die weltweite Erdölförderung ableiten. Exemplarisch sei hier die Förderkurve der deutschen Erdölproduktion aufgeführt.22 22
Angaben nach P. Kehrer: Das Erdöl im 21. Jahrhundert – Mangel oder Überfluß?, Vortrag im Ölmuseum Wietze, 10. März 2000, unter www.bgr.de [Stand: Oktober 2001].
Fossile Energieträger
65
Abb. 3.4: Weltweite Erdölproduktion 1930–2050. Nach Udall und Andrews, 1999, und Hiller, 1999, Quelle: BGR
Typischerweise zeigen solche Kurven eine asymmetrische Glockenkurve mit einem steilen Anstieg bis zu einem bestimmten Höhepunkt der jährlichen Förderung und einem darauf folgenden zunächst steilen Abstieg der dann in ein langsameres Abgleiten übergeht. Der „Wendepunkt“, von dem an die jährliche Förderquote kontinuierlich abnimmt, wird als „Depletion mid point“ bezeichnet (Abb. 3.4). Die Bundesanstalt für Geowissenschaften und Rohstoffe prognostiziert, dass der Depletion mid point für die weltweiten Erdölreserven zwischen 2010 und 2020 überschritten und die Fördermenge von diesem Zeitpunkt an sukzessive abnehmen wird.23 Dieser Bestimmung des Depletion mid point wird seitens der großen Ölgesellschaften widersprochen. So heißt es etwa in der Esso-Energieprognose 2001: „Der befürchtete Produktionsrückgang in Vorkommen, die bereits ausgebeutet werden, wird durch die Dynamik der zu erwartenden und bereits erzielten technologischen Verbesserungen und des gewaltigen Umfangs der noch unerschlossenen Kohlenwasserstoff-Ressourcen weit in die Zukunft hinausgeschoben. So ist zum Beispiel die Förderung in der Nordsee vom prognostizierten Ende 2000 auf mindestens 2020 verlängert worden.“ 24
23 24
Rempel, 2000, S. 3 ff. Esso-Energieprognose, 2001, S. 4.
66
Darstellung der verschiedenen Energieoptionen
Folgende Beispiele führt die Esso-Energieprognose 2001 für technische Innovationen an, die eine Herausschiebung des Depletion-mid-points für die Erdöl- und Erdgasvorräte wahrscheinlich erscheinen lassen 25: x
x
3-D Seismik ermöglicht heute eine verbesserte Ortung von Ölvorkommen. Dieses Verfahren erlaubt Ortung und Förderung öl- und gasführender Schichten in der Horizontalen. In Zukunft sollen Erdöllagerstätten unter dem Meeresboden in Tiefwasserbereichen bis zu 3000 m erschlossen werden.26 So erreicht die Hoover-Diana Plattform im Golf von Mexiko heute bereits eine Tiefe von 1500 Metern.
Trotz der genannten Faktoren, die eine zeitliche Verschiebung des Depletion-mid-point nach hinten wahrscheinlich erscheinen lassen, bleibt jedoch festzuhalten, dass in Fachkreisen kaum ein Zweifel daran besteht, dass sich die vorhandenen Ressourcen an konventionellem Erdöl noch in diesem Jahrhundert erschöpfen werden. Die BGR hat zu diesem Zweck einige der wichtigsten Prognosen vergleichend zusammengestellt (Abb. 3.5): Mit Ausnahme der Prognosen von Campbell 1997 27, der von einer früheren, und Odell 1998, der von einer weitaus späteren Erschöpfung ausgeht, stimmen alle Prognosen darin überein, dass der Depletion-mid-point im ersten Quartal des 21. Jahrhunderts überschritten werden wird und bis zum Ende des 21. Jahrhunderts die Erdölvorkommen weitgehend erschöpft sein werden. Die Differenzen in der Ermittlung des Depletion-mid-points ergeben sich vor allem aus der Berücksichtigung (Odell 1998), bzw. Nicht-Berücksichtigung (Campbell 1997) nicht-konventioneller Erdölressourcen.28 Der Hauptgrund, warum eine Mehrzahl der Geologen ein Überschreiten des globalen Depletion-mid-point innerhalb der nächsten zwei Jahrzehnte als unausweichlich ansieht, liegt darin, dass die letzten spektakulären Neufunde in den 60er Jahren gemacht wurden, als die großen Erdölvorkommen in Alaska und der Nordsee entdeckt worden sind. Diese Neufunde haben damals zudem die Abhängigkeit der OECD-Staaten von der OPEC verringert. Das ergiebigste Jahr ist 1962 gewesen, als das Volumen der damaligen Neufunde dem fünffachen der Jahresförderung entsprochen hat. Die Volumina der heutigen jährlichen Neufunde erreichen
25 26 27 28
ebd. vgl. dazu auch A.-Y. Huc: Erdöl unter der Tiefsee, in: Spektrum der Wissenschaft, 02/2004, S. 76–84. C. Campbell, J. H. Laherrère: The end of cheap oil, in: Scientific American, 03/1998, S. 78–83. Vgl. dazu auch die Kontroverse zwischen Hatfield und Houthakker, in: Nature, Vol. 388, 14. 8. 97, S. 618.
Fossile Energieträger
67
nach Berechnungen der BGR im Schnitt aber nur noch 25 % der heutigen Jahresförderung.29 Wegen der rückläufigen Anzahl und Ergiebigkeit der weltweiten Neufunde prognostiziert auch der amerikanische Geologe und Hubbert-Schüler Deffeyes ein baldiges Überschreiten des Depletion-mid-points.30 Der Geophysiker M. King Hubbert hat 1956 das Überschreiten des Höhepunkts der amerikanischen Ölförderung (ihm zu Ehren auch „Hubberts Peak“ genannt) – gegen den damaligen Trend – bereits für Anfang der siebziger Jahre prognostiziert und mit dieser Prognose recht behalten. Ein ent-
Abb. 3.5 Auswahl verschiedener Prognosen für die Erdölförderung (konventionell und nicht-konventionell), Quelle: BGR
29
30
BMWi (Hrsg.): Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen – Zusammenfassung – Dokumentation Nr. 465, BMWi 1999, S. 18 [im Folgenden als BGR 1999 Zusammenfassung zitiert]; vgl. auch Stahl, S. 8. K. S. Deffeyes: Hubbert’s peak. The impending world oil shortage, Princeton 2001.
68
Darstellung der verschiedenen Energieoptionen
scheidendes Merkmal der Methode, die Hubbert in den fünfziger Jahren für die Bestimmung des amerikanischen Depletion-mid-points eingesetzt hat, und die auch den heutigen Prognosen zugrunde liegt, liegt darin, dass er bei der Berechnung des Depletion-mid-points der amerikanischen Erdölförderung, die Erdölproduktion in erster Linie in Relation zur Anzahl und Ergiebigkeit der jährlich neu entdeckten Ölfelder setzt. Da die größten amerikanischen Ölfelder in den 30er Jahren entdeckt worden sind, Anzahl und Ergiebigkeit der neu entdeckten Quellen jedoch seit 1940 zurückgegangen ist, ist Hubbert zu dem Schluss gekommen, dass die amerikanische Erdölförderung ab Anfang der siebziger Jahre rückläufig sein müsse. Als Hubbert dieses Ergebnis 1956 vorgestellt hat, ist seine Prognose sehr umstritten gewesen. Der Depletion-midpoint beim amerikanischen Erdöl ist 1970 überschritten worden.31 Das Jahr 1970 markiert eine Zäsur in der Geschichte der Erdölwirtschaft, denn von diesem Zeitpunkt an haben die amerikanischen Erdölfelder das strategisch wichtige Potenzial verloren im Notfall zusätzliche Förderkapazitäten mobilisieren und damit zusammenhängend den weltweiten Erdölpreis beeinflussen zu können.32 Dieses Potenzial liegt heute bei den arabischen Ölfeldern. Bezogen auf die weltweiten Förderkapazitäten stellt sich die Situation nach Deffeyes heute ähnlich dar. Wie sowohl die jahrzehntelange Explorationserfahrung in den USA als auch Wahrscheinlichkeitsberechnungen zeigen, werden die größten und ergiebigsten Ölfelder in der Explorationsphase zuerst entdeckt.33 Dieselben statistischen Methoden zeigen, dass die bereits bekannten hundert größten Ölfelder der Welt aller Wahrscheinlichkeit nach bereits die Hälfte der weltweiten konventionellen Ölressourcen enthalten.34 Dies bedeutet, dass spektakuläre Neufunde sehr großer Felder für die Zukunft sehr unwahrscheinlich sind und der größte Teil der insgesamt vorhandenen Ressourcen schon entdeckt worden ist. Nach Berechnungen von Deffeyes hat das prozentuale Reservenwachstum durch Neufunde bis 1983 immer deutlich über den jährlichen Wachstumsraten des weltweiten Ölverbrauchs gelegen.35 Da seit Beginn der achtziger Jahre das Reservenwachstum durch Neufunde rückläufig ist, sieht Deffeyes ein Überschreiten des Depletion-mid-
31 32 33 34 35
Die Originalkurve 1991, S. 3. ebd., S. 5; vgl. auch Yergin ebd., S. 712 ff. vgl. dazu Deffeyes ebd. Kapitel 6 passim. ebd., S. 120. Deffeyes 2001, S. 157. Unberücksichtigt bleibt in dieser Berechnung ein nach Ansicht von Deffeyes mehr scheinbares Reservenwachstum der achtziger Jahren, als die OPEC die Förderquoten ihrer Mitgliedsländer an die Reserven koppelte, woraufhin viele OPEC-Staaten die Schätzungen über den Umfang ihrer Reserven deutlich nach oben korrigierten; vgl. zu diesem scheinbaren Wachstum auch Campbell 1998, S. 83.
Fossile Energieträger
69
points bei der Förderung konventionellen Öls in den nächsten Jahren als unausweichlich an. Ob die sich abzeichnende Verknappung des wichtigsten Primärenergieträgers wirtschaftlich und sozial verträglich verlaufen wird, hängt von mehreren Faktoren ab, insbesondere vom Tempo, mit dem die Verknappung eintreten wird, und der Zeit, die den Volkswirtschaften damit für die Umstrukturierung ihrer Energiesysteme bleibt. Optimisten, wie Kehrer von der Bundesanstalt für Geowissenschaften und Rohstoffe, der sich selbst als Realist einstuft, gehen davon aus, dass die Erschöpfung der Erdölreserven allmählich und ohne größere Störungen der Weltwirtschaft ablaufen wird: „Ein die weitere Entwicklung der Weltwirtschaft hemmender Mangel ist gleichwohl ebenfalls nicht zu befürchten, da bedingt durch den längerfristigen allmählichen Förderabfall und zu erwartender technologischer Fortschritte ausreichend Zeit für einen Umstieg auf reichlich vorhandene andere fossile Energieträger wie Kohle und Erdgas bzw. erneuerbare Energiequellen wie Sonne, Wind und Geothermie bleibt.“ 36 Der weltweite Erdölverbrauch ist zwischen 1970 und 2001 von 46,8 Millionen auf 75,2 Millionen Barrel pro Tag gewachsen. Die Energy Information Adminstration (EIA), die für die US-amerikanische Regierung einen der größten Weltenergieberichte erstellt, geht davon aus, dass der weltweite Verbrauch bis 2020 weiter auf 119,6 Millionen Barrel pro Tag ansteigen wird.37 Der größte Teil des Wachstums wird dabei voraussichtlich auf die Schwellenländer Süd- und Ostasiens entfallen (Abb. 3.6). Schon heute ist der Anteil des asiatisch-pazifischen Raumes am Ölverbrauch größer als der Europas. In Japan und den asiatischen Schwellenländern (ohne China) stieg der tägliche Ölverbrauch 1999 gegenüber dem Vorjahr um 200000 Barrel und 2000 noch einmal um 400000. Die EIA prognostiziert, dass alleine der Verbrauch Chinas und Indiens bis 2020 auf 16 Millionen Barrel pro Tag anwachsen wird.38 Zwar entfällt heute noch der größte Teil des Erdölverbrauchs auf OECD-Länder, aber der Abstand wird sich nach Prognosen der EIA im Verlauf der nächsten zwei Jahrzehnte immer mehr verringern und schließlich werden die Entwicklungs- und Schwellenländer um 2020 in ihrem absoluten Erdölverbrauch zu den Industrieländern aufschließen.39 Insbesondere die wachsende Volkswirtschaft Chinas zeigt einen dramatisch
36 37 38 39
Kehrer 2000. EIA (Hrsg.): International Energy Outlook 2001, S. 27 ff. Ebd. S. 28. Ebd., vgl. auch Fig. 25.
70
Darstellung der verschiedenen Energieoptionen
Abb. 3.6 Ölverbrauch in Süd- und Ostasien [EIA-Referenzprognose 2001]
wachsenden Verbrauch an Erdöl. Hat dieser 1991 noch 117,9 Millionen Tonnen betragen, so hat er sich bis zum Jahr 2000 auf 230 Millionen Tonnen verdoppelt, womit China Deutschland von Rang drei der größten Erdölkonsumenten verdrängt hat.40 Bis 2020 wird für China ein Anwachsen auf jährlich bis zu 500 Millionen Tonnen prognostiziert. Falls der Depletion-mid-point der globalen Förderung, wie oben diskutiert vor 2020 überschritten werden sollte, werden die EIA-Prognosen, die hauptsächlich auf ökonomischen Trendextrapolationen beruhen, wegen steigender Ölpreise nicht realisiert werden können.41 Man muss nicht sogleich apokalyptische Szenarien von Weltwirtschaftskrisen und Rohstoffkriegen an die Wand malen, um zu erkennen, dass die Verknappung der Erdölreserven ein sehr ernstes politisches Problem ist. Verschärft wird dieses Problem durch den Umstand, dass zwei Drittel der weltweiten Erdölreserven im politisch instabilen Nahen Osten konzentriert sind. Insgesamt konzentrieren sich innerhalb eines Gebietes, das sich vom Nahen Osten über den Kaukasus bis nach Westsibirien erstreckt, 70 Prozent der bekannten Welterdölreserven und 65 Prozent der Welterdgasreserven, weshalb diese Region auch als „strategische Ellipse“ bezeichnet wird.42 40 41 42
Zahlen nach BP statistical review of world energy 2002, S. 9. vgl. zur Kritik an den Trendextrapolationen der EIA Campbell, S. 80. H. Rempel, 2000, S. 4.
Fossile Energieträger
71
Tab. 3.1
Erdölreserven [Stand: 2000]
Erdölförderung [Stand: 2000]
Europa
2584
323,9
GUS
7754
394,5
Afrika
9997
360,7
Nordamerika
3568
477
Naher Osten
92 776
1111,7
Südamerika
17 094
519,9
Süd-Ostasien
5931 In Millionen
374 Tonnen
2000 hat die Erdölproduktion der OECD-Länder 800 Millionen Tonnen und die der arabischen OPEC-Staaten 1,1 Milliarden betragen; sie sind also in ihrer Größenordnung durchaus vergleichbar.43 Wie die Tabelle 3.1 zeigt, ist die Relation der Erdölförderung zu den vorhandenen Reserven für Europa und die USA aber äußerst ungünstig. Nach der oben getroffenen Definition der statischen Reichweite beträgt diese daher für die europäischen und amerikanischen Felder nur noch einige Jahre, während die Erdölfelder im Nahen Osten bei gleichbleibender Förderhöhe noch auf Jahrzehnte hinaus Bestand haben können. Die wichtigsten Energieagenturen gehen aufgrund dieser Situation übereinstimmend davon aus, dass der Anteil des Erdöls aus dem Nahen Osten am Weltmarkt in den nächsten Jahren stark ansteigen wird. So prognostiziert etwa der im Auftrag der Europäischen Kommission erstellte „European Energy Outlook to 2020“, dass der Anteil des Öls aus der Golfregion an der weltweiten Produktion bis 2020 von 26 auf 40 Prozent steigen wird.44 Viele OECD-Staaten versuchen einer wachsenden Abhängigkeit von den arabischen OPEC-Staaten, wie sie bereits während der ersten Erdölkrise einmal bestanden hat, durch eine stärkere Diversifizierung ihrer Erdöllieferanten zu begegnen. So haben sich die USA in den letzten Jahren verstärkt in Westafrika engagiert. Während China sich vor allem um die Erschließung der Erdöl- und Erdgasvorkommen in Zentralasien bemüht 45, decken Europa und Japan einen wachsenden Anteil ihres Erdölbedarfs aus 43 44 45
Stahl 1998, S. 7. European Energy Outlook to 2020, hrsg. von Energy in Europe im Auftrag der Europäischen Kommission, Luxemburg 1999, S. 27. K. Bradsher: China struggles to cut reliance on mideast oil, in: New York Times, 3. 8. 2002.
72
Darstellung der verschiedenen Energieoptionen
Abb. 3.7 Gesicherte Erdölreserven nach Regionen: gesamt: 143 Mrd. t [BP 2002]
Abb. 3.8 Statische Reichweite der weltweiten Erdölreserven [Stand 2000 nach Oeldorado 2001]
Fossile Energieträger
73
Russland.46 Sofern keine spektakulären Neufunde außerhalb des Nahen Ostens gemacht werden, ist die Diversifizierungsstrategie längerfristig jedoch zum Scheitern verurteilt. Die Abneigung der Industriestaaten gegen die wachsende Abhängigkeit von Ölimporten aus dem Nahen Osten ist historisch verständlich. In der Vergangenheit haben kriegerische und politische Ereignisse in dieser Region wiederholt zu erheblichen Unterbrechungen der Erdölförderung geführt. Die wichtigsten Förderunterbrechungen sind entstanden durch den arabisch-israelischen Krieg 1973 (2,6 Mio. b/Tag) und das auf den Krieg folgende Öl-Embargo der arabischen OPEC-Staaten gegen den Westen, die iranische Revolution 1979 (3,5 Mio. b/Tag) und die Okkupation Kuwaits durch den Irak 1991 (4,6 Mio. b/Tag).47 Insbesondere die beiden Erdölkrisen nach dem arabisch-israelischen Krieg 1973 und der iranischen Revolution 1979 führten in vielen Industriestaaten zu wirtschaftlicher Rezession. Aufgrund der Verteilung der Reserven ist davon auszugehen, dass der Nahe Osten wegen des wachsenden Energiehungers der Welt in den nächsten Jahrzehnten noch stärker als bisher im Brennpunkt der Weltpolitik stehen wird. Wegen der hohen Konzentration an Energierohstoffen überschneiden sich innerhalb der strategischen Ellipse die wirtschaftlichen und politischen Interessensphären der großen Industrienationen und Wirtschaftsblöcke: eine gefährliche Konstellation für den Weltfrieden.
3.1.2 Erdgas Erdgas hat einen Anteil von 22 Prozent am weltweiten Primärenergieverbrauch und liegt damit hinter Erdöl und Kohle an dritter Stelle. In Deutschland wurden im Jahr 2000 98,4 Milliarden Kubikmeter Erdgas verbraucht und damit doppelt so viel wie noch vor zwanzig Jahren.48 Von den 98,4 Milliarden entfielen 48,1 Milliarden auf Haushalte und Kleinverbraucher, 29,3 Milliarden auf die Industrie einschließlich der Petrochemie, 12,8 Milliarden auf Kraftwerke und 12 Milliarden auf Fernwärme, Kokereien und Sonstige. Nicht nur in Deutschland, sondern auch weltweit ist der Anteil des Erdgases am Primärenergieverbrauch gestiegen und wird nach übereinstimmender Ansicht führender Energieagenturen voraussichtlich weiter wachsen, vor allem weil Erdgas wegen der günstigen Wirkungs46 47 48
J. Brooke: Koizumi visits energy-rich russian region, seeking oil, in: New York Times, 13. 1. 2003. vgl. EIA (Hrsg.): Global oil supply disruptions since 1951, unter: http://www.eia.doe.gov/ security/distable.html [Stand: November 2002]. Zahlen nach Öldorado 2001, S. 5.
74
Darstellung der verschiedenen Energieoptionen
Abb. 3.9 Gesamtressourcen an Erdgas [BGR 1999]
grade und geringen Investitionskosten von Gas- und Dampfkraftwerken (GuD) verstärkt im Bereich der Stromerzeugung eingesetzt wird.49 Traditionell wird Erdgas jedoch nach wie vor hauptsächlich zur Erzeugung von Heizwärme für private Verbraucher genutzt. Zur Zeit sind weltweit unstrittige Reserven in Höhe von 153 Billionen m3 bei einer derzeitigen Reichweite von 65 Jahren bekannt. Den Reserven stehen Ressourcen in einer Höhe von 226 Billionen m3 gegenüber (Abb. 3.9, Tab. 3.2). Tab. 3.2
[nach BGR 1999]
Reserven
Ressourcen 226 Bill. m3
Konventionelles Erdgas
153 Bill.
Nicht-konventionelles Erdgas
3 Bill. m3
3237 Bill. m3
Gashydrate
0
1540 Bill. m3
Kohle-Flözgas
2 Bill m3
85 Bill. m3
Dichte Speicher
1 Bill. m3
113 Bill. m3
Aquifere
0 Bill. m3
1500 Bill. m3
Gesamt
159 Bill. m3
3463 Bill. m3
49
Vgl. European Energy Outlook to 2020, S. 25.
m3
Fossile Energieträger
75
Wie aus der Tabelle hervorgeht übersteigen die Ressourcen an nicht-konventionellem Erdgas, die vor allem aus Gashydraten und Aquiferen bestehen, die konventionellen Vorkommen sogar um eine ganze Größenordnung. Nicht-konventionelles Erdgas ist unter heutigen Bedingungen jedoch ganz überwiegend nicht förderungswürdig, weshalb derzeit auch (fast) keine nicht-konventionellen Reserven existieren. Eine Veranschaulichung der Mengenverhältnisse bietet das Diagramm (Abb. 3.9, Tab. 3.2). Wegen des riesigen Potenzials der Gashydrate, von denen zugleich ungewiss ist, ob sie sich jemals wirtschaftlich gewinnen lassen werden, sollen diese weiter unten gesondert abgehandelt werden. Im Folgenden wird die Fördersituation für die konventionellen Erdgasvorkommen beleuchtet. Vom Gesamtpotenzial der weltweiten konventionellen Erdgasreserven sind schätzungsweise 15 Prozent bereits gefördert. Damit stellt sich die Situation beim Erdgas wesentlich günstiger dar als beim Erdöl, von dem bereits 35 Prozent des Gesamtpotenzials [EUR] verbraucht sind. Selbst bei einem von heute an jährlich weltweit um 3 % steigenden Erdgasverbrauch wird nach Prognosen der BGR ein Förderstand wie beim Erdöl erst gegen 2025 erreicht werden.50 Die Erdgasförderung wird ihren Depletion-midpoint daher in jedem Falle wesentlich später überschreiten als die der Erdölförderung. Ein vom BGR erstellter Vergleich unterschiedlicher Prognosen zeigt, dass eine Mehrheit der Autoren von einem Überschreiten des Depletion-mid-point bei Erdgas für die Zeit um 2050 ausgeht, mit einem für die Erdgasförderung typischen, weniger steil abfallendem Förderrückgang nach Überschreiten dieses Punktes.51 Derzeit (2000) werden von der weltweiten Erdgasförderung in Höhe von 2400 Milliarden Kubikmeter etwa 400 Milliarden über lange Distanzen (2000 bis 4000 km) exportiert, davon etwa zwei Drittel über Pipelines und ein Drittel als Flüssiggas.52 Aufgrund der weitgehenden Abhängigkeit des Erdgastransports von Pipelines kann Erdgas nicht weltweit vermarktet werden. Derzeit existieren auf der Welt drei große Erdgasmärkte: x x x
50
51 52
der europäische, der nordamerikanische und der ostasiatische. Rempel, H.: Erdgas im 21. Jahrhundert, Vortrag gehalten auf der Frühjahrstagung 2001 des Fachbereiches Aufsuchung und Gewinnung DGMK, am 26. 4. 2001, BGR 2001, unter: www.bgr.de [Stand: 2001]. ebd., S. 8. R. Gohfrani / C. Marx: Natural Gas: Exploitation Technologies, in: Heinloth (Hrsg.): Landolf-Börnstein VIII 3 A: Energy Technology (Fossil), Berlin 2002.
76
Darstellung der verschiedenen Energieoptionen
Der europäische Erdgasmarkt ist der bei weitem bedeutendste. Zur Zeit kann die Europäische Union noch zwei Drittel ihres Bedarfs aus eigenen Reserven decken. Wichtigste Erdgasproduzenten in der EU sind Großbritannien, Norwegen und die Niederlande, allerdings ist die Reichweite der westeuropäischen Reserven sehr begrenzt. In Zukunft wird daher nach übereinstimmenden Prognosen der Anteil Russlands, das über die größten Erdgasreserven der Welt verfügt (Abb. 3.10), am europäischen Erdgasmarkt wachsen. Für den nordamerikanischen Markt sehen die Prognosen weniger günstig aus, da sich die nordamerikanischen Erdgasreserven ihrer Erschöpfung nähern und Erdgas wegen seiner geringeren Energiedichte nicht so wirtschaftlich wie Erdöl über größere Entfernungen transportiert werden kann.53 Nach Erschöpfung der nordamerikanischen Vorkommen könnte für die Versorgung Nordamerikas längerfristig der Erdgastransport in Form von Flüssiggas (LNG), der derzeit nur eine untergeordnete Rolle im Erdgashandel spielt, an Bedeutung gewinnen. Allerdings würden die Erdgaspreise in Nordamerika durch die Transportkosten deutlich höher liegen als in Europa.
Abb. 3.10 Länder mit Erdgasreserven > 1 Bill. m3
53
Rempel 2001, S. 5.
Fossile Energieträger
77
Zum jetzigen Zeitpunkt ist völlig unklar, ob sich der Schiffstransport von Flüssigerdgas nach Nordamerika wirtschaftlich rechnen wird. Im ostasiatischen Raum erschweren riesige Distanzen heute schon den Transport von Erdgas und führen zu hohen Preisen. Die weltweite Verteilung der Erdgasreserven ist nicht ganz so einseitig wie die des Erdöls, allerdings lagern auch hier in der nach Norden erweiterten strategischen Ellipse 65 Prozent der Welterdgasreserven (Abb. 3.10). Über die mit Abstand größten Erdgasreserven der Welt verfügen die Staaten der ehemaligen Sowjetunion und der Nahe Osten. Da die Erdgasförderung im Nahen Osten zur Zeit auf einem sehr niedrigen Niveau verläuft, ist die Reichweite der dortigen Reserven wesentlich höher als die der GUSStaaten (siehe Abb. 3.11; Abb. 3.12). Als Fazit kann festgehalten werden, dass der Depletion-mid-point beim Erdgas um einige Jahrzehnte zeitversetzt zum Erdöl überschritten werden wird, nämlich um 2050. Es ist daher sehr wahrscheinlich, dass Erdgas Erdöl als wichtigster Primärenergieträger im Verlauf des 21. Jahrhunderts ablösen wird. Zugleich ist jedoch auch deutlich geworden, dass das Potenzial der konventionellen Erdgasreserven nicht groß genug ist, um das Erdöl längerfristig ersetzen zu können. Es besteht lediglich die begründete Hoffnung, dass die wachsende Erdgasproduktion den Förderabfall beim Erdöl im 21. Jahrhundert mittelfristig ausgleichen und so schwere Störungen der Weltwirtschaft verhindern kann. Über ein Potenzial, das deutlich über das 21. Jahrhundert hinauswiese, verfügt das Erdgas hingegen nicht. Anders verhält es sich möglicherweise mit den nicht-konventionellen Erdgasvorkommen,
Abb. 3.11 Verteilung der weltweiten Erdgasreserven [nach Exxon / Oeldorado 2001]
78
Darstellung der verschiedenen Energieoptionen
Abb. 3.12 Reichweite der weltweiten Erdgasreserven [nach Exxon / Oeldorado 2001]
die die konventionellen, wie oben gezeigt, um eine ganze Größenordnung übersteigen. Im Gegensatz zu den nicht-konventionellen Erdölreserven ist zum jetzigen Zeitpunkt völlig unklar, ob die nicht-konventionellen Erdgasressourcen jemals zu wirtschaftlichen und ökologisch verträglichen Bedingungen gefördert werden können. Nach Schätzungen der BGR existieren weltweit 3237 Billionen Kubikmeter an nicht-konventionellen Erdgasressourcen, von denen der größte Teil auf Aquifere und Gashydrate entfällt (jeweils rund 1500 Billionen Kubikmeter). Damit übersteigen die nicht-konventionellen Ressourcen die Gesamtressourcen an konventionellem Erdgas um etwa das Zehnfache. Nicht-konventionelles Erdgas besteht aus x x
x x
Flözgas, Aquifergas (Gase aus Kohlenwasserstoffvorkommen, die mit Grundwasserleitern in Verbindung stehen), Erdgas in dichten Speichergesteinen und Gashydraten.
Es gibt seriöse Schätzungen, nach denen allein in unterseeischen Gashydratvorkommen mehr als doppelt soviel Kohlenstoff gespeichert ist, wie in allen bisher bekannten fossilen Reserven zusammengenommen.54 Auch 54
USGS (Hrsg.): Natural Gas Hydrates – Vast Resource, Uncertain future, FS-021-01, USGS 2001.
Fossile Energieträger
79
Abb. 3.13 Mengenanteile von organischem Kohlenstoff einzelner Reservoirs auf der Erde, nach Kvenvolden. Quelle: Geomar
die deutsche Forschungsgruppe Geomar schätzt die in Gashydraten gebundene Kohlenstoffmenge auf 10 000 Gigatonnen Kohlenstoff, womit sie größer wäre als alle sonstigen in lebenden und fossilen Reservoirs gebundenen Kohlenstoffanteile. Trotz dieser riesigen Vorkommen existieren derzeit nur kleine Gewinnungsanlagen in Japan und Sibirien, mit denen diese nichtkonventionellen Vorkommen nutzbar gemacht werden können. Der Grund für die fehlende Nutzung liegt darin, dass diese Vorkommen extrem unzugänglich und technisch aufwendig in der Förderung sind. Im Folgenden soll zunächst das Potenzial der Gashydrate näher diskutiert werden, die erst aufgrund jüngster Forschungen größere Beachtung gefunden haben. Gashydrate sind nicht-stöchiometrische Verbindungen, bei denen Wassermoleküle Gasmoleküle wie in einem Käfig einschließen. Solche Verbindungen entstehen jedoch nur unter hohem Druck und bei sehr niedrigen
80
Darstellung der verschiedenen Energieoptionen
Temperaturen. Gashydrate, 1810 durch den englischen Chemiker Humphrey Davy eher zufällig entdeckt, haben lange Zeit lediglich als chemische Kuriosität gegolten. In den 70 er Jahren des 20. Jahrhunderts postulierten russische Wissenschaftler jedoch größere Vorkommen von Methanhydraten auf dem Meeresboden. In den 80 er Jahren führten russische und amerikanische Forschungsexpeditionen mit Hilfe von Tiefseebohrungen den Nachweis ihrer Existenz. Doch erst dem deutschen Forschungsschiff Sonne gelang es im Sommer 1996 mit Hilfe eines videogesteuerten Greifers vor der Küste von Oregon in 780 Meter Wassertiefe mehrere Zentner dieser seltsamen Substanz an Bord des Schiffes zu hieven.55 Wenn das gefrorene Gashydrat an die Oberfläche kommt erwärmt es sich und setzt Methangas (CH4) frei. Methan ist an der Luft brennbar, weshalb das aus dem Eis austretende Gas unmittelbar entzündet werden kann: Es scheint als brenne das Eis selbst. Der Methangehalt des Eises ist erheblich: Aus einem Kubikzentimeter Methanhydrat werden beim Schmelzen bis zu 164 Kubikzentimeter Methan freigesetzt. Das Methan im Ozean stammt aus dem fermentativen Abbau organischer Komponenten und der bakteriellen CO2-Reduktion. Unter hohen Drücken und niedrigen Temperaturen, wie sie in der Tiefsee herrschen, wird das Methan schließlich in Gashydraten eingeschlossen. Da an Kontinentalrändern durch hohe Planktonaktivität die größten organischen Stoffmengen anfallen, die durch weiteren Stoffwechsel Methan freisetzen, finden sich hier auch die größten Gashydratvorkommen der Welt. Derzeit sind Gashydratvorkommen an 80 Stellen der Welt durch den Einsatz seismischer Reflektoren nachgewiesen. Große Vorkommen sind im Rahmen des „Ocean-Drilling Program“ an den Kontinentalhängen vor Peru, Chile, am Blake-Rücken und vor Nord-Carolina gefunden worden.56 Als ein besonders ertragreiches Gebiet haben Mitarbeiter des deutschen Forschungsprojektes Geomar in der Cascadia-Subduktionszone vor Oregon ausgemacht. Neben Deutschland verfügen zur Zeit auch Japan, die USA und Indien über nationale Programme zur Erforschung der weltweiten Gashydratvorkommen. Die Stabilität der Gashydrate hängt gleichermaßen von den beiden Parametern Druck und Temperatur ab. Gashydrate sind daher einerseits in sehr kalten Meeren in relativ geringen Tiefen von einigen hundert Metern stabil, andererseits auch in warmen Meeren in Tiefen von weit über 1000 Metern. Ähnliche Bedingungen herrschen in Permafrostböden bei mehr als 700 Meter Tiefe: Auch dort werden Gashydrate vermutet. Aus diesem Befund ergibt sich, dass eine mögliche Gewinnung der Gashydrate als Ener-
55 56
G. Bohrmann, J. Greinert, E. Lausch, E. Suess: Brennendes Eis. Methanhydrat am Meeresgrund, in: Spektrum der Wissenschaft, 06/1999, S. 62 ff. Informationen zum Thema Gashydrate, unter: www.gashydrate.de [Stand: März 2002].
Fossile Energieträger
81
gierohstoff offshore am ehesten in sehr kalten Meeren möglich ist oder an Land bei extrem dicken Permafrostböden. Im Gegensatz zu den deutschen Forschern, die sich im Wesentlichen mit Grundlagenforschung begnügten haben, haben die US-Forscher sofort eine mögliche Nutzung dieser Vorkommen ins Auge gefasst. Der U.S.Geological Survey (USGS), der in etwa das amerikanische Pendant zur BGR darstellt, erforscht eine mögliche Gewinnung von Gashydraten an zwei Stellen an der Küste von Alaska. Zur Zeit werden drei Techniken diskutiert 57: x
x
x
Die Hydratvorkommen könnten durch warmes Wasser erhitzt und so das Methan freigesetzt werden. Durch Injektion eines Inhibitors wie Glycol oder Methanol könnte die Hydratstabilität herabgesetzt werden. Eine technische induzierte Herabsetzung des Druckes könnte die Methanfreisetzung einleiten.
Nach Ansicht der USGS wäre erstere Option technisch durchführbar, aber zu kostspielig, die zweite Option hingegen technisch extrem aufwendig und unter ökologischen Gesichtspunkten besonders bedenklich, weshalb drittens ein technisch induzierter Druckabfall als vielversprechendste Variante angesehen wird. Ein schwerwiegendes Problem besteht jedoch darin, dass die meisten Gashydratvorkommen auf nahezu undurchlässigen Sedimenten auflagern, weshalb eine Förderung des frei werdenden Gases über ein Bohrloch wenig aussichtsreich erscheint. Poröse Sedimente finden sich zumindest im Golf von Mexiko und vor der Ostküste Indiens, weshalb hier nach Ansicht der USGS die größten Chancen für eine mögliche zukünftige Förderung bestehen. Das deutsche Forschungsteam des GeomarProjektes warnt jedoch, dass die Installation von Pipelines an Kontinentalhängen die Hänge destabilisieren und Tsunamis (plötzlich auftretende Riesenwellen) auslösen könnte.58 Damit wäre auch schon eine der größten Sorgen angesprochen, die mit den Gashydratvorkommen verbunden werden. Aus geologischen Vermessungen der norwegischen Küste weiß man, dass in der Vergangenheit Gasfreisetzungen aus Gashydratvorkommen zum Abrutschen ganzer Kontinentalhänge geführt haben, die nach aller Wahrscheinlichkeit riesige Tsunamis auslösten.59 Der Abbau von Gashydraten könnte zu einem Abrutschen der Hänge und unkontrollierten Freisetzung von Methan in die Atmosphäre führen. Das freiwerdende Methan, das ein viel stärkeres Treib-
57 58 59
USGS FS-021-01. Bohrmann et al, 1999. nach www.gashydrate.de.
82
Darstellung der verschiedenen Energieoptionen
hausgas ist als Kohlendioxid, würde in einem sich selbst verstärkenden Prozess zu einer weiteren Erwärmung der Atmosphäre beitragen und das Auftauen weiterer Gashydratvorkommen beschleunigen. Ein umweltverträglicher Abbau der Gashydratvorkommen setzt also voraus, dass es dabei nicht zu einer unkontrollierten Freisetzung von Methan in die Atmosphäre kommt. Die Verbrennung des Methans selbst ist allerdings relativ umweltfreundlich, da dabei pro Energieeinheit weniger CO2 frei wird als bei der Verbrennung von Kohle oder Öl. Es kann daher für die Zukunft nicht ausgeschlossen werden, dass bei Vorliegen entsprechender technischer Voraussetzungen Methan aus Gashydraten doch einmal eine wirtschaftliche und ökologisch vertretbare Alternative als Primärenergie darstellen könnte. Angesichts der riesigen Ressourcen, die auf dem Meeresgrund und unter Permafrostböden lagern, sind Gashydrate eine ernstzunehmend Option für die zukünftige Energieversorgung. Während des Verkohlungsprozesses wird ein stark methanhaltiges Gas frei, das sich zwischen den Flözen einlagert, im Folgenden als Flözgas bezeichnet.60 Dieses Gas wurde von Bergleuten vor allem als Grubengas gefürchtet und von Bergbauingenieuren als Herausforderung an die Sicherheitstechnik verstanden. Erst in jüngster Zeit gerät Flözgas als Ressource in den Blick. Die BGR schätzt die weltweiten Ressourcen an Kohle-Flözgas auf 85 Bill. Kubikmeter, nach Schätzungen der USGS könnten es sogar 214 Bill. m3 sein.61 Wegen seiner großen inneren Oberfläche kann Kohle sechs bis sieben mal soviel Gas speichern wie vergleichbare Felsvolumina. Der Anteil des Gases nimmt mit der Reinheit der Kohle und der Fördertiefe zu. Um gezielt Flözgas aus Kohlen gewinnen zu können, muss sein Partialdruck gesenkt werden, was im Allgemeinen durch die Zufuhr von Wasser bewerkstelligt wird, das zu diesem Zweck Salz enthalten muss. Nicht zuletzt Bedenken gegen die mögliche Einleitung von Salzwasser in das Grundwasser haben dazu geführt, dass diese Form der Gasgewinnung nur selten genutzt wird. Daher wird das beim Abbau von Kohle freiwerdende Methan im Allgemeinen abgesaugt und über die Luftabfuhr der Bergwerke an die Atmosphäre abgegeben. Die weltweiten Methanemissionen aus Bergwerken sind erheblich, sie belaufen sich nach Schätzungen auf jährlich rund 26 Milliarden Kubikmeter.62 Nur eine Milliarde Kubikmeter wird derzeit energetisch 60 61 62
Flözgas hat einen Methananteil von 90–95 %, Grubengas aus aktiven Bergwerken einen Anteil von 25–60 % und Grubengas aus stillgelegten Bergwerken 60–80 %. BGR 1999 Zusammenfassung, S. 7; USGS: Coalbeded Methane – An untapped energy ressource and environmental concern, FS-019-097, USGS 1997. Landesinitiative Zukunftsenergien NRW (Hrsg.): Grubengas – ein Energieträger in NRW, Düsseldorf 2002, S. 37.
Fossile Energieträger
83
genutzt. Um die Abgabe dieses hochwirksamen Treibhausgases zu reduzieren, hat die US-amerikanische Regierung ein Programm ins Leben gerufen, das die technischen Voraussetzungen dafür klären soll, wie die Methanvorkommen verstärkt genutzt werden können, ohne dass grundwasserführende Schichten belastet werden. Dazu sollen auch Bergwerken in China, Polen und der Tschechischen Republik technische Unterstützung zukommen.63 In Deutschland wird insbesondere im Ruhrgebiet schon seit längerem aus Steinkohlebergwerken abgesaugtes Grubengas für die Feuerung von Blockheizkraftwerken (BHKW) gewonnen. So existiert in Gelsenkirchen bereits seit 1989 ein Heizkraftwerk mit einer Leistung von 32,2 MW, das zu 80 % mit Grubengas aus den Bergwerken Ewald, Schlägel&Eisen und Hugo gespeist wird.64 Das weltweit erste Blockheizkraftwerk, das Grubengas aus einer stillgelegten Zeche nutzt, wurde 1997 auf dem ehemaligen Zechengelände von Mont Cenis in Herne eingerichtet.65 Durch staatliche Förderung wurden bis Ende 2002 in Nordrhein-Westfalen im Bereich des stillgelegten Bergbaus 44 BHKW mit einer Leistung von 52 MWth in Betrieb genommen. Zwar sind BHKW auf der Basis von Grubengas meistens nur sehr klein und daher selten wirtschaftlich, aber sie leisten einen erheblichen Beitrag zur Reduzierung des Treibhausgases Methan. Allein durch die 44 BHKW im Bereich des stillgelegten Bergbaus wurden 2002 in NRW 1 Millionen Tonnen CO2-Äquivalent vermieden.66 Eine weltweit verstärkte Nutzung der Methanressourcen aus Kohleflözen würde daher nicht nur eine zusätzliche Energieressource erschließen, sondern auch einen erheblichen Beitrag zum Klimaschutz leisten. Erdgas verbrennt bei genügend hohen Temperaturen nahezu vollständig, weshalb verglichen mit der Verbrennung von Kohle verhältnismäßig wenig Schadstoffe und CO2 freigesetzt werden. Moderne Gas- und Dampfkraftwerke erreichen zudem die höchsten Wirkungsgrade aller Wärmekraftwerke (vgl. 3.6.2). Die Schadstoffemissionen moderner Gaskraftwerke liegen von allen fossilen Kraftwerkstypen am niedrigsten und unterschreiten – mit Ausnahme der CO2-Emissionen – sogar die indirekten Emissionen, die bei der Fotovoltaik-Nutzung entstehen (Abb. 3.14).67 Der Beitrag der Erdgasnutzung zum anthropogenen Treibhauseffekt ist jedoch möglicherweise deutlich höher, als die niedrigen CO2-Emissionen aus der Verbrennung dies ver63 64 65 66 67
USGS 1997. Grubengas 2002, S. 25. Ebd., S. 26. ebd., S. 33. Zahlen nach W. Krewitt: Externe Kosten der Stromerzeugung, in: E. Rebhan (Hrsg.): Energiehandbuch, Berlin 2002, S. 999.
84
Darstellung der verschiedenen Energieoptionen
Abb. 3.14 Kohlendioxidemissionen verschiedener Energiesysteme einschließlich vor- und nachgelagerter Prozesse [nach Krewitt 2002]
muten lassen. Typisches Erdgas besteht zu über 90 % aus Methan, das ein 20–30 mal höheres Treibhauspotenzial als CO2 hat.68 Sofern Erdgas durch unsachgemäße Handhabung bei Förderung und Transport freigesetzt wird, entstehen daher erhebliche indirekte Methanemissionen aus vorgelagerten Prozessstufen. Die Umweltverträglichkeit von Erdgas hängt daher hauptsächlich von sachgemäßer Behandlung in den vorgelagerten Prozessstufen ab.
3.1.3 Kohle Kohle hat mit einer Jahresförderung von derzeit (2000) 3,3 Mrd. t einen Anteil von 26 Prozent am weltweiten Primärenergieverbrauch. Am Beginn des Industriezeitalters war Kohle in allen Bereichen der mit Abstand wichtigste Primärenergieträger. Kohle war der Motor des Industriezeitalters, der Dampfeisenbahnen antrieb und Eisen zum Schmelzen brachte. Mit der Erfindung des Otto- und Dieselmotors am Ende des 19. Jahrhunderts und der zunehmenden Elektrifizierung der Industriegesellschaften am Anfang des 20. Jahrhunderts begann der relative Anteil der Kohle am Primärenergieverbrauch zu sinken. 68
Das relative Treibhauspotenzial von Methan wird nach dem jüngsten IPCC-Bericht in einem Zeitraum von 20 Jahren auf 62 und in einem Zeitraum von 100 Jahren auf 23 geschätzt, vgl. IPCC 2001, WG I, S. 47.
Fossile Energieträger
85
Abb. 3.15 Gesamtressourcen an fossilen Energierohstoffen [BGR 1999]
Mitte der sechziger Jahre ist Kohle als wichtigster Primärenergieträger durch das Erdöl abgelöst worden. In einigen Ländern, wie China und Indien, ist Steinkohle jedoch bis heute der wichtigste Primärenergieträger geblieben. Der absolute Verbrauch an Steinkohle ist zudem bis in die Gegenwart kontinuierlich angestiegen. Während Kohle in den Bereichen Verkehr und Heizwärme nur noch eine untergeordnete Rolle spielt, ist sie weltweit bis heute noch vor Kern- und Wasserkraft der wichtigste Primärenergieträger der Elektrizitätswirtschaft und wird dies nach Prognosen der IEA mittelfristig auch noch bleiben.69 Weltweit beträgt der Anteil der Kohle an der Stromerzeugung etwa 38 Prozent, gefolgt von der Wasserkraft (19 %) und der Kernenergie (17 %). Der Anteil der Kohle am Primärenergieverbrauch der Welt wird nach Prognosen der EIA, dem jahrzehntelangen Trend folgend, weiter sinken.70 Mit weltweit gesicherten Reserven in Höhe von 558 Mrd. t SKE (16 349 EJ) hat Kohle von allen fossilen Energieträgern die mit Abstand größte Reichweite (rund 200 Jahre) (Abb. 3.15).71 Die derzeit nicht wirtschaftlich abbau69 70 71
IEA (Hrsg.): Weltenergieausblick 2000. Zusammenfassung, S. 91 ff. International Energy Outlook 2001, S. 67. Die Unterscheidung in Hartkohle und Weichbraunkohle ist vor allem im Hinblick auf den Handel wichtig, weil Hartkohlen mit einem Energieinhalt über 16 500 KJ/kg weniger transportkosten-empfindlich sind und daher weltweit gehandelt werden können.
86
Darstellung der verschiedenen Energieoptionen
Abb. 3.16 Abhängigkeit Deutschlands vom Import fossiler Energierohstoffe in 2001 angegeben in Energieeinheiten [nach Schiffer 2002]
baren aber sicher nachgewiesenen Reserven – im Folgenden als Ressourcen bezeichnet – sind noch einmal um eine ganze Größenordnung höher. Einen Eindruck von der Größenordnung der Gesamtressourcen an Kohle verglichen mit den Erdöl und Erdgasressourcen vermittelt das Diagramm (Abb. 3.15). Lediglich die Ressourcen an nicht-konventionellen Kohlenwasserstoffen, worunter vor allem die oben diskutierten Vorkommen an nicht-konventionellem Erdgas in Form von Gashydraten fallen, sind in ihrer Größenordnung mit den Ressourcen an Kohle vergleichbar. In wirtschaftlicher Hinsicht sind die Kohleressourcen jedoch wesentlich interessanter, da sie mit heute verfügbaren technischen Mitteln abgebaut und ohne weiteres in das System der bestehenden Energiewirtschaft integriert werden könnten, was insbesondere für Gashydratvorkommen nicht zutrifft. Hinsichtlich ihres potenziellen wirtschaftlichen Nutzens können diese Ressourcen daher nur sehr bedingt mit der Bedeutung der Kohleressourcen verglichen werden. Nur wenigen Menschen ist bewusst, dass Kohle aufgrund der wesentlich größeren Reichweite der Ressourcen längerfristig gute Chancen hat, Erdöl und Erdgas wieder als wichtigster Primärenergieträger abzulösen. Im Gegensatz zu den konventionellen Kohlenwasserstoffen sind die Kohlevorkommen der Welt relativ gleichmäßig über den Globus verteilt. Allerdings sollte die über viele Kontinente verstreute Verteilung der Res-
Fossile Energieträger
87
sourcen nicht darüber hinwegtäuschen, dass in nur 14 Ländern der Welt 90 Prozent der Reserven konzentriert sind.72 Die drei größten Förderländer der Welt sind heute (1997) China (953 Millionen t SKE), die USA (825 Millionen t SKE) und Indien (213 Millionen t SKE).73 Im eklatanten Unterschied zu den internationalen Erdöl- und Erdgasmärkten, wo die größten Förderländer auch die größten Exporteure sind, verbrauchen diese Länder ihre Förderung fast vollständig selbst. Größte Exporteure sind Australien mit einer Förderung von 209 Millionen Tonnen, von denen 68 Prozent in den Export gehen und Südafrika mit einer Förderung von 172 Millionen Tonnen, von denen 37 Prozent in den Export gehen (1997). Noch vor knapp 30 Jahren gab es überhaupt keinen „eigentlichen“ Weltmarkt an Kohle. Von einer Jahresförderung von 2,2 Milliarden Tonnen Kohle gingen damals nur 5 Prozent in den Export.74 Diese Situation hat sich mittlerweile grundlegend geändert, da Westeuropa, das lange Zeit zu den größten Steinkohleproduzenten der Welt gehörte, mittlerweile die Hälfte seines Kohlebedarfs durch Import decken muss.75 Aufgrund der skizzierten Situation gibt es nach wie vor weltweit nur zwei große Steinkohlemärkte, nämlich den süd- und ostasiatischen, in dem 50 % des Weltkohlehandels abgewickelt werden, und den europäischen, auf den 33 % entfallen.76 Die europäische Steinkohleförderung ist international wegen technisch aufwändiger geologischer Abbaubedingungen und hoher Sozialstandards für das Arbeitspersonal schon lange nicht mehr wettbewerbsfähig. Die Kosten für eine Tonne Steinkohle liegen in der Europäischen Union derzeit bei etwa 150 US-$ pro Tonne, während die Weltmarktpreise bei etwa 40 $/t liegen.77 Allein in Deutschland wurden seit 1980 100 Milliarden 3 an Subventionen zur Erhaltung des Steinkohlebergbaus aufgewendet.78 Auch diese massiven Subventionen konnten nicht verhindern, dass in der Bundesrepublik Deutschland 2001 erstmals mehr Steinkohle importiert als gefördert wurde. Angesichts der erheblichen Kosten ist in vielen EU-Ländern in den letzten Jahren zunehmend Kritik an der staatlichen Subventionierung 72 73 74 75 76 77 78
BGR 1999 (Zusammenfassung), S. 21. Zahlen ebd. RWE (Hrsg.): Unternehmenslandschaft im Wandel. Chancen und Risiken der künftigen Weltenergieversorgung 2000, Essen 2000, S. 52. Europäische Kommission (Hrsg.): Gemeinschaftliche Einfuhren von Steinkohle aus Drittländern zur Verwendung in Kraftwerken im Jahre 1999, Brüssel 2000. BGR 1999 Zusammenfassung, S. 21. European Communities (Hrsg.): Green Paper. Towards a European Strategy for the security of energy supply, Luxemburg 2001, S. 20; im Folgenden als „Green Paper“ zitiert. Zahlen nach BMU (Hrsg.): Hintergrundpapier: Abbau der Steinkohlesubventionen – Ergebnisse von Modellrechnungen, Berlin 2003.
88
Darstellung der verschiedenen Energieoptionen
Abb. 3.17 Kohleverbrauchsprognose für die Entwicklungsländer Süd- und Ostasiens [EIA-Referenzprognose 2001]
der Steinkohleförderung laut geworden. Portugal, Belgien und Frankreich haben mittlerweile die Einstellung ihrer Steinkohleförderung beschlossen, während Deutschland und Spanien ihre Förderung durch weitreichende Umstrukturierungen zumindest mittelfristig erhalten wollen und Großbritannien die internationale Wettbewerbsfähigkeit seiner Kohle auch um den Preis eines schmerzhaften Zechensterbens anstrebt.79 Andererseits reicht das Volumen des heutigen Steinkohlewelthandels nicht aus, um den Gesamtbedarf Westeuropas zu decken. Zudem ist in der Zukunft mit einer weiter wachsenden Nachfrage aus Südostasien zu rechnen. Die EIA prognostiziert, dass der Kohleverbrauch Chinas und Indiens sich in den nächsten zwanzig Jahren voraussichtlich verdoppeln wird (Abb. 3.17).80 Allein auf China werden dann 40 Prozent des weltweiten Kohleverbrauchs entfallen. Vor diesem Hintergrund hat die Europäische Kommission in ihrem Grünbuch „Towards a European strategy for the security of energy supply“ ihrer Besorgnis über die wachsende Abhängigkeit Europas vom Import von Energierohstoffen Ausdruck gegeben, die nun auch im Bereich der Steinkohle immer größer wird.81 In der Europäischen Union wird daher die 79 80 81
Green Paper 2001. International Energy Outlook 2001, S. 70. Green Paper, 2001, S. 23 ff.
Fossile Energieträger
89
Abb. 3.18 Länder mit weltweit größten Kohlereserven [BGR 1999]
Erhaltung eines kleinen Primärenergiesockels auf der Basis von Steinkohle in Höhe von etwa 15 Prozent angestrebt.82 Diese Zielsetzung ist ökonomisch durchaus umstritten, weil im Gegensatz zum Erdöl die Steinkohleimporte der EU aus politisch stabilen Förderländern wie den USA, Südafrika und Australien stammen, zwischen denen im Gegensatz zur OPEC auch kein Kartell besteht. Über die mit Abstand größten Kohlereserven der Welt verfügen die USA, gefolgt von China, Australien und Indien (Abb. 3.18). Die Kohlereserven der USA sind größer als die der drei nächstgrößten Kohlenationen, nämlich Chinas, Australiens und Indiens zusammengenommen.83 Damit verfügen die USA im Bereich der Steinkohle über eine Stellung, die sich fast mit der des Nahen Ostens im Bereich des Erdöls vergleichen lässt. Trotzdem mussten in den USA unter dem Wettbewerbdruck der Deregulierung des Strommarktes in den letzten zehn Jahren die Hälfte der Kohleminen schließen.84 In den USA selbst wird mehr als die Hälfte des Stroms aus Kohle erzeugt.85 Seit in den USA im Anschluss an das Clean Air Act Amendment (CAAA) ein Emissionshandel für Schwefeldioxid ein82 83
84 85
L. Schmitz: Beitrag der Steinkohle zur nachhaltigen Energieversorgung, Essen 2001 unter: www.rag.de [Stand: Oktober 2001]. Diese Zahlenangaben nach BGR 1999, Zusammenfassung, S. 21. Nach den Angaben der amerikanischen Energy Information Administration (EIA) ist die Verteilung der weltweiten Kohlereserven weniger einseitig, demnach verfügen die USA und Länder der ehemaligen Sowjetunion über ungefähr gleich große Reserven, vgl. International Energy Outlook 2001, S. 70. USGS (Hrsg.): Forces Shaping Future U.S. Coal production and use, FS-158-00, USGS 2000. USGS (Hrsg.): The U.S. Geological Survey National Coal Resource Assessment, FS-020-01, USGS 2001.
90
Darstellung der verschiedenen Energieoptionen
gerichtet worden ist – im Übrigen der erste Emissionsmarkt der Welt – spielt neben dem Energiegehalt der Kohle zunehmend auch ihr Schwefelanteil eine Rolle bei der Einschätzung ihres Marktwertes.
3.1.4 Umweltprobleme der Verbrennung fossiler Brennstoffe Die Freisetzung von Verbrennungsprodukten aus der Verbrennung fossiler Brennstoffe geht mit einer Reihe wichtiger Umweltbeeinträchtigungen einher. Deren wichtigste sind Gesundheitsschäden durch Luftschadstoffe, Immissionsschäden an Pflanzen und der anthropogene Treibhauseffekt. Gesundheitsschäden durch Schadstoffemissionen Bei der Verbrennung fossiler oder organischer Brennstoffe entstehen Schadstoffe, die zumindest potenziell gesundheitsschädlich sein können, darunter insbesondere Schwefeldioxid (SO2), Stickoxide (NOx), Ozon (O3) sowie Stäube unterschiedlichster Partikelgröße. Die gesundheitlichen Gefahren, die von diesen Schadstoffen ausgehen, blieben lange Zeit unbeachtet oder wurden unterschätzt. Eine Veränderung der Wahrnehmung brachte vor allem der „große London-Smog“. Im Dezember 1952 versank London für mehrere Tage unter einer dichten Dunstglocke aus Rauch und Staub. Die hohe Luftverschmutzung führte besonders für atemwegsgeschädigte und ältere Menschen zu Schädigungen. Zehntausende von Menschen mussten wegen Atemwegsbeschwerden in Krankenhäuser aufgenommen werden, die schon bald überfüllt waren. Im Verlauf der mehrtätigen Smogperiode starben etwa 4000 Menschen, nach neueren Schätzungen könnten es sogar 12 000 gewesen sein.86 Im Anschluss an den großen London-Smog wurden die ersten epidemiologischen Untersuchungen über Gesundheitsgefährdungen durch Luftschadstoffe durchgeführt, aufgrund derer eine Reihe von westlichen Industrieländern erstmals gesetzliche Grenzwerte für bestimmte Schadstoffe erließ. Überblick über die Ergebnisse epidemiologischer Studien Setzten die ersten epidemiologischen Untersuchungen noch bei Einzelereignissen, wie kurzfristigen Smog-Perioden an, so verlagerte sich das Gewicht in den folgenden Jahrzehnten zunehmend auf Langzeituntersuchun-
86
Historic smog death toll rises, BBC-News, 5. 12. 2002.
Fossile Energieträger
91
gen.87 US-amerikanische Kohortenstudien, deren Untersuchungszeitraum sich von den späten 70er bis in die 80er Jahre hinein erstreckte, ergaben, dass die Belastung durch Stäube, die als Folge unvollständiger Verbrennungsprozesse entstehen – als Indikator dienten inhalierbare Schwebstäube mit einem Partikeldurchmesser unter 10 µm (nach ihrer englischen Bezeichnung PM10 abgekürzt [PM] = particulate matter) – zu einem Anstieg von Atemwegserkrankungen führt, der sich in einem signifikaten Rückgang der durchschnittlichen Lebenserwartung äußert. Eine der umfangreichsten zu Problemen der Luftverschmutzung durchgeführten Studien ist die europäische APHEA (Air pollution and health: a European approach) – Studie. Die erweiterte APHEA-2 Studie erfasste Mitte der neunziger Jahre über einen Zeitraum von 5 Jahren 43 Millionen Menschen in 29 europäischen Städten. Im Rahmen der Studie wurde ein Anstieg der allgemeinen Sterberate in der Bevölkerung von 0,6 % für eine Zunahme der PM10 – Konzentration von jeweils 10 µg/m3 ermittelt.88 Sie bestätigte damit die Ergebnisse einer älteren und ähnlich umfangreichen Studie aus den USA (NMMAPS 1987–1994). Diese hatte für dieselben Konzentrationsstufen von PM10 einen Anstieg der allgemeinen Sterberate von 0,5 % ermittelt. Insgesamt wiesen die genannten Studien die Toxizität von PM10 und Ozon (O3) nach. Für andere Stoffe wie Stickstoffdioxid (NO2) wurde ein solcher Nachweis jedoch nicht erbracht. Über die gesundheitlichen Auswirkungen von Stickstoffdioxid ist bis heute wenig bekannt. Versuche an Tiermodellen deuten jedoch darauf hin, dass hohe NO2-Konzentrationen zu einer Schädigung der peripheren Atemwege führen können.89 Die gesetzlichen Grenzwerte der zulässigen Jahresbelastung mit Luftschadstoffen liegen in der EU derzeit bei 40 µg/m3 für Stickstoffdioxid (USA: 100) und 40 µg/m3 für PM10 (USA: 50).90 Krebsrisiko durch Feinstäube (PM2,5) Zu den strittigen Fragen der Gesundheitsbelastung durch Abgase gehört, ob einige Typen von Stäuben gefährlicher als andere sind. Jüngste Studien, die u. a. von der US-Umweltbehörde (Environmental Protection Agency, EPA) durchgeführt wurden, deuten darauf hin, dass von Feinstäuben (PM < 2,5 µm) und ultrafeinen Partikeln (PM < 0,1 µm), 87 88 89 90
Übersicht hier und im folgenden nach: B. Brunekreef, St. T. Holgate: Air pollution and health (Review), in: The Lancet, Vol. 360, 10/2002, S. 1231–1242. ebd., 1235. ebd., 1236. ebd., 1237.
92
Darstellung der verschiedenen Energieoptionen
wie sie durch unvollständige Verbrennung in Ofenheizungen, insbesondere aber als Verbrennungsprodukte von Dieselmotoren im Straßenverkehr auftreten, die größten Gefahren ausgehen, da diese wegen ihres geringen Durchmessers leicht von der Lunge in das Blut diffundieren.91 Eine jüngst von der American Cancer Society vorgelegte Langzeitstudie über die Wirkung von Feinstäuben hat den Verdacht, dass von Feinstäuben ein signifikantes Krebsrisiko ausgeht, erhärtet. Die Studie der Forschergruppe um Pope (2002) verglich in einem Zeitraum von 1982 bis 1998 die individuellen Risikodaten und Todesursachen von 500000 Personen mit Daten über die Luftverschmutzung an ihren jeweiligen Wohnorten in verschiedenen Ballungszentren der USA.92 Durch die sehr genaue Erhebung individueller Risikofaktoren, wie Übergewicht oder Rauchen, konnten diese Krebsursachen im Rahmen der Studie gut quantifiziert und mit dem Anteil des Krebsrisikos durch Luftschadstoffe verglichen werden. Es gelang den Forschern zu zeigen, dass ein Anstieg der Feinstaubkonzentration (PM2,5) um jeweils 10 µg/m3 mit einem Anstieg der allgemeinen Sterberate von 4 % korreliert ist. Bei der Ursachen-Spezifischen Sterberate für Herz- Kreislauferkrankungen und Lungenkrebs fanden die Forscher eine Zunahme um 6 bzw. 8 %. Diese Ergebnisse deuten darauf hin, dass das zusätzliche Krebsrisiko, das von Feinstäuben ausgeht, größer ist als das der Schwebstäube vom Typ PM10. Allerdings war die Konzentration von Feinstäuben im Untersuchungszeitraum in den USA stark rückläufig. Nach Einschätzung der Forschergruppe entspricht das zusätzliche Krebsrisiko durch Feinstäube heute in stärker belasteten Gebieten der USA in etwa dem Risiko, das von Passivrauchen oder leichtem Übergewicht ausgeht, es liegt jedoch eine ganze Größenordnung niedriger als das von Gewohnheitsrauchern. Belastung von Menschen mit Atemwegserkrankungen Wie schon der große London-Smog gezeigt hatte, bei dem besonders viele Menschen mit Atemwegserkrankungen gestorben sind, werden Menschen mit solchen Erkrankungen durch hohe Schadstoffkonzentrationen natur-
91
92
Vgl. US Environmental Protection Agency (EPA): Health and environmental effects of particulate matter, Fact Sheet, 17. 7. 97, unter: www.epa.gov [Stand Dezember 2002], vgl. dazu auch H. Schuh: Tod vom Allerfeinsten, in: Die ZEIT 35/2001. C.A. Pope, R. T. Burnett, M. J. Thun, E. E. Calle, D. Krewski, K. Ito, G. D. Thurston: Lung Cancer, Cardiopulmonary Mortality, and long-term exposure to fine particulate air pollution, in: Journal of the American Medical Association (JAMA), Vol. 287, No. 9, 03/2002, S. 1132–1141.
Fossile Energieträger
93
gemäß stärker belastet als gesunde. Untersuchungen über die spezifischen Belastungen dieser Gruppe führten zu widersprüchlichen Ergebnissen. Während in der europäischen PEACE (Pollution effects on asthmatic children in Europe) – Studie kein Zusammenhang zwischen der Rußkonzentration und akuten Beschwerden bei an Atemwegserkrankungen leidenden Kindern gefunden wurde 93, deuten die Ergebnisse einer jüngeren niederländischen Studie in eine entgegengesetzte Richtung.94 Die Gruppe um Boezen (1999) konnte im Rahmen einer dreijährigen Langzeituntersuchung an 632 an Atemwegserkrankungen leidenden niederländischen Kindern in ländlichen und städtischen Regionen zeigen, dass ein Anstieg der Schadstoffkonzentration in der Luft bei diesen Kindern auch mit einem signifikanten Anstieg von akuten Atemwegssymptomen korreliert ist. Existieren für Gesundheitsbelastungen aus Luftschadstoffen Schwellenwerte? Trotz umfangreicher Langzeitstudien sind eine Reihe wichtiger Fragen im Zusammenhang mit Schadstoffbelastungen bis heute ungeklärt geblieben, insbesondere die Frage, ob für einige Schadstoffe Schwellenwerte existieren. So wird z.B. für Schädigungen des Herz-Kreislaufsystems ein PM10-Schwellenwert von 50 µg/m3 diskutiert. Für Ozon könnte ein solcher Schwellenwert unterhalb von 100 µg/m3 existieren.95 Schwierigkeiten bereitet nach wie vor auch die Einschätzung kombinierter Expositionen auf die menschliche Gesundheit, d. h. die gleichzeitige Wirkung verschiedener Luftschadstoffe. Kombinierte Expositionen können sich in ihrer Wirkung auf die Gesundheit sowohl addieren als auch gegenseitig verstärken oder abschwächen.96
93 94
95 96
Brunekreef et al., S 1235. H. M. Boezen, S. C. van der Zee, D. S. Postma, J. M. Vonk, J. Gerritsen, G. Hoek, B. Brunekreef, B. Rijcken, J. P. Schouten: Effects of ambient air pollution on upper an lower respiratory symptoms and peak expiratory flow in children, in: The Lancet, Vol. 353, 13. 3. 1999, S. 874–878. Brunekreef et al., S. 1237. Zur allgemeinen Problematik kombinierter Expositionen vgl. Streffer et. al: Umweltstandards. Kombinierte Expositionen und ihre Auswirkungen auf den Menschen und seine Umwelt [= Bd. 5 Wissenschaftsethik und Technikfolgenbeurteilung], Heidelberg 2000.
94
Darstellung der verschiedenen Energieoptionen
Positive Gesundheitseffekte durch staatliche Eingriffe: Interventionsstudien Trotz vieler Unklarheiten im Detail bieten die genannten Studien eine ausreichende Evidenz für einen negativen Einfluss der Konzentration von Luftschadstoffen auf die Zahl der Atemwegs- und Herzerkrankungen. Dass Maßnahmen zur Luftreinhaltung positive Gesundheitseffekte haben, bestätigen zwei jüngere Interventionsstudien aus Irland und Hong-Kong, in denen in Langzeituntersuchungen die gesundheitlichen Auswirkungen von gesetzlichen Maßnahmen zur Luftreinhaltung beobachtet wurden: x
x
Irischen Forschern gelang es zu zeigen 97, dass in Dublin die Zahl der jährlichen Todesfälle durch Atemwegs- und Herzerkrankungen bis 1996 um 15,5 bzw. 10,3 Prozent zurückging, nachdem 1990 die Verbrennung von Kohle in häuslichen Herden und Öfen gesetzlich untersagt worden war. Die Rußkonzentration der Luft in Dublin ist im selben Zeitraum um siebzig und die Schwefeldioxidkonzentration um dreißig Prozent zurückgegangen. Zu einem ähnlichen Ergebnis kommt eine Interventionstudie aus Hong Kong, wo 1990 ein Grenzwert für den zulässigen maximalen Gewichtsanteil von Schwefel in Erdöl in Höhe von 0,5 % festgesetzt wurde.98 Durch die gesetzliche Festlegung ging die durchschnittliche SO2-Konzentration der Luft in den nächsten Jahren um 80 % zurück. Parallel dazu sank in Hong Kong die Sterblichkeitsrate bei Lungen- und Atemwegserkrankungen um 3,9 % und die bei Herz- und Gefäßerkrankungen um 2 %. Besonders signifikant war jedoch der Rückgang der saisonal bedingten traditionell höheren Sterberate im Herbst, die bei Atemwegserkrankungen von 20,3 auf 5,3 Prozent zurückging.
Schätzungen der heutigen Gesundheitsbelastungen durch Luftschadstoffe in Industrieländern In allen westlichen Industrieländern hat die gesundheitliche Belastung durch Schadstoffemissionen durch die Festlegung von Grenzwerten und technischen Umweltstandards stark abgenommen. In der Bundesrepublik 97
98
L. Clancy, P. Goodmann, H. Sinclair, D. Dockery: Effect on air-pollution control on death rates in Dublin, Ireland: an intervention study, in: Lancet Vol. 360, 19. 10. 2002, S. 1210–14. A. Hedley / C. Wong / T. Thach / S. Ma / T. Lam / H. Anderson: Cadiorespiratory and all-cause mortality after restrictions on sulphur content of fuel in Hong Kong: an intervention study, in: The Lancet, Vol. 360, 23. 11. 2002, S. 1646–1652.
Fossile Energieträger
95
Deutschland ging die Gesamtemission an Stäuben zwischen 1970 und 1996 um 84,2 % zurück, die Emission von Schwefeldioxid um 76 % und die von Stickoxiden um 31,1 %.99 Trotz dieser Erfolge sind die verbleibenden Belastungen nach Einschätzung vieler Umweltmediziner nach wie vor erheblich. So ermittelte eine jüngere Studie der Forschergruppe um Künzli im Auftrag der WHO auf der Basis von aktuellen Messwerten und gestützt auf die in früheren Studien ermittelten Dosis-Wirkungsbeziehungen von Schweb- und Feinstäuben die Zahl der vorzeitigen Todesfälle durch Luftverschmutzung in Frankreich, Österreich und der Schweiz auf jährlich mindestens 40 000.100 Dabei stammt nach Angaben der Forscher mehr als die Hälfte der Luftschadstoffe aus dem Straßenverkehr. Die aus der Luftbelastung resultierenden Kosten für das Gesundheitssystem belaufen sich nach Schätzungen der Gruppe auf immerhin 1,6 % des BIP der drei Länder. Sie lägen damit höher als die Gesundheitskosten durch Verkehrsunfälle. Einschränkend zu Schätzungen wie denen von Künzli ist anzumerken, dass sie auf Vorannahmen beruhen, die nicht von allen Epidemiologen geteilt werden.101 Zu diesen Vorannahmen gehört, dass x
x
die gemessenen Noxen tatsächlich ursächlich für die beobachteten Gesundheitsschäden sind und eine lineare Dosis-Wirkungs-Beziehung ohne Schwellenwert vorliegt.
Sollten Schwellenwerte existieren, würden sie zu einer systematischen Überschätzung der gesundheitlichen Beeinträchtigung durch Schadstoffemissionen führen. Luftverschmutzung in Entwicklungsländern Bei der Beurteilung gesundheitlicher Beeinträchtigungen durch Schadstoffemissionen ist im globalen Kontext zu bedenken, dass sich die Erfolge zur Luftreinhaltung weitestgehend auf westliche Industrieländer beschrän99 100
101
Zahlen nach: M. Jänicke, Ph. Kunig, M. Stitzel: Umweltpolitik, Bonn 2000, S. 43. N. Künzli, R. Kaiser, S. Medina, M. Studnicka, O. Chanel, P. Fillinger, M. Herry, F. Horak, P. Quenel, J. Schneider, R. Seethaler. J.-C. Vergnaud, H. Somme: Public health impact of outdoor and traffic related air pollution: a European assessment, in: The Lancet, Vol. 356, 2. 9. 2000. vgl. zu diesem Problemkreis Brunekreef 2002, S. 1239.
96
Darstellung der verschiedenen Energieoptionen
ken. In vielen Ländern des ehemaligen Ostblocks und der Dritten Welt ist die Schadstoffbelastung nach wie vor extrem hoch. Schätzungen zu Folge sterben weltweit jährlich 2,7–3 Millionen Menschen an den Folgen von Luftverschmutzung, davon 90 % in Entwicklungsländern.102 Etwa 1,1 Milliarden Menschen erleiden jährlich gesundheitliche Beeinträchtigungen durch Luftverschmutzung im außerhäuslichen Bereich und 2,5 Milliarden durch innerhäusliche Luftverschmutzung. Alleine in Indien sterben nach vorsichtigen Schätzungen jährlich 400 000– 780 000 Menschen an den Folgen innerhäuslicher Luftverschmutzung.103 In Südasien ist auch die außerhäusliche Luftverschmutzung in den letzten Jahrzehnten dramatisch angestiegen. Kalkutta, Dehli, Mumbai, Karachi und Dhaka gehören zu den Städten mit den weltweit höchsten Luftschadstoffbelastungen. In Dehli etwa stiegen die SO2-Konzentrationen der Luft zwischen 1989 und 1996 um 109 % und die Stickoxidemissionen um 82 %.104 Auch die Schweb- und Feinstaubkonzentrationen indischer Städte sind sehr hoch. So liegen die durchschnittlichen jährlichen PM10-Konzentration in Kalkutta bei 360 µg/m3 und in Neu-Dehli bei 270 µg/m3.105 In allen 23 Millionenstädten Indiens überschreitet die Luftverschmutzung die von der WHO empfohlenen Grenzwerte.106 Auch in China sind 98 % der städtischen Bevölkerung Luftschadstoffkonzentrationen ausgesetzt, die oberhalb der WHO-Empfehlungen liegen.107 Durch die steigende Verbrennung traditioneller Biomasse und fossiler Brennstoffe hat sich zudem seit einigen Jahren über den Schwellenländern Süd- und Südostasiens ein Dunstschleier mit einer Ausdehnung von 10 Millionen km2 gebildet, der erstmals im Rahmen des Indian Ocean Experiment (INDOEX) genauer untersucht wurde.108 Die hohe Konzentration von Aerosolen, aus denen der Dunstschleier besteht, beeinträchtigt die Gesundheit der dort lebenden Bevölkerung 109 und führt durch eine Verringerung der direkten Sonneneinstrahlung zu – bislang allerdings noch geringen – Ernteausfällen bei Reis und Zuckerrohr.110 Aufgrund der skizzierten schweren gesundheitlichen Beeinträchtigungen durch Luftverschmutzung, geht die WHO davon aus, dass eine aktive 102 103 104 105 106 107 108 109 110
Zahlen hier und im folgenden nach UNEP (Hrsg): The asian brown cloud: Climate and other environmental impacts, UNEP 2002, S. 43. Ebd., S. 44, Tabelle 9.3. ebd., S. 12. Ebd., S. 46. Ebd., S. 44. Ebd. Ebd. S. 14 ff. K. Ahmad: Pollution cloud over south Asia is increasing ill health, in: The Lancet, Vol. 360, 17. 8. 2002, S. 594. Zum Problemkomplex der landwirtschaftlichen Auswirkungen vgl. UNEP 2002, S. 38 ff.
Fossile Energieträger
97
Klimapolitik, neben der Klimaprävention, auch einen unmittelbaren Nutzen für die Gesundheit der jeweils regional ansässigen Bevölkerungen hätte.111 Nach Schätzungen einer internationalen Arbeitsgruppe von Forschern des World Resources Institute (WRI), der WHO und der US-Umweltbehörde EPA über den Zusammenhang zwischen „Öffentlicher Gesundheit und der Verbrennung fossiler Brennstoffe“ könnten durch eine aktive CO2-Emissionsreduktionspolitik gegenüber einem Business as usual (BAU)-Szenario weltweit jährlich bis zu 700 000 vorzeitige Todesfälle vermieden werden.112 Immissionsschäden an Pflanzen Pflanzen sind der schädlichen Wirkung von Schadstoffemissionen in Form von Schwefeldioxid (SO2), Ozon (O3), Stickoxiden (NOx) und Stäuben besonders stark ausgesetzt, da sie standortgebunden sind und über eine sehr große Atmungsoberfläche im Austausch mit der Umgebungsluft stehen. Im Gegensatz zu gesundheitlichen Beeinträchtigungen wurden Pflanzenschäden durch Schadstoffimmissionen schon im 19. Jahrhundert erkannt. Insbesondere die Wirkungen von Schwefeldioxid wurden schon damals als „Rauchschäden“ beschrieben und erforscht. Die Schäden blieben wegen ihrer geringen Reichweite in dieser Zeit jedoch meistens noch lokal begrenzt. Zu großflächigen Schädigungen der Vegetation kam es in Mitteleuropa vor allem seit Mitte der 50er Jahre des 20. Jahrhunderts durch den verstärkten Einsatz von Kohlekraftwerken mit Großschornsteinen, durch die Schadstoffemissionen auch in weit entfernt liegende Gebiete getragen wurden. Die größten beobachteten Schäden traten dabei im Erzgebirge auf, wo Mitte der 80er Jahre 60000 ha Wald zerstört und weitere 200000 ha schwer geschädigt waren.113 Ursache waren hier vor allem Schwefeldioxidemissionen aus Braunkohlekraftwerken auf dem Gebiet der früheren Tschechoslowakei. Aber auch in Westeuropa wuchs die Sensibilität für das Problem großflächiger Vegetationsschäden durch Schadstoffemissionen. In Deutschland wurde die Debatte um diese Vegetationsschäden vor allem durch den Begriff „Waldsterben“ bekannt. Auch wenn unter dem Schlagwort „Wald111 112
113
WHO: Combating climate change has immediate health benefits, Press release Euro 16/00, Kopenhagen, 2000. A. MacGartland et al.: Short-term improvements in public health from globalclimate policies on fossil-fuel combustion: an interim report, in: The Lancet, Vol. 350, 8. 11. 1997, S. 1341–1349. Zahlen nach Streffer et al., 2000, S. 274.
98
Darstellung der verschiedenen Energieoptionen
sterben“ ein sehr komplexes Bündel von Ursachen vereinfacht zusammengefasst wurde, so führte die Debatte um den Zustand der Wälder doch immerhin zu einer verstärkten Sensibilisierung der Öffentlichkeit für die mit Schadstoffemissionen verbundenen Umweltschäden. Aufgrund der z.T. erheblichen Schäden für die Forst- und Landwirtschaft, aber auch aufgrund der oben skizzierten gesundheitsschädlichen Auswirkungen wurde die Emission von Schadstoffen aus der Verbrennung fossiler Brennstoffe durch eine Reihe von gesetzlichen Maßnahmen seit Mitte der 80er Jahre dramatisch zurückgedrängt. Zu den wichtigsten Maßnahmen zählte der Einbau von Entschwefelungsanlagen in Kohlekraftwerken. Wirkung der einzelnen Schadstoffimmissionen Bei der Beurteilung von Immissionsschäden hat es sich als nützlich erwiesen, zwischen der kritischen Konzentration von Schadstoffen in der Luft (Critical Levels) und kritischen Deposition von Schadstoffen aus der Luft am Boden (Critical loads) zu unterscheiden.114 Pflanzenschäden sind durch die experimentelle Exposition mit Luftschadstoffen sowohl für einzelne Schadstoffe als auch für Mischimmissionen gut erforscht. Dabei hat sich herausgestellt, dass Pflanzen erst oberhalb einer Schwelle negative Reaktionen auf Schadstoffimmissionen zeigen, wobei die Wirkung mit der Konzentration exponentiell zunimmt.115 Stickstoffhaltige Luftverunreinigungen Pflanzen sind einer Reihe stickstoffhaltiger Luftverunreinigungen ausgesetzt, die hauptsächlich aus der Verbrennung fossiler Brennstoffe, zum Teil auch aus der Landwirtschaft stammen. Deren Wichtigste sind Stickoxide, wie Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2), sowie sonstige stickstoffhaltige Verbindungen, wie Ammoniak (NH3) und Ammonium (NH4+). Stickoxide, deren Hauptquelle heute der Straßenverkehr ist, bewirken eine Versauerung des Bodens, haben andererseits aber oft auch eine wachstumsstimulierende Wirkung als Dünger (Eutrophierung).116 Wie Untersuchungen an mitteleuropäischen Wäldern und Bäumen in Ballungszentren gezeigt haben, wirken die hohen N-Depositionen aus dem Stra114 115 116
ebd., 262. ebd., 261. ebd., 264; vgl. dazu auch H. Mohr: Waldschäden in Mitteleuropa – Wo liegen die Ursachen?, in: G. Wilke (Hrsg.): Horizonte, Stuttgart 1993, S. 44.
Fossile Energieträger
99
ßenverkehr und der Landwirtschaft wachstumsstimulierend.117 Die starke Düngung durch stickstoffhaltige Verbindungen aus der Luft führt jedoch auch zu einem verstärkten Bedarf an Wasser und Kationen. Dort wo diese ausreichend vorhanden sind, wirkt sich die Düngung günstig aus.118 Der zusätzliche Wasserbedarf kann im Zusammenhang mit einem Einwachsen der Wurzeln in den nährstoffreichen, aber wasserlosen Unterboden jedoch auch zu Trockenstresssymptomen führen.119 Im Allgemeinen wirken sich die hohen N-Depositionen daher ungünstig aus. Untersuchungen an den europäischen Wäldern haben ergeben, dass eine schwach positive Korrelation zwischen der Zunahme von regionalen Stickoxidkonzentrationen und der Abnahme der Kronendichte besteht.120 Als „Critical level“ für Stickoxidbelastungen hat sich eine Jahresmittelwert von 30 µg/m3 etabliert.121 Die Bestimmung der Critical loads ist hingegen sehr viel schwieriger, da verschiedene Ökosysteme sehr unterschiedlich auf den Eintrag von Stickstoff reagieren. Besonders gefährdet sind hier nährstoffarme Magerrasen und Moore, die durch den Stickstoffeintrag künstlich gedüngt werden und so zerstört werden können. „Critical loads“ werden daher für stickstoffhaltige Verbindungen abhängig von der Art des Ökosystems bestimmt.122 Während der kritische Grenzwert für Moore schon bei 3–5 kg N/ha/a liegt, wird für die meisten Waldtypen der „Critical load“ mit 5–20 kg N/ha/a angesetzt.123 Ozon Ozon (O3) entsteht vor allem im Sommer durch photochemische Reaktionen von Stickoxiden und Kohlenwasserstoffen. Der wichtigste Emittent dieser Vorläuferprodukte ist der KFZ-Verkehr.124 Ozon ist wahrscheinlich die wichtigste pflanzenschädliche Verunreinigungskomponente, da es die . . Tendenz hat, hochreaktive Radikale (OH O 2) zu bilden, die eine phytotoxische Wirkung auf Pflanzen haben. Der Gehalt an Ozon hat sich in der 117
118 119 120 121 122 123 124
H. Briggs: Trees grow larger in Big Apple. Pollution in New York City is having an unexpected effect on trees, in: BBC News, 9. 7. 2003; H. Schuh: Den Kranken geht es prächtig. Die Bäume in Europa wachsen immer schneller, dank düngender Schadstoffe aus der Luft, in: Die Zeit, 02/2003. Mohr 1993, S. 53. Vgl. Mohr 1993, S. 51. UNECE / ECE: The condition of forests in Europe. 2002 executive report, Brüssel 2002, S. 16. Streffer et al. 2000, 263. ebd., 265 ebd., S. 266/267; vgl. auch Mohr ebd., S. 49, der von einem Wert von 5–12 kg N/ha/a ausgeht. L. Steubing: Immissionsökologie, in: Steubing / Buchwald / Braun: Natur- und Umweltschutz, Jena 1995, S. 341.
100
Darstellung der verschiedenen Energieoptionen
Troposphäre der nördlichen Hemisphäre seit Beginn der Industrialisierung verdoppelt bis verdreifacht.125 Dies ist ein sehr bedenklicher Befund, da Ozon über ein extrem hohes Treibhauspotenzial verfügt.126 Es gibt Schätzungen, nach denen eine Reduktion der Ozonbelastung in den USA um 40 % bei den 8 wichtigsten landwirtschaftlichen Kulturen zu Gewinnen in Höhe von 3 Milliarden US-Dollar führen könnte.127 Aufgrund umfangreicher Studien ist bekannt, dass die Summation von Ozondosen oberhalb definierter Konzentrationen (AOT = Accumulated over threshold) den quantitativen Zusammenhang zwischen Langzeitbelastung und Wirkung am besten beschreibt.128 Als Schwellenwert wird dabei ein Stundenmittelwert von 40 ppb angenommen. Auf dieser Grundlage wurde für die Vegetationsperiode in der Landwirtschaft ein AOT-Wert von 3000 ppb h festgelegt.129 Aufgrund der längeren Vegetationsperiode liegt der Wert für Forstpflanzen bei 10 000 ppb h. Wie empirische Untersuchungen gezeigt haben, führt das AOT 40Konzept bei landwirtschaftlichen Kulturen allerdings zu einer systematischen Überschätzung der Ertragseinbußen durch hohe Ozonkonzentrationen. Dies liegt vor allem daran, dass bei hohen Temperaturen, niedriger Luftfeuchtigkeit und hohen Ozonkonzentrationen im Sommer die Pflanzen ihre Spaltöffnungen schließen, weshalb auch die aufgenommene Schadstoffmenge sinkt. Neuere Untersuchungen haben gezeigt, dass Ozonkonzentrationen zwischen 50 und 90 ppb h daher ein besonders hohes phytotoxisches Potenzial besitzen, während es oberhalb von 90 ppb h paradoxerweise sinkt. Unter Berücksichtigung der Depositionsgeschwindigkeit müssen die AOT40-Werte wahrscheinlich nach oben korrigiert werden.130 Schwefeldioxid Schwefeldioxid, ist als pflanzenschädlicher Luftschadstoff am längsten bekannt. Bereits 1853 beschrieb der Chemiker Julius Adolph Stöckhardt vom Institut für Rauchschadensforschung in Tharandt Waldschäden durch Schwefeldioxid.131 Diese heute als „klassisch“ bezeichneten Schäden blieben in der Vergangenheit jedoch regional begrenzt. Gegen Ende der 70er 125 126 127 128 129 130 131
Streffer et al, 2000, S. 267. ebd., S. 254, Tab. 2.5.1. ebd., S. 268. ebd., S. 269. ebd., S. 271. ebd., S. 271. BfVEL (Hrsg.): Bericht über den Zustand des Waldes 2002, Bonn 2002, S. 4; im Folgenden als Waldzustandsbericht 2002 zitiert.
Fossile Energieträger
101
Jahre des 20. Jahrhunderts traten solche Schäden jedoch großflächig und fernab von Industrieanlagen auf: Die „Hochschornsteinpolitik“ hatte zu einer großräumigen Verfrachtung und Verteilung der Luftverunreinigungen geführt. Durch die Transmission in der Luft verbindet sich Schwefeldioxid in Gegenwart von Sonnenlicht und Luftfeuchtigkeit nach rund 10 km Entfernung zu schwefeliger Säure (H2SO3) und Schwefelsäure (H2 SO4).132 Dort, wo die Schwefelsäure durch Regen ausgewaschen wird, versauert der Boden. Die Bodenversauerung hat folgende weit reichende Folgen für die betroffene Vegetation133: x x x
Verringerte Wasserversickerung und Grundwasserbildung, Störungen im Wasserhaushalt von Boden und Pflanze, Erhöhte Anfälligkeit der Bäume gegen Frostschädlinge.
In Mitteleuropa wurden, wie eingangs erwähnt, besonders durch sauren Regen in den 80er Jahren des 20. Jahrhunderts einige zehntausend Hektar Wald zerstört.134 An einigen Standorten im Erzgebirge wurden in den achtziger Jahren SO2-Immissionswerte von über 120 µg/m3 ( Jahresmittel) bzw. über 350 µg/m3 (im höchsten Monatsmittel) gemessen.135 Durch die Ausrüstung der Kohlekraftwerke mit effizienten Entschwefelungsanlagen konnten die Schwefeldioxidemissionen in den letzten zwei Jahrzehnten massiv reduziert werden. Allein zwischen 1990 und 2000 gingen die jährlichen Schwefeldioxidemissionen in Deutschland von 5,32 Millionen auf 0,8 Millionen Tonnen zurück.136 Der zulässige Halbjahresmittelwert der SO2-Belastung von Forstökosystemen im Winterhalbjahr wird heute mit dem niedrigen Wert von 15 µg/m3 festgesetzt.137 Da in der Vergangenheit die Schwefeldioxideinträge in den Waldboden oberhalb der Critical Loads lagen und dort akkumuliert sind, verläuft der Erholungsprozess der deutschen Wälder nur langsam: Zwischen 1991 und 1995 ist der Anteil der Bäume mit deutlichen Schäden von 30 auf 23 Prozent zurückgegangen, in den letzten acht Jahren ist jedoch keine signifikante Verbesserung mehr beobachtet worden.138
132 133 134 135 136 137 138
Vgl. dazu L. Steubing: Immissionsökologie, in: Steubing / Buchwald / Braun 1995, S. 329. Streffer et al., 2000, S. 275. ebd., S. 274. Mohr 1993., S. 45. Waldzustandsbericht 2002, S. 68. Streffer et al., 2000, S. 277. Waldzustandsbericht 2002, S. 10/11.
102
Darstellung der verschiedenen Energieoptionen
Mischimmissionen Ein besonders schwieriges und wissenschaftlich auch noch nicht völlig ausgeleuchtetes Feld sind Mischimmissionen. Prinzipiell können Mischimmissionen dazu führen, dass Schäden sich addieren (additiv), verstärken (überadditiv) oder sich im Ausnahmefall sogar gegenseitig abschwächen (subadditiv). Erste Untersuchungen über die Wirkung von Mischimmissionen wurden 1966 von Menser und Heggestad durchgeführt. Sie konnten zeigen, dass bei einer Exposition von Tabakpflanzen mit bestimmten Schwefeldioxid- und Ozonkonzentrationen stärkere Schäden auftraten, als aus der bloßen Addition der bereits bekannten Einzelschäden zu vermuten war.139 Sie bezeichneten diesen Effekt daher als überadditiv. Spätere Versuche mit diesen beiden Schadstoffen bestätigten diesen Befund. Experimente mit Mischemissionen haben insgesamt folgenden Befund ergeben140: Kombinierte Expositionen aus SO2 / O3, sowie NO2 / SO2 und O3 / NO2 zeigen bei vielen Pflanzenarten in hohen Konzentrationen überadditive (synergistische) Wirkungen, ebenso Kombinationen aus allen drei Noxen.141 Allerdings treten diese überadditiven Wirkungen bei niedrigen Konzentrationen, wie sie heute vorherrschen, bis auf Ausnahmen nicht auf. Wahrscheinlich haben in der Vergangenheit aber insbesondere die hohen Schwefeldioxid- und Stickoxidemissionen in Kombination eine überadditive Wirkung gehabt. In niedrigen Konzentrationen verhalten sich die meisten Effekte jedoch wie unabhängige Kombinationen.142 Im Folgenden sollen zur Illustration zwei Beispiele für fortbestehende Immissionsschäden an Pflanzen diskutiert werden, nämlich Waldschäden in Deutschland und Europa und Schäden an landwirtschaftlichen Kulturen in Süd- und Südostasien. Waldschäden in Deutschland und Europa Es ist im Zusammenhang mit dem Rückgang der Schwefeldioxidemissionen bereits darauf hingewiesen worden, dass der Zustand der Wälder trotz erfolgreicher Maßnahmen bei der Luftreinhaltung nach wie vor unbefriedigend ist. Nach dem Waldzustandsbericht (2002) zeigen in Deutschland immer noch 21 Prozent der Waldfläche deutliche Nadel- /
139 140 141 142
Streffer et al., 2000, S. 280. ebd. S. 280–301. ebd., S. 281 Tab. 2.5.–9; S. 284 Tab. 2.5–10; S. 290 Tab. 2.5–12. ebd., S. 291.
Fossile Energieträger
103
Blattverluste (deutliche Schäden) und 44 % weisen schwache Schäden auf.143 Als Ursachen sehen die Autoren des Waldzustandsberichts, dass die Immissionen aus eutrophierenden Luftverunreinigungen, darunter in erster Linie Stickoxide, nach wie vor hoch sind, und dass die Schwefel- und Stickstoffeinträge der Vergangenheit zu einer langfristigen Veränderung der Waldböden geführt haben, die sich noch heute negativ bemerkbar macht.144 Auch die übrigen Wälder in Europa erholen sich nur langsam, teilweise hat sich sich ihr Zustand in den letzten Jahren sogar verschlechtert. Aufgrund der in ganz Europa in den 80er Jahren verstärkt auftretenden neuartigen Waldschäden ist 1985 das internationale kooperative Programm zur Beobachtung der Waldschäden aus Luftverschmutzung (ICP-Forests) unter Leitung der UN-Economic Commission for Europe (UNECE) ins Leben gerufen worden, das seit 1986 auch durch die EU gefördert wird. Im Rahmen dieses Programms ist ein ganz Europa erfassendes Netzwerk von 6000 Untersuchungsstandorten mit Parzellen von 16 km × 16 km Durchmesser aufgebaut, an denen regelmäßig der Kronenzustand der Bäume überprüft wird.145 Im Verlauf der Langzeituntersuchungen haben die Forscher zwischen 1986 und 1995 eine kontinuierliche Verschlechterung des Waldzustandes festgestellt. Nach einer merklichen Erholung Mitte der 90er Jahre hat sich der Zustand der europäischen Wälder in den letzten Jahren – wenngleich deutlich verlangsamt – weiter verschlechtert.146 Demnach weisen in Europa 22,4 Prozent aller Bäume deutliche Schäden auf oder sind tot (1,6 %), während immerhin 44 % schwach geschädigt sind.147 Einen signifikanten Rückgang der Kronendichte beobachteten die ICP-Forscher zwischen 1994 und 2001 vor allem in Portugal, dem Baltikum an der dalmatinischen Küste und Rumänien. Aber auch in wirtschaftlich stärker entwickelten Regionen wie Nordrhein-Westfalen und Finnland wurde eine Verschlechterung des Waldzustandes beobachtet. Demgegenüber haben sich die Wälder in Polen aufgrund eines Rückgangs der Schadstoffemissionen im selben Zeitraum deutlich erholt. Insgesamt ist der Anteil der Standorte, an denen eine Verschlechterung des Baumzustandes beobachtet mit 565 etwas höher als der, an denen Verbesserungen registriert worden sind (500 Standorte). 143 144 145 146 147
Waldzustandsbericht 2002, S. 10. Ebd., S. 1. UNECE / EC (Hrsg.): The condition of Forests in Europe. 2002 Executive Report, Brüssel 2002, S. 10. ebd., S. 12. ebd.
104
Darstellung der verschiedenen Energieoptionen
Die wichtigsten Ursachen für den Rückgang der Kronendichte sind Trockenheit, Befall mit Schadinsekten und Schwefeldioxidimmissionen.148 Erstmals wurden in der jüngsten Erhebung auch der Eintrag von Nitraten (NO3 und NH4+) und Säure (Summe aus SO4 und Stickoxiden) untersucht.149 Dazu wurden an 230 ausgewählten Standorten die Critical loads gemessen. Der durchschnittliche Eintrag von Nitraten lag in den europäischen Wäldern zwischen 1995 und 1999 bei durchschnittlich 19 kg / ha/a.150 Da durch die früheren Immissionen bereits hohe Stickstoffkonzentrationen im Boden akkumuliert sind, schätzen die ICP-Forest-Forscher die tolerierbare Depositionsmenge für den Durchschnitt der europäischen Wälder jedoch auf nur 8 kg / ha/a.151 Dieser Wert wurde an 92 % der untersuchten Standorte überschritten.152 Besonders hohe Depositionsmengen wurden für Deutschland und die Beneluxstaaten ermittelt.153 Der Eintrag an Säure in Form von Stickoxiden und Sulfaten liegt an den untersuchten Standorten bei durchschnittlich 2100 molc / ha/a. Damit wird der Critical load von durchschnittlich 3469 molc / ha/a an den meisten Standorten deutlich unterschritten.154 Trotzdem liegen bei immerhin einem Drittel der untersuchten Standorte die Säuredepositionen über den empfohlenen Grenzwerten, dies hauptsächlich, weil einige Baumarten empfindlicher auf Säureeinträge reagieren. Der Kurzüberblick über den Zustand der Wälder in Deutschland und Europa verdeutlicht zweierlei: zum einen, dass die hohen Schadstoffimmissionen der Vergangenheit langfristige Schäden an den Waldböden verursacht haben, zum anderen, dass insbesondere die Stickstoffeinträge in die europäischen Wälder nach wie vor hoch sind. Ernteverluste durch Aerosole in Süd- und Südostasien Wie das Indian-Ocean-Experiment (INDOEX) gezeigt hat, hat sich durch die verstärkte Verbrennung von Biomasse und fossilen Brennstoffen über Süd- und Südostasien in den letzten Jahren ein riesiger brauner Dunstschleier aus Aerosolen gebildet, der als „Asian brown cloud“ bezeichnet wird. Dieser Dunstschleier setzt sich aus Sulfaten, organischen Verbindungen, Ruß, Mineralstaub, Ammonium und Flugasche zusam-
148 149 150 151 152 153 154
ebd., S. 16. Nomenklatur ebd. ebd., S. 20. ebd., S. 23. ebd. ebd., S. 23. ebd., S. 25.
Fossile Energieträger
105
men.155 Der Dunstsschleier ist mittlerweile so dicht, dass er die direkte Sonneneinstrahlung in dieser Region reduziert. Wie das Indian Ocean Experiment gezeigt hat, variiert die optische Tiefe der Aerosole (aerosol optical depth) im Bereich des sichtbaren Lichts zwischen 0,05 bei 20 ° südlicher Breite und 0,4–0,7 bei 15 ° nördlicher Breite; besonders dicht ist der Dunstschleier also über dem indischen Subkontinent.156 Der Dunstschleier schädigt die südostasiatische Landwirtschaft durch eine verringerte direkte Sonneneinstrahlung, weniger Niederschläge (die Aerosole regen die Bildung kleinerer Tröpfchen mit verringertem Radius an), die Deposition von Aerosolen auf Blättern und die Bildung von saurem Regen.157 Wie Computersimulationen für verschiedene Kulturpflanzen zeigen, führt die durch den Dunst um je nach Region zwischen 10 bis 30 % verringerte Globalstrahlung am Boden wahrscheinlich bereits heute zu einer verminderten Photosyntheseleistung und damit zu einem Rückgang der Ernteerträge. Nach diesen Simulationen betragen die derzeitigen Ernteverluste bei Getreide zwar nur 1–2 %, bei Reis jedoch bereits 6–10 %.158 Gleichzeitig zeigen die Simulationen jedoch auch, dass ein nicht-linearer Ernterückgang erst bei einer Verringerung der Globalstrahlung von durchschnittlich mehr als 20 Prozent zu befürchten ist. Im Falle einer weiter steigenden Luftverschmutzung in dieser Region könnte dieser Wert jedoch überschritten werden. Treibhauseffekt Durch die Sonne werden der Erde im globalen Mittel ständig 342 W pro m2 Erdoberfläche an solarer Strahlungsenergie zugeführt, von denen 31 % durch Wolken und die äußeren Schichten der Atmosphäre sofort wieder in den Weltraum reflektiert werden.159 Die verbleibenden 235 Wm–2 erwärmen die Atmosphäre und die Oberfläche der Erde. Die einfallende kurzwellige solare Strahlung wird von der Erde in Form langwelliger Infrarotstrahlung in Höhe von 235 Wm–2 wieder in den Weltraum emittiert, die globale Strahlungsbilanz ist also ausgeglichen. Gäbe es nicht den 155 156 157 158 159
UNEP: The asian brown cloud: Climate and other environmental impacts, UNEP / CCCC 2002, S. 12 ff., besonders S. 19. ebd., S. 21. ebd., S. 38. ebd. S. 39–40. Darstellung nach IPCC (Hrsg.): Climate Change 2001: The scientific basis (Bd. 1), contribution of Working Group I to the third assessment report of the Intergovernmental Panel on Climate Change (IPCC), ed. by J.T. Houghton, Y. Ding, D.J. Griggs, M. Noguer, P.J. van Linden, X. Dai, K. Maskell, C.A. Johnson, Cambridge 2001 [zitiert als IPCC 2001].
106
Darstellung der verschiedenen Energieoptionen
natürlichen Treibhauseffekt, wäre es unter diesen Bedingungen auf der Erdoberfläche unerträglich kalt: Die globale Durchschnittstemperatur an der Oberfläche betrüge nur – 19 °C. Durch die Anwesenheit von Treibhausgasen in den unteren Schichten der Atmosphäre wird jedoch ein großer Teil der Infrarotstrahlung reflektiert, wodurch die Durchschnittstemperatur an der Erdoberfläche auf + 14 °C angehoben wird. Dieser natürliche Treibhauseffekt ist die Voraussetzung für höheres Leben auf der Erde. Treibhausgase Die wichtigsten Spurengase, die durch die Reflexion von Infrarotstrahlung zum Treibhauseffekt beitragen sind Kohlendioxid (CO2), Methan (CH4), Distickstoffoxid (N2O) und troposphärisches Ozon (O3). Seit Beginn der industriellen Revolution hat die Konzentration dieser Spurengase in der Atmosphäre deutlich zugenommen. a) Kohlendioxid (CO2 ) Die CO2-Konzentration in der Atmosphäre stieg seit 1750 um 31 % von 280 auf heute 367 ppm an.160 Sie erreicht damit nach neuesten Forschungen den höchsten Stand der letzten 420000 Jahre, wahrscheinlich sogar der letzten 20 Millionen Jahre.161 Während der letzten zwanzig Jahre hat die CO2-Konzentration der Atmosphäre um jährlich 1,5 ppm zugenommen, entsprechend einem Anstieg von 0,4 % pro Jahr. Etwa drei Viertel der anthropogenen CO2-Emissionen gehen auf die Verbrennung fossiler Brennstoffe zurück, der Rest entfällt auf veränderte Landnutzung, darunter insbesondere den Rückgang der Wälder durch Brandrodung. Zur Zeit nehmen die Ozeane und Wälder noch schätzungsweise etwa die Hälfte der anthropogenen CO2-Emissionen auf. b) Methan (CH4 ) Die Methan-Konzentration der Atmosphäre ist seit 1750 um 151 % auf 1060 ppb angestiegen.162 Die heutige Methan-Konzentration ist die höchste der letzten 420000 Jahre. Etwa die Hälfte der weltweiten Methanemissionen sind anthropogenen Ursprungs. Die wichtigsten anthropogenen Methanquellen sind die Verbrennung fossiler Brennstoffe, die Viehwirtschaft, der Reisanbau und Mülldeponien.
160 161 162
Zahlen nach IPCC 2001, S. 39. IPCC 2001, S. 2. IPCC 2001, S. 7.
Fossile Energieträger
107
c) Distickstoffoxid ( N2O) Die atmosphärische Konzentration an Distickstoffoxid (N2O) hat seit 1750 um 17 % auf 46 ppb zugenommen.163 Die heutige Konzentration wurde während der letzten tausend Jahre nicht überschritten. Etwa ein Drittel der N2O-Emissionen ist anthropogenen Ursprungs. Die wichtigsten Quellen sind Landböden, die Viehwirtschaft und die chemische Industrie. d) halogenierte Kohlenwasserstoffe Die Emissionen halogenierter Kohlenwasserstoffe sind besonders durch den Einsatz von FCKW als Kühlmittel über mehrere Jahrzehnte hin stark angestiegen. Die jährlichen Emissionen an Fluorkohlenwasserstoffen (z. B. CFCl3, CF2Cl3), sind jedoch vor dem Hintergrund einer abnehmenden Ozonschicht seit dem Protokoll von Montreal erheblich reduziert worden.164 Einige Substitutkomponenten (z. B. CHF2Cl, CF3CH2F) sind dagegen in den letzten Jahren gestiegen. Halogenierte Kohlenwasserstoffe verfügen über besonders hohe Treibhauspotenziale. e) Ozon (O3 ) Die Wirkung von Ozon auf die globale Strahlungsbilanz ist widersprüchlich, da Ozon den Treibhauseffekt je nach dem Ort des Vorkommens in der Atmosphäre verstärken oder abschwächen kann. Die Abnahme stratosphärischen Ozons zwischen 1979 und 2000 bewirkte nach Schätzungen des IPCC eine Verringerung der Wärmestrahlung in Höhe von – 0,15 Wm–2.165 Der Anstieg des troposhärischen Ozons hat hingegen mit + 0,35 Wm–2 zum Treibhauseffekt beigetragen. Störung der natürlichen Strahlungsbilanz durch anthropogene Treibhausgasemissionen Die Zunahme von Treibhausgasen in der Atmosphäre verstärkt den natürlichen Treibhauseffekt, indem den unteren Schichten der Atmosphäre mehr zusätzliche Energie in Form von reflektierter Infrarotstrahlung zugeführt wird. Die Strahlungsbilanzstörung 166 durch anthropogene Treibhausgasemissionen wird durch den Intergovernmental Panel 163 164 165 166
ebd. ebd. IPCC 2001, S. 7. Die Strahlungsbilanzstörung (engl. radiative forcing) gibt an, wie viel zusätzliche Strahlungsenergie der Erde durch natürliche und anthropogene Störungen zu- bzw. abgeführt wird. Die Strahlungsbilanzstörung wird in Wm–2 angegeben. Die Verwendung der deutschen Terminologie erfolgt nach WBGU (Hrsg.): Welt im Wandel: Wege zur Lösung globaler Umweltprobleme. Jahresgutachten 1995, Berlin 1996.
108
Darstellung der verschiedenen Energieoptionen
Abb. 3.19 Anteil verschiedener Gase am anthropogenen Treibhauseffekt (ohne troposphärisches Ozon) [nach IPCC 2001]
on Climatic Change (IPCC) auf derzeit insgesamt 2,43 Wm–2 geschätzt. Davon entfallen auf CO2 1,46 Wm–2, auf CH4 0,48 Wm–2, auf halogenierte Kohlenwasserstoffe 0,34 Wm–2 und auf N2O 0,15 Wm–2. Rund 60 % der anthropogenen Strahlungsbilanzstörung entfallen also auf CO2 (Abb. 3.19). Neben der Konzentration in der Atmosphäre spielt auch das Treibhauspotenzial eines Gases eine wichtige Rolle. Das Treibhauspotenzial von CO2 ist definitionsgemäß eins. Gemessen am Treibhauspotenzial von CO2 und innerhalb einer Verweildauer von 20 Jahren haben Methan (62), Distickstoffoxid (275) und Fluorkohlenwasserstoffe (40–9400) wesentlich höhere Treibhauspotenziale.167 Neben der Erhöhung der Konzentration von Treibhausgasen gibt es eine Reihe weiterer natürlicher und anthropogener Faktoren, die die globale Strahlungsbilanz beeinflussen. Zu den Faktoren mit widersprüchlichen Wirkungen zählen Aerosole, die bei der Verbrennung fossiler Brennstoffe und Biomasse frei werden. Einerseits führen Aerosole zu einer Verringerung der direkten Sonneneinstrahlung und bewirken daher eine Abkühlung der Atmosphäre (die Abkühlung durch Sulfate und organische Verbindungen wird global mit starken regionalen Ab-
167
Zahlen nach IPCC 2001, S. 47.
Fossile Energieträger
109
Abb. 3.20 Veränderungen in der mittleren globalen Strahlungsbilanz im Jahr 2000 gegenüber der vorindustriellen Zeit in Watt/Quadratmeter [verändert nach IPCC 2001]
weichungen auf – 0,4 Wm–2 geschätzt 168), andererseits absorbieren einige dunkle Aerosole wie Ruß Wärmestrahlung und erhöhen daher die Wärmestrahlung (+ 0,2 Wm–2). Durch Verränderungen in der weltweiten Landnutzung, insbesondere durch den Rückgang der Wälder, wird von den Landflächen mehr solare Strahlung reflektiert, was wahrscheinlich zu einer Verringerung in der Strahlungsbilanz der Erde geführt hat (– 0,2 Wm–2 +/– 0,2 Wm–2). Auch Veränderungen in der Aktivität der Sonne haben die Strahlungsbilanz der letzten 200 Jahre beeinflusst. Die Strahlungsbilanzstörung durch verstärkte Sonnenaktivität wird für die Zeit seit 1750 auf 0,3 Wm–2 (+/– 0,2 Wm–2) geschätzt.169 Unter Berücksichtigung natürlicher und anthropogener Faktoren resultiert eine Strahlungsbilanzstörung in Höhe von + 2,13 Wm–2, die zum größten Teil auf die Emission anthropogener Treibhausgase zurückzuführen ist (Abb. 3.20). Obwohl auch natürliche Störfaktoren eine Rolle spielen, kann kaum mehr ein Zweifel daran bestehen, dass der im 20. Jahrhundert beobachtete Anstieg der globalen Durchschnittstemperatur um 0,6 °C hauptsächlich auf die Emission anthropogener Treib168 169
Ebd., S. 9. Ebd.
110
Darstellung der verschiedenen Energieoptionen
hausgase zurückzuführen ist.170 Einige wissenschaftliche Untersuchungen, die die natürlichen Schwankungen der Sonnenaktivität als Hauptfaktor der globalen Erwärmung postuliert haben, haben sich mittlerweile als nicht haltbar herausgestellt.171 Computersimulationen des Klimas der letzten 140 Jahre ergeben die besten Übereinstimmungen mit den beobachteten Werten, wenn natürliche und anthropogene Störungen der globalen Strahlungsbilanz kombiniert werden.172 Der dritte Assessment Report des IPCC „Climate Change 2001“, eine internationale Gemeinschaftsarbeit von mehr als 500 führenden Klimaforschern sieht daher „new and stronger evidence that most of the observed warming observed over the last 50 years is attributable to human activities“.173 Gegenüber dem ersten und zweiten Assessment Report des IPCC ist damit ein deutlich höheres Maß an Sicherheit hinsichtlich der Existenz eines anthropogenen Treibhauseffektes erreicht, dem sich auch andere wissenschaftliche Institutionen wie die US-amerikanische National Academy of Science (NAS) anschließen.174 Die wichtigsten im Verlauf des 20. Jahrhunderts beobachteten klimatischen Veränderungen werden durch das IPCC wie folgt zusammengefasst 175: x
x
x
x
x
x
170 171 172 173 174 175 176
Die durchschnittliche globale Temperatur der Erdoberfläche ist seit Beginn des 20. Jahrhunderts um 0,6 °C (+/– 0,2 °C) gestiegen. Es ist sehr wahrscheinlich176, dass die 90er Jahre das wärmste Jahrzehnt des 20. Jahrhunderts waren. Der Temperaturanstieg im 20. Jahrhundert ist wahrscheinlich der stärkste während der letzten 1000 Jahre gewesen. Die weltweite Schneebedeckung hat seit den späten 60er Jahren sehr wahrscheinlich um 10 % abgenommen. Es ist ein weltweiter Rückgang von Berggletschern in nichtpolaren Bergregionen beobachtet worden. Die sommerliche Ausdehnung der arktischen Eisdecke hat seit den 50er Jahren sehr wahrscheinlich um 10 bis 15 % abgenommen. Auch die vgl. dazu L. R. Kump: Reducing uncertainty about carbon dioxide as a climate driver, in: Nature, Vol. 419, 09/2002, S. 188–190. vgl. dazu exemplarisch S. Rahmstorf: Flotte Kurven, dünne Daten, in: Die Zeit, 35/2002. IPCC 2001, S. 11/12. ebd., S. ix. Vgl. zur Haltung der NAS A. C. Revkin: Global Warming: All that hot air must be having an effect, in: New York Times, 12. 1. 2003. Daten nach: IPCC 2001, S. 2 ff. Im IPCC „Summary for Policymakers“ sind den Wahrscheinlichkeitsbegriffen feste Wahrscheinlichkeitswerte zugeordnet worden: so gut wie sicher (99 %), sehr wahrscheinlich (90–99 %), wahrscheinlich (66–90 %), mittlere Wahrscheinlichkeit (33–66 %), unwahrscheinlich (10–33 %), sehr unwahrscheinlich (1–10 %), außerordentlich unwahrscheinlich (weniger als 1 % Chance), 2001, S. 2.
Fossile Energieträger
x
x
111
durchschnittliche Dicke der arktischen Eisdecke im Spätsommer und Frühherbst hat sich wahrscheinlich bereits um 40 % verringert. Während des 20. Jahrhunderts ist der Meeresspiegel um 20–30 cm angestiegen. Die Niederschläge in den mittleren und hohen Breiten der nördlichen Hemisphäre haben im Verlauf des 20. Jahrhunderts sehr wahrscheinlich um 0,5–1 % pro Jahrzehnt zugenommen.
Stabilisiert sich die Konzentration von Treibhausgasen in der Atmosphäre von selbst? Es gibt eine Reihe natürlicher Mechanismen, die einem CO2-Anstieg in der Atmosphäre entgegenwirken, dazu gehört vor allem die verstärkte Fotosyntheseleistung von Pflanzen und die Aufnahme von CO2 in den Ozeanen. Wie oben bereits erwähnt, entziehen Ozeane und Wälder der Atmosphäre derzeit jährlich etwa die Hälfte der weltweiten anthropogenen CO2-Emissionen. Wie groß die Kapazität dieser natürlichen „Puffer“ ist, ist jedoch unklar. Höhere CO2-Konzentration wirken im Allgemeinen stimulierend auf das Pflanzenwachstum, so dass zu erwarten steht, dass die weltweite Vegetation heute mehr CO2 in Form von Biomasse bindet als in vorindustrieller Zeit.177 Dass diese Vermutung tatsächlich zutrifft, zeigen jüngste Auswertungen von Satellitendaten der nördlichen Hemisphäre.178 Die Satellitendaten zeigen insbesondere im Bereich der Zone der borealen Nadelwälder eine deutliche Zunahme der Vegetationsdichte. Computergestützte Untersuchungen am Potsdamer Institut für Klimaforschung (PIK) haben ergeben, dass die Satellitendaten sehr gut mit Computermodellen der Vegetationsentwicklung unter den Bedingungen eines höheren CO2-Spiegels in der Atmosphäre übereinstimmen. Es ist also sehr wahrscheinlich, dass die weltweite Pflanzendecke derzeit einen erheblichen Teil der anthropogenen CO2-Emissionen in Form zusätzlicher Biomasse bindet. Eine nach wie vor offene Frage ist jedoch, wie viel zusätzliches atmosphärisches CO2 die pflanzliche Vegetationsdecke langfristig binden können wird.179 Sicher ist nur, dass die zusätzlichen Bindungskapazitäten begrenzt sind. Aus pflanzenphysiologischen Experimenten ist bekannt, dass die Fotosyntheserate oberhalb bestimmter Konzentrationen durch zusätz177 178 179
ebd., S. 41. W. Lucht: Der Norden ergrünt im Computer, in: Spektrum der Wissenschaft, 2002/ 2003, S. 8–10. Vgl. dazu ausführlich: E.-D. Schulze: Wieviel zusätzlichen Kohlenstoff kann die Vegetation der Erde binden?, in: H. Markl (Hrsg.): Wissenschaft in der globalen Herausforderung, Stuttgart 1995, S. 251–265.
112
Darstellung der verschiedenen Energieoptionen
liches CO2 nicht mehr gesteigert werden kann.180 In natürlichen Ökosystemen wird durch Dissimilationsprozesse genauso viel Kohlendioxid freigesetzt, wie durch Assimilationsprozesse gebunden wird. Daher wird wahrscheinlich nur ein sehr kleiner Teil des durch die Steigerung der pflanzlichen Fotosyntheserate zusätzlich gebundenen Kohlenstoffs der Atmosphäre dauerhaft entzogen.181 Pflanzenphysiologische Experimente deuten darauf hin, dass die Biosphäre maximal ein Drittel der weltweiten anthropogenen CO2-Emissionen durch eine erhöhte Nettoprimärproduktion binden können wird.182 Auch die Ozeane nehmen insbesondere im Bereich der kalten Meere CO2 auf, allerdings halten sich die Lösung von CO2 in kalten und die Ausgasung in warmen Meeren in etwa die Waage.183 Eine Stabilisierung des CO2-Gehaltes der Atmosphäre durch natürliche Selbstregulationsprozesse ist also praktisch ausgeschlossen. Neben natürlichen Effekten, die den Treibhauseffekt abschwächen, gibt es auch Rückkopplungsmechanismen, die ihn verstärken. So könnten etwa Torf- und Humusschichten in Permafrostböden der Nordhemisphäre durch steigende Temperaturen einem mikrobiellen Abbau zugänglich werden und verstärkt CO2 freisetzen.184 Untersuchungen an sibirischen Permafrostböden im Lena-Delta haben ergeben, dass die natürlichen sommerlichen Methan-Emissionen dieser Böden durch den Anstieg der Durchschnittstemperaturen in den letzten Jahren bereits deutlich zugenommen haben.185 Ein ebenfalls selbstverstärkender Prozess wäre eine durch steigende Durchschnittstemperaturen ausgelöste Freisetzung von Methan aus Gashydratvorkommen der Tiefsee und der Tundren.186 Die praktisch einzige Möglichkeit, der Atmosphäre dauerhaft CO2 zu entziehen, sind Wiederaufforstungsmaßnahmen. Nach Schätzungen des IPCC könnte der CO2-Anteil um maximal 40 bis 90 ppm reduziert werden, wenn alle Landnutzungsänderungen des 20. Jahrhunderts durch Wiederaufforstungsmaßnahmen rückgängig gemacht würden. Um jährlich 1 Milliarde t Kohlenstoff zu binden, müsste aber eine riesige Waldfläche von 3,7 Millionen km2 wiederaufgeforstet werden.187 180 181 182 183 184 185 186 187
Ebd., S. 258; C. Körner: Die biotische Komponente im Energiehaushalt: Lokale und globale Aspekte, in: Treusch et al. 1997, S. 116 ff. Schulze 1995, S. 261. Körner 1997, S. 116. Schulze 1995, S. 253. Schulze 1995, S. 264. G. Lange, Th. Körkel: Treibhausbombe im sibirischen Dauerfrost, in: Spektrum der Wissenschaft 08/2003, S. 8–10. G. Bohrmann, J. Greinert, E. Lausch, E. Suess: Brennendes Eis. Methanhydrat am Meeresgrund, in: Spektrum der Wissenschaft, Juni 1999, S. 62 ff. Zahl nach Körner 1997, S. 119.
Fossile Energieträger
113
Bisherige ökologische Auswirkungen des Klimawandels Neuere Untersuchungen über Veränderungen in der Tier- und Pflanzenwelt zeigen, dass sich bereits heute weiträumige und langfristige Veränderungen in der Biosphäre abzeichnen. Eine Metaanalyse von weltweit 143 ökologischen Studien, die sich mit zeitlichen und räumlichen Veränderungen bei Tier- und Pflanzenpopulationen befassen, hat ergeben, dass in den letzten Jahrzehnten weltweit deutliche Veränderungen beobachtet wurden.188 Die Veränderungen äußern sich u. a. in einem früheren Frühlingsbeginn, Änderungen der Verbreitungsareale von Tieren und Pflanzen und Änderungen des Zugverhaltens von Tieren. Bei 81 % der untersuchten Arten fanden die Forscher Veränderungen in Richtung der im Zusammenhang mit globalen Erwärmungsprozessen zu erwartenden Veränderungen, insbesondere eine Verschiebung der Verbreitungsgebiete in Richtung der Pole.189 61 der 143 ökologischen Studien befassten sich mit Veränderungen in der Frühlingsphänomologie von insgesamt 694 Arten. Die Auswertung dieser Untersuchungen ergab eine Verschiebung in Richtung auf einen immer früheren Frühlingsbeginn. Der durchschnittliche Frühlingsbeginn, der insbesondere durch Blüh- und Brutphänomene angezeigt wird, hat sich innerhalb der letzten 50 Jahre in den gemäßigten Zonen um durchschnittlich 5,1 Tage pro Jahrzehnt nach vorne verschoben.190 Auch eine andere Studie mit einem Untersuchungsumfang von 1700 Arten hat erhebliche Veränderungen im Verbreitungsgebiet der untersuchten Populationen aufgezeigt.191 Demnach hat sich das Verbreitungsgebiet der meisten Arten im 20. Jahrhundert um durchschnittlich 6,4 km pro Jahrzehnt in Richtung der Pole verschoben. Statistische Analysen der Forscher zeigen zudem, dass es sich um nichtzufällige und strukturelle Veränderungen handelt, die mit 95 % Sicherheit auf globale Klimaveränderungen zurückgehen.192 Eine Verstärkung des globalen Klimawandels könnte die natürliche Anpassungsfähigkeit vieler Arten überfordern. Nach neueren Berechnungen 188
189 190 191 192
T.L. Root, J. T. Price, K. R. Hall, S. H. Schneider, C. Rosenzweig, J. A. Pounds: Fingerprints of global warming on wild animals and plants, in: Nature, Vol. 421, 2. 1. 2003, S. 57–60; vgl. auch: G.-R. Walter, E. Post, P. Convey, A. Men-zel, C. Parmesan, T. J. C. Beebee, J.-M. Fromentin. O. Hoegh-Guldberg, F. Bairlein: Ecological responses to recent climate change, in: Nature, Vol. 416, 03/2002, S. 389–395. Root et al. ebd. Ebd., S. 59. C. Parmesan, G. Yohe: A globally coherent fingerprint of climate change impacts across natural systems, in: Nature, Vol. 421, 01/2003, S. 37–42. Ebd., S. 37.
114
Darstellung der verschiedenen Energieoptionen
sind weltweit durch die globale Erwärmung eine Vielzahl von Tier- und Pflanzenarten vom Aussterben bedroht.193 Prognosen Nach Schätzungen des IPCC-Special Report on Emission Scenarios (SRES) wird der CO2-Anteil der Atmosphäre bis 2100 – je nach Fossilintensität des Energiesektors – auf 540 bis 970 ppm ansteigen und sich damit 90 bis 250 % über dem vorindustriellen Level stabilisieren.194 Abhängig vom Niveau der Stabilisierung des CO2-Spiegels wird die Strahlungsbilanzstörung auf Werte zwischen 4 bis 9 Wm–2 ansteigen, verbunden mit einem Anstieg der globalen Durchschnittstemperatur im 21. Jahrhundert um 1,4–4,8 °C.195 Damit liegen die neuen IPCC-Schätzungen deutlich oberhalb der früheren Prognosen des SAR (Second Assessment Report 1996) in Höhe von 1–3,5 °C. Auch für andere wichtige Treibhausgase wird bis 2100 eine weitere Zunahme der Konzentrationen prognostiziert: x x
x
Für Methan (CH4) eine Zunahme von 1760 auf 1970 ppb, Für N2O eine Zunahme von 38 bis bis 144 ppb (gegenüber einer heutigen Konzentration von 316 ppb), Für troposphärisches Ozon eine Zunahme um 12 bis + 62 %.
Auch die großen Energieagenturen gehen von einem weiteren Anstieg der weltweiten CO2-Emissionen aus. Nach Prognosen der IEA werden die weltweiten CO2-Emissionen bis 2020 jährlich um 2,1 % auf 36,1 Milliarden t ansteigen.196 Der größte Teil dieses Zuwachses wird dabei voraussichtlich auf Entwicklungsländer entfallen, deren CO2-Emissionen von 6,1 Milliarden t 1990 auf 17,9 Milliarden t 2020 wachsen. Allein China wird dann jährlich 3,2 Milliarden t CO2 mehr emittieren.197 Der Anteil der Entwicklungsländer an den globalen CO2-Emissionen wird dementsprechend von heute 38 % auf 50 % steigen. Aufgrund der wesentlich größeren Bevölkerungen 193
194 195 196 197
Vgl. Thomas / Cameron / Green / Bakkenes / Beaumont / Collingham / Erasmus / Ferreira / Grainger / Hannah / Hughes / Huntley / Jaarsveld / Midgley / Miles / Ortega-Huerta / Townsend Peterson / Philips / Williams: Extinction risk from climate change, in: Nature, Vol. 427, 01/2004, S. 145–148; Pounds / Puschendorff: Clouded future, ebd., S. 107–109. IPCC, 2001, S. 12. IPCC 2001, S. 13/14; vgl. auch S. 70. IEA Weltenergieausblick 2000, S. 54. IEA Weltenergieausblick 2000, S. 56 ff.
Fossile Energieträger
115
Abb. 3.21 Entwicklung der weltweiten CO2-Emissionen [IEA 2001]
werden die durchschnittlichen CO2-Emissionen pro-Kopf jedoch deutlich unter denen der OECD-Staaten bleiben. Auch die industrialisierten Länder, die sich im Kyoto-Protokoll zu einer Reduzierung ihrer CO2-Emissionen verpflichtet haben (sogenannte Annex B-Länder), werden ihre Ziele nach Prognosen der IEA voraussichtlich verfehlen. Statt der angestrebten CO2-Emissionen in Höhe von 13,4 Milliarden t prognostiziert die IEA für diese Länder bis 2010 einen Anstieg auf 15,5 Milliarden t.198 Lediglich die ehemaligen Staatshandelsländer werden aufgrund des Rückgangs ihrer energieintensiven Montanindustrie die Verpflichtungen des Kyoto-Protokolls voraussichtlich erfüllen können. Auch die US-amerikanische EIA geht in ihrem Referenzszenario bis 2020 von deutlich steigenden Kohlendioxidemissionen bei einem wachsenden Anteil der Entwicklungs- und Schwellenländer aus (Abb. 3.21).199 Die wahrscheinlichen Folgen der daraus resultierenden globalen Erwärmung im 21. Jahrhundert sind nach Prognosen des IPCC 200: x x x
198 199 200
Eine Zunahme der Höchsttemperaturen und mehr heiße Tage im Jahr, Höhere Minimaltemperaturen und weniger Frosttage im Jahr, Verringerte Temperaturschwankungen im Tagesgang, Ebd., S. 61. EIA 2001, S. 160 ff. IPCC, 2001, S. 15.
116 x x x
x
x
x
Darstellung der verschiedenen Energieoptionen
Eine Zunahme extremer Niederschlagsereignisse, Eine Zunahme der Sommertrockenheit und stärkere Dürreperioden, Eine Zunahme tropischer Wirbelstürme. Weiterhin wird angenommen, dass Die Sommer-Monsune in Asien eine höhere Niederschlagsvariabilität aufweisen werden, Die schnee- und eisbedeckte Fläche der nördlichen Hemisphäre weiter abnehmen wird, Der Meeresspiegel um 9–88 cm steigen wird.
Die beiden Klimaereignisse mit dem potenziell größtem Schadensausmaß, nämlich x
x
Ein völliger Wegfall der thermohalinen Zirkulation (THC) im Nordatlantik und ein Abrutschen der westantarktischen Eisdecke
gelten hingegen aufgrund neuerer Forschungen als sehr unwahrscheinlich.201 Das seit den 70er Jahren intensiv diskutierte Risiko, dass die westantarktische Eisdecke durch steigende Temperaturen auseinanderbrechen und zu einen abrupten Anstieg des Meeresspiegels um mehrere Meter führen könnte, hat sich aufgrund neuerer Forschungen als sehr klein herausgestellt.202 Hintergrund der Befürchtungen ist die Tatsache, dass die westantarktische Eisdecke unterhalb des Meeresspiegels liegt und von daher zumindest potenziell instabil ist. Wenngleich einige katastrophale Szenarien sich rückblickend als übertrieben dramatisch herausgestellt haben, bestehen zumindest langfristig weiterhin erhebliche Risiken durch plötzliche klimatische Veränderungen. Weltweit stehen eine ganze Reihe weiträumiger und möglicherweise irreversibler Auswirkungen des Klimawandels zu erwarten.203 Da das Klima ein nichtlinear-chaotisches System ist, können zumindest theoretisch auch durch kleinere Störungen plötzliche Klimaänderungen ausgelöst werden.204 Für die Beurteilung der Risiken des anthropogenen Klimawandels sind abrupte Klimaänderungen, die in kürzester Zeit ein extrem großes Schadensausmaß annehmen können, von entscheidender Bedeutung. Von der 201 202 203 204
Ebd., S. 16. Vgl. R. A. Bindschadler, C. R. Bentley: Auf dünnem Eis?, in: Spektrum der Wissenschaft 02/2003, S. 30–38. Eine Übersicht bietet IPCC 2001, WG II, S. 7. IPCC 2001, S. 91 und S. 95.
Fossile Energieträger
117
Beurteilung des Risikos rapider Klimaänderungen hängt wiederum die richtige politische Klimastrategie ab: Während im Falle eines kontinuierlichen und langfristigen Anstiegs der globalen Durchschnittstemperaturen die Klimapolitik auf eine Nachsorgestrategie setzen kann, versagt ein solches Konzept gegenüber kurzfristigen Klimaschwankungen mit katastrophalem Schadensausmaß. Das Risiko abrupter Klimaänderungen Abrupte Klimaänderungen liegen vor, wenn großräumige klimatische Veränderungen in einem Zeitraum von wenigen Jahrzehnten auftreten.205 In Europa könnte eine abrupte Klimaänderung durch einen Wegfall der thermohalinen Zirkulation im Nordatlantik (des Golfstroms) hervorgerufen werden. Wegen ihrer zentralen Bedeutung für Europa soll die Gefährdung des Nordatlantikstroms durch den Treibhauseffekt im Folgenden exemplarisch diskutiert werden. Aus Eisbohrkernmessungen ist bekannt, dass während der letzten Eiszeit die Temperaturen in Grönland innerhalb weniger Jahre um acht bis zehn Grad emporschnellten, sie kehrten im Verlauf mehrerer Jahrhunderte zum vorherigen niedrigeren Eiszeitniveau zurück.206 Diese abrupten Klimaänderungen wurden nach ihren Entdeckern Dansgaard-Oeschger-Ereignisse (D/O-Ereignisse) genannt. Aus bisher ungeklärten Gründen weisen sie einen regelmäßigen 1500 Jahres-Zyklus auf. Seit der letzten Eiszeit hat es jedoch keine D/O-Ereignisse mehr gegeben.207 Das Ende der plötzlichen Klimaschwankungen vor 10 000 Jahren schuf auch die Voraussetzung für das Aufkommen der Landwirtschaft. Viele Forscher vermuten, dass die während der letzten Eiszeit auf Grönland beobachteten hohen Temperaturschwankungen auf abrupte Änderungen in der Zirkulation des Golfstroms zurückgehen. Demnach pendelte der Golfstrom während der letzten Eiszeit zwischen drei Zuständen: Entweder führte er warmes Wasser bis vor die Nordküste Skandinaviens (was das plötzliche milde Klima in Grönland erklärt), endete schon irgendwo südlich von Island (Normalzustand während der Eiszeit) oder riss zeitweilig vollständig ab (was eine verstärkte Abkühlung der nördlichen Hemisphäre bewirkte). Ursache für diese plötzlichen Än205 206 207
Diese Definition nach S. Rahmstorf: Abrupt Change, in: J. Steele; S. Thorpe; K. Turekian (Hrsg.), Encyclopedia of ocean sciences, London 2001, S. 1–6. S. Rahmstorf: Warum das Eiszeitklima Kapriolen schlug, in: Spektrum der Wissenschaft, 09/2001, S. 12–15. vgl. W. S. Broecker: Plötzliche Klimawechsel, in: Spektrum der Wissenschaft, 01/1996, S. 90, Abb. 4.
118
Darstellung der verschiedenen Energieoptionen
derungen waren möglicherweise Fluktuationen im Salzgehalt des Nordatlantiks.208 Wahrscheinlich floss durch eine zeitweilige Erwärmung der grönländischen und skandinavischen Gletscher mehr Süßwasser in den Nordatlantik, wodurch sich die Dichte des Wassers und damit auch die Masse der nordatlantischen Tiefenströmung aus kaltem, salzigem Meerwasser verringerte, was schließlich zu einem völligen Abbruch des Golfstroms führte. Umgekehrt könnten bereits kleine Temperaturschwankungen das „Wiederanspringen“ der nordatlantischen Umwälzpumpe ausgelöst haben.209 Hintergrund dieser Theorie ist die Tatsache, dass eine Tiefenströmung wie im Nordatlantik sich nur aufgrund des dortigen höheren Salzgehaltes des Oberflächenwassers bilden kann. Ein deutlich verringerter Salzgehalt des Wassers, z. B. durch verstärkte Niederschläge, kann daher zu einem Versiegen dieser Tiefenströmung führen. Anscheinend ist dieses Phänomen während der letzten Eiszeit mehrfach aufgetreten. Die bestdokumentierte Klimaänderung aus dieser Zeit ist das jüngere Dryas (13 000–11 600 vor der Gegenwart), die in Nordamerika mit einem raschen Rückgang der Durchschnittstemperaturen um 6–20 °C verbunden war und einer ebenso schnellen Rückkehr wärmerer Klimata innerhalb von nur 50–75 Jahren. Wie paläobotanische Pollenuntersuchungen gezeigt haben, konnte sich die Vegetation in diesen Regionen innerhalb weniger Jahrzehnte an diese plötzlichen Klimaänderungen anpassen.210 Heute hätte ein solcher plötzlicher Temperatursprung jedoch dramatische Folgen: Die Wintertemperaturen über dem Nordatlantik gingen um mindestens 5 °C zurück. Eine europäische Stadt wie Dublin bekäme ein Winterklima wie es heute in Spitzbergen herrscht.211 Die klimageschichtlichen Beobachtungen eines abrupten Ausbleibens und „Anspringens“ des Golfstroms zeigen, dass die heutige thermohaline Zirkulation im Nordatlantik auf einem sorgfältig ausbalanciertem Gleichgewicht basiert, dessen wichtigste Faktoren die Temperatur und der Salzgehalt des Meerwassers sind. Messungen der Europäischen Satelliten ERS-1 und ERS-2 haben gezeigt, dass die Durchschnittstemperatur des atlantischen Ozeans zwischen 1992 und 2000 um 0,1 °C angestiegen ist 212, satel208 209
210 211 212
Vgl. ebd., S. 89. Neuere Modellrechnungen haben gezeigt, dass wahrscheinlich auch Veränderungen in den Meeresströmungen der südlichen Hemisphäre Einfluss auf die thermohaline Zirkulation im Nordatlantik hatten, vgl. T.F. Stocker: South dials north, in: Nature, Vol. 424, 31. 7. 2003, S. 496–497. D. Peteet: Sensitivity and rapidity of vegetational response to abrupt climate change, in: PNAS, Vol. 97, 2000, 1351–1361. Broecker, 1996, S. 87 und 92. Knudsen / Andersen: Long-Term Changes of ERS. Regional Changes in Sea level and Sea surface Temperature; in: EOQ, Nr. 69, Juni 2001, S. 8–13.
Fossile Energieträger
119
litengestützte Messungen des Salzgehaltes sind derzeit hingegen noch mit messtechnischen Unsicherheiten behaftet.213 Der in den letzten Jahrzehnten beobachtete sommerliche Rückgang der Ausdehnung der arktischen Eisdecke um 10 bis 15 %, verbunden mit einem Rückgang der Eisdicke um 40 %, könnte im Fall einer Fortsetzung dieses Trends zu einer verringerten Kühlleistung des arktischen Meerwassers und damit zu einer Abschwächung der nordatlantischen Tiefenströmung führen.214 Nach neueren Auswertungen von Satellitendaten der NASA ist die sommerliche arktische Eisdecke in den letzten zwanzig Jahren sogar um 20 % geschrumpft.215 Das IPCC-SRES Klimaszenario geht für 2080 von einem Temperaturanstieg des arktischen Ozeans im Winter von 3–16 °C aus.216 Die gleichzeitig verstärkte Erwärmung der arktischen Landflächen könnte durch das Abschmelzen grönländischer Gletscher dem arktischen Ozean zudem mehr Schmelzwasser zuführen und die thermohaline Zirkulation noch weiter schwächen.217 Wie Modellrechnungen des Hadley-Centre (UK) gezeigt haben, sinkt die durchschnittliche Dicke der arktischen Eisdicke im Winter (März) im Falle einer Vervierfachung des CO2-Spiegels in der Atmosphäre von heute 5 auf einen 1 Meter.218 Eine Vervierfachung des CO2-Spiegels ist allerdings zumindest für das 21. Jahrhundert kein wahrscheinliches Szenario. Eine mögliche Erklärung für die bereits heute beobachtete Zunahme der Winter- und Frühjahrstemperaturen in Nordeuropa und Sibirien ist die Verstärkung des Northern Hemisphäre Annular Mode (NAM), einem wiederkehrenden Muster klimatischer Anomalien im Bereich der winterlichen Nordhemisphäre.219 Der Luftdruck ist im Winter und Frühjahr wegen der langen Dunkelperiode in der Polregion wesentlich niedriger als in den mittleren nördlichen Breiten. Diese Luftdruckdifferenzen erzeugen einen circumpolaren Wirbel, der zusammen mit den Luftdruckdifferenzen seit 1970 an Intensität deutlich zugenommen hat. Verstärkt wird der Wirbel außerdem durch wachsende Temperaturdifferenzen zwischen der arktischen Stratosphäre und Troposphäre. Als Ursache für den erhöhten Temperatur 213 214 215
216 217 218 219
Vgl. Y. Kerr, J. Font, P. Waldteufel, M. Berger: The soil moisture and ocean salinity mission – SMOS, in: EOQ, No. 66, Juli 2000, S. 18–25. Vgl. IPCC 2001, WG II, S. 810 ff. E. H. Thompson, K. Ramanujan: Recent warming of arctic may affect worldwide climate, NASA 23. 10. 2003 (Date of web publication), unter: http://www.gsfc.nasa.gov/ topstory/2003/1023esuice.html [Stand: Oktober 2003]. IPCC 2001, WG II, S. 813. Ebd., S. 814. Vgl. bei D. J. Wingham: The first of ESA’s first opportunity missions: cryosat, in: EOQ, No. 63, September 1999, S. 21, Abb. 1. D. L. Hartmann, J. M. Wallace, V. Limpasuvan, D. W. J. Thompson, J. R. Holton: Can ozon depletion and global warming interact to produce rapid climate change?, in: PNAS, Vol. 97, Februar 2000, 1412–1417.
120
Darstellung der verschiedenen Energieoptionen
gradienten wird die verstärkte Abkühlung der Stratosphäre durch Ozonabnahme bei gleichzeitiger Erwärmung der Troposphäre durch Treibhausgase vermutet. Beide Effekte wirken wahrscheinlich synergistisch. Aufgrund der erfolgreichen FCKW-Reduktionsmaßnahmen wird für die nächsten Jahre jedoch eine Abschwächung des NAM-Indexes prognostiziert. Die Veränderungen des NAM erklären möglicherweise zumindest z. T. auch den sommerlichen Rückgang der arktischen Eisdecke. Durch die verstärkte Zirkulation fließt das Eis- und Oberflächenwasser der Arktis nämlich rascher ab. Es gibt Indizien, dass der Nordrand des Golfstroms sich als Reaktion auf die NAM-Veränderungen bereits weiter nach Norden verschoben hat. Obwohl alle vom IPCC untersuchten Klimamodelle eine Verringerung der thermohalinen Zirkulation im Nordatlantik voraussagen, beinhaltet derzeit keines einen kompletten Wegfall des Golfstroms vor 2100.220 In Modellen mit einer Verdoppelung des CO2-Gehaltes der Atmosphäre kommt es sogar zu einer raschen Erholung des Golfstroms. Dennoch besteht nach Ansicht der Forscher die Gefahr, dass im Falle einer langanhaltenden und wachsenden Strahlungsbilanzstörung der Golfstrom vollständig und irreversibel wegfallen könnte. Darüber, ob ein völliger Wegfall des Golfstroms für die Zukunft wahrscheinlich ist oder nicht, bei welchem Schwellenwert er auftreten könnte und welche Klimafolgen er hätte, lassen sich nach heutigem Kenntnisstand keine sicheren Prognosen treffen.221
3.2
Kernenergie
3.2.1 Physikalische Grundlagen Die Möglichkeit der Energiegewinnung aus Atomkernen beruht auf dem Massendefekt der Atomkerne. Unter Massendefekt versteht man das Phänomen, dass die Gesamtmasse eines Atomkerns kleiner ist als die Summe aller Elementarteilchen, aus denen er zusammengesetzt ist. Diese „fehlende“ Masse liegt im Kern in Form von Bindungsenergie vor Die mittlere Bindungsenergie pro Nukleon ist im Prinzip für alle Atomkerne gleich groß. Allerdings wirken auf die Nukleonen, die an der Oberfläche eines Kerns liegen, nur einseitige Bindungskräfte. Dies führt dazu, dass die mittleren Bindungskräfte bei sehr kleinen und sehr großen Kernen herabgesetzt ist. Bei den sehr kleinen bildet relativ zur Gesamtmasse ein großer Teil der Nukleonen die Kernoberfläche. Bei den sehr schweren 220 221
IPCC 2001, S. 73. Eine Diskussion dieses Risikos bei S. Rahmstorf: Ocean circulation and climate during the past 120 000 years, in: Nature, Vol. 419, 09/2002, S. 207–214.
Kernenergie
121
Atomkernen hingegen ist die Bindungsenergie vor allem deswegen herabgesetzt, weil die elektrostatische Abstoßung der positiv geladenen Protonen relativ zur Größe des Kerns zunimmt. Die herabgesetzte Bindungsenergie bei sehr leichten und sehr schweren Kernen bildet die Voraussetzung dafür, dass bei kernphysikalischen Prozessen Energie freigesetzt werden kann, nämlich entweder durch x x
die Fusion sehr leichter Kerne (Atomkern-Fusionsenergie) oder die Spaltung sehr schwerer Kerne (Atomkern-Spaltungsenergie)
Da bei diesen Prozessen ein Teil der Masse in Energie umgewandelt wird, werden gemäß der Einsteinschen Formel E = m × c2 [Energie = Masse × Lichtgeschwindigkeit zum Quadrat] potenziell riesige Energiemengen frei. Bei der Fusion von 1 kg Nukleonen aus Wasserstoff entstehen z.B. 0,993 kg Helium bzw. bei der Kernspaltung von 1 kg Uran mittelschwere Kerne (und zusätzlich 2 bis 3 freie Neutronen) mit einer Gesamtmasse von 0,999 kg.222 Die Massendifferenz beträgt also in diesem Fall für die Kernfusion sieben, im Fall der Kernspaltung ein Gramm. Trotz dieser nur geringen Massendifferenz sind die dabei freiwerdenden Energiemengen ungeheuer groß. Dies sind z. B. für die Fusion von 1 kg Wasserstoffkernen zu Helium: E = 0,007 kg × (3 × 108 m/sec)2 = 63 × 1013 J = 175 Mio kWhth bzw. für die Spaltung von 1 kg Uran: E = 0,001 kg × (3 × 108 m/sec)2 = 9 × 1013 J = 25 Mio kWhth Aus einem Kilogramm aufbereitetem Uran, wie es typischerweise in Kernkraftwerken eingesetzt wird, lassen sich 350 000 kWh Strom erzeugen. Damit übertrifft die Energiedichte von Kernbrennstoffen die von fossilen Brennstoffen um mehrere Größenordnungen. Die Verbrennung von 1 kg Steinkohle etwa liefert vergleichsweise nur 0,000003 Mio. kWh (= 3 kWh) elektrischer Energie. Was dies konkret bedeutet, soll an einem Beispiel veranschaulicht werden. Der jährliche Treibstoffbedarf für ein 1000 MW-Kraftwerk – eine typische Kraftwerksgröße – könnte alternativ gedeckt werden aus 223: x x x x
222 223
2,7 Millionen t Kohle 1,9 Millionen t Öl 28 t UO2 [Uran] 350 kg Deuterium und Tritium (in einem derzeit noch nicht existenten Fusionskraftwerk) Zahlen nach Heinloth 1997, S. 212/213. Zahlen nach J. Ongena / G. van Oost: Energy for future centuries. Will fusion be an inexhaustible, safe and clean energy source?, in: Transactions of Fusion Technology 33 (2T); 9 (1998).
122
Darstellung der verschiedenen Energieoptionen
3.2.2 Technik Technisch nutzbar ist für den Menschen vor allem die induzierte Kernspaltung von Uran-235 durch den Beschuss mit Neutronen. Zumindest theoretisch sind auch Reaktoren auf der Basis von Thorium oder Plutonium möglich, mit denen in der Vergangenheit bereits Reaktoren betrieben worden sind, von denen zur Zeit jedoch keine mehr in Betrieb sind. Bei der Spaltung eines Uranatoms werden im Mittel 211 MeV freigesetzt: ESP = 235 × 0,9 MeV = 211 MeV Die Energie, die bei der Kernspaltung frei wird, steckt zunächst ganz überwiegend in der kinetischen Energie der Spaltprodukte. Durch Zusammenstöße mit anderen Teilchen wird sie dann aber innerhalb kürzester Zeit in technisch nutzbare Wärmeenergie umgewandelt. Voraussetzung für die zivile Nutzung der Kernenergie ist eine kontrollierte Kettenreaktion, bei der im statistischen Mittel nur eines der zwei bis drei Neutronen einen weiteren Kern spaltet. Die Spaltung von mehr Kernen würde zu einem exponentiellem Anstieg der Kettenreaktion und der unkontrollierten Freisetzung von Energie führen, ähnlich der Zündung einer Atombombe. Entgegen weit verbreiteter Vorstellungen lässt sich eine kontrollierte Kettenreaktion leichter erzeugen als eine unkontrollierte.224 Um die Wahrscheinlichkeit einer Kernspaltung zu erhöhen, werden in einem Reaktor die Neutronen in der Regel durch einen sogenannten Moderator auf niedrigere Energien „abgebremst“. Als Moderator dient dabei entweder gewöhnliches Wasser, Graphit oder schweres Wasser (D2O). Funktionsweise eines Kernkraftwerks In Kernkraftwerken wird die durch Kernspaltungsreaktionen freiwerdende Wärmeenergie durch Antrieb von Turbinen in mechanische Energie und mit Hilfe turbinengetriebener Generatoren schließlich in Elektrizität umgewandelt. Hinsichtlich der auf die Spaltung folgenden Energiewandlungsketten unterscheiden sich Kernkraftwerke nicht von Kraftwerken auf fossiler oder solarthermischer Basis und unterliegen als solche auch denselben thermodynamischen Beschränkungen bei der Umwandlung von Wärme in elektrische Energie.
224
Vgl. Heinloth 2003, S. 225.
Kernenergie
123
Der Reaktor eines Kernkraftwerks ersetzt innerhalb dieser Energiewandlungskette im Prinzip nur den Dampfkessel eines fossil befeuerten Wärmekraftwerks. Die in kommerziellen Kernkraftwerken eingesetzten Reaktortypen können vor allem nach der Art des eingesetzten Moderators unterschieden werden. Die überwiegende Zahl der heute eingesetzten Kernkraftwerke sind Leichtwasserreaktoren, in denen gewöhnliches Wasser als Moderator fungiert. Ein deutlich kleinerer Teil arbeitet mit Graphit oder schwerem Wasser (D2O). Drei wichtige Reaktortypen sollen kurz vorgestellt werden. Leichtwasserreaktoren (LWR) Von weltweit 431 Kernkraftwerken sind 330 Leichtwasserreaktoren, d. h. Reaktoren, die mit Wasser als Moderator arbeiten.225 Leichtwasserreaktoren werden als Druck- oder Siedewasserreaktoren ausgeführt. Der Hauptunterschied zwischen ihnen liegt darin, dass Druckwasserreaktoren mit einem Zweikreissystem arbeiten: x
x
In Siedewasserreaktoren (SWR) wird bereits im Reaktorkern Wasserdampf erzeugt, der direkt auf die Turbine geleitet wird. In Druckwasserreaktoren (DWR) wird hingegen das wärmeabführende Kühlwasser durch Drücke von 15 bar (15 Mpa) in einem flüssigen Zustand gehalten. Das im Reaktor von 290 auf 330 °C erhitzte „flüssige Wasser“ gibt seine Wärmeenergie in einem Dampferzeuger an das Wasser eines Sekundärkreises ab. Erst mit dem Heißdampf aus dem Sekundärkreislauf wird eine Turbine angetrieben.
Die Baukosten für einen DWR oder SWR beliefen sich für die in Deutschland gebauten Reaktoren auf 1500–2000 3/kW.226 Hochtemperaturreaktoren (HTR) Der Hochtemperaturreaktor ist ein Reaktor, der bei hohen Temperaturen von 800 bis 1000 °C arbeitet.227 Diese Temperaturen werden möglich, weil der Kernspaltstoff in temperaturbeständiges keramisches Material eingebettet wird. Die beschichteten Uranteilchen von 0,5–0,7 mm Durchmesser 225 226 227
Heinloth 2003, S. 234. Ebd., S. 241. Vgl. Heinloth 2003, S. 244 ff.
124
Darstellung der verschiedenen Energieoptionen
werden in Graphitkugeln von ca. 6 cm Durchmesser eingebettet, wobei der Graphit als Moderator fungiert.228 Als Kühlmittel dient in einem solchen Kugelhaufenreaktor in der Regel Helium, das den Reaktorkern durchströmt und sich dabei erhitzt. HTR eignen sich besonders zur Bereitstellung von Hochtemperatur-Prozesswärme können aber auch kombiniert zur Erzeugung von Strom und Heizwärme genutzt werden. Der Hochtemperaturreaktor ist in Deutschland mit einem 15 MW Versuchsreaktor des Kernforschungszentrums Jülich zwischen 1967 und 1988 mehr als 20 Jahre lang intensiv erforscht worden.229 Der größte Vorteil des HTR liegt in seinen hervorragenden passiven Sicherheitseigenschaften, die am „Arbeitsgemeinschaft Versuchsreaktor“ [AVR] experimentell unter Beweis gestellt werden konnten. Den Jülicher Forschern gelang es zu zeigen, dass auch im Falle eines vollständigen Kühlmittelverlustes, dem Ausfall der aktiven Nachwärmeabfuhr und dem Versagen des Abschaltsystems, die Temperatur im Kern einen Wert von 1600 °C nicht übersteigt und nach einiger Zeit durch Wärmeleitung an die Oberfläche des Reaktorbehälters ohne Eingriffe von außen wieder abklingt.230 Da die Schmelz- und Entzündungstemperatur der verwendeten Materialien wie Keramik und Graphit nicht überschritten werden, gilt ein Kernschmelzunfall bei Hochtemperaturreaktoren, die eine Kernleistungsdichte von 3 MW/m3 nicht überschreiten, als naturgesetzlich ausgeschlossen.231 Soll diese inhärente Sicherheit 232, gewährleistest sein, muss die Leistungs228 229
230
231 232
vgl. das Stichwort Kugelhaufenreaktor, in: W. Koelzer: Lexikon zur Kernenergie, FZ Karlsruhe 2001. Einen Überblick über die AVR-Forschung bietet: VDI (Hrsg.): AVR – 20 Jahre Betrieb. Ein deutscher Beitrag zu einer zukunftsweisenden Energietechnik, Düsseldorf 1989 [= VDI Berichte 729]. Vgl. N. Kirch / G. Ivens: Ergebnisse der Versuche mit dem AVR, ebd. S. 87–101; sowie K. Kugeler: Gibt es den katastrophenfreien Kernreaktor?, in: Physikalische Blätter 57 (2001), Nr. 11, S. 1–6; eine skeptische Bestandsaufnahme der behaupteten sicherheitstechnischen Überlegenheit von HTR gegenüber LWR bei: U. Kirchner: Der Hochtemperaturreaktor. Konflikte, Interessen, Entscheidungen, Frankfurt a.M. 1991, S. 42 ff. Kugeler 2001. Der Terminus „inhärente Sicherheit“ wird in der Literatur nicht einheitlich verwendet. Die HTR-Forscher sehen ihn auf die naturgesetzliche Unmöglichkeit einer Kernschmelze beschränkt. Daneben wird diese Eigenschaft jedoch auch Leichtwasserreaktoren westlicher Baulinien zugeschrieben, da diese über einen negativen Dampfblasenkoeffezienten verfügen, durch den sich die Temperatur im Reaktor innerhalb gewisser Grenzen passiv stabilisiert. Im Gegensatz zu kleinen HTR kann ein Kernschmelzunfall bei LWR jedoch nicht vollständig ausgeschlossen werden. Bisweilen wird daher auch vorgeschlagen zwischen technisch inhärenter Sicherheit bei HTR und physikalisch inhärenter Sicherheit bei LWR zu unterscheiden, vgl. dazu z. B. das Stichwort „inhärente Sicherheit“ unter www.energieinfo.de [Stand Dezember 2002]; vgl. zur energiepolitischen Kontroverse um die sicherheitstechnische Überlegenheit von Hochtemperaturreaktoren Kirchner 1991.
Kernenergie
125
größe dieses Reaktortyps je nach Aufbau auf 100–300 MWel beschränkt werden.233 Prinzipiell lässt sich die Leistung jedoch durch die Parallelschaltung von Modulen steigern. Der zwischen 1983 und 1986 in Hamm-Uentrop betriebene 307 MW Thorium Hochtemperaturreaktor (THTR) hat diese inhärente Sicherheit jedoch nicht erreicht, da er mit zu großer Leistungsdichte gebaut worden ist.234 Nach der Stilllegung des THTR 1988 ist diese Reaktorlinie in Deutschland nicht weiter verfolgt worden.235 Südafrika und China entwickeln jedoch derzeit auf der Basis des früheren AVR einen neuen kommerziellen Hochtemperaturreaktor, der in einigen Jahren Marktreife erreichen soll. Brut-Reaktoren Schnellbrüter-Kraftwerke wurden in den siebziger Jahren des 20. Jahrhunderts vor dem Hintergrund einer möglichen Verknappung der weltweiten Uranressourcen entwickelt. Die Besonderheit dieser Reaktoren liegt darin, dass sie im laufenden Betrieb in einer Brutzone mehr spaltbaren Kernbrennstoff „erbrüten“, als sie in der Spaltzone des Reaktors verbrauchen. Wegen der Sicherheitsprobleme und der Entspannung der weltweiten Uranmärkte ist diese Reaktorlinie jedoch weltweit aufgegeben worden. Das Hauptsicherheitsrisiko dieser Reaktoren liegt darin, dass in ihnen wegen der besonderen kernphysikalischen Ansprüche Natrium als Kühlmittel verwendet wird.236 Natrium aber ist ein Element, dass sich an der Luft spontan entzündet und explosionsartig beim Kontakt mit Wasser reagiert.
3.2.3 Die langen Schatten des Krieges Bereits unmittelbar im Anschluss an die Publikation der Entdeckung der Kernspaltung durch Otto Hahn und Fritz Strassmann 1939 in der Januarausgabe der Zeitschrift „Die Naturwissenschaften“ haben Physiker in aller Welt sich die Frage gestellt, ob die bei Kernspaltungsreaktionen theoretisch zu erwartende Energiefreisetzung nutzbar gemacht werden kann. Aufgrund der von Einstein entdeckten Beziehung der Äquivalenz von Masse 233 234 235 236
Heinloth 2003, S. 245. Vgl. zu dieser Fehlkonstruktion L. Hahn: Beobachtungen zum Thema Ethik und Heuchelei in der Kontroverse um die Kernenergie, in: FZ Jülich et al. 2000, S. 172. U. Kirchner: Der Hochtemperaturreaktor. Konflikte, Interessen, Entscheidungen, Frankfurt a.M. 1991. Zur Technologie der Schnellen Brüter vgl.: E. Guthmann: Schnellbrüter-Kraftwerke, in: Kernkraftwerke [= Handbuchreihe Energie Bd. 10, hrsg. von T. Bohn], Köln 1986, S. 494–521.
126
Darstellung der verschiedenen Energieoptionen
und Energie war klar, dass bei einer Kettenreaktion von Atomkernspaltungen potenziell ungeheure Energiemengen frei werden mussten. Bereits in einer der Folgeausgaben der „Naturwissenschaften“ stellte der Physiker Siegfried Flügge unter dem Titel „Kann der Energiegehalt der Atomkerne technisch nutzbar gemacht werden?“ 237 weitergehende Überlegungen über das mögliche energetische Potenzial der Kernenergie an und machte auch bereits konkrete Vorschläge hinsichtlich einer möglichen künftigen Nutzung für die Stromerzeugung. Der kurz darauf ausbrechende zweite Weltkrieg führte jedoch dazu, dass in Deutschland, den USA und der UdSSR, zunächst unter Hochdruck das mögliche militärische Potenzial der neuen Energiequelle erforscht wurde. In diesem später als „Krieg der Laboratorien“ bezeichneten Wettlauf machten die USA wegen ihrer überlegenen wissenschaftlichen und wirtschaftlichen Ressourcen, die politisch im streng geheimen „ManhattenProjekt“ gebündelt wurden, das Rennen.238 Der Durchbruch gelang den in die USA emigrierten europäischen Physikern Enrico Fermi und Leo Szilard, die 1942 in einem Keller in Chicago den ersten Kernreaktor der Welt in Betrieb nahmen. Am 2. Dezember 1942 erreichte der CP-1 (Chicago Pilot 1), so seine offizielle Abkürzung, erstmals die Kritikalität, d. h. eine sich selbst tragende Spaltungsreaktion.239 Von diesem Zeitpunkt war klar, dass die Energiegewinnung aus Kernspaltungsreaktionen technisch möglich war, ebenso aber auch der Bau von Kernwaffen mit einem bis dahin nie gekannten Zerstörungspotenzial. Die ersten im Anschluss an den CP-1 in den USA gebauten Reaktoren dienten auch nicht der Energieerzeugung, sondern der Erbrütung von Plutonium für Kernwaffen. Nur drei Jahre später explodierten über den japanischen Städten Hiroshima und Nagasaki die ersten Atombomben mit grauenvollen Folgen für die Zivilbevölkerung, deren Opfer in die Zehntausende ging. 1949 etablierte sich auch die UdSSR durch die Versuchsexplosion einer Atombombe als Atommacht. Erst 1953 gab der amerikanische Präsident Dwight D. Eisenhower in einer Rede vor der Vollversammlung der Vereinten Nationen, die unter dem programmatischen Titel „Atoms for Peace“ stand, den Startschuss für die friedliche Nutzung der Kernenergie in den USA. Nach ersten Prototypen wurde 1956 in Calder Hall in England schließlich das erste kommerzielle 237
238 239
S. Flügge: Kann der Energiegehalt der Atomkerne technisch nutzbar gemacht werden?, in: Die Naturwissenschaften, 27. Jg. (1939), S. 402–410, wiederabgedruckt in: H. Wohlfarth: 40 Jahre Kernspaltung. Eine Einführung in die Originalliteratur, Darmstadt 1979, S. 119–140. Vgl. zum „Krieg der Laboratorien“ D. Bald: Hiroshima, 6. August 1945. Die nukleare Bedrohung, München 1999, S. 16–71. W. Lanouette: Fermi, Szilard und der erste Atomreaktor, in: Spektrum der Wissenschaft, 1/2001, S. 78–83.
Kernenergie
127
Kernkraftwerk der Welt in Betrieb genommen. Die Entdeckung der Kernenergie kurz vor Ausbruch des 2. Weltkriegs und ihr zunächst militärischer Einsatz als Massenvernichtungswaffe hat die neue Primärenergiequelle von Anfang an mit einer schweren Hypothek belastet und hochgradig politisiert.240 Die zunächst einseitige militärische Anwendung der Kernenergie führte zudem auch zu technischen Fehlentwicklungen bei der friedlichen Nutzung. Die ersten zivilen Reaktoren wurden von der Elektrizitätswirtschaft aus Kostengründen auf der Grundlage von bereits in Atom-U-Booten eingesetzten sehr leistungsfähigen Leichtwasserreaktoren entwickelt, bei denen das Restrisiko einer Kernschmelze bei vollständiger Unterbrechung der Nachwärmeabfuhr besteht. Der von Wissenschaftlern angeregte Weg der Entwicklung andersartiger Reaktortypen mit einem Schwerpunkt auf aktiven und passiven Sicherheitseigenschaften wurde jedoch in einer Phase überhasteter Markteinführung ausgeschlagen.241 Auch die größte Katastrophe der zivilen Kernenergienutzung, die Explosion des Reaktorsblocks 4 von Tschernobyl, wurde durch eine fehlende Trennung von ziviler und militärischer Nutzung zumindest mitverursacht. Der in der UdSSR entwickelte Reaktortyp RBMK wurde nämlich nicht nach sicherheitstechnischen Gesichtspunkten gebaut, sondern diente neben seiner zivilen Nutzung auch der Erbrütung von Plutonium.242 Nach Ansicht westlicher Experten lassen sich viele sicherheitstechnische Mängel dieses Reaktortyps auf diese problematische Doppelfunktion zurückführen. Wegen ihres möglichen Missbrauchspotenzials für den Bau von Kernwaffen wird die friedliche Nutzung der Kernenergie bis in die Gegenwart hinein von sicherheitspolitischen Problemen begleitet. Um eine weltweite Verbreitung von Kernwaffen zu unterbinden, wurde 1968 der Atomwaffensperrvertrag ins Leben gerufen. Der Vertrag unterschied zwei Vertragsgruppen: Die fünf beteiligten Atommächte USA, Großbritannien, Frankreich, die UdSSR und China verpflichteten sich darin, keine Kernwaffen und auch keine geeignete Technologie zum Bau dieser Waffen in andere Länder zu exportieren, während die unterzeichnenden Nicht-Atommächte zusagten, keine Kernwaffen zu entwickeln oder Drittstaaten mit einer geeigneten Technologie zu ihrer Entwicklung zu beliefern. Der Vertrag wurde in der Folge von insgesamt 170 UN-Mitgliedsstaaten ratifiziert, von einigen jedoch später wieder aufgekündigt. Strittig blieb im 240
241 242
Weiterführende Überlegungen dazu bei K. Knizia: Schöpferische Zerstörung = zerstörte Schöpfung? Die Industriegesellschaft und die Diskussion der Energiefrage, Essen 1996, S. 364 ff.; vgl. auch D. Bald, 1999, S. 30. vgl. Heinloth 2003, S. 224. Vgl. F.J. Brüggemeier: Tschernobyl, 26. April 1986. Die ökologische Herausforderung, München 1998, S. 27.
128
Darstellung der verschiedenen Energieoptionen
Anschluss an den Vertrag bis heute, ob und welche Teile eines zivilen Reaktorprogramms als riskante Technologie gelten und welchen Staaten Hilfe beim Bau von Reaktoren aus Sicherheitsgründen verweigert werden sollte. Ein aktuelles Beispiel für dieses Problem ist die Diskussion um die zivilen Kernenergieprogramme Nordkoreas und des Iran, bei denen sich die USA und Russland, die in diesen Ländern zivile Reaktoren bauen, gegenseitig Verstöße gegen den Atomwaffen-Sperrvertrag vorwerfen. Nach dem Ausscheiden Nordkoreas aus dem Atomwaffensperrvertrag haben die USA ihre Hilfe im Rahmen des zivilen Reaktorprogramms allerdings eingestellt. Die Erfahrungen mit Indien und Pakistan, die ihre zivilen Reaktorprogramme für die Entwicklung von Kernwaffen genutzt haben, nähren Befürchtungen, dass eine weitere Verbreitung der zivilen Kernenergienutzung auch einer weltweiten Verbreitung von Kernwaffen Vorschub leisten wird.243 Andererseits zeigen die Beispiele Indien und Pakistan, dass Staaten, die zum Bau von Kernwaffen entschlossen sind und über das nötige finanzielle und technische Potenzial verfügen, auch durch technologische Embargos längerfristig nicht an der Entwicklung gehindert werden können. Pakistan ist es weitgehend unabhängig von einem zivilen Reaktorprogramm gelungen, das technische Wissen für den Bau effizienter Gasdiffusionsanlagen zur Anreicherung von Uran zu erwerben und auf dieser Basis ein eigenes Kernwaffenprogramm aufzubauen.244 Durch die erfolgreich durchgeführte Versuchsexplosionen von Atombomben sind Indien und Pakistan mittlerweile auch offizielle Atommächte. Diese Beispiele lehren, dass das Hauptproblem in der Verfügbarkeit von technischem Wissen für den Bau von Kernwaffen besteht. Eine Reduzierung der Gefahren, die von der Verbreitung von Kernwaffen ausgehen, muss daher in erster Linie von verstärkten Bemühungen der internationalen Diplomatie, der Stärkung der Kontrollmöglichkeiten der IAEO vor allem aber dem freiwilligen Verzicht auf den Bau dieser Waffen aus Einsicht in ihre Risiken ausgehen.
3.2.4 Märkte und Prognosen Ende 2001 arbeiteten in 31 Ländern der Erde 438 Kernkraftwerke, die jährlich rund 2400 TWh elektrischer Energie erzeugten, entsprechend einem Anteil von 17 Prozent an der weltweiten Stromerzeugung.245 243 244 245
Vgl. zu den Programmen und der Genese: M. Springer: Indien, Pakistan und die Bombe, in Spektrum der Wissenschaft 2/2002, S. 92–99. Ebd. IEA (Hrsg.): Weltenergieausblick 2000 (Schwerpunkte), IEA 2001, S. 37.
Kernenergie
129
Die kumulierte Betriebserfahrung der weltweit vorhandenen Reaktoren beläuft sich mittlerweile (Stand 2001) auf 10 000 Reaktorbetriebsjahre. Damit kann die Kernenergie als eine technisch ausgereifte und zuverlässige Technologie gelten.246 In der Entwicklung der Kernenergie zeichnen sich gegenwärtig zwei gegenläufige Trends ab: Während in den aufstrebenden Schwellenländern Süd- und Ostasiens, insbesondere China und Indien, die Kernenergie derzeit mit hohem Tempo ausgebaut wird, ist sie im OECD Raum, auf den derzeit noch vier Fünftel der Kraftwerkskapazitäten entfallen, stagnierend bis rückläufig. Die Internationale Energie Agentur (IEA) schätzt, dass im OECD-Raum bis 2020 30 % der vorhandenen Kraftwerke, entsprechend einer Leistung von 84 Gigawatt, aus Altersgründen stillgelegt werden müssen. Demgegenüber werden im selben Zeitraum in den Entwicklungsländern voraussichtlich 62 Gigawatt an neuen Kapazitäten entstehen.247 Ein großer Teil des für den OECD-Raum prognostizierten Rückgangs ergibt sich daraus, dass der US-amerikanische Kraftwerkspark veraltet ist und viele Kernkraftwerke in den USA in den nächsten Jahren ihre Laufzeitgrenze erreichen. Allerdings sind die Prognosen über den Rückgang der Kraftwerkskapazitäten wahrscheinlich zu hoch, da die in den USA für Kernenergie zuständige Nuclear Regulatory Commission (NRC) seit 2000, angefangen mit dem Kraftwerk Calvert Cliff, die Betriebgenehmigungen für einige Reaktoren um zwei Jahrzehnte erhöht hat und dieses fortsetzen wird. Auch der Neubau von Reaktoren scheint in den USA mittlerweile weitgehend festzustehen.248 2002 hat die 1999 gegründete und dem Department of Energy beigeordnete „Nuclear research initiative“ (NERI) zu diesem Zweck einen Plan für den Bau einer neuen Generation von Kernkraftwerken vorgelegt, die ab 2010 betriebsbereit sein könnten.249 Wahrscheinlich wird der Rückgang der Kernenergie in den OECD-Ländern daher langsamer verlaufen als von der IEA zunächst prognostiziert. 246 247 248
249
10 000 Betriebsjahre in Kernkraftwerken, VDEW 25. 6. 01, unter www.strom.de [Stand 2002]. EIA, 2001., S. 96. Zur möglichen Renaissance der Kernenergie in den USA vgl. D. Eisenberg: Nuclear Summer, Bush’s new energy plan is hoping to light a fire under the least loved power source. But a revamped industry is way ahead of him, in: Time-Magazine, 28. 5. 2001; sowie D. Kadlec: Power Struggle. Bush takes the heat for an energy policy that’s warm to oil and cool to conservation, in: Time-Magazine, 21. 5. 2001. DOE (Hrsg.) Nuclear Power 2010, unter http://www.ne.doe.gov/infosheets/NP2010.pdf [Stand 2003].
130
Darstellung der verschiedenen Energieoptionen
Zudem bestehen im OECD-Raum nicht nur in den USA, sondern auch in Frankreich, Japan und Finnland konkrete Pläne für den Neubau von Reaktoren. In der EU stellt sich die Situation widersprüchlich dar: Eine große Zahl europäischer Länder, darunter Spanien, Belgien, Deutschland und Schweden haben ein Moratorium über den Bau neuer Kernkraftwerke verhängt, Deutschland und Schweden haben sogar einen vorzeitigen Ausstieg beschlossen.250 Allerdings hat Schweden aus dem Referendum bisher keine oder nur geringe Konsequenzen gezogen. Frankreich setzt hingegen weiterhin unbeirrt auf Kernenergie und das finnische Parlament hat im Frühjahr 2002 den Bau eines neuen Reaktors beschlossen. Mit einem Anteil von mehr als 70 Prozent ist der Anteil der Kernenergie an der Stromerzeugung in Frankreich größer als in irgendeinem anderen Land der Welt. In der absoluten installierten Kraftwerksleistung liegt Frankreich auf dem zweiten Platz hinter den USA. Eine völlig andere Situation als in Europa zeigt sich in den aufstrebenden Schwellenländern Süd- und Ostasiens, deren Kernenergiekapazitäten sich bis 2020 voraussichtlich verdoppeln werden. Indien verfügt zur Zeit über 11 KKW und hat drei weitere im Bau. Die Nuclear Power Company Indiens möchte ihre Kapazitäten bis 2020 auf 20 000 MW/h ausbauen. China hat zur Zeit sogar 7 Einheiten im Bau und will in den nächsten Jahren zusätzlich 60 bis 100 Mrd. $ in den Bau neuer Kernkraftwerke investieren.
Abb. 3.22 Stromerzeugung aus Kernenergie in den Schwellenländern Süd- und Ostasiens [EIA-Referenzprognose 2001]
250
International Energy Outlook 2001, S. 87.
Kernenergie
131
Weitere asiatische Länder, darunter Vietnam, Indonesien, Iran und Nordkorea, planen den Einstieg in die Kernenergienutzung. Die EIA-Referenzprognose geht daher davon aus, dass die Produktion von Strom aus Kernenergie in Süd- und Ostasien bis 2020 um rund 400 TWh ansteigen wird. Auch Russland und die Ukraine haben einen Ausbau ihrer Kapazitäten angekündigt, in beiden Ländern befinden sich derzeit je 4 Einheiten im Bau. Allerdings sind die meisten der derzeit 30 russischen Reaktoren veraltet, weshalb der Anteil der Kernenergie in diesen Ländern voraussichtlich in den nächsten Jahren rückläufig sein wird. Die EIA geht in ihrem Referenzszenario von 2001 davon aus, dass der Rückgang der Stromerzeugung aus Kernenergie in den OECD-Staaten im Wesentlichen durch den Ausbau der Kapazitäten in Süd- und Ostasien kompensiert werden wird (Abb. 3.23). Der Umfang der weltweiten Stromerzeugung aus Kernenergie wird nach dieser Prognose bis 2010 ansteigen und sich um 2020 in einer Größenordung von 2500 TWh stabilisieren.
3.2.5 Neue Reaktorgenerationen In der Entwicklung einer neuen Reaktorgeneration werden weltweit vor allem drei Baulinien verfolgt: 1) Von einer großen Gruppe der Kernenergie-Nutzungsländer (u. a. Argentinien, Brasilien, Frankreich, Großbritannien, Japan, Kanada, Südkorea
Abb. 3.23 Weltweite Stromerzeugung aus Kernenergie nach Regionen [EIA-Referenzprognose 2001]
132
Darstellung der verschiedenen Energieoptionen
und USA) wird seit Februar 2000 in einer multinationalen Kooperation unter Federführung der USA die Planung für den Bau eines einheitlichen Leichtwasserreaktors der vierten Generation („Generation IV“) mit einem durch aktive und passive Sicherheitsvorkehrungen um ein bis zwei Größenordnungen reduziertem Risiko eines Unfalls vorangetrieben.251 2) Südafrika entwickelt derzeit in Zusammenarbeit mit amerikanischen und britischen Energieversorgungsunternehmen einen neuen Typ von Hochtemperaturreaktor mit inhärenter Betriebssicherheit (nach seiner englischen Abkürzung PBMR genannt).252 China verfolgt ähnliche Pläne mit dem Versuchsreaktor HTR 10, der im Grundaufbau dem ehemaligen AVR in Jülich gleicht. 3) Russland entwickelt in Zusammenarbeit mit den USA, Frankreich und Japan einen vollständig unterirdischen Hochtemperaturreaktor vom Typ GT-MHR mit inhärenter Betriebssicherheit zum Abbrand seines waffenfähigen Plutoniums, der längerfristig jedoch auch konventionell mit Uran betrieben werden soll. Diese neuen Entwicklungen werden in der Öffentlichkeit kaum wahrgenommen und verdienen daher eine nähere Darstellung. Insbesondere eine neue Generation von kleinen und inhärent sicheren Hochtemperaturreaktoren könnte möglicherweise ein qualitativ neues Sicherheitsniveau bieten. Sowohl die Entwicklung neuer Leicht- als auch neuer Hochtemperatur-Reaktortypen verdient daher eine nähere Betrachtung. Auf Anregung der USA hat sich in 2000 eine große Gruppe von zehn Kernenergienutzungsländern im „Generation IV International Forum“ (GIF) zusammengeschlossen, um in einer multinationalen Kooperation einen neuen verbesserten Leichtwasserreaktor zu entwickeln. Die geplanten Reaktortypen gelten als vierte Generation nach Prototypen von Leichtwasserreaktoren (I. Generation), den heute weltweit in Betrieb befindlichen Typen (II. Generation) und verbesserten technischen Versionen heutiger Reaktoren (III. Generation). Die IV. Generation soll demgegenüber ein qualitativ neues Sicherheitsniveau bieten und zahlreiche Nachteile heutiger Reaktoren überwinden. 251 252
vgl. dazu: DOE (Hrsg.): Generation IV nuclear energy systems initiative, unter: http://geniv.ne.doe.gov/pdf/genIVoverview.pdf [Stand 2003]. vgl. dazu: Pebble bed modular reactors: A new lease on life for nuclear power?, in: EIA (Hrsg.): International energy outlook 2001, S. 88/89.
Kernenergie
133
Ziel des Forschungsprogramms ist ein neuer Reaktortyp, der 253: x x x x
Ein Minimum an nuklearem Abfall erzeugt, Möglichst ungeeignet für den Bau von Kernwaffen ist, Eine um mehrere Größenordnungen verbesserte Sicherheit bietet Und zu geringeren Investitionskosten gebaut werden kann (angestrebt werden für den neuen Reaktortyp Investitionskosten zwischen 1000 bis 1200 $ je kWel).
Mit Blick auf finanzielle Ausstattung und Umfang der Kooperation steht zu erwarten, dass die Forschungsanstrengungen zum Bau einer vierten Reaktorgeneration eine gute Chance auf Realisierung haben. HTR Entwicklung in Südafrika und China Seit 1993 arbeitet die staatliche südafrikanische Elektrizitätsgesellschaft Eskom an der Entwicklung eines neuen Hochtemperatur-Kugelhaufenreaktors, der nach der englischen Bezeichnung „Pebble bed modular reactor“ die Abkürzung PBMR trägt. Der Baubeginn des ersten PBMR ist für 2006 geplant. In einem PBMR befindet sich das Uran nicht in Brennstäben sondern in 400000 Kugeln, die von den Südafrikanern „pebbles“ (Kieselsteine) genannt werden. Als Moderator fungieren Helium, das die Kugeln mit einer Temperatur von bis zu etwa 800 °C umfließt, und Graphit in den Kugeln. Der PBMR soll die oben beschriebene inhärente Sicherheit gegen Kernschmelzunfälle erreichen. Die projektierten niedrigen Herstellungskosten resultieren nicht zuletzt aus der Entscheidung, den Reaktor, in dem theoretisch keine Kernschmelze stattfinden kann, ohne drucksichere Schutzhülle (containment) zu bauen. Diese Entscheidung wird jedoch von Gegnern des Reaktorprogramms als fahrlässig angesehen. Die Südafrikaner wollen deshalb in einer Testphase nachweisen, dass der PBMR tatsächlich über eine inhärente Betriebssicherheit verfügen. Zuständig für die Sicherheit des PBMR ist der Council for Nuclear Safety (CNS) der südafrikanischen Regierung, der nicht zuletzt im Hinblick auf einen späteren Export die Einhaltung internationaler Sicherheitsstandards beim PBMR garantieren will. Unter Berücksichtigung von Erfahrungen, die beim Betrieb des AVR in Jülich und des deutschen THTR in Hamm-Uentrop gesammelt wurden, sollen Betriebsregeln (General Operating Rules) für einen störungsfreien Betrieb entwickelt werden.254 253 254
Zitiert nach DOE (Hrsg.): Generation IV nuclear energy system initiative. Clapisson / Metcalf / Mysen: PBMR-SA licensing project organization, in: Safety related design and economic aspects of HTGR’s, in: Proceedings of a technical committee
134
Darstellung der verschiedenen Energieoptionen
In China, das mit Südafrika bei der Entwicklung dieses neuen Hochtemperaturreaktors kooperiert, wurde am 21. Dezember 2001 in Beijing (Peking) der erste chinesische HTR in Betrieb genommen. Der Reaktor gleicht in Grundaufbau und Konzeption dem ehemaligen Forschungsreaktor vom Typ AVR in Jülich.255 Der HTR 10, so seine offizielle Bezeichnung, ist ein Versuchsreaktor, an dem die Eigenschaften und Sicherheitsprobleme des HTR überprüft werden sollen. Insbesondere sollen die inhärenten Sicherheitseigenschaften unter Betriebsbedingungen unter Beweis gestellt werden.256 Nach Ansicht der chinesischen Wissenschaftler ist der schwerste denkbare Unfall in einem HTR eine Unterbrechung der Heliumzufuhr durch einen Bruch der Leitung, der zu Schädigungen der Brennstoffe lemente führen könnte.257 Eine Kernschmelze oder unkontrollierte Freisetzung von Radioaktivität wird jedoch ausgeschlossen. Der chinesische HTR kostet derzeit 1500 $ je Kilowatt installierter elektrischer Leistung und soll im Fall seiner kommerziellen Nutzung Stromgestehungskosten von 3,3 US-Cent je kWh erreichen. GT-MHR (Russland / General Atomics) 1995 startete auch Russland im Rahmen eines Kooperationsabkommens zwischen der russischen Atomenergiebehörde Minatom und General Atomics, dem später auch Framatom und die Fuji-Electric beitraten, ein Projekt zum Bau eines neuen Typs von Hochtemperaturreaktoren. Die wissenschaftliche Betreuung des Projektes liegt beim Kurchatov Institut in Moskau. Im Gegensatz zu Südafrika und China verfügt Russland mit den derzeit nicht mehr gebauten Reaktortypen VG-400, VGR 50 und VGM über eine dreißigjährige Erfahrung im Bau von HTR.258 Genauso wie der südafrikanische und chinesische HTR soll der neue russische Hochtemperaturreaktor vor allem durch inhärente Betriebssicherheit und eine hohe Energieeffizienz gegenüber den konventionellen Leichtwasserreaktoren konkurrenzfähig werden.259 Der Aufbau des russischen Reaktors folgt je-
255 256 257 258
259
meeting held in Beijing, China, 24. 11. 98, IAEA-Tecdoc-1210, IAEA 2001, S. 102, unter: www.iaea.org [Stand Oktober 2002]. Peoples Daily online: China completes construction of new type of nuclear reactor in Beijing, 23. 12. 00, unter www.pbmr.com [Stand Januar 2002]. vgl. dazu Y. Sun: Relevant safety isssues in designing the HTR 10 reactor, in: Safety related design and economic aspects of HTGR’s, in: IAEA 2001, S. 157–162. Y. Sun ebd., S. 161. Baydakov / Kodochigov / Kuzavkov / Vorontsov: GT-MHR as economical highly efficient inherently safe modular gas cooled reactor for electric power generation, in: IAEA 2001, S. 24. ebd.
Kernenergie
135
doch einer anderen Konzeption. Der zunächst geplante Forschungsreaktor soll zudem, anders als der chinesische HTR, zunächst auf Plutonium-Basis arbeiten. Damit will Russland, das sich zum Abbau seines waffenfähigen Plutoniums verpflichtet hat, zunächst Plutonium in Reaktoren abbrennen. Spätere kommerzielle Reaktoren dieser Baulinie werden jedoch voraussichtlich ganz normal mit Uran arbeiten. Eine weitere Besonderheit des GT-MHR wird darin bestehen, dass der Reaktor selbst unterirdisch liegen wird, wodurch ein preiswerter Sicherheitseinschluss geschaffen wird.260 Ein erster Prototyp des neuen Reaktors entsteht derzeit im Chemiekombinat der sibirischen Stadt Sewersk.261 Europa Angesichts der weltweiten Entwicklung haben sich eine Reihe europäischer Firmen, die Interesse an der Erforschung der HTR-Technologie haben, in einem Netzwerk zusammengeschlossen, darunter Cogema (Frankreich), VTT (Finnland) und BDT (Deutschland).262 Diese Netzwerk zur Erforschung der Hochtemperaturreaktor – Technologie (HTR-TN) bemüht sich vor allem um eine Zusammenarbeit mit den chinesischen und russischen HTR-Forschern, um Anschluss an die internationale Entwicklung zu halten.
3.2.6 Kosten Kernenergie gehört mit Stromgestehungskosten um 2 Cent/kWh zu den preiswertesten Formen der Elektrizitätserzeugung. Ein durchschnittlicher Leichtwasserreaktor erzeugt bei einer typischen Betriebsdauer von 35 Jahren rund 300 TWh elektrischer Energie.263 Kernkraftwerke eignen sich in besonderem Maße zur Erzeugung einer kontinuierlichen Grundlast, sind jedoch für die Bereitstellung von Regelenergie im Bereich der Spitzenlast ungeeignet. In Deutschland, wo Kernkraftwerke den größten Teil der Grundlast erzeugen, beträgt die durchschnittliche Betriebszeit zwischen 7100 (2002) und 7600 (2001) Stunden im Jahr (bei einer Gesamtjahresstundenzahl von 8760).264 Damit errei-
260 261 262 263 264
ebd. Abb. 2. ebd. J. Guidez: Increasing European networking around high temperature reactors, in: Nuclear Europe World Scan, 7–8/2001, S. 57. Zahl nach Heinloth 2003, S. 241. Zahlen nach VDEW: Kraftwerke unterschiedlich eingesetzt, 17. 9. 01, sowie: Kraftwerksmix für wechselnden Strombedarf, 11. 11. 02, unter: www.strom.de [Stand 2002].
136
Darstellung der verschiedenen Energieoptionen
chen Kernkraftwerke die höchste Betriebszeit/Jahr aller Elektrizitätskraftwerke. Trotz dieser insgesamt guten technischen Voraussetzungen sind Kernkraftwerke wegen sehr hoher Investitionskosten in Höhe von 1000–2500 3/kWel derzeit nicht direkt gegen moderne Gas- und Kohlekraftwerke konkurrenzfähig (zum Vergleich: Die Kosten für ein modernes Gaskraftwerk liegen bei 500 3/kWel).265 Die hohen Anfangsinvestitionen in ein Kernkraftwerk amortisieren sich erst bei einer Laufzeit von mehreren Jahrzehnten und dies erfordert wiederum ein hohes Maß an Planungssicherheit, die nur unter stabilen politischen Rahmenbedingungen gegeben ist.
Abb. 3.24 Öffentliche Mittel für Forschung und Entwicklung der Kernenergie in Deutschland 1956–1996: 25,9 Mrd. DM [VDEW 1998]
Unabhängig vom Investitionsklima taucht in der öffentlichen Diskussion immer wieder die Behauptung auf, dass Kernenergie ohne staatliche Subventionen nicht wettbewerbsfähig sei. Richtig an den Hinweisen auf die staatliche Förderung ist, dass in der Vergangenheit für die Markteinführung der Kernenergie sehr hohe Aufwendungen im Bereich der Forschung und 265
Zahlen nach O. Preuß, T. Krägenow: Adieu, Atomenergie – Du bist zu teuer, Financial Times Deutschland, 26. 8. 03, S. 25.
Kernenergie
137
Entwicklung getätigt wurden. Diese beliefen sich in Westdeutschland zwischen 1956 und 1996 auf insgesamt 25,9 Milliarden DM.266 Für den derzeit alleinig genutzten Leichtwasserreaktor belaufen sich die Kosten auf rund 14 Milliarden DM. Diesen Forschungsaufwendungen stehen jedoch 2250 Milliarden kWh elektrischer Energie gegenüber, die seit ihrer Einführung in deutschen Kernkraftwerken erzeugt wurden. Nach den Ergebnissen der bislang umfangreichsten EU-Studie über staatliche Beihilfen im Energiesektor arbeitet der kommerzielle Reaktorpark in Europa kostendeckend.267 In der EU sind zwischen 1974 und 1998 insgesamt 55 Milliarden $ an staatlichen Hilfen für die Kernenergie aufgewendet worden, durchschnittlich 2,2 Milliarden $ im Jahr. Diese Hilfen sind mittlerweile jedoch auf 942 Millionen $ pro Jahr für die gesamte EU zurückgegangen.268 Sie liegen damit deutlich unter dem Niveau der staatlichen Beihilfen und Vergünstigungen, die in der EU für Steinkohle und erneuerbare Energien getätigt werden. Ein weiterer Kritikpunkt, der in der Debatte um die Kosten der Kernenergie kontrovers diskutiert wird, sind die externen Kosten. Eine der frühesten Studien über die externen Kosten der Stromerzeugung durch den deutschen Wirtschaftswissenschaftler Hohmeyer (1989) bezifferte die externen Kosten der Kernenergie auf den sehr hohen Wert von 5 bis 12 Cent/kWh.269 Hohmeyers Schätzung beruhte jedoch auf der Annahme, dass alle Störfälle, die durch die Sicherheitssysteme nicht beherrscht werden, die Ausmaße der Tschernobyl-Katastrophe erreichen. Diese Annahme gilt jedoch in Fachkreisen als unrealistisch, weil Unfälle dieser Art wegen der größeren aktiven und passiven Sicherheitseigenschaften westlicher Kraftwerke, wenn nicht als ausgeschlossen, so doch als extrem unwahrscheinlich gelten.270 Spätere Studien ermittelten wesentlich geringere Werte zwischen 0,02 (ORNL/RFF USA 1994) und 0,35–2,25 Cent pro kWh (Prognos, Schweiz 1994).271 Strittig blieben bis in die Gegenwart hinein bei der Beurteilung externer Kosten die monetäre Bewertung großer Kernkraftunfälle, die Risikoaversion in der Bevölkerung und die Kosten der Endlagerung. Als eine der zuverlässigsten Studien über die externen Kosten der Stromerzeugung weltweit gilt die ExternE-Studie der Europäischen Union, in der 266 267 268 269
270 271
Zahlen nach: Forschungsaufwand des Bundes für Kernenergie, VDEW 10. 2. 1998, unter www.strom.de [Stand 2002]. Vgl. dazu EU (Hrsg.): Inventory of public aid granted to different energy sources, Brüssel 2002, S. 73 ff. ebd. R. Friedrich, A. Greßmann, W. Krewitt, P. Mayerhofer (IER): Externe Kosten der Stromerzeugung. Stand der Diskussion, erstellt im Auftrag der VDEW, Frankfurt a.M. 1996, S. 39. Dazu ausführlich ebd., S. 88 ff. ebd., S. 39/40.
138
Darstellung der verschiedenen Energieoptionen
erstmals auch sämtliche vor- und nachgelagerten Prozessstufen, d.h. Uranabbau und Endlagerung berücksichtigt worden sind. Die ExternE Studie gelangt unter Berücksichtigung dieser vor- und nachgelagerten Prozessstufen für die Kernenergie zu externen Kosten in Höhe von 0,25 Cent pro kWh.272 Dieser Wert ist mittlerweile weitgehend anerkannt. Damit liegen die externen Kosten der Kernenergie weit unter denen der fossilen Brennstoffe. Eine besonders problematische Quelle externer Kosten, die hier zumindest erwähnt werden sollen, sind die zum Teil gewalttätigen Demonstrationen gegen den Transport von Kernbrennstäben in Wiederaufbereitungsanlagen oder von nuklearen Abfällen in Zwischenlager. Zumindest ein Teil der Demonstranten kalkuliert dabei bewusst ein, dass Transportunterbrechungen und der Einsatz von Polizei und Grenzschutz die volkswirtschaftlichen Kosten für Kernenergie so weit in die Höhe treiben, dass diese unbezahlbar wird. So vermeldet etwa das SzeneMagazin „graswurzelrevolution“ den steigenden Sicherungsaufwand stolz als Erfolg der Anti-AKW-Bewegung: „Der Castortransport-„Sicherungsaufwand“ stieg von 26 Millionen (1995) auf 46 (1996), dann auf 111 Millionen (1997) und im März 2001 nach offiziellen Angaben auf mehr als 130 Millionen DM.“ 273 Es bedarf keiner besonderen Erläuterungen, dass diese Form „externer Kosten“ nicht den Kraftwerksbetreibern zugeschrieben werden kann und auch jede andere Form der Energiegewinnung unbezahlbar machen könnte. Ein Kostenpunkt, der in der Vergangenheit möglicherweise unterschätzt worden ist, ist die Entsorgung von Kernkraftwerken. So droht die Privatisierung des veralteten britischen Kernkraftwerksparks zeitweilig am mangelnden Interesse von Investoren zu scheitern, die die hohen Entsorgungskosten scheuen. Erst durch die Zusage der britischen Regierung, die Entsorgungskosten zu übernehmen, sind auch diese Kraftwerke privatisiert worden. Die Entsorgung der acht alten Magnox-Reaktoren in Großbritannien wird für das Staatsunternehmen British Nuclear Fuels voraussichtlich zu bislang schwer kalkulierbaren Geschäftsverlusten führen.274 Nach Angaben des VDEW sind die gesamten Kernbrennstoffkreislaufkosten in Deutschland einschließlich der Entsorgungskosten vollständig im Strompreis enthalten. Sie liegen derzeit (Stand 1997) bei 2,21 Pfennig/ kWh (ca. 1,105 Cent/kWh), von denen der größte Teil, nämlich 1,31 Pfennig/kWh (ca. 0,655 Cent/kWh) auf Entsorgungskosten entfällt.275 272 273 274 275
ebd., S. 39 und 44. zitiert nach graswurzelrevolution 259, Mai 2001. Vgl. den Eintrag UK, Juli 2002, unter: EIA (Hrsg.): Nuclear Timeline. January 1996 to present, unter: www.eia.doe.gov/cneaf/nuclear/page/nuctimeline.html [Stand 2003] Entsorgung radioaktiver Abfälle. Zahlen und Fakten, VDEW 26. 2. 1997, unter www.strom.de [Stand 2002]
Kernenergie
139
Abb. 3.25 Kernbrennstoffkreislaufkosten in Pfennig/kWh [VDEW 1997]
3.2.7 Reichweite der Kernbrennstoffe Kernenergienutzung wird derzeit ausschließlich auf der Basis der Atomkernspaltung von Uran betrieben. Es könnte auch Thorium als Energierohstoff genutzt werden, es gibt jedoch derzeit keine Kernkraftwerke, die auf Thorium-Basis arbeiten (Stand 2003). Die Erdkruste enthält durchschnittlich 3 g Uran je Tonne Gestein. Wirtschaftlich abgebaut werden können derzeit jedoch nur Uranlager ab einem Anteil von 1000 g je Tonne Gestein. Die weltweiten Uranressourcen werden gemäß der Nomenklatur der OECD-Kernenergieagentur (NEA) und der Internationalen Atomenergiebehörde (IAEA) nach dem Grad ihrer Nachweissicherheit und den Kostenklassen für ihre Gewinnung in Reasonable Assured Resources (RAR), Estimated Additional Resources (EAR) der Kategorie I und II sowie Speculative Resources (SR) unterteilt 276:
276
Diese Unterteilung nach: BGR 1999, S. 300; sowie: F. Barthels, G. Glattes, E.-U. Krische, E. Strecker: Die Versorgung mit Natururan, in: H. Michaelis (Hrsg.): Handbuch Kernenergie: Kompendium der Energiewirtschaft und Energiepolitik, Frankfurt a.M. 1995, S. 477 ff.
140 x
x
x
Darstellung der verschiedenen Energieoptionen
Als Reasonable Assured Resources (RAR) zählen nur diejenigen Uranvorkommen, die mit großer Genauigkeit erfasst worden sind. RAR werden noch einmal in Kostenklassen ober- und unterhalb von 80 US-$/kg eingeteilt. Nur die RAR unterhalb von 80 US-$ zählen als Reserven im engeren Sinne. Estimated Additional Resources (EAR) umfassen alle nicht sicher nachgewiesenen Uranvorkommen, die in der Nähe sicherer Vorräte aufgrund geologischer Evidenz erwartet werden (Kategorie I), sowie Uranvorkommen, die in noch nicht entdeckten Lagerstätten aufgrund wohlbekannter geologischer Trends vermutet werden (Kategorie II). Als Speculative Resources (SR) zählen schließlich Uranvorkommen, die aufgrund indirekter Evidenz und geologischer Erfahrungswerte in noch nicht explorierten Regionen erwartet werden.
Aus Gründen der Vergleichbarkeit mit fossilen Energierohstoffen unterteilt die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) die weltweiten Uranvorkommen in Reserven und Ressourcen (Abb. 3.26). Im Rahmen dieser Einteilung zählen nur die RAR unterhalb der Kostenklasse von 80 US-$ als Reserven alle übrigen Vorkommen hingegen als konventionelle Ressourcen (EAR I + II, SR).
Abb. 3.26 Anteil der verschiedenen Kategorien an den konventionellen Gesamtressourcen von Uran in Höhe von 20,59 Millionen t [BGR 1999]
Kernenergie
141
Neben den konventionellen Uranressourcen existieren noch erhebliche nicht-konventionelle Ressourcen, darunter in erster Linie Uran im Meerwasser, die jedoch unter den heutigen Rahmenbedingungen keine wirtschaftliche Rolle spielen. Nach Angaben der BGR existieren weltweit gesicherte Uranreserven in Höhe von 2,31 Millionen Tonnen (< 80 US-$/kgU), entsprechend einer statischen Reichweite von derzeit (1997) 37 Jahren.277 Die konventionellen Ressourcen werden von der BGR wie folgt eingeteilt 278: x
x
x
x
entdeckte wirtschaftliche Ressourcen in Höhe von 0,8 Millionen t (EAR I < 80 US-$/kgU) entdeckte nichtwirtschaftliche Ressourcen in Höhe von 2,9 Millionen Tonnen (RAR / EAR I > 80 US-$/kgU). nicht entdeckte Ressourcen vom Typ EAR II (zwischen 80–130 US-$ kgU und oberhalb 130 US-$ kgU) in Höhe von 2,1 Millionen t spekulative Ressourcen in Höhe von 12,3 Millionen Tonnen mit unklaren Gewinnungskosten.
Die weltweiten konventionellen Gesamtressourcen an Uran belaufen sich also insgesamt auf rund 20 Millionen Tonnen. Auf der Basis dieser zwar spekulativen aber begründeten Einschätzung der Gesamtressourcen beträgt die statische Reichweite für Uran bezogen auf den heutigen Verbrauch an Kernbrennstoffen (2000) etwa 300 Jahre. Hinsichtlich der sehr hohen Schätzungen für die nicht-entdeckten und spekulativen Ressourcen, ist anzumerken, dass diese auf geologischen Trendextrapolationen beruhen, die bei der Exploration von Uranlagerstätten gemacht wurden. Aus der Erfahrung mit ausgebeuteten Lagerstätten weiß man, dass die Menge an gewinnbarem Uran um das dreihundertfache wächst, wenn man dazu übergeht, Vorkommen mit einem zehnmal kleineren Urangehalt zu erschließen.279 Es ist daher durchaus wahrscheinlich, dass diese Vorkommen auch tatsächlich existieren, wenngleich ihre Gewinnungskosten voraussichtlich deutlich höher liegen werden als bei heute bekannten Vorkommen. Die ständig nach oben korrigierten Schätzungen der weltweiten Uranressourcen haben dazu geführt, dass der Uranweltmarkt heute entspannt ist.280 277 278 279 280
BGR 1999, S. 299 und 305. Ebd., S. 305. Zahl nach K. Deffeyes, I. D. Mac Gregor: Die Uran-Vorräte der Erde, in: Spektrum der Wissenschaft, 3/1980, S. 39. vgl. dazu Barthels et al. 1995, S. 479 und S. 484 ff.
142
Darstellung der verschiedenen Energieoptionen
Neben dem kontinuierlichen Reservenwachstum hat dazu auch beigetragen, dass durch das Ende des kalten Krieges waffenfähiges Uran aus den militärischen Arsenalen Russlands und der USA für den zivilen Bedarf frei wurde. Im Rahmen des Start II Vertrages vereinbarten Russland und die USA 1993 insgesamt 500 t waffenfähiges, d. h. hochangereichertes Uran (HEU) abzubauen.281 Hochangereichertes Uran, das zu mehr als 90 % aus dem Isotop U-235 besteht, kann durch Vermischung mit sehr schwach angereichertem Uran (1,5 % U-235) oder Natururan für den Einsatz in Kernkraftwerken in schwach angereichertes Uran (LEU, mit einem Anteil von 3 bis 4 %) umgewandelt werden. Ein erheblicher Teil der russischen Bestände an hochangereichertem Uran ist auf diese Weise bereits abgebaut und als Kernbrennstoff an die USA verkauft worden. Bis zum Ende des Programms werden allein aus der Umwandlung der 500 t HEU voraussichtlich insgesamt 15 800 t niedrig angereichertes Uran (LEU) gewonnen werden, genug, um den Bedarf von 37 Leichtwasserreaktoren über einen Zeitraum von 20 Jahren zu decken. Anders als bei fossilen Brennstoffen könnte die Reichweite der Uranressourcen durch technische Maßnahmen gesteigert werden, indem x
x
Uran und Plutonium aus Kernbrennstäben in Wiederaufbereitungsanlagen für einen weiteren Einsatz zurückgewonnen werden, Schnelle Brüter bei der „Verbrennung“ von Uran-235 das gesamte für die Energiegewinnung ungeeignete Uran-238 zu spaltfähigem Material, vor allem Plutonium umwandeln, wodurch theoretisch eine 60 mal bessere Uranausnützung erreicht wird.
Unabhängig von der umstrittenen Brüter-Technologie erhöht sich die Reichweite der weltweiten Uranvorkommen dramatisch, wenn die nichtkonventionellen Uranressourcen der Weltmeere in Höhe von schätzungsweise 4,2 Milliarden Tonnen berücksichtigt werden.282 Diese finden in heutigen Energiestatistiken keine Beachtung, weil die Gewinnung dieses Urans in Kostenklassen zwischen 500–1000 US-$ je kgU liegt. Dennoch könnte sich diese Ressource in ferner Zukunft als abbauwürdig erweisen. Dafür, dass nichtkonventionelle Uranressourcen in Zukunft tatsächlich einmal genutzt werden könnten, sprechen zwei Faktoren: Zum einem ist es in den letzten Jahren dank technologischer Verbesserungen gelungen, den Gestehungspreis für Meeresuran deutlich zu senken – japanische Forscher
281 282
vgl. H. J. Wingender: Kann Atomwaffenmaterial für friedliche Zwecke genutzt werden?, unter: www.energiefakten.de [Stand: 29. 10. 2001]. Vgl. dazu BGR 1999, S. 302, sowie Heinloth 1997, S. 221.
Kernenergie
143
sollen Uran bereits für 250 US-$/kg U3O8 gewinnen können283 – zum anderen machen die Kernbrennstoffkosten anders als bei fossilen Kraftwerken nur einen kleinen Teil der Stromgestehungskosten eines Kernkraftwerks aus. Nach Berechnungen von Heinloth würden die Stromgestehungskosten selbst bei Gewinnungskosten von 800 $ je kg Meeresuran um „nur“ 2 Cent/kWh steigen.284 Unter Berücksichtigung der nicht konventionellen Vorkommen ist die Reichweite der Uranvorkommen in historischen Zeiträumen nicht begrenzt. Im Gegensatz zu den fossilen Brennstoffen stellt Kernenergie damit eine extrem langfristige Energieoption dar (Tab. 3.3). Die Höhe der weltweiten Ressourcen zeigt zugleich, dass eine langfristige Kernenergienutzung nicht zwingend einen Einstieg in die umstrittene Brütertechnologie erfordert.285 Tab. 3.3
Konventionelle Ressourcen (in Millionen Tonnen)
Reserven
Uran (Land)
2,3
20,5
Thorium
2,16
2,35
Gesamt
4,46
22,4
Uran aus Meerwasser
Gesamtressourcen
4200
Ein weiterer Vorteil des Urans als Energierohstoff liegt darin, dass er über eine hohe politische Versorgungssicherheit verfügt. Über die größten Uranreserven der Welt verfügen z. Zt. Australien, Kasachstan, Kanada und Südafrika. Die beiden international bedeutendsten Uran-Exportländer, Australien und Kanada, sind politisch stabile Demokratien (Abb. 3.27).
283 284 285
Barthels et al., 1995, S. 483. Heinloth 2003, S. 232. Zur Diskussion um Pro und Contra der Brütertechnologie vgl. A.W. Eitz: Brüter kontrovers: pro; K. Traube: Brüter kontrovers: contra, in: D. Schmitt (Hrsg.): Handbuch Energie, Pfullingen 1990, S. 171–197; vgl. zum Vorwurf des unvermeidlichen Einstiegs in die Brütertechnologie B. Schefold: Wirtschaftsstile Bd. 2: Studien zur ökonomischen Theorie und zur Zukunft der Technik, Frankfurt a.M. 1995, S. 107–123.
144
Darstellung der verschiedenen Energieoptionen
Abb. 3.27 Die vier Länder mit den größten Uranreserven [BGR 1999]
3.2.8 Umweltprobleme durch die Kernenergie Bei den Überlegungen zu Umweltproblemen durch die Kernenergie steht eindeutig die Wirkung ionisierender Strahlen im Vordergrund. Vielfältige Untersuchungen haben ergeben, dass die Säuger einschließlich Menschen zu den strahlenempfindlichsten Organismen gehören. Es gibt nur wenige, besonders gezüchtete Pflanzen (z. B. Tradescantia), die eine ähnlich hohe Strahlenempfindlichkeit haben. Infolgedessen haben sich alle Überlegungen zu den Strahlenrisiken durch ionisierende Strahlen aus der Kernenergie auf die Einwirkungen beim Menschen konzentriert. Für bewohnte Regionen wird angenommen, dass mit dem Schutz des Menschen vor ionisierenden Strahlen auch die Umwelt allgemein geschützt ist 286. Dabei kann eine Bestrahlung der Organismen sowohl von außen durch direkte Strahlung aus technischen Anlagen oder nach Freisetzung radioaktiver Stoffe in die Umwelt durch deren Zerfall eintreten, als auch eine Bestrahlung von innen nach Inkorporation radioaktiver Stoffe und deren Zerfall im Organismus erfolgen. Diese Prozesse sind grundsätzlich auf allen Stufen des Brennstoffkreislaufes (Gewinnung des Uranerzes, Herstellung von Brennelementen, Kernspaltung und anderen Prozessen im Kernkraftwerk, Behandlung der abgebrannten Brennelemente und Endlagerung) möglich. Durch molekulare und zelluläre Untersuchungen im Labor in vitro, durch Tierexperimente und durch klinische Erfahrungen bei der Anwendung ionisierender Strahlen in der Medizin sind die Strahlenrisiken bei Säugern einschließlich Menschen in einem weiten Dosisbereich relativ gut bekannt. Es können folgende Strahlenwirkungen auftreten: Akute Effekte 286
ICRP (1991).
Kernenergie
145
einschließlich Tod (Tage bis Wochen nach der Bestrahlung), spätere Effekte in den Geweben, z. B. fibrotische Veränderungen, Trübungen der Augenlinse (Monate bis Jahre nach Bestrahlung), Entwicklungsstörungen nach Bestrahlung in utero, Verursachung von Krebs und von genetischen Defekten (Jahre bis Jahrzehnte nach Bestrahlung) 287. Die Höhe der Strahlenwirkung ist zunächst von der Strahlendosis abhängig. Für die Risikoabschätzungen sind daher die Dosiswirkungsbeziehungen für diese verschiedenen Strahlenwirkungen von entscheidender Bedeutung. Es gibt zwei grundsätzlich verschiedene Kategorien derartiger Dosiswirkungsbeziehungen (Abb. 3.28):
Abb. 3.28 Kategorien von Dosiswirkungsbeziehungen a) Dosiswirkungsbeziehung mit Schwellendosis, (nicht-stochastische – deterministische – Effekte), b) Dosiswirkungsbeziehung ohne Schwellendosis (stochastische Effekte) (Streffer et al. 2004).
Bei Dosiswirkungsbeziehungen, die eine Schwellendosis haben, treten derartige Wirkungen erst nach Strahlendosen, die höher als die Schwellendosis liegen, auf. Zu diesen Strahleneffekten zählen die akuten Effekte und gewebliche Spätwirkungen (z. B. fibrotische Prozesse in Geweben, Gefäßschäden, Trübungen der Augenlinse, Verursachung von Missbildungen u.a.) Die Schwellendosen für diese Strahleneffekte liegen in Dosisbereichen, die
287
Streffer et al. (2004), S. 38.
146
Darstellung der verschiedenen Energieoptionen
relativ hoch sind und durch kerntechnische Anlagen sowie ihre Auswirkungen in der Umwelt beim Normalbetrieb nicht erreicht werden. Erst bei schweren Reaktorunfällen (z. B. Tschernobyl im Jahre 1986, Tokaimura 1999 in Japan) kommt es in einer begrenzten Region zu Strahlendosen, die derartige Wirkungen verursachen. Da diese Ereignisse sehr selten sind und in den mehr als 30 Jahren des Betriebes von Kernkraftwerken in Deutschland nicht aufgetreten sind, sollen diese Effekte hier nicht näher besprochen werden. Über diese Effekte gibt es umfangreiche klinische Erfahrungen nach hohen Strahlendosen, die in der Tumortherapie eingesetzt werden müssen. Auch für Strahlenwirkungen, die nach Expositionen des Embryos oder Föten im Mutterleib auftreten, werden im allgemeinen Dosiswirkungsbeziehungen mit Schwellendosen beobachtet. Nur in Ausnahmefällen und kurzen Zeitperioden sind Dosiseffekte ohne Schwellendosis möglich. Mit Dosiswirkungsbeziehungen ohne Schwellendosen muss allerdings für die Verursachung von Krebs und von vererbbaren Defekten gerechnet werden. Das bedeutet, dass diese Wirkungen auch bei kleinen Strahlendosen mit einer gewissen Wahrscheinlichkeit auftreten können. Mit abnehmender Strahlendosis wird diese Wahrscheinlichkeit geringer und nicht mehr messbar. Die Höhe der Effekte wird kleiner als die regionale und zeitlich bedingten Schwankungen der „spontanen“ Krebsraten, sodass eine mögliche, strahlenbedingte Zunahme im „Rauschen“ verschwindet. Die Verursachung von Krebs und von vererbbaren Defekten, die zu stochastischen Effekten zusammengefasst werden, werden mit Dosiswirkungsbeziehungen ohne Schwellendosis beschrieben (Abb. 3.28). Derartige Effekte sind also auch bei niedrigen Strahlendosen, wie sie in der Umgebung von Kernkraftwerken auftreten, grundsätzlich möglich. Daher sollen sie im Folgenden etwas näher behandelt werden. Durch die Absorption der Strahlenenergie im lebenden Gewebe werden Ionisationen in den Molekülen der Zellen hervorgerufen. Die Strahlendosis angegeben in „Gray“ (Gy) (Energiedosis) ist ein Maß für die absorbierte Energiemenge 288. Die Ionisationen können auch direkt in der DNA, dem genetischen Material der Zellen, erfolgen. Im Gegensatz zu toxischen Substanzen geschieht dieses nicht isoliert in einzelnen Ereignissen, sondern es werden Energiepakte absorbiert, so dass Cluster von Schäden in der DNA auftreten. Die Zahl und vor allem die Qualität der Schäden hängt nicht 288
Die Strahlendosen werden in Gray (Gy) bzw. Sievert (Sv) angegeben. Das Gray gibt die Werte für die Energiedosis (absorbierte Energie pro Masse) physikalisch exakt gemessen an. Da verschiedene Strahlenarten und -Energien zu unterschiedlichen Effekten bei gleicher Energiedosis führen, hat man zusätzlich eine Äquivalentdosis eingeführt, bei der eine biologische Bewertung der unterschiedlichen Strahlenwirkung vorgenommen wird. Diese Äquivalentdosis wird in Sievert (Sv) angegeben.
Kernenergie
147
nur von der Strahlendosis sondern auch von der Strahlenart und ihrer Energie (Strahlenqualität) ab. Es muss daher eine biologische Bewertung der Strahlenqualität vorgenommen werden. Die dann erhaltene Strahlendosis wird als Äquivalentdosis bezeichnet und in Sievert (Sv) angegeben. Ein Teil der Schäden kann sehr schnell durch wirksame Reparatursysteme entfernt werden und die ursprüngliche DNA-Information wieder hergestellt werden. Es bleiben im Allgemeinen jedoch Restschäden zurück und die Effizienz der Reparaturprozesse ist auch individuell durchaus unterschiedlich (Abb. 3.29). Es gibt ferner Personen, die aufgrund einer genetischen Erkrankung eine sehr geringe Reparaturkapazität haben (Beispiele: AT-Patient, Patient mit ernsthaften Nebeneffekten nach Bestrahlung „severeside-effects“, Abb. 3.29) 289. Für die Risikobewertung toxischer Agenzien und damit auch für das Strahlenrisiko ist der Verlauf der Dosiswirkungsbeziehungen also von entscheidender Bedeutung. Für stochastische Effekte (Verursachung von Krebs und vererbbaren Defekten) wird, wie bereits beschrieben, eine lineare Dosiswirkungsbeziehung ohne Schwellendosis angenommen (linear no threshold, LNT-Prinzip). Es muss allerdings betont werden, dass Strah-
Abb. 3.29 DNA-Repair-Kinetik in menschlichen Lymphozyten nach Bestrahlung und anschließender Erholung bis zu 180 Minuten. Die DNA-Schäden wurden zu verschiedenen Zeitpunkten nach Bestrahlung gemessen (Streffer et al. 2004)
289
Streffer et al. (2004), S. 53.
148
Darstellung der verschiedenen Energieoptionen
leneffekte bisher nur in einem mittleren und höheren Dosisbereich (mehrere 100 mSv und höher) signifikant gemessen worden sind. Im niedrigen Dosisbereich, der in der Umwelt und im allgemeinen auch an Arbeitsplätzen auftritt, liegen keine signifikanten Messdaten für die Erhöhung von Krebs vor. Das Risiko kann daher nur durch Extrapolation aus den höheren Dosisbereichen in die niedrigeren Dosisbereiche durch Extrapolation ermittelt werden. Die lineare Dosiswirkungsbeziehung ohne Schwellendosis ist eine Annahme, die eines naturwissenschaftlichen Beweises bedarf. Es sind mit diesem Vorgehen Unsicherheiten verbunden, aus Gründen der Vorsorge ist jedoch die Annahme des LNT-Prinzips gerechtfertigt. Es wird allerdings intensiv diskutiert, dass die Dosiswirkungsbeziehung auch einen anderen Verlauf und möglicherweise sogar eine Schwellendosis hat (Abb. 3.30) 290. Die vorliegenden Daten aus epidemiologischen Untersuchungen an bestrahlten Personengruppen und die experimentellen Daten z. B. über chromosomale Veränderungen in Zellen und molekulare Strahlenschäden in der DNA ebenso wie tierexperimentelle Daten zur Krebsverursachung lassen sich in den meisten Fällen jedoch am besten durch eine lineare Dosis-
Abb. 3.30 Dosiswirkungskurven, die durch Extrapolation von gemessenen Werten erhalten worden sind. Lineare, supralineare und linear-quadratische Extrapolation sowie Annahme eines biopositiven Effektes bei sehr kleinen Strahlendosen (Hormesis). (Streffer et al. 2004)
290
Streffer et al. (2004), S. 6.
Kernenergie
149
wirkungsbeziehung ohne Schwellendosis (LNT) beschreiben. Die umfassendsten Daten über die Verursachung von Krebs beim Menschen werden von den Überlebenden der Atombombenkatastrophen in Hiroshima und Nagasaki erhalten. Bei diesen Personen sind etwa 5–10 Jahre nach der Bestrahlung in erhöhtem Maße Leukämien beobachtet worden. In den folgenden Jahrzehnten sind auch die Raten von vielen soliden Krebsen angestiegen, insbesondere Krebs der Lunge, des Magens, des Kolons, der weiblichen Brust, der Schilddrüse und der Leber 291. Die statistische Auswertung dieser epidemiologischen Daten ergibt, dass nach einer Strahlendosis von etwa 100 mSv ein signifikanter Anstieg der Krebsraten beobachtet wird (Abb. 3.31).
Abb. 3.31 Relative Raten an Krebs bei den Überlebenden der Atombombenkatastrophen in Hiroshima und Nagasaki in Abhängigkeit von der Stahlendosis (Pierce and Preston 2000)
291
UNSCEAR (2000), S. 297 ff.
150
Darstellung der verschiedenen Energieoptionen
Wie aus der Abbildung hervorgeht, sind auch unterhalb von 100 mSv bzw. mGy die Krebsraten bei den betroffenen Personen untersucht und registriert worden 292. Die erhaltenen Werte streuen um die lineare Dosiswirkungsbeziehung, aber auch hier können die Daten am besten durch eine lineare Dosiswirkungsbeziehung beschrieben werden. Die Bestrahlungen in Hiroshima und Nagasaki haben innerhalb einer sehr kurzen Zeit (weniger als 1 Minute) stattgefunden. Man spricht in diesem Falle von einer akuten Bestrahlung. Viele experimentelle Daten haben ergeben, dass bei einer chronischen Bestrahlung geringere Strahleneffekte als bei einer akuten Bestrahlung auftreten. Es ist daher davon auszugehen, dass bei chronischen Bestrahlungen, wie sie in der Umwelt bei kerntechnischen Anlagen vorliegen, geringere Risiken bei gleicher Dosis zu verzeichnen sind im Vergleich zu den Daten aus Hiroshima und Nagasaki. Neben den Studien in Hiroshima und Nagasaki ist die Krebsverursachung durch ionisierende Strahlen an Personengruppen, die Strahlenexpositionen wegen medizinischer Indikationen, am Arbeitsplatz oder in Regionen mit hoher Umweltstrahlung erhalten haben, untersucht worden. Es sind stets geringere Risikowerte als in Hiroshima und Nagasaki erhalten worden 293. Dieses liegt an verschieden Faktoren. Die Bestrahlungen haben in diesen Fällen fraktioniert oder chronisch stattgefunden, es sind oft lokale Bestrahlungen aufgetreten und die Altersgruppen in den verschiedenen Kohorten sind sehr unterschiedlich. Aufgrund dieser vielfältigen Daten ist die Krebsverursachung durch Strahlen in Abhängigkeit von Geschlecht und Alter ebenfalls studiert worden. Dabei hat sich vor allem gezeigt, dass Kinder strahlenempfindlicher als Erwachsene sind. Es liegen daher sehr umfangreiche Daten zum Strahlenrisiko vor, die der Risikobewertung bei allen Unsicherheiten in den Einzelstudien insgesamt eine relativ große Sicherheit geben. In den letzten Jahren sind eine ganze Reihe biologischer Phänomene nach Strahlenexpositionen vorwiegend an Zellen und molekularen Systemen untersucht worden, die zu einer Modifizierung des Verlaufes der Dosiswirkungsbeziehung im unteren Dosisbereich mit einer Abweichung vom linearen Verlauf (Abb. 3.30) beitragen können. Hier sind vor allem zu nennen: der DNA-Repair, die Apoptose (Zellabtötung, die durch Signale innerhalb der Zellen bzw. Gewebe ausgelöst wird), „Adaptive Response“ (niedrige Strahlendosen können die Strahlenresistenz von Zellen kurzfristig unter definierten Bedingungen erhöhen), genomische Instabilität (genetische Schäden können nach vielen Zellgenerationen im erhöhen Maße auftreten), „bystander“ Effekte (Strahlenschäden werden auch in Zellen, die selbst nicht durch die Strahlung getroffen werden, aber in der Nachbar292 293
Pierce und Preston (2000). UNSCEAR (2000), S. 297 ff.
Kernenergie
151
schaft von betroffenen Zellen liegen, hervorgerufen) 294. Es wird ferner diskutiert, dass das Immunsystem strahlengeschädigte Zellen entfernen kann. Alle diese außerordentlich interessanten biologischen Phänomene werden intensiv untersucht, es ist im Einzelnen jedoch unklar, welche Wirkungen sie auf die Entstehung bzw. Veränderung von Krebs im niedrigen Dosisbereich und damit auch auf die Dosiswirkungsbeziehung haben. Durch diese Phänomene erscheint sowohl eine Erhöhung als auch eine Erniedrigung der Strahleneffekte möglich. Seit es Leben auf dieser Erde gibt, wird es ionisierenden Strahlen aus natürlichen Quellen ausgesetzt. Es besteht daher die Möglichkeit, die Wirkungen dieser Strahlenexpositionen zu untersuchen und Vergleiche mit den Strahlenexpositionen aus zivilisatorischen (technischen, medizinischen usw.) Quellen durchzuführen. Es treten Strahlenexpositionen durch externe Quellen (kosmische Strahlung durch die Sonneneinwirkung, terrestrische Strahlung durch radioaktive Zerfälle von instabilen Nukliden in den Gesteinen und in der Umwelt allgemein) sowie interne Expositionen durch Aufnahme von natürlichen radioaktiven Stoffen mit der Nahrung auf. Diese Strahlenquellen führen in Deutschland zu einer durchschnittlichen Ganzkörperbestrahlung (GK) in Höhe von etwa 1,1 mSv/Jahr. Die höchste Strahlenexposition erhält die Lunge bzw. der Atemtrakt insgesamt durch die Inhalation von Radon und seinen radioaktiven Folgeprodukten. Diese Exposition führt zu einer mittleren Lungendosis in Deutschland von etwa 10 mSv/Jahr (Tabelle 3.4). Tabelle 3.4 Natürliche Strahlenexposition (Mittelwerte in Deutschland, Dosis pro Person pro Jahr) (BMU 2000)
Kosmische Strahlung (GK)
ca. 0,3 mSv/a
Terrestrische Strahlung (GK)
ca. 0,5 mSv/a
Interne Exposition (GK)
ca. 0,3 mSv/a
Rn-Inhalation (Lunge)
ca. 10 mSv/a
Durch Gewichtungen der Strahlenrisiken der einzelnen Organe für stochastische Effekte kommt man zu der effektiven Dosis. Unter Einbeziehung der Radonexposition erhält man dann eine effektive Dosis im Mittel von etwa 2,4 mSv/Jahr in Deutschland 295. Die Strahlenexpositionen aus natürlichen Quellen können in Abhängigkeit von der Region und den Lebensbedingungen sehr unterschiedlich sein. So hängt die Größe der Dosis 294 295
Streffer et al. (2004), S. 6 ff. BMU (2000).
152
Darstellung der verschiedenen Energieoptionen
aus der kosmischen Strahlung von der Höhe ab, in der der Mensch sich aufhält. In einer Höhe von 1500 m über dem Meeresspiegel ist diese Dosis etwa verdoppelt gegenüber der norddeutschen Tiefebene. Die terrestrische Strahlenexposition ändert sich sehr mit der Menge an Radioaktivität, die im Boden vorhanden ist. In Deutschland gibt es Regionen wie das Erzgebirge, den Bayerischen Wald und das Saarland, in denen diese Aktivitätskonzentrationen relativ hoch sind. Die stärksten Unterschiede werden jedoch bei der Inhalation von Radon und seinen radioaktiven Folgeprodukten registriert. Diese hängt entscheidend von der Radonkonzentration in den Räumen des Wohnens und Arbeitens ab. Im Mittel sind in Deutschland Radonkonzentrationen von etwa 50 Bq/m3 gemessen worden. In ca. 1 % der Wohnungen liegt die Radonkonzentration jedoch höher als 200 Bq/m3 und in einigen Regionen können sehr hohe Radonkonzentrationen in den Gebäuden gemessen werden. Als Beispiel (Tabelle 3.5) ist hier die Region von Schneeberg herausgegriffen worden. In einigen Häusern sind extrem hohe Radonkonzentrationen von mehr als 15 000 Bq/m3 festgestellt worden. Diese Häuser sind nach den Messungen saniert worden, um die Radonkonzentrationen in den Räumen zu reduzieren. Tabelle 3.5 Radonkonzentrationen in Häusern in Deutschland
Mittel: 50 Bq/m3 ca. 1 % der Wohnungen > 200 Bq/m3 Schneeberg/Erzgebirge Mittel: 290 Bq/m3 ca. 2 % der Wohnungen: > 6000 Bq/m3 ca. 1 % der Wohnungen: > 15 000 Bq/m3
Neben den Strahlenexpositionen aus natürlichen Quellen erhalten die Menschen weltweit und so auch in Deutschland Strahlenexpositionen durch medizinische und technische Einrichtungen. Diese Expositionen sind in der Abb. 3.32 zusammengefasst. Es ist daraus ersichtlich, dass etwa 61 % der gesamten Strahlenexpositionen aus natürlichen Quellen stammen, 37 % der Strahlenexpositionen ergeben sich nach den Zusammenstellungen des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit (BMU) aus dem Jahre 2000 durch medizinische Indikationen. Den größten Anteil dieser Expositionen steuert die Röntgendiagnostik bei. Obwohl die individuellen Dosen geringer als bei der Strahlentherapie sind, ist die Frequenz der Untersuchungen pro Einwohner relativ hoch. Ferner sind in dieser Abbildung die Strahlenexpositionen aus kerntechnischen Anlagen, dem radioaktiven Fallout der früheren Kernwaffentests und aus
Kernenergie
153
Abb.3.32 Mittlere Strahlenexpositionen angegeben in Prozent aus medizinischen, natürlichen und technischen Quellen in Deutschland (BMU 2000)
dem Reaktorunfall in Tschernobyl in prozentualen Anteilen angegeben worden 296. Die Reaktorkatastrophe in Tschernobyl hat zu einer gewaltigen Freisetzung von radioaktiven Stoffen in die Atmosphäre geführt. Wegen der hohen Temperaturen in dem Reaktor ist die Radioaktivität in große Höhen geschleudert worden und hat sich daher atmosphärisch über weite Regionen Europas ausgedehnt. Für die Strahlenexpositionen des Menschen waren in den ersten Tagen die Radionuklide des Jods (insbesondere Jod-131) und dann in den späteren Zeiten des Cäsium (Cäsium-137 und Cäsium-134) von erheblicher Bedeutung und stellten die größte Belastung dar. In der Abb. 3.33 sind die Radioaktivitätskonzentrationen des Cäsiums 137 in Rindfleisch, Weizen und in Kartoffeln in den Jahren 1986 bis 1992 dargestellt. In den Folgejahren hat diese Radioaktivität weiter abgenommen, dennoch wird auch heute noch Cäsium-137 aus dieser Reaktorkatastrophe in deutschen Nahrungsmitteln gemessen und führt zu Expositionen, die etwa 0,6 % der Gesamtstrahlenexposition im Jahre 2000 (Abb. 3.32) ausgemacht haben.
296
BMU (2000).
154
Darstellung der verschiedenen Energieoptionen
Aus der Abb. 3.33 ist ferner zu ersehen, dass vor allem in den 60iger Jahren durch die Kernwaffenteste in der Atmosphäre radioaktive Stoffe u. a. auch Cäsium-137 freigesetzt worden und in deutsche Nahrungsmittel gelangt sind. Die Radioaktivitätsmengen aus der Reaktorkatastrophe in Tschernobyl im Jahre 1986 sind in Deutschland ebenfalls sehr unterschiedlich verteilt gewesen. Im südbayerischen Raum (Voralpengebiet) sind die höchsten Aktivitätsmengen gemessen worden. Die Strahlendosen haben in dieser Region im ersten Jahr nach der Katastrophe etwa 0,4 mSv betragen (Tabelle 3.6). Tabelle 3.6 Vergleich der 1996 auf der Basis von Messwerten berechneten effektiven Dosen mit den prospektiven Abschätzungen der SSK von 1987
Gebiet
Effektive Dosis im 1. Jahr nach dem Unfall (mSv)
Gesamte effektive Dosis für die nach dem Unfall folgenden 50 Jahre (mSv)
SSK96
SSK87
SSK96
SSK87
Voralpengebiet
0,65
1,2
2,2
3,8
Südlich der Donau
0,35
0,6
1,3
1,9
Nördl. der Donau
0,17
0,2
0,55
0,6
Abb. 3.33 Konzentrationen an Caesium-137 (Bq/kg) in Rindfleisch, Weizen und Kartoffeln in den Jahren 1960–1992 in Deutschland. Die Radioaktivität stammte aus dem Fallout der Kernwaffenteste in den sechziger Jahren und aus der Reaktorkatastrophe in Tschernobyl nach 1986
Kernenergie
155
Diese Strahlendosen waren nicht hoch genug, um Gesundheitsschäden in Deutschland auszulösen. Allerdings sind in Belarus (Weißrussland), in der Ukraine und in den zu Tschernobyl nahe gelegenen Regionen Russlands Krebserkrankungen durch die Strahlung aus dem Reaktorunfall entstanden. Insbesondere ist eine Erhöhung von Schilddrüsenkarzinomen bei Kindern in diesen Ländern beobachtet worden. Es hat sich eine deutliche Abhängigkeit vom Alter zum Zeitpunkt der Exposition ergeben. Kinder, die 0–6 Jahre alt während der Katastrophe waren, haben ein besonders hohes Schilddrüsenkrebsrisiko gehabt (Abb. 3.34). Bei den Kindern höheren Alters und Jugendlichen ist dieses Risiko sehr viel geringer gewesen 297. Auch diese Daten haben zu dem Verständnis der Strahlenwirkung und der Abschätzung der Strahlenrisiken in erheblichem Maße beigetragen. In einer abschließenden Tabelle (Tabelle 3.7) sind die Strahlenexpositionen zusammengefasst worden, die durch medizinische Expositionen, Expositionen an Arbeitsplätzen und in der Umwelt ausgelöst werden. In der Strahlentherapie müssen hohe Strahlendosen eingesetzt werden, um den Krebs des Patienten zu vernichten. In der Diagnostik sind die Strahlenexpositionen unumgänglich, wenn ein gutes Ergebnis der Untersuchung
Abb. 3.34 Zahl der Erkrankungen an Schilddrüsen-Krebs bei Kindern und Jugendlichen (Altersgruppen: 0–6, 7–14 und 15–18 Jahre) in Belarus in den Jahren 1986–2001 (Kenigsberg 2003)
297
Kenigsberg (2003).
156
Darstellung der verschiedenen Energieoptionen
erreicht werden soll. Durch moderne Untersuchungsverfahren wie die Computertomographie und die interventionelle Radiologie haben die individuellen Strahlendosen in den letzten Jahren trotz verbesserter Technologien zugenommen. An Arbeitsplätzen gibt es Dosisgrenzwerte, die nicht überschritten werden sollen. Sie liegen in Deutschland für die effektive Dosis zurzeit bei 20 mSv/Jahr. Aus der Tabelle 3.7 geht hervor, dass an einzelnen Arbeitsplätzen Strahlendosen erreicht werden, die in diesen Bereich kommen. Nachdem dieses durch Messungen festgestellt worden ist, sind an den betreffenden Arbeitsplätzen die Strahlenexpositionen durch geeignete Maßnahmen reduziert worden. Schließlich werden die individuellen Strahlendosen in der Umwelt vorwiegend aus natürlichen Quellen angegeben. Es wird deutlich, dass hier in erheblichem Maße Variabilitäten bestehen, die nicht vermieden werden können. In Deutschland wird für das Radon ein Richtwert bis zu 250 Bq/m3 in Häusern akzeptiert. Dieser Wert wird möglicherweise reduziert werden, da es aufgrund sehr intensiver epidemiologischer Studien Hinweise gibt, dass bei derartigen Radon-Konzentrationen bereits eine erhöhte Lungenkrebsrate auftritt. Für Strahlenexpositionen aus technischen Quellen gibt es ebenfalls einen Dosisgrenzwert für Personen der Bevölkerung. Die Dosis darf für einzelne Personen nicht den Wert von 1 mSv/Jahr (effektive Dosis) überschreiten. Wie die Daten in der Tabelle zeigen, werden diese Dosisgrenzwerte durch Expositionen aus technischen Einrichtungen weit unterschritten. Tabelle 3.7 Individuelle Strahlenexpositionen in der Medizin, an Arbeitsplätzen und in der allgemeinen Bevölkerung 1. Expositionen in Medizin (Dosis pro Anwendung)
Therapie von Krebs Diagnostik lokal, regional
mehrere 10 000 mSv 1–50 mSv
2. An Arbeitsplätzen (mittlere Dosis pro Jahr)
Arbeiter in Kontrollbereichen Fliegendes Personal (Nord-Atlantik Route) Schweißer bei Anwendung von Th-Elektroden Arbeitsplätze mit hohen Rn-Konzentrationen z. B. in Wasserwerken (Fichtel-, Erzgebirge)
4–5 mSv 8 mSv 6–20 mSv 6–20 mSv
3. Individuelle Dosen aus der Umwelt (Dosis pro Jahr)
Mittlere natürl. Exposition in Deutschland Hohe regionale natürl. Exposition in Deutschland Hohe regionale natürl. Exposition in Indien Expositionen durch nukleare Einricht. in Deutschland Exposition durch den Tschernobyl Unfall in Deutschl. (2000)
2,4 mSv 8–10 mSv 15–50 mSv < 0,01 mSv 0,015 mSv
Kernfusionsenergie – eine Option für die Zukunft!?
157
Zusammenfassend kann festgestellt werden, dass die Strahlenwirkungen aufgrund experimenteller Untersuchungen, klinischer Erfahrungen und epidemiologischer Untersuchungen beim Menschen relativ gut bekannt sind. Es können Dosiswirkungsbeziehungen für den Menschen angegeben werden, die vor allem durch tierexperimentelle Daten und Untersuchungen an Zellen sowie molekularen System in vitro unterstützt werden. Durch Extrapolation werden Dosiswirkungsbeziehungen auch im niedrigen Dosisbereich beschrieben, die zwar Unsicherheiten besitzen, aber für eine Risikobewertung eine vernünftige Grundlage darstellen. Es sind Dosisgrenzwerte am Arbeitsplatz und für die Personen der Bevölkerung in der Umwelt festgelegt worden, die weit unterhalb der Strahlendosen liegen, bei denen signifikant Gesundheitseffekte gemessen worden sind. Durch Strahlenexpositionen aus natürlichen Quellen besteht die Möglichkeit Vergleichsmaßstäbe zu schaffen. Die Dosisgrenzwerte für Personen der Bevölkerung liegen unterhalb der mittleren Dosis, die aus natürlichen Quellen in Deutschland stammt.
3.3
Kernfusionsenergie – eine Option für die Zukunft!?
3.3.1 Natürliche Kernfusionsprozesse in der Sonne In der Sonne werden pro Sekunde bei Temperaturen von 15 Millionen Grad und Drücken von 10 Milliarden bar 600 Millionen Tonnen Wasserstoff in 596 Millionen Tonnen Helium umgewandelt. Die resultierende Massendifferenz wird in Form von elektromagnetischer Strahlung mit einer Leistung von 3,9 × 1026 Watt emittiert. Auf der Basis der klassischen Physik musste die Energiequelle der Sonne ein Rätsel bleiben. Erst die von Einstein Anfang des 20. Jahrhunderts entdeckte Äquivalenz von Masse und Materie bot einen theoretischen Ansatz für eine mögliche Erklärung. Mitte der dreißiger Jahre schufen Bethe und Weizsäcker erstmals eine Theorie der Kernfusionsprozesse in der Sonne. Der von ihnen vorgeschlagene Fusionszyklus unter Einfluss einer katalytischen Wirkung des Kohlenstoffes ist mittlerweile jedoch als unbedeutend erkannt (ca. 1 Prozent der Fusionsleistung). Heute weiß man, dass die Hauptmasse der Fusionsleistung auf dem Proton-Proton-Zyklus beruht (ca. 99 Prozent). Bei Temperaturen von 15 Millionen Grad verfügen die Protonen über eine hohe kinetische Energie und neigen unter Abgabe von Energie spontan zu einer Umwandlung in ein Neutron und ein Elektron (p f n + e+ + ve).
158
Darstellung der verschiedenen Energieoptionen
Über mehrere Zwischenschritte entsteht aus zwei Protonen und zwei Neutronen schließlich ein „normaler“ Helium 4 Kern.298 Die spontane Umwandlung eines Protons findet nicht nur unter extremen physikalischen Bedingungen im Inneren der Sonne, sondern auch mit extrem niedrigen Reaktionswahrscheinlichkeiten statt (einmal in mehreren Milliarden Jahren). Lediglich die riesige Masse der Sonne bewirkt, dass die einzeln betrachtet extrem unwahrscheinlichen Reaktionsschritte auf die Masse der Teilchen gesehen eben doch wahrscheinlich sind. Aus diesen Überlegungen wird deutlich, dass ein Fusionsprozess wie in der Sonne unter irdischen Bedingungen nicht nachgeahmt werden kann. Insbesondere der erste Reaktionsschritt – die Umwandlung eines Protons zu einem Neutron – kann unter irdischen Bedingungen nicht reproduziert werden. Die Beschreibung der modernen Fusionsforschung als Versuch einer Nachahmung des „Sonnenfeuers“ ist daher metaphorisch zu verstehen.
3.3.2 Technisch induzierte Kernfusionsprozesse Aus physikalischer Sicht steht einer Kernfusion zunächst die CoulombBarriere entgegen. Dabei handelt es sich um die natürlichen Abstoßungskräfte der positiv geladenen Kerne. Zur Überwindung dieser Barriere müssten theoretisch etwa 400000 eV, entsprechend einer Temperatur von 4 Milliarden Grad aufgewandt werden. Wäre eine solche Temperatur vorausgesetzt, wäre die Erzeugung von Kernfusionsprozessen unter irdischen Bedingungen völlig aussichtslos. Wegen des quantenmechanisch möglichen Tunneleffektes, bei dem einige wenige Teilchen die Barriere spontan untertunneln, liegt die effektive Barrierehöhe jedoch um ein Vielfaches niedriger. Für die unter irdischen Bedingungen am einfachsten zu realisierende Fusionsreaktion zwischen Deuterium und Tritium beträgt die benötigte Teilchenenergie ungefähr 10 000 eV. Diese Energie entspricht immer noch einer Gastemperatur von mehr als 100 Millionen Grad, was sieben bis zehnmal so hoch ist wie im Zentrum der Sonne. Auch solche Temperaturen sind eine ungeheure technische Herauforderung, werden heute aber in Tokamak-Reaktoren bereits routinemäßig erreicht. Technisch wird die Kernfusion heute vor allem auf zwei Wegen angestrebt:
298
TEC = Trilateral Euregio Cluster TEC: Kernfusion. Eine Herausforderung für die Menscheit, TEC 2001.
Kernfusionsenergie – eine Option für die Zukunft!? x
x
159
Beim Trägheitseinschluss werden flüssige Brennstoffkügelchen aus Deuterium und Tritium von etwa 1 mm Durchmesser durch allseitigen Beschuss mit Laser- und Schwerionenstrahlen erhitzt. Dabei verdampft die Oberfläche und erzeugt dabei einen nach innen gerichteten Rückstoss, durch den die Dichte im Kügelchen um das tausendfache wächst. Unter der ungeheuren Hitze und Dichte fusionieren schließlich die ersten Wasserstoffkerne, setzen dabei Energie frei und heizen den Brennstoff so selbsttätig weiter an, bis im Idealfall alle Wasserstoffkerne zu Kernfusion kommen. Der Magnetische Einschluss nutzt die Eigenschaften heißer Deuterium-Tritium Plasmen. Bei extrem hohen Temperaturen lösen sich Atomkern und Elektronenhülle voneinander ab. Der Brennstoff ist in diesem Zustand vollständig ionisiert und eignet sich nun auch als elektrischer Leiter. Wegen der hohen Temperaturen, denen kein Wandmaterial standhalten kann, wird das Plasma durch ein extrem starkes Magnetfeld in einem toroidalen Ring eingeschlossen. Die positiv geladenen Deuterium und Tritium-Kerne werden dabei von ihren negativ geladenen Elektronen getrennt, die sich entlang der Magnetfeldlinien anordnen. Schließlich wird das so erzeugte Plasma durch eingestrahlte Hochfrequenz und energetische Teilchen auf die zur Fusion nötigen Temperaturen aufgeheizt. Theoretisch sollte nun die durch Fusionsprozesse entstehende Wärme die weitere Plasmaheizung selbst übernehmen, so dass keine weitere Energiezufuhr von außen mehr nötig wäre.
Der Trägheitseinschluss ist die derzeit in den USA favorisierte Forschungsrichtung, während sich die EU gemeinsam mit den Vertragsparteien des Internationalen Thermonuklearen Fusionsreaktors (ITER), zu denen auch Kanada, Russland und Japan zählen, auf den magnetischen Einschluss festgelegt hat. Zumindest theoretisch besteht noch ein dritte Möglichkeit, die zwar zur Zeit nirgendwo auf der Welt ernsthaft verfolgt wird, der Vollständigkeit halber aber erwähnt werden soll, nämlich die Myon-katalytische Fusion. In Teilchenbeschleunigern entsteht bei Zusammenstößen die seltene Teilchenart der Myonen. Diese Myonen haben die interessante Eigenschaft die Fusion von Deuteriumatomen zu Helium zu katalysieren. Der prinzipiell sehr effiziente katalytische Prozess kommt jedoch nach derzeitigen Erkenntnissen zu frühzeitig zum Stillstand, weil die Myonen zugleich die Tendenz zeigen, sich stabil mit den neu gebildeten Heliumkernen zu verbinden. Sollte diese Unterbrechung des Prozesses technisch unterbunden werden können, könnte auch die katalytische Myon-Fusion ein aussichtsreicher Kandidat der Kernfusionsforschung werden. Wegen der herausragenden Bedeutung des magnetischen Einschlusses
160
Darstellung der verschiedenen Energieoptionen
für die europäische Forschung, soll diese im folgenden im Mittelpunkt der Darstellung stehen. Beim magnetischen Einschluss werden wiederum zwei verschiedene technische Baulinien verfolgt: x
x
Im Tokamak entsteht durch die Strömung des Plasmas zusätzlich zum Spulenfeld ein poloidales Magnetfeld, in dem der Plasmastrom selbst sich wie eine Sekundärspule verhält. Im Stellarator wird das Plasma nur durch das Magnetfeld zusammengehalten, das von speziell geformten Spulen, die das Torusfeld umwinden erzeugt wird.
Die Baulinie der Stellaratoren ist lange Zeit vernachlässigt worden, weil die Berechnung und Herstellung der kompliziert gewundenen Spulen technisch zu aufwändig erschien. Neue hochleistungsfähige Rechner und computergesteuerte Präzisionswerkzeuge, haben jedoch auch die StellaratorBaulinie in den Bereich des technisch Machbaren gerückt. In der Nähe von Greifswald wird zur Zeit ein Stellarator gebaut (Wendelstein 7 X), den das Max-Planck-Institut für Plasmaphysik in München entwickelt hat. In ihm soll ein Plasmadruck von 25 t pro m2 und Temperaturen bis zu 80 Millionen Grad erreicht werden. Gleichzeitig sollen supraleitende Spulen bei – 268 °C die nötige Energie für die Magnetfelder zuführen. Der W7X wird baubedingt keine neuen Fusionsspitzenleistungen erzielen können. Das Hauptziel, das mit dem W7X verfolgt wird, ist vielmehr Grundlagenforschung an der bislang vernachlässigten Stellarator Baulinie. Mitte 2000 sind die Gebäude in Greifswald fertiggestellt worden. Die technischen Innenarbeiten für die Stromversorgung und Kühlwasserkreislauf laufen zur Zeit noch.
3.3.3 Erfolge und Misserfolge auf dem Weg zur Kernfusionsenergie In der Fusionsforschung sind in den letzten Jahren beeindruckende Leistungssteigerungen erzielt worden, aber der entscheidende Durchbruch, die Zündung eines sich selbst tragenden Fusionsprozesses, konnte bislang noch nicht erzielt werden.299 Einen Indikator für den Stand der Fusionsforschung bietet das sogenannte Tripel-Produkt aus Plasmadichte, Einschlusszeit und Ionen-Temperatur. 299
Aufgrund der in heutigen Tokamakreaktoren erzielten Einschlussdichte war eine solche Zündung allerdings auch theoretisch nicht zu erwarten gewesen.
Kernfusionsenergie – eine Option für die Zukunft!?
161
Das in den Forschungslaboratorien erreichte Produkt ist alle zehn Jahre um eine Größenordnung gestiegen und nähert sich heute den Zündungsbedingungen für eine sich selbst tragende Kernfusion. Ein weiterer wichtiger Indikator für den jeweils aktuellen Stand der Fusionsforschung ist der Erntefaktor Q, der definiert ist als Quotient aus der erzeugten Fusionsleistung [PFusion] und der zugeführten Energie [Pextern]. Das beste Ergebnis, das in der Fusionsforschung je erzielt wurde, stammt von dem europäischen Tokamak JET (Joint European Torus) mit 16 Millionen Watt für zwei Sekunden, was einem Wert von Q = 0,6 und einer immer noch sehr bescheidenen Wärmeleistung von ca. 2 kWh entspricht. Mit JET konnte auch der längste Fusionsprozess von einigen Sekunden bei einem Wert von Q = 0,2 erzielt werden (Abb. 3.35).
Abb. 3.35 Die besten bisher erreichten Fusionsleitungen bei den verschiedenen Fusionsreaktoren in Forschungslaboratorien
Zur Zeit konzentrieren sich alle Bemühungen darauf, die Fusionsleistung Q = 1 zu erreichen, d. h. dass Energiezufuhr und Erzeugung gleich groß wären. Damit wäre allerdings „nur“ ein Durchbruch in der Grundlagenforschung („scientific break even“), nicht jedoch in energietechnischer Hinsicht erzielt, da bei Erreichung dieses Wertes immer noch keine Energie gewonnen würde. Entscheidend für den Nachweis der technischen Möglichkeit von Energieerzeugung aus Kernfusionsprozessen wäre die Zündung des Fusionsfeuers, bei der die gesamte Energie für die Kernfusion aus dem Brennstoff selbst stammt und praktisch keine Energie mehr von außen zuge-
162
Darstellung der verschiedenen Energieoptionen
führt werden muss. Dieser Punkt soll mit dem geplanten Internationalen Thermonuklearen Fusionsreaktor ITER-FEAT überschritten werden. Mit ITER-FEAT wird eine Leistungsverstärkung von Q = 10 über einen Zeitraum von 500 Sekunden angestrebt. Trotz der beachtlichen Erfolge bei der Erhöhung der Tripel-Produkts steht die Tokamak-Forschung nach wie vor vor großen technischen Schwierigkeiten. Insbesondere spontan auftretende Instabilitäten des Magnetfeldes bereiten den Forschern Probleme.300 Um eine Erosion der Hitzeschilde zu vermeiden, müssten diese Instabilitäten für eine kommerzielle Anwendung beherrschbar gemacht werden. Die heute mit Tokamaks durchgeführten Versuche zielen darauf, durch eine lange Plasmaeinschlußdauer bei gleichzeitiger Kontrolle der Temperatur und der Plasmaströmung optimale Plasma-Profile zu entwickeln. Die Erfahrungen aus diesen Experimenten könnten später einmal vielleicht in möglichen kommerziellen Fusionskraftwerken genutzt werden. JET ist zur Zeit der einzige Tokamak, der Deuterium und Tritium, die hinsichtlich der Fusionswahrscheinlichkeit aussichtsreichsten Brennstoffe, zur Fusion bringen kann. Experimente mit JET haben ein für die Kernfusion optimales Mischungsverhältnis Deuterium zu Tritium von 40:60 ergeben. Für JET sind zudem zwei Schlüsseltechnologien erprobt und eingeführt worden, die wichtige Voraussetzungen für einen möglichen zukünftigen großindustriellen Einsatz der Fusionstechnologie bilden, nämlich: x x
Tritium Aufbereitung und ferngesteuertes Auswechseln der Materialien.
Beide Voraussetzungen sind bei JET gegeben. So wurde für JET sowohl eine eigene Tritium-Aufbereitungsanlage gebaut, als auch bereits eine ferngesteuerte Auswechslung der kompletten Divertor-Ausstattung im aktivierten Tokamak demonstriert. Diese Techniken sind jedoch möglicherweise nicht auf einen zukünftigen Fusionsreaktor übertragbar; dort müsste das Tritium in der Wand des Plasmagefäßes selbst erbrütet und bei Temperaturen von rund 300 °C durch die dahinter liegenden Supraleiter mit Temperaturen nahe des absoluten Nullpunktes abgeleitet werden. Für die damit zusammenhängenden technischen Probleme gibt es derzeit noch keine befriedigende Lösung. Der Internationale Thermonukleare Experimentalreaktor (ITER) ist das derzeit größte und ehrgeizigste Projekt der Tokamakforschung. Es geht noch auf 300
vgl. dazu J. Pamela, E. Solano: From JET to ITER: Preparing the next step in fusion research, Physicalia magazine (Journal of the Belgian Physical Society), 2001.
Kernfusionsenergie – eine Option für die Zukunft!?
163
ein Kooperationsangebot der damaligen Sowjetunion unter Gorbatschow aus dem Jahr 1985 zurück, in dem dieser vor dem Hintergrund knapper werdender Forschungsetats in der Sowjetunion vorgeschlagen hatte, die Forschungsanstrengungen aller in der Fusionsforschung aktiven Nationen zu bündeln, um auch in Zukunft noch kostspielige Großprojekte in Angriff nehmen zu können. Teilnehmer dieser Kooperation waren zunächst alle in der Fusionsforschung aktiven Nationen, nämlich neben der Sowjetunion, die USA, die Europäische Union, Japan und Kanada. Die USA haben das Forschungsprojekt 1998 jedoch wieder verlassen, weil sie ihre gesamte Fusionsforschung auf den Trägheitseinschluss konzentrieren wollten. Nach 1988 begonnenen Vorstudien am Max-Planck-Institut für Plasmaphysik bei Garching wurde der Bau eines riesigen Tokamak ins Auge gefasst, der die prinzipielle Machbarkeit der Energiegewinnung aus Kernfusion demonstrieren soll. An der im Juli 1992 begonnenen Detailplanung waren rund 240 Mitarbeiter aus aller Welt beschäftigt. ITER wurde dabei vor allem auf der Grundlage extrapolierter Daten von JET entwickelt. Seit Juli 2001 liegt der Abschlußbericht über den Bauplan von ITER vor, die Entscheidung über den Standort steht jedoch aus politischen Gründen immer noch aus. Diskutiert werden derzeit (2003) die Standorte Clarington (Kanada), Cadarache (Frankreich), Vandellos (Spanien) und Rokkasho-mura ( Japan). Nach der Vorlage der Detailpläne haben die USA und China auf dem achten ITERKongress 2003 in Moskau ihre Beteiligung am Bau des Fusionsreaktors angekündigt 301 und sind bei den weiteren Planaungen als Partner eingeschlossen. Sollte mit ITER tatsächlich die Zündung eines sich selbst tragenden Fusionsprozesses gelingen, wird dies zweifellos einen Ansporn für die weitere Entwicklung der Fusionsenergie mit dieser Technik bis zur Marktreife bedeuten. Wenn es nach den Vorstellungen der Protagonisten der Fusionsenergie geht, könnte ab 2050 kommerziell elektrische Energie aus Kernfusion gewonnen werden. Im Rahmen eines „Fast Track Experts Meeting“ des Forschungsrates der am Bau von ITER beteiligten Vertragsparteien ist dazu im November 2001 folgender Fahrplan festgelegt worden 302: x
Bau von ITER (Fertigstellung bis ca. 2010) und Nachweis der technischen Machbarkeit einer sich selbst tragenden Kernfusion,
301
D. Whitehouse: US and China join fusion project, BBC News, 26. 2. 03. Conclusions of the Fusion Fast Track Expert Meeting held on 27 November 2001, in: Five year assessment report related to the specific programme: nuclear energy covering the period 1995–1999, EFDA 2001.
302
164 x
x
x
x
Darstellung der verschiedenen Energieoptionen
Auf der Grundlage der mit ITER gewonnen Erfahrungen Bau eines ersten Demonstrationskraftwerks (Fertigstellung DEMO bis ca. 2030), mit dem bereits elektrischer Strom erzeugt werden soll, Entwicklung und Bau eines ersten marktfähigen Prototyps (Fertigstellung PROTO bis ca. 2050) zum Einsatz in der Elektrizitätswirtschaft. Bau und großindustrieller Einsatz von Fusionskraftwerken auf der Basis von PROTO ab frühestens 2050. Im Juni 2005 haben die Partner sich für Cardarache, Frankreich als Standort entschieden.
Es muss betont werden, dass es sich bei diesem „fast track“ um eine ehrgeizige Optimalvariante handelt und die Einhaltung dieses Fahrplans äußerst ungewiss ist. Eine Reihe ungewisser Faktoren erschweren die Einhaltung des Zeitplanes: x
x
x
Der Baubeginn von ITER und der geplanten späteren Fusionskraftwerke könnte sich aus technischen, finanziellen oder politischen Gründen verzögern. Die Forschungspolitik der beteiligten Vertragsparteien könnte sich ändern und der Fusionsforschung die benötigten Mittel entziehen. Vor allem aber könnten sich die technischen Probleme einer großindustriellen Energieerzeugung aus Kernfusionsprozessen im weiteren Verlauf als außerordentlich schwierig, wenn nicht sogar unüberwindlich erweisen.
Nach bisherigen Berechnungen werden die Investitionskosten für Fusionskraftwerke deutlich höher liegen als für heute eingesetzte Leichtwasserreaktoren.303 Für den Bau von ITER mit einer Leistung von 1500 MW werden derzeit 5 Milliarden $ und eine Bauzeit von zehn Jahren veranschlagt.304 Bei den Kosten ist jedoch zu berücksichtigen, dass es sich bei ITER um einen völlig neuartigen Forschungsreaktor handelt. Bereits die Kosten der ersten Prototypen würden voraussichtlich deutlich niedriger liegen. Mögliche Kostenschätzungen werden vor allem durch die bislang ungelösten Anforderungen an die Materialtechnik erschwert. Nach Schätzungen von Karl Lackner, dem Direktor am Max-Planck-Institut für Plasmaphysik (IPP) in Garching bei München, könnten Fusionskraftwerke in Zukunft Stromgestehungskosten von sechs bis sieben Cent/kWh erreichen.305 Diese 303
304 305
K. Pinkau: Stand und Perspektiven der Fusionsforschung, in: J. Treusch (Hrsg.): Koordinaten menschlicher Zukunft: Energie – Materie – Information – Zeit, Stuttgart 1997, S. 135. Whitehouse 2003. „In hundert Jahren benötigt Europa 200 Fusionskraftwerke“, Interview mit Karl Lackner, in: Spektrum der Wissenschaft, April 2003, S. 90–91.
Kernfusionsenergie – eine Option für die Zukunft!?
165
lägen also deutlich höher als bei heutigen konventionellen Leichtwasserreaktoren. Kernfusionsenergie weist gegenüber Kernspaltungsenergie eine Reihe ökologischer und sicherheitstechnischer Vorteile auf. Deren wichtigste sind 306: x
x
x
Die Brennstoffe Deuterium und Tritium werden aus Wasser und Lithium gewonnen und können durch den Kernfusionsprozess in das unschädliche Edelgas Helium „verbrannt“ werden. Grosse Störfälle vom Typus einer Kernschmelze sind in einem Tokamak-Reaktor ausgeschlossen, da der im Reaktor befindliche Brennstoff zu jedem beliebigen Zeitpunkt nur für 10 Sekunden reicht und jede Fehlfunktion zu einem Abbruch der Reaktion führt. In einem Fusionsreaktor entstehen wesentlich geringere Mengen radioaktiver Abfälle mit wesentlich geringerer Radiotoxizität als in heutigen Leichtwasserreaktoren.307
Mögliche Risiken gehen in der Fusionsenergienutzung vor allem von einer Freisetzung des flüchtigen radioaktiven Tritiums in die Umwelt aus. Auch das Bedienungspersonal im Bereich der Tritium-Aufbereitung wird voraussichtlich einer erhöhten Strahlenexposition ausgesetzt sein. Bisherige Messungen an der Tritiumaufbereitungsanlage des JET ergaben zusätzliche Strahlenexpositionen für das Arbeitspersonal im Bereich einiger Mikrosievert, einem Wert im unteren Niedrigdosisbereich, der als unbedenklich gilt.308 Da in einem Fusionsreaktor nur durch die Ofenwände stark radioaktive Abfälle entstehen, die zudem wesentlich schneller abklingen als das radioaktive Inventar von Kernspaltungsreaktoren, verringert sich auch der Bedarf an Zwischen- und Endlagern für radioaktive Abfälle.309 Fusionsenergie ist aufgrund der beschriebenen Faktoren voraussichtlich eine sehr umweltfreundliche Energiequelle. Die bisweilen in der Öffentlichkeit geweckte Erwartung, Atomkernfusionsenergie werde im Gegensatz zu Atomkernspaltungsenergie frei von Radioaktivität sein, ist jedoch irreführend.
306 307 308 309
Nach Ongena 1998; sowie K. Pinkau 1997, S. 126 ff. vgl. dazu insbesondere Pinkau 1997, S. 136, Abb. 12. D. Campling, P. Macheta, B. Patel, P. Schofield: Tritium-in-air „bubbler“ samplers and internal radiation doses at JET, EFDA-JET-CP (01) 09/01, EFDA 2001. Pinkau 1997.
166
3.4
Darstellung der verschiedenen Energieoptionen
Erneuerbare Energien
3.4.1 Allgemeines Als erneuerbare Energien werden all jene Energieformen bezeichnet, die auf den drei natürlichen Primärquellen, d. h. der solaren Strahlung, der Erdwärme und den Gezeiten beruhen und sich in menschlichen Zeiträumen nicht erschöpfen. Der weltweite Anteil der erneuerbaren Energien am Primärenergieverbrauch der Welt liegt derzeit bei 12 bis 14 Prozent.310 Davon entfällt der größte Teil, nämlich rund 10 Prozent, nach wie vor auf traditionelle Biomasse, d. h. in erster Linie Brennholz, das in vielen Entwicklungsländern immer noch der wichtigste Energieträger für die Bereitstellung von Wärme ist. Dieses Brennholz wird jedoch z. T. durch Raubbau an den natürlichen Ökosystemen gewonnen, was zur sogenannten „Brennholzkrise“ der Entwicklungsländer geführt hat. Der Anteil der übrigen erneuerbaren Energien am Weltenergieverbrauch ist verglichen mit der traditionellen Biomasse-Nutzung nur marginal, etwa zwei Prozent entfallen auf Wasserkraft, die immerhin ein Fünftel zur weltweiten Stromproduktion beiträgt und weniger als ein halber Prozentpunkt auf Windkraft und Sonnenergie. In Deutschland stammt derzeit (2000) 2,7 Prozent der Primärenergie und 6 Prozent des Strombedarfs aus erneuerbaren Energien, davon der größte Teil aus Wasser- und Windkraft. Bisweilen werden „klassische“ erneuerbare Energien, wie Abfallholz, Wasserkraft, und Klärschlämme von sogenannten „neuen“ erneuerbaren Energien, wie Windenergie, Solarthermie und Fotovoltaik unterschieden. Diese Terminologie ist jedoch missverständlich, da auch eine „neue“ erneuerbare Energie, wie die Windenergie schon seit Jahrtausenden, etwa durch Windmühlen und Segelschiffe durch den wirtschaftenden Menschen genutzt wird. Neu sind also nicht die Energiequellen, sondern die Technologien, die zu ihrer Nutzung eingesetzt werden. Im technologischen Bereich haben sich gegenüber der traditionellen Nutzung zweifellos große Veränderungen ergeben und für die Zukunft stehen weitere technische Innovationen zu erwarten. In diesem eingeschränkten Sinne, dass es also um den Einsatz „neuer“ Technologien bei der Nutzung erneuerbarer Energiequellen geht, soll im Folgenden von „neuen“ erneuerbaren Energien gesprochen werden. 310
Zahlen nach RWE (Hrsg.): Verantwortlich handeln, regenerative Energien heute und morgen, Essen 2001, S. 10; Unsicherheiten in Schätzungen über den Anteil erneuerbarer Energien ergeben sich vor allem aus dem unklaren Anteil traditioneller Biomasse am weltweiten Energieverbrauch.
Erneuerbare Energien
167
Die Erschließung neuer erneuerbarer Energien, insbesondere von Windkraft und Fotovoltaik, wird dadurch erschwert, dass sie nur über eine x x
niedrige Energieflussdichte und schwankende Verfügbarkeit,
verfügen. Diese beiden Faktoren sind auch der Hauptgrund für den bislang marginalen Anteil dieser Energiequellen am weltweiten Primärenergieverbrauch. Andererseits sind die erneuerbaren Energien, mit Ausnahme der Biomasse, emissionsfrei und führen auch sonst zu überwiegend niedrigeren Umweltbelastungen als Energiesysteme auf fossiler und nuklearer Basis.311 Daher werden in Deutschland und weltweit an einen Ausbau des Anteils der erneuerbaren Energien am Gesamtenergieverbrauch große Hoffnungen geknüpft, insbesondere im Hinblick auf eine Reduzierung der CO2-Emissionen. Unabhängig von der Treibhausgasproblematik muss berücksichtigt werden, dass erneuerbare Energien im Hinblick auf die Endlichkeit von Energierohstoffen auf lange Sicht die einzige unerschöpfliche Energiequelle darstellen. Eine effiziente Erschließung der Potenziale erneuerbarer Energien ist daher unumgänglich und auch unumstritten. Eine nachfragegerechte Deckung des wachsenden Energiebedarfs durch erneuerbare Energien setzt jedoch eine Lösung des Speicherproblems voraus. Über die kurz- und mittelfristig erschließbaren Potenziale erneuerbarer Energien besteht auch unter Experten kein Konsens. Während einige Protagonisten des forcierten Ausbaus erneuerbarer Energien, wie z.B. die Gruppe um Langniß und Nitsch beim Deutschen Zentrum für Luft- und Raumfahrt (DLR) davon ausgehen, dass schon in naher Zukunft praktisch die gesamte Energieversorgung sowohl Deutschlands als auch weltweit aus erneuerbaren Energien gedeckt werden kann 312, bezweifeln Befürworter fossiler und nuklearer Energiesysteme wie der ehemalige VEW-Vorstandschef Knizia sogar, dass sie sich energetisch überhaupt amortisieren.313 Zwischen diesen Extrempositionen liegen Prognosen renommierter Energieagenturen wie die der International Energy Agency (IEA/ OECD) und der Energy Information Administration (EIA/Department of 311 312
313
Vgl. zur Umweltbelastung: H.-J. Wagner / P. Borsch: Energie und Umweltbelastung, 2. Auflg., Berlin 1998, S. 131. Exemplarisch hier z. B. die DLR-Studie von Langniß / Luther / Nitsch / Wiemken: Strategien für eine nachhaltige Energieversorgung – Ein solares Langfristszenario für Deutschland, 2. Auflg. Freiburg 1998; sowie Fischedick / Langniß / Nitsch: Nach dem Ausstieg: Zukunftskurs Erneuerbare Energien, Stuttgart 2000. K. Knizia: Schöpferische Zerstörung = zerstörte Schöpfung? Die Industriegesellschaft und die Diskussion der Energiefrage (= VGB Buchreihe Mensch, Energie, Gesellschaft Bd. 1), Essen 1996, hier insbesondere S. 317 ff.
168
Darstellung der verschiedenen Energieoptionen
Energy / USA), denen zufolge erneuerbare Energien zweifellos über ein großes Wachstumspotenzial verfügen, ihr prozentualer Anteil am Primärenergieverbrauch wegen des gleichzeitig steigenden weltweiten Energiebedarfs zumindest innerhalb der nächsten zwanzig Jahre nicht zunehmen wird.314 Der unpräzise Potenzialbegriff Die erheblich voneinander abweichenden Einschätzungen des Potenzials erneuerbarer Energien beruhen zumindest z. T. auf einer ungenauen Explikation dessen, was jeweils als „Potenzial“ aufgefasst wird. Befürworter erneuerbarer Energien verweisen oft auf die ungeheuren Energiemengen, die in den natürlichen Energieströmen wie der solaren Strahlung, dem Wind und der Erdwärme enthalten sind. So heißt es in der erwähnten Studie des Deutschen Zentrums für Luft und Raumfahrt (DLR): „Die auf die Kontinente eingestrahlte Energie, die potenzielle Energie des Wassers, die kinetische des Windes und der Meereswellen, die in der stetig nachwachsenden Biomasse gespeicherte chemische Energie, die Wärmeenergie der Meere und die geothermische Energie bieten jährlich rund das 3000-fache des derzeitigen Weltenergieverbrauchs in Form unerschöpflicher Energieströme an. Die technische Nutzung nur eines Promille dieser Energieströme kann also die Energiebedürfnisse der Menschheit auch bei noch steigendem Bedarf prinzipiell vollständig befriedigen.“ 315 Die in diesem Zitat angesprochenen „theoretischen Potenziale“ der erneuerbaren Energien sind jedoch völlig abstrakt und sagen praktisch nichts über die technischen Schwierigkeiten und wirtschaftlichen Kosten aus, die ihrer Nutzung entgegenstehen. Entsprechend werden die technischen Potenziale der erneuerbaren Energien auch von der DLR-Gruppe um Langniß eine ganze Größenordnung niedriger eingeschätzt.316 Selbst das technische Potenzial sagt jedoch unter Umständen nur wenig über den wirtschaftlichen Wert der Energiequelle. Während z. B. Wasserkraft eine relativ hohe Energiedichte und gute Verfügbarkeit bei sehr guter Regelbarkeit aufweist, die sie auch gegenüber fossilen Energiesystemen konkurrenzfähig macht, tritt Windenergie meist nur mit niedriger Energiedichte und dazu bloß stochastisch auf. Erstere ist daher im Hinblick auf eine mögliche Nutzung viel leichter zu gewinnen und wird der bestehenden Energienachfrage wesentlich besser gerecht als letztere. 314
315 316
Vgl. International Energy Outlook 2001, hrsg. von der EIA (DOE), Washington 2001, S. 97–117; Argiri, M. / Fatih, B.: Renewable Energy Supply to 2020 – key findings of recent IEA Work, in: World Power 2002, S. 19–23. Langniß et al., S. 1. ebd.
Erneuerbare Energien
169
Aufgrund dieser Schwierigkeiten warnen Energieexperten vor übertriebenen Erwartungen hinsichtlich des kurz- und mittelfristigen Ausbaupotenzials erneuerbarer Energien.317 Die geringe Aussagekraft des theoretischen Potenzials einer erneuerbaren Energiequelle wird am Beispiel der solaren Strahlung deutlich: Die jährlich auf die Erde einfallende solare Strahlung in Höhe von 3,9 Millionen EJ, die im Prinzip den jährlichen Energiebedarf der Menschheit um mehrere Größenordnungen übersteigt, wird durch die Umwandlung in Umgebungswärme und Verdunstungsenergie schon beim Eintreffen auf die Erde zu großen Teilen für die wirtschaftliche Nutzung entwertet. Wegen der angeführten Schwierigkeiten ist es daher sinnvoll, in jedem einzelnen Fall bei erneuerbaren Energiequellen sehr genau zwischen einem theoretischen, technischen und wirtschaftlichen Potenzial zu unterscheiden 318: 1) Das theoretische Potenzial gibt die gesamte Energiemenge an, die in einem natürlichen Energiestrom der Erde enthalten ist, z. B. die jährlich auf die Erde einfallende solare Strahlung oder die Wärmeenergie des Erdinneren. Dieses Potenzial sagt praktisch nichts über eine mögliche Nutzung aus. 2) Das technische Potenzial gibt an, welcher Anteil des physikalischen Potenzials bei gegenwärtigem Stand der Technik und unter Berücksichtigung anderer einschränkender Rahmenbedingungen, wie z. B. der Anzahl geeigneter Standorte, theoretisch zur Energieversorgung genutzt werden könnte. Das technische Potenzial kann jedoch in der Regel nicht annähernd voll ausgeschöpft werden, einmal weil nicht das gesamte technische Potenzial wirtschaftlich genutzt werden kann, zum anderen weil ökologische Rücksichten die Zahl der geeigneten Standorte beschränken. Das technische Potenzial einer erneuerbaren Energiequelle kann daher nur als grober Referenzrahmen für die Einschätzung dienen, wie groß ihr mögliches Ausbaupotenzial ist. 3) Das wirtschaftliche Potenzial beinhaltet hingegen eine Einschätzung, welcher Anteil des technischen Potenzials sich zu vertretbaren volkswirtschaftlichen Kosten nutzen lässt. Einschätzungen des wirtschaftlichen Potenzials sind im Gegensatz zu den zuvor genannten Potenzialen be317
318
vgl. exemplarisch den Standpunkt des Maschinenbauingenieurs Prof. H. J. Wagner: Energiepolitiker sollten sich vor falschen Versprechungen hüten, in: VDI nachrichten, 16. 8. 02. Unterscheidung nach M. Meliß: Potenzial erneuerbarer Energiequellen, in: H. Schaefer (Hrsg.): VDI-Lexikon Energietechnik, Düsseldorf 1994, S. 984–986.
170
Darstellung der verschiedenen Energieoptionen
sonders unsicher, da eine Vielzahl veränderlicher Größen, insbesondere die zukünftige Preisentwicklung bei Energierohstoffen, aber auch die Umweltgesetzgebung und direkte staatliche Beihilfen, das wirtschaftliche Potenzial einer erneuerbaren Energiequelle beeinflussen. Während über die theoretischen Potenziale der natürlichen Energieströme in der Wissenschaft weitgehend Einigkeit besteht, weichen die Angaben über die technischen und erst recht die über die wirtschaftlichen Potenziale verschiedener erneuerbarer Energiequellen sehr weit voneinander ab. Weitgehend übereinstimmende Schätzungen liegen bislang nur für die Wasserkraft vor, an der sich die oben getroffenen Unterscheidungen besonders gut explizieren lassen 319. a) Das theoretische Potenzial der Wasserkraft, d. h. die potenzielle Energie sämtlicher Wasserläufe der Welt wird auf 44000–49000 TWh im Jahr geschätzt. b) Von diesem Potenzial sind ohne Rücksicht auf wirtschaftliche oder ökologische Belange 36000 TWh/a technisch nutzbar. c) Vom technischen Potenzial gilt wiederum etwas mehr als ein Viertel, d. h. 9000–11 000 TWh/a unter vertretbaren ökologischen und wirtschaftlichen Bedingungen als nutzbar. Von dem zuletzt genannten wirtschaftlichen Potenzial werden derzeit 2500 TWh/a auch bereits genutzt. Das Beispiel der Wasserkraft zeigt, dass das technische Potenzial einer erneuerbaren Energiequelle in aller Regel nicht annähernd vollständig erschlossen werden kann. Dabei wird das technische Potenzial nicht nur durch Kostenerwägungen sondern auch durch ökologische Rücksichten beschränkt. Um beim Beispiel der Wasserkraft zu bleiben: Aus Rücksicht auf die Flussökologie oder auch ästhetische Erwägungen kann nicht jeder prinzipiell nutzbare Abschnitt eines Flusses auch tatsächlich zur Stromerzeugung genutzt werden. Trotz dieser Einschränkungen besteht immer auch die Gefahr, das wirtschaftliche Potenzial einer erneuerbaren Energiequelle zu unterschätzen. So wurde das weltweite wirtschaftliche Potenzial der Wasserkraft auf der 5. Weltwasserkonferenz von 1956 mit 4700 TWh im Jahr veranschlagt, während heutige Schätzungen wie erwähnt von einem etwa doppelt so hohen Wert ausgehen.320 Neben semantischen Unsicherheiten beim Potenzialbegriff ist nicht zu übersehen, dass die erheblichen Unterschiede in der Einschätzung der 319
320
Zahlen nach: M. Kleemann: Windenergie, Wasserkraft, Gezeitenenergie und Erdwärme, in: E. Rebhan (Hrsg.): Energiehandbuch, Gewinnung, Wandlung und Nutzung von Energie, Heidelberg 2002, S. 386. Zahlen nach Link: Wasserkraftpotenzial, in: Schaefer (Hrsg.): VDI-Lexikon Energietechnik, Düsseldorf 1994, S. 1382.
Erneuerbare Energien
171
Potenziale erneuerbarer Energien oftmals durch weltanschauliche Voreinstellungen oder wirtschaftliche Interessen beeinflusst sind. Insbesondere Prognosen über den zukünftigen Anteil erneuerbarer Energien am Weltenergieverbrauch dienen dabei oft weniger der Skizze einer realistischen oder wahrscheinlichen Entwicklung der Energiemärkte als vielmehr der Entwicklung von Leitbildern und als Motivationsgrundlage für eine bestimmte ökologisch motivierte Energiepolitik.321 Im Folgenden sollen die verschiedenen regenerativen Energiequellen einzeln dargestellt und kritisch im Hinblick auf ihre jeweiligen technischen und wirtschaftlichen Potenziale untersucht werden. Dabei sollen insbesondere neuere technische Entwicklungen und Pilotprojekte Berücksichtigung finden. Die erneuerbaren Energien werden dabei im Folgenden getrennt untersucht nach: x x x x x x x
Sonnenlicht, Windkraft, Wasserkraft, Gezeiten, Wellenenergie, Biomasse, Erdwärme.
3.4.2 Sonnenlicht Die mit Abstand wichtigste Quelle für Exergie auf der Erde ist die Sonne. Energie aus solarer Strahlung wird auf vielfältige Weise durch Erwärmung der Umgebung, durch Wind- und Wasserkraft, aber auch durch die Photosynthese der Pflanzen in andere Energieformen umgewandelt und durch den Menschen genutzt. Prinzipiell ist auch eine direkte Nutzung der Sonnenenergie technisch möglich, ihr Anteil am weltweiten Primärenergieverbrauch ist derzeit jedoch verschwindend gering. Eine Nutzung der solaren Strahlung kann durch konzentrierende oder nicht-konzentrierende Systeme erfolgen.322
321 322
Vgl. zu diesem Spannungsverhältnis z. B. Fischedick et al. 2000, die sich ausdrücklich zu einem normativen Leitbild bekennen, ebd. S. 65 ff. Diese Einteilung folgt der des Deutschen Zentrums für Luft- und Raumfahrt (DLR), vgl. „Kurzüberblick erneuerbare Energien“ unter: www.dlr.de/tt/ [Stand: Oktober 2001], im folgenden als „Kurzüberblick“ zitiert; sowie IEA/Solar Paces (Hrsg.): Concentrating Solar Power in 2001, Paris 2001, näheres unter http://www.solarpaces.org/csp_technology.htm [Stand Oktober 2002].
172
Darstellung der verschiedenen Energieoptionen
Konzentrierende Systeme nutzen dabei die direkte Sonnenstrahlung bei klarem Himmel, wie sie dauerhaft nur im äquatornahen Sonnengürtel der Erde zwischen 30 ° N und 30 ° S gegeben ist. Nicht konzentrierende Systeme können hingegen auch diffuses Licht nutzen, das durch Streuung und Reflexion an Wolken entsteht, wie es in Ländern der gemäßigten Klimazone vorherrscht. Vor allem aber arbeiten konzentrierende Systeme im Hochtemperaturbereich, d. h. mit ihnen können auch Gas- und Dampfturbinen angetrieben werden, während nicht-konzentrierende Systeme nur im Niedrigtemperaturbereich arbeiten. Solarthermische Kraftwerke Solarthermische Kraftwerke fokussieren Sonnenlicht und erhitzen ein Trägermedium wie Wasser, Luft oder Thermo-Öl auf Temperaturen von mehreren hundert Grad. In Solar-Turm-Kraftwerken werden bisweilen auch Salzschmelzen von über 1000 °C als Trägermedium eingesetzt. Die so erzielte Hochtemperaturwärme kann in Gas- und/oder Dampfturbinen zur Erzeugung elektrischer Energie oder unmittelbar als Prozesswärme genutzt werden. Durch den Einsatz von Wärmekraftmaschinen zur Umwandlung von Wärmeenergie in mechanische Energie unterliegen solarthermische Kraftwerke denselben thermodynamischen Beschränkungen wie konventionelle Elektrizitätswerke. Da diese Kraftwerke nur bei direkter Sonneneinstrahlung arbeiten, ist ihr Einsatz auf Gebiete im Sonnengürtel der Erde mit einer hohen Insolationszeit von rund 2400 Stunden pro Jahr beschränkt. Derzeit existieren weltweit drei große Forschungsanlagen für solarthermische Kraftwerke: x x x
Das Weizmann-Institut in Rehovot, Israel, Die nationale solar-thermische Testanlage der USA in Albuquerque, Die Plataforma Solar de Almería, Spanien (DLR / Ciemat).
In diesen Forschungsanlagen werden verschiedene solarthermische Kraftwerkstypen erforscht. Es gibt hauptsächlich drei Typen solarthermischer Kraftwerke: – Parabolrinnenkraftwerke, – Solar-Turm-Anlagen und – Solar-Dish-Anlagen, die im Folgenden einzeln diskutiert werden sollen.
Erneuerbare Energien
173
Parabolrinnenkraftwerke Technik Parabolrinnenkraftwerke bestehen aus trogförmigen Parabolspiegeln, über die ein Rohr mit einem Wärmeträgermedium – meist Thermoöl – führt. Das Rohr verläuft dabei genau durch die Brennlinie des Parabolspiegels, so dass sich das Öl bei Sonneneinstrahlung in den Rohren auf Temperaturen von bis zu 400 °C erhöht und die Wärmeenergie bei einem Wirkungsgrad von 50 bis 60 Prozent abgeführt wird. Das heiße Öl wird schließlich in einer Dampfkraftanlage zur Stromerzeugung genutzt. In einem Kollektorfeld sind mehrere Reihen von Parabolrinnen parallel hintereinander in einem in etwa quadratischen Feld aufgereiht. Die Parabolrinnen sind um die Fokal-Achse drehbar und können so dem Sonnenstand nachgeführt werden. Nachteilig an diesem Kraftwerkstyp ist, dass die Fluidtemperatur auf ca. 380 °C begrenzt ist, was zu einem relativ niedrigen elektrischen Wirkungsgrad von nur 20 Prozent führt.323 Weiterentwicklungen, an denen auch das Deutsche Zentrum für Luft- und Raumfahrt arbeitet, zielen daher auf den Verzicht auf Thermoöl und eine Direktverdampfung von Wasser zur Elektrizitätserzeugung.324 Kosten 1984 wurde in der kalifornischen Mojave-Wüste, USA, finanziert durch privates Risikokapital und steuerliche Vergünstigungen, das erste kommerziell betriebene Parabolrinnenkraftwerk der Welt errichtet. Insgesamt wurden bis 1991 für 1,2 Milliarden US-$ neun Kraftwerke mit Leistungsgrößen zwischen 14 bis 80 MW gebaut.325 Die gesamte installierte Kraftwerksleistung beträgt heute 350 MW und nimmt eine Fläche von 7 km2 ein. Allerdings werden die Solarkraftwerke in der Mojave-Wüste ein Fünftel der Zeit mit Erdgas befeuert, sind also nicht rein solar. Nach Angaben der ehemaligen Betreiberfirma LUZ konnten dabei die Stromgestehungskosten der einzelnen Kraftwerke im Laufe der Jahre (kaufkraftbereinigt) von 24 US-Cent/kWh für SEGS I (1984) auf 8 US-Cent/
323 324 325
Zahl nach Heinloth 1997, S. 313, niedrigere Werte bei IEA / Solar Paces 2001, S. 4. vgl. „Überblick solare Gasturbinenkraftwerke“, unter www.dlr.de/TT [Stand: Oktober 2001]. Zahlen nach: IEA, Solar Paces 2001, S. 6.
174
Darstellung der verschiedenen Energieoptionen
kWh für SEGS IX (1989) gesenkt werden.326 Die durchschnittlichen Kosten des solarthermischen Kraftwerksparks liegen heute bei 12 US-Cent/kWh, die rein solaren Kosten werden auf 16 Cent/kWh geschätzt.327 Trotz dieser insgesamt positiven Bilanz musste die Betreiberfirma LUZ wegen sinkender Erdöl- und Erdgaspreise und dem damit verbundenen Auslaufen der steuerlichen Begünstigung 1991 Konkurs anmelden.328 Die bestehenden Kraftwerke wurden seitdem weiterbetrieben, aber keine neuen mehr gebaut. Insgesamt sind in den neun Kraftwerken seit ihrer Inbetriebnahme 9 TWh elektrischer Energie bei einer kumulierten Betriebserfahrung von 110 Jahren erzeugt worden. Im Gegensatz zu den anderen solarthermischen Kraftwerkstypen, die bisher nicht über Versuchsstadien hinausgekommen sind, bestehen mit Parabolrinnenkraftwerken also bereits erhebliche praktische Betriebserfahrungen. Nach Schätzungen einer Studie von Price und Kearney für das US-Department of Energy (DOE) würden neue Parabolrinnenkraftwerke vom Typ des Integrated Solar Combined-Cycle System (ISCCS) heute Stromgestehungskosten von 10,5 US-Cent/kWh erzielen.329 Auch die IEA schätzt, dass eine neue Generation von Parabolrinnenkraftwerken heute Stromgestehungskosten von rund 10 Cent/kWh erzielen könnte und prognostiziert längerfristig eine weitere Reduzierung auf 5 Cent/kWh.330 Diese Kosten können jedoch nur während der Insolation erzielt werden. Durch Speichertechnologien würden die Stromgestehungskosten steigen. In Spanien laufen derzeit (2002) die Vorbereitungen für den Bau des ersten kommerziellen solarthermischen Kraftwerks in Europa. Am Fuße der
326
327
328
329
330
Zur Kostenentwicklung der LUZ-Parabolrinnenkraftwerke vgl. H. Price / D. Kearney: Parabolic-Trough Technology Roadmap: A pathway for sustained commercial development and deployment of parabolic-trough technology, Sunlab/NREL Colorado 1999, S. 12 ff. vgl. J. Mariyappan: Solar thermal thematic review, Draft report for the Global environment facility, USA 2001, S. 8; sowie V. Quaschning: Solarkraftwerke – Konzentration auf die Sonne, in: Sonne, Wind & Wärme, 10–11 2001, S. 74–78. Die steuerlichen Begünstigungen waren seinerzeit an die Erdgas- und Erdölpreise gekoppelt worden und wurden parallel zu diesen abgebaut, was im Effekt zum Konkurs der Firma führte, vgl. dazu das Sonderkapitel: The demise of Luz – Lessons from an unstable regulatory enovironment, in: Status Report on solar trough power plants, Pilkington Solar 1996, 2-7-2-9. Price / Kearney, S. 13; vgl. auch: H. Price / S. Carpenter: The potential for low-cost concentrating solar power systems, NREL/CP-550-26649, National Renewable Energy Laboratory (NREL), Colorado 1999. IEA/Solar Paces, 2001, S. 6; diese Stromgestehungskosten werden auch vom Sandia National Laboratory für möglich gehalten: vgl. Concentrating solar power, unter www.energylan. sandia.gov/sunlab/program.htm [Stand: Januar 2003].
Erneuerbare Energien
175
südspanischen Sierra Nevada soll in den nächsten Jahren für 200 Millionen 3 ein Parabolrinnenkraftwerk mit einer Leistung von 50 MW entstehen.331 Grundlage der betriebwirtschaftlichen Kalkulation ist jedoch auch hier eine vom spanischen Parlament beschlossene Einspeisevergütung von 15 Euro-Cent/kWh. Solar-Turm-Kraftwerke Technik Bei Solar-Turm-Kraftwerken fokussieren eine Vielzahl von Einzelspiegeln (Heliostaten) das eingestrahlte Sonnenlicht auf einen einzelnen Punkt an der Spitze eines Turms, den sogenannten Receiver. Im Receiver wird die um das 500 bis 1000 fache konzentrierte Strahlung auf ein Wärmeträgermedium (Luft, Salzschmelze) übertragen und über eine angeschlossene Gas- und oder Dampfturbine zur Stromerzeugung genutzt. Wichtig dabei ist, dass die Paraboloid-Spiegel entlang von zwei Achsen frei beweglich sind, weil sie dem Sonnenverlauf nachgeführt und sehr präzise auf den Receiver ausgerichtet werden müssen. Solar-Turm-Kraftwerke erreichen dabei einen Wirkungsgrad von bis zu siebzig Prozent bei der Übertragung des Sonnenlichts in Wärme und einen Wirkungsgrad von bis zu vierzig Prozent bei der Umwandlung in Strom und damit deutlich bessere Werte als Parabolrinnenkraftwerke.332 Solar-Turm-Kraftwerke könnten in Einheiten von je 100 MW, möglicherweise sogar 200 MW Leistung gebaut werden, derzeit existente Versuchanlagen erreichen jedoch nur 500 kW bis 10 MW. Die größte Anlage dieser Art von 10 MW ist die „Solar-Two“ Pilot-Anlage, die zwischen 1996 und 1999 in der Mojawe-Wüste in den USA gebaut wurde. Solar Two arbeitet mit einer Salzschmelze als Wärmespeicher.333 Dabei wird Salz im Receiver auf Temperaturen von bis zu 565 °C erhitzt und in einen Speichertank am Fuß des Turms geleitet, wo es als Wärmespeichermedium für eine konventionelle Dampfturbine zur Verfügung steht. Solar Two verfügt auf diese Weise über eine Speicherkapazität von bis zu drei Stunden, ausreichend zur Überbrückung einer zeitweiligen Bewölkung, jedoch noch nicht
331
332 333
Zahlen nach: O. Ristau: Sonnige Aussichten für solarthermische Kraftwerke, in: VDINachrichten, 1. 11. 2002; E. Granitza / R. Joksch: Das erste Solarthermik-Kraftwerk in Europa, in: Die Welt, 24. 9. 2002. Heinloth 1998, S. 313; IEA / Solar Pages geht hingegen nur von 23 % aus, vgl. ebd. S. 4. Näheres über Solar Two unter www.eren.doe.gov/power/success_stories/power_tower.html [Stand: Januar 2003].
176
Darstellung der verschiedenen Energieoptionen
für einen kontinuierlichen Nachtbetrieb. Spanien plant derzeit (2003) in Zusammenarbeit mit den USA in Südspanien ein verbessertes Solarturmkraftwerk „Solar Tres“ zu bauen, das mit Hilfe des Salzschmelzenspeichers einen 24 Stunden Betrieb erreichen soll.334 Zwei ältere Solarturmkraftwerke betreibt das Deutsche-Zentrum für Luft- und Raumfahrt (DLR) zusammen mit der spanischen CIEMAT auf der Plataforma Solar de Almeriá (PSA) in Süd-Spanien, nämlich das Solar Power System (SSPS) und den Central Termosolar de Almeria (CESA-1). Beide Anlagen stammen noch aus den 80er Jahren.335 CESA 1 ist mit einer Leistung von 7 MW thermischer Energie und einem Turm von 80 m Höhe das größte europäische Solar-Turm-Kraftwerk. Im CESA 1 dient, anders als im Solar Two, Luft als Trägermedium, die mit Hilfe eines volumetrischen Luft-Receivers auf Temperaturen von bis zu 1000 °C erwärmt und direkt in eine Gasturbine eingespeist wird. Zur Überbrückung der Zeit ohne Sonneneinstrahlung setzen die Forscher in Almeria auf die Hybridisierung ihrer Anlage mit Erdgas.336 Insgesamt kann das Speicherproblem bei Solarturm-Kraftwerken jedoch zum heutigen Zeitpunkt noch nicht als gelöst gelten: x
x
Salzschmelzen sind hochaggressiv und korrodieren bei längerfristigem Betrieb jedes Material. Eine Hybridisierung mit Erdgas ist hingegen unter ökologischen und betriebswirtschaftlichen Gesichtspunkten unbefriedigend.337
Viele Experten sehen die Zukunft daher eher in einer Wirbel-Schicht-SandErwärmung mit heißer Luft, da sich Sand gut als Wärmespeicher eignet und wofür die in Europa eingesetzte volumetrische Luft-Receiver Technik prinzipiell die nötigen technischen Voraussetzungen böte.
334
335 336
337
P. Grimaldi, I. Grimaldi: Solar Tres: Proposal of a solar-only 24-hour-operation Solar Tower Plant for Southern Spain, unter http://www.meike.com/solarpaces.au/symposium/ ListofAbstracts.html (Stand Juli 2003). Ein Überblick über die einzelnen Anlagenteile unter, www.psa.es (Stand: Januar 2003). Vgl. zur europäischen Konzeption solarer Gasturbinenkraftwerke www.dlr.de/TT [Stand: Oktober 2001]; Schwarzbözl / Pitz-Paal / Meinecke: Cost optimized solar gas turbine cycles using volumetric air receiver technology; unter http: www.meike.com/ solarpaces.au/symposium/ListofAbstracts.html [Stand Oktober 2001]. Nach Angaben der DLR könnten die Kosten für Solarstrom durch Hybridisierung auf 3–9 Cent/kWh reduziert werden, vgl. „Kurzüberblick erneuerbare Energien“ unter www.dlr.de/TT; Zweifel an der Wirtschaftlichkeit einer Hybridisierung hingegen bei Heinloth 1997, S. 319.
Erneuerbare Energien
177
Kosten Aufgrund der höheren Wirkungsgrade könnten Solar-Turm-Kraftwerkepotenziell auch die niedrigsten Stromgestehungskosten der drei solarthermischen Kraftwerkstypen erreichen. Da derzeit nur Versuchsanlagen existieren, ist ein direkter Vergleich mit den kommerziellen Parabolrinnenkraftwerken jedoch nicht möglich. Die derzeitigen Stromgestehungskosten der Versuchsanlagen liegen nach Angaben der DLR zwischen 9 bis 11 US-Cent/kWh (DLR), nach Schätzungen der IEA/Solar Paces näher bei 20 US-Cent je kWh, während eine ältere Schätzung von Heinloth 1997 sogar von 26 Cent/kWh ausgeht.338 Ein 30 MW Solarturm-Kraftwerk der zweiten Generation würde nach einer Schätzung von Becker (1993) je nach eingesetzter Speichertechnologie zwischen 95 und 101 Millionen US-$ kosten, ein 100 MW Kraftwerk zwischen 220 und 270 Millionen US-$.339 Die Investitionskosten lägen also für ein 30 MW Kraftwerk zwischen 3000–3500 $/kW und für ein 100 MW Kraftwerk zwischen 2000–3000 $/kW.340 Nach einer Studie von Steffen Ulmer liegen mögliche Kostenreduktionspotenziale vor allem bei dem sehr teuren und materialaufwändigen Heliostatenfeld, auf das allein etwa 30 % der Kosten eines solarthermischen Kraftwerks entfallen.341 Unter der Voraussetzung einer Serienfertigung und weiterer technischer Innovationen werden nach verschiedenen Prognosen bei Solarturmkraftwerken zukünftig Stromgestehungskosten zwischen 4 bis 8 Cent/kWh für möglich gehalten.342 Solar-Dish-Anlagen Solar-Dish-Anlagen bestehen aus Parabolspiegeln von 5 bis 10 Metern Durchmessern und kurzer Brennweite, die analog einer Satellitenschüssel die eingehenden Sonnenstrahlen auf einen davor installierten Receiver lenken. Der Receiver ist mit einem Stirling-Motor-Generator gekoppelt und kann so die fokussierte Sonnenstrahlung unmittelbar in elektrische Energie umwandeln. Auch die Solar-Dish-Anlagen sind in zwei Achsen frei drehbar, um sie dem Sonnenstand nachführen zu können. 338 339 340 341 342
Zahlen nach „Kurzüberblick erneuerbare Energien“ unter www.dlr.de/TT; IEA/Solar Paces, 2001, S. 8; Heinloth 1997, S. 313. Zitiert nach S. Ulmer: Influences of cost reduction measures on the beam quality of al large-area-heliostat, Diploma Thesis, Plataforma Solar de Almeria 1998, S. 17 ff. Etwas höhere Schätzungen bei Heinloth 1998, S. 313. Ulmer 1998, S. 18. ebd., S. 19; Heinloth 1998, S. 313 sieht einen realistischen unteren Wert von 7 Cent/kWh.
178
Darstellung der verschiedenen Energieoptionen
Solar-Dish-Anlagen erreichen typische Leistungsgrößten zwischen 5 und 30 kW bei einem elektrischen Wirkungsgrad von 20 Prozent. Sie könnten jedoch bei Bedarf auch zu größeren Kraftwerkseinheiten zusammengeschaltet werden und so in den Megawatt Bereich vorstoßen. Solar-Dish-Anlagen haben verglichen mit den beiden anderen Kraftwerkstypen derzeit sehr hohe Stromgestehungskosten zwischen 20–50 Cent/ kWh und liefern zudem nur während der Zeit extrem hoher Sonnenstrahlung, d. h. etwa 8 Stunden am Tag elektrische Energie. Im Gegensatz zu den beiden anderen Kraftwerkstypen existieren für Solar-Dish-Anlagen derzeit keine Speichervorrichtungen. Vorteilhaft ist, dass sie völlig autonome Einheiten bilden, die sich verhältnismäßig leicht installieren lassen und daher besonders für die Stromversorgung von Insellagen geeignet erscheinen. Der größte Vorteil an solarthermischen Kraftwerke liegt darin, das ihr Betrieb vollständig emissionsfrei ist. Da diese Kraftwerke sehr kapital- und materialintensiv sind, entstehen allerdings wahrscheinlich erhebliche indirekte Emissionen und Stoffströme durch vor- und nachgelagerte Prozessstufen, wie sie im Rahmen einer ganzheitlichen Bilanzierung berücksichtigt werden müssten.343 Eine Gesamtbilanz im Rahmen des kumulierten Energieaufwandes (KEA) oder der Life Cycle Analysis (LCA) liegt für diesen Kraftwerkstyp derzeit jedoch noch nicht vor. Weil die elektrische Leistung dieser Kraftwerke aber viel größer ist als die von Fotovoltaikanlagen, sind die indirekten Emissionen je MWh wahrscheinlich vernachlässigbar. Ökologisch nachteilig ist also lediglich ihr hoher Flächenbedarf von rund einem halben Quadratkilometer je 100 MW. Sofern sie wie geplant in Trockenzonen und Wüsten errichtet werden, dürften die ökologischen Auswirkungen auf die jeweilige Landschaft jedoch sehr gering sein. Potential solarthermischer Kraftwerke Solarthermische Kraftwerke erreichen mit (heute) 12 Cent/kWh die niedrigsten Stromgestehungskosten für Solarstrom und verfügen zudem hinsichtlich der Leistungsgröße über ein enormes Potenzial. Unter der Voraussetzung, dass die Stromgestehungskosten dieses Kraftwerktyps kontinuierlich weiter sinken, könnten sie im Sonnengürtel der Erde längerfristig gegenüber konventionellen Kraftwerken konkurrenzfähig werden.
343
Vgl. zum Problem vor- und nachgelagerter Prozessstufen: T. Marheineke, W. Krewitt, J. Neubarth, R. Friedrich, A. Voß (IER): Ganzheitliche Bilanzierung der Energieund Stoffströme von Energieversorgungstechniken, Bd. 74, Stuttgart 2000.
Erneuerbare Energien
179
Analysten gehen jedoch davon aus, dass für eine erfolgreiche Markteinführung in direkter Konkurrenz zu konventionellen Kraftwerken ihr Einsatz im Bereich der Grund- und Mittellast der Stromversorgung erforderlich wäre. Für diesen Einsatz müsste aber zuvor eine zuverlässige Lösung für das Speicherproblem gefunden werden. Im Gegensatz zu Wind- und Fotovoltaik zeichnen sich bei solarthermischen Kraftwerken technische Lösungen des Speicherproblems in Form von Salzschmelzen und Wirbelschichtsanderwärmung ab. Ein weiterer limitierender Faktor für den Betrieb dieser Kraftwerke ist das Vorhandensein ausreichend großer Freiflächen. Für ein solarthermisches Kraftwerk mit einer elektrischen Leistung von 200 MWel werden zwischen 0,6 bis 1 km2 Fläche benötigt.344 Da im Sonnengürtel der Erde jedoch auch die größten Wüsten der Welt liegen (u. a. die Sahara und die Atacama-Wüste) bzw. landwirtschaftlich nicht nutzbare Trockenzonen, sind solche Freiflächen zumindest im Prinzip im Überfluss vorhanden.345 Nach Schätzungen von Heinloth 1998 existiert weltweit ein technisches Potenzial von 200 GW im Einzugsgebiet von derzeit 800 Millionen Menschen.346 Insbesondere für die Entwicklungsländer im Sonnengürtel der Erde besteht hier also eine riesige Chance, ihren wachsenden Energiebedarf mit einer umweltfreundlichen Technologie zu decken, der sie zudem von schwankenden Energierohstoffpreisen unabhängiger machen würde. Nachteilig ist, dass die Investitionskosten für solarthermische Kraftwerke wesentlich höher liegen als die für konventionelle. Entwicklungsländern fehlt jedoch sowohl das nötige Kapital als auch das technische KnowHow zu ihrer Errichtung. Der Aufbau einer solarthermischen Energiewirtschaft setzt daher eine intensive technische und ökonomische Zusammenarbeit zwischen Industrie- und Entwicklungsländern voraus. Einige Industrieländer mit Anteilen am Sonnengürtel der Erde – hier ist in erster Linie an die USA und Australien zu denken – verfügen sowohl über geeignete Standorte als auch über die nötigen industriellen Voraussetzungen, um diese Energieoption aus eigener Kraft auszuschöpfen. In der Europäischen Union kommen nur sehr kleine Gebiete in Südspanien und Süditalien als Standorte für solarthermische Kraftwerke in Frage. Dafür bestehen in den nordafrikanischen Mittelmeerstaaten riesige Potenziale, so dass für die Zukunft auch Stromimporte der Europäischen Union aus diesen Ländern denkbar sind. Allerdings bleibt wegen der politischen Instabilität dieser Region fraglich, ob in absehbarer Zukunft europäische 344 345 346
Heinloth 1998, S. 312. Einen Überblick über geeignete Wüsten und die Bevölkerung in ihrem Einzugsgebiet bietet Heinloth 1998, S. 320. Heinloth 1998, S. 320.
180
Darstellung der verschiedenen Energieoptionen
Abb. 3.36 Stromgestehungskosten verschiedener solarthermischer Kraftwerkstypen
Energieversorger das Risiko großer kapitalintensiver Investitionen in diesen Ländern auf sich nehmen werden. Langfristige Lieferverträge mit nordafrikanischen Staaten existieren heute zumindest im Erdgassektor und könnten möglicherweise als Vorbild dienen. Von den Ländern im Sonnengengürtel der Erde stellen die erdölfördernden arabischen Staaten einen Sonderfall dar. Diese verfügen zwar im Prinzip über genügend Kapital für den Bau solarthermischer Kraftwerke und die Anwerbung ausländischer Spezialisten, werden jedoch autokratisch regiert und verfügen über einen Überfluss an billigem Erdöl. Immerhin haben Saudi-Arabien und die Vereinigten Arabischen Emirate zum Teil mit dem Ankauf kleinerer Solarkraftwerke begonnen. Nach Prognosen der IEA werden in den nächsten Jahren weltweit voraussichtlich mindestens sechs neue solarthermische Kraftwerke mit einer Leistung von insgesamt 150 MW gebaut werden. Vor dem Hintergrund einer jährlich installierten Kraftwerksleistung zwischen 50 bis 100 GW sind dies allerdings verschwindende Größen.
Erneuerbare Energien
181
Solarwärmekollektoren Technik In Solarkollektoren wird Wasser durch einfallendes Sonnenlicht im Niedrigtemperaturbereich erwärmt und anschließend über ein Leitungssystem unmittelbar als Nutzwärme zugänglich gemacht. Da für die Erwärmung von Wasser prinzipiell auch Streulicht geeignet ist, wie es in den Ländern der gemäßigten Klimazone den größten Teil des Jahres über vorherrscht, können Solarkollektoren auch in diesen Regionen sinnvoll eingesetzt werden. Im wesentlichen gibt es drei Sorten von Kollektoren: x x x
Kunststoffabsorber, Flachkollektoren, Vakuumröhren.
Die einfachste technische Ausführung ist der Kunststoffabsorber, bei dem Wasser durch nicht abgedeckte Kunststoffmatten fließt. Solche Absorber werden vor allem zur Erwärmung des Wassers in Freibädern eingesetzt. Bei einem Flachkollektor ist der Absorber zusätzlich mit einer Glasscheibe abgedeckt und die Rückseite wärmegedämmt. Auf diese Weise soll eine möglichst vollständige Absorption der Sonnenenergie durch das Wärmeträgermedium gewährleistet werden. Eine noch effizientere Umwandlung der Sonnenergie ist mit Vakuumröhren möglich, bei denen der Absorber in luftleeren Röhren liegt. Auf diese Weise ist der Absorber so gut isoliert wie in einer Thermoskanne. Da sowohl das Energieangebot des Sonnenlichts als auch die Nachfrage nach Wärmeenergie schwanken, sind Speicher für Solarkollektoranlagen unerlässlich. Im Allgemeinen werden 70 bis 100 l Speichervolumen je Quadratmeter Kollektorfläche veranschlagt.347 Der Umwandlungs-Wirkungsgrad von Solarkollektoren ist mit 50 Prozent sehr hoch, zudem erreicht dieser Kollektortyp bei einer typischen Lebensdauer von 25 Jahren einen relativ guten Energieerntefaktor von zwei bis fünf.348 Dementsprechend niedrig sind wahrscheinlich auch die indirekten Schadstoffemissionen aus vor- und nachgelagerten Prozessstufen.
347 348
Fischedick et al. 2000, S. 24. Heinloth 1983, S. 136.
182
Darstellung der verschiedenen Energieoptionen
Kosten Die Wärmegestehungskosten von Solarkollektoren liegen derzeit bei ca. 10–30 Cent je kWh, je nach eingesetzter Technologie, gegenüber 4 Cent/ kWh bei einem Gaskraftwerk.349 Unter Berücksichtigung der nötigen Speicherkapazitäten ergeben sich für ein typisches Einfamilienhaus Investitionskosten um 325 3 je Quadratmeter installierter Kollektorfläche. Unter Abzug von Speicherverlusten lassen sich so in Deutschland jährlich ca. 400 kWh pro Quadratmeter Kollektorfläche gewinnen. Der gesamte Wärmebedarf Deutschlands (Raumheizung und Warmwasser) könnte daher theoretisch mit einer Kollektorfläche von 2000 km2 und Langzeit-Wärmespeichern mit einem Volumen von 14 Mrd. m3 gedeckt werden.350 Die volkswirtschaftlichen Kosten wären jedoch immens. Ausgehend von einem Preis von 325 3 je m2 würde dies zur Zeit Investitionskosten in Höhe von 650 Milliarden Euro erfordern. Bei einer Dachfläche von bundesweit 800 km2 müssten zur Realisierung dieses Potenzials zudem zusätzlich noch Freiflächen verfügbar gemacht werden (zum Vergleich: Die Gesamtfläche des Saarlandes beträgt 2570 km2). Auch wenn das technische Potenzial derzeit nicht wirtschaftlich realisiert werden kann, verfügen Solarkollektoren zumindest theoretisch über ein bedeutendes Potenzial bei der Wärmebereitstellung im Niedrigtemperaturbereich. Verglichen mit Fotovoltaikanlagen sind Solarkollektoren deutlich wirtschaftlicher, da der Wirkungsgrad bei geringeren Investitionskosten deutlich höher als bei Fotovoltaik liegt. Im Hinblick auf das weltweite Potenzial ist zu beachten, dass die Wärmeleistung je Quadratmeter Kollektorfläche vom Breitengrad und der Klimazone abhängt, vor allem aber dort ein hoher Bedarf an Nutzwärme besteht, wo die jährlich einfallende Strahlung gering ist. Während Nutzwärme für Länder zwischen den Wendekreisen, wo die Sonneneinstrahlung tagsüber einen Wert von 1 kW pro Quadratmeter erreicht, praktisch überflüssig ist, ist das Potenzial der Wärmebereitstellung aus Solarkollektoren für die Länder jenseits des 52. Breitengrades, in denen der Wärmebedarf besonders im Winter sehr hoch ist, sehr gering. Hinsichtlich Angebot und Nachfrage besteht im Falle der Nutzwärme aus solarer Strahlung – naturgemäß muss man wohl sagen – eine große Diskrepanz.
349 350
Fischedick et al. 2000, S. 23, Heinloth 1998, S. 309. Zahlen nach Heinloth 1998, S. 307.
Erneuerbare Energien
183
Fotovoltaik Technik Fotovoltaik erlaubt die direkte Umwandlung von Sonnenenergie in Elektrizität. Grundlage der Fotovoltaik ist der photoelektrische Effekt. Eine Fotozelle ist eine Halbleiterdiode, die aus zwei Halbleiterschichten, meistens auf Siliziumbasis, besteht. Durch Einbau von Fremdatomen in die Halbleiterschichten (die sogenannte Dotierung) können deren elektrischen Eigenschaften verändert werden. Durch die Dotierung entstehen zwei Schichten: eine elektronenleitende (n-leitend) und eine fehlstellen-leitende (p-leitend), wobei letztere Eigenschaft einer Leitung von positiven Ladungsträgern gleichkommt. An der Berührungsfläche der beiden Schichten diffundieren Leitungselektronen aus der n-leitenden in die p-leitende Schicht, analog diffundieren in umgekehrter Richtung Fehlstellen aus der p-leitenden in die n-leitende Schicht, und zwar so lange, bis sich Diffusions- und Entladestrom gerade kompensieren. Zwischen den beiden Schichten entsteht so eine Spannung, deren Höhe von der Dotierungsstärke, d. h. der Dichte der eingebauten Fremdatome im Halbleiter, abhängt. Der typische Wert für Solarzellen beträgt 0,48 V. Diese Spannung wird in Abwesenheit von Licht durch eine etwa gleich große Gegenspannung an den beiden Grenzflächen nahezu vollständig kompensiert. Bei Einfall von Licht wird dieses Gleichgewicht aufgehoben, indem Elektronen aus dem Potenzial des Valenzbandes in das Potenzial des Leitungsbandes gehoben werden. Die dabei entstehende Spannung in Höhe von typischerweise 0,5 V kann an den Metallkontakten abgegriffen werden. Wenn höhere Spannungen erzeugt werden sollen, müssen Solarzellen in Serie zusammengeschaltet werden und entsprechend groß wird der Flächenbedarf für Fotovoltaikzellen. Der Wirkungsgrad von Fotozellen liegt bei sichtbarem Licht idealiter bei 21 Prozent für Silizium, bzw. 24 Prozent für Gallium-Arsenid. Der typische Wert im Handel erhältlicher monokristalliner Siliziumzellen erreicht aber nur 15 Prozent. Die Einspeiseleistung einer Fotovoltaikanlage ist abhängig von der Jahreszeit, dem Tagesgang der Sonne und der jeweiligen Bewölkung. In sonnenreichen Ländern ist die Ausbeute daher naturgemäß höher. In Mitteleuropa erreichen Fotovoltaikanlagen eine durchschnittliche Volllaststundenzeit 351 von 800 Stunden im Jahr mit einem Schwerpunkt in den 351
Die Volllaststunden errechnen sich aus dem Quotienten der im Verlauf eines Jahres eingespeisten elektrischen Energie (in kWh) und der installierten Leistung (in kW). Es handelt sich um einen rein statistischen Wert. Die Betriebsstundenzahl ist wesentlich höher, aber
184
Darstellung der verschiedenen Energieoptionen
Sommermonaten. Wegen der oben beschriebenen technischen Begrenzungen, insbesondere der niedrigen Spannung, verfügen Fotozellen nur über eine geringe Energiedichte. Für 1 MW installierter Spitzenleistung wird im Schnitt eine Fläche von rund 10 000 m2 benötigt. Anlagen von mehreren MW müssen dementsprechend auf Freiflächen errichtet werden. Derzeitiger Nutzungsstand und Pilotprojekte Die weltweit installierte Spitzenleistung an Fotovoltaikanlagen beträgt derzeit (2003) rund 1400 MW, die jährlich rund eine Milliarde kWh (= 1 TWh) elektrischer Energie erzeugen. Der Beitrag der Fotovoltaik zur weltweiten Stromerzeugung in Höhe von derzeit 14 400 TWh (2002) ist somit marginal und spielt daher auch in den internationalen Energiebilanzen keine Rolle. Trotz dieser schwachen Ausgangsposition ist die Fotovoltaik eine Wachstumsbranche. So hat sich die weltweit installierte Fotovoltaik-Leistung von 109 MW (1992) innerhalb von zehn Jahren auf heute 1400 MW mehr als verzehnfacht.352 Die Länder mit der größten installierten Fotovoltaikleistung sind heute (2003) Japan (450 MW), Deutschland (194 MW) und die USA (167 MW).353 Sowohl in der Breitenförderung der Fotovoltaik als auch in der Errichtung und Anbindung großer Pilotanlagen hat Deutschland weltweit ein Vorreiterrolle gespielt. So wurden allein durch das 100 000-Dächer-Solarstrom-Programm in Deutschland zwischen Januar 1999 und Juni 2002 147,61 MW Spitzenleistung installiert.354 Daneben wurden eine Reihe wichtiger Pilotprojekte realisiert. So wurde 1995 auf dem Dach des Wissenschaftsparks Rheinelbe in Gelsenkirchen mit einer Nennleistung von 210 kW auf einer Fläche von 1500 m2 die damals größte dachaufgeständerte Fotovoltaikanlage der Welt errichtet (Jahresenergie: ca. 150 000 kWh). Mit der Anbindung der Anlage an das öffentlich Netz sollte unter anderem geprüft werden, ob und wie die unregelmäßige Netzeinspeisung aus Fotovoltaikanlagen dieser Größe technisch bewältigt werden kann.355
352
353 354 355
während des größten Teils der Zeit speist die Anlage Leistungen in das Netz ein, die deutlich unter der Nennleistung liegen. Zahlen nach: V. Quaschning: Installierte Fotovoltaikleistung verschiedener Länder, unter www.volker-quaschning.de [Stand: Juli 2003], vgl. auch ders.: Die Rolle regenerativer Energien bei der weltweiten Elektrizitätserzeugung, in: Energiewirtschaftliche Tagesfragen 05/2003, S. 290–293. ebd. vgl. Landesinitiative Zukunftsenergien NRW (Hrsg.): Zukunftsenergien aus NordrheinWestfalen, Düsseldorf 2002, S. 39 ff. vgl. den Wissenschaftspark online unter: http://www.wipage.de/01b92e930b0a88d08/ 01b92e933a0d94716.html [Stand Juli 2003]; vgl. auch das Stichwort „Leitprojekte / Fotovoltaik“ unter http://www.energieland.nrw.de/ [Stand: Juli 2003].
Erneuerbare Energien
185
Eine gegenüber dachaufgeständerten Kraftwerken radikal neue Konzeption stellt die 1999 eingeweihte nordrhein-westfälische Fortbildungsakademie Mont Cenis in Herne dar. Die Einrichtungen der Fortbildungsakademie liegen unter einer riesigen Glashülle, die durch eine passive Nutzung der Sonnenwärme ein mediterranes Mikroklima erzeugt. Das 14 000 m2 große Glasdach ist zudem mit glasintegrierten Solarzellen belegt, die mit einer Spitzenleistung von 1 MW zugleich das größte gebäudeintegrierte Solarkraftwerk der Welt bilden (Jahresenergie: 750 000 kWh).356 Die Fotovoltaikanlage auf Mont Cenis verfügt zudem als eine von wenigen Anlagen weltweit über eine eigenständige Backstop-Technologie in Form von modernen Blei-Säurebatterien. Mit Hilfe dieser Batterien, deren Energieinhalt bei 1,2 MWh und einer Leistung von 1,5 MVA liegt, können auch längere Phasen ohne Sonneneinstrahlung überbrückt werden.357 Als größte Dachanlage wurde Mont Cenis 2003 durch das 2,1 MW Fotovoltaikkraftwerk auf der Münchener Messe abgelöst. Die Entwicklung von der 210 kW Anlage in Gelsenkirchen (1996) bis zur 2,1 MW-Anlage auf der Münchener Messe (2003) verdeutlicht das rasante Größenwachstum der Anlagen. Das größte auf einer Freifläche errichtete Fotovoltaik-Kraftwerk Europas ist derzeit (2003) die für 18,4 Millionen 3 errichtete 4 MW – Anlage in Hemau bei Regensburg.358 Möglich wurde der rasche Ausbau der Fotovoltaikleistung in den letzten Jahren neben der staatlichen Förderung nur durch den Einstieg in die Massenfertigung von Fotozellen, die bis dahin weitgehend von kleinen Betrieben in Handarbeit hergestellt wurden. Die 1999 fertiggestellte größte und modernste Fotovoltaik-Fabrik Europas, Shell-Solar in Gelsenkirchen 359, erreicht derzeit einen Ausstoß von 1000 Fotozellen pro Stunde bei einer Jahreskapazität von 10 MW (Stand 2003), die in den nächsten Jahren auf 25 MW ausgebaut werden soll.360 Das Problem schwankender Einspeiseleistungen Bei der richtigen Gewichtung der Leistungsangaben von Fotovoltaikkraftwerken muss berücksichtigt werden, dass es sich um Nennleistungen handelt, die nur bei optimaler Sonneneinstrahlung wenige Stunden im Jahr 356 357 358 359 360
vgl. http://www.akademie-mont-cenis-herne.nrw.de/ [Stand: Juli 2003]. vgl.: http://www.energieland.nrw.de Leitprojekte [Stand: Juli 2003]. Zahlen nach: Sonnenkraftwerke als Geldanlage, in: WAZ, 28. 4. 2003. http://www.shell-solar-piz.de vgl. Leitprojekte: Solarfabrik Gelsenkirchen, unter www.energieland.nrw.de [Stand Juli 2003].
186
Darstellung der verschiedenen Energieoptionen
erreicht werden. Die Einspeiseleistungen einer Fotovoltaik-Anlage sind nämlich nicht nur tages- und jahreszeitlich schwankend, sondern auch witterungsabhängig. Eine messtechnisch gut dokumentierte Fotovoltaikanlage ist z. B. die im Juni 1999 fertiggestellte fassadenintegrierte Anlage der Universität Essen (heute Universität Duisburg-Essen).361 Auf der Südseite eines der oktogonalen Haupttürme der Universität sind auf einer Fläche von 167 m2 16 338 Solarzellen mit einer Nennleistung von 22,8 kW angebracht. Die Einspeiseleistung, die live im Internet verfolgt werden kann 362, ist tageszeitlich und witterungsabhängig schwankend (Abb. 3.37). Sie beträgt an bewölkten Tagen oft nur 10 % der Nennleistung.363 Auch der monatliche Energieertrag der Anlage schwankt abhängig von der Jahreszeit zwischen rund 300 kWh im Dezember und 1400 kWh im Juni.364 Der Jahresertrag lag im ers-
Abb. 3.37 Leistungsganglinie der südwestlich ausgerichteten PV-Module P1 und P2 der Universität Essen am 6. 5. 02
361
362 363
364
Für die Bereitstellung der Einspeisedaten der Essener Anlage danken die Autoren Herrn Gisbert Markert ebenso Frau Rosalie Tryfonidou, die so freundlich war, einige Daten graphisch aufzubereiten. Live unter: www.uni-essen.de/~bk0023/voltaik/ [Stand Dezember 2002]. Daten der Anlage nach E. Mitsakis: Quantifizierung und Bewertung der Energiewandlung an Fotovoltaikfassadenanlagen, Studienarbeit am FB 12 Maschinenwesen der Universität Essen, Essen im Januar 2001 (unpubliziert), S. 21. Ebd., S. 27 ff.
Erneuerbare Energien
187
ten Jahr des Betriebs bei knapp 12 000 kWh, entsprechend einer Volllaststundenzahl 365 von nur 526 Stunden und einer mittleren Leistung von 1,341 kW.366 Wegen der senkrechten Anbringung der Fassadenanlage, die sich ungünstig auf den Wirkungsgrad der Fotozellen auswirkt, liegen die Kennwerte unter den typischen Mittelwerten, die von Anlagen dieser Größe in Mitteleuropa erzielt werden. Unabhängig von diesen technischen Details verdeutlichen die genannten Kennwerte jedoch exemplarisch, dass die installierte Spitzenleistung einer Fotovoltaikanlage wenig aussagekräftig ist. Da die Einspeisung der elektrischen Leistung tages- und jahreszeitlich starken Schwankungen unterworfen ist, steht sie im Gegensatz zu konventionellen Elektrizitätskraftwerken nur sehr eingeschränkt zur Verfügung. Einen Eindruck von einem typischen Leistungsgang an einem sonnigen Tag bietet die Leistungsganglinie der beiden Fotovoltaikmodule P1 und P2 aus der Experimentalfassade am 6. Mai 2002 (Abb. 3.37). Die beschriebenen Eigenschaften verdeutlichen, dass eine FotovoltaikAnlage den elektrischen Bedarf von Verbrauchern nicht ohne eine Backstop-Technologie im Hintergrund abdecken kann. Wie oben erwähnt, gibt es einige wenige Pilotanlagen wie Mont Cenis, die über eine Backstoptechnologie in Form eines Batteriespeichers verfügen und so von der aktuellen Einspeiseleistung unabhängig sind. Allerdings steigen durch Speichersysteme auch die Stromgestehungskosten. Kosten Der relativ niedrige Wirkungsgrad der Fotovoltaik verbunden mit hohen Herstellungskosten und hohem Flächenverbrauch lassen eine Elektrizitätsgewinnung in großem Stil in Ländern der gemäßigten Klimazone als eher unwahrscheinlich erscheinen. Fotovoltaik ist derzeit immer noch eine der teuersten Formen der Elektrizitätsgewinnung überhaupt. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) gibt die Stromgestehungskosten für Mitteleuropa mit 80 Cent bis 1 3 je kWh an 367 und selbst die sehr optimistischen Autoren des Buches „Nach dem Ausstieg – Zukunftskurs erneuerbare Energien“, gehen von Gestehungskosten von 60 bis 90 Cent/
365
366 367
Die Volllaststunden errechnen sich aus dem Quotienten der im Verlauf eines Jahres eingespeisten elektrischen Energie (in kWh) und der installierten Leistung (in kW). Es handelt sich um einen rein statistischen Wert. Mitsakis 2001, S. 33. Kurzüberblick unter www.dlr.de/TT [Stand: Oktober 2001].
188
Darstellung der verschiedenen Energieoptionen
kWh aus.368 In südlichen Ländern und bei Großanlagen in Mitteleuropa, wie sie z. B. Energieversorgungsunternehmen betreiben, können niedrigere Preise von rund 50 Cent/kWh erzielt werden. Im Rahmen des EONMix-Power-Angebots kostet die Kilowattstunde Fotovoltaikstrom derzeit (Stand 2002) verbraucherseitig 75,8 Cent/kWh (bei Erzeugungskosten von 55 Cent/kWh). Auch im Falle einer Realisierung der möglichen Kostensenkungspotenziale der Fotovoltaik in Höhe von 30 bis 50 % bis 2020 (IEAPrognose) wird Fotovoltaikstrom auf absehbare Zeit die teuerste der erneuerbaren Energiequellen bleiben.369 Starke Kostenreduktionen werden vor allem von Dünnschichtzellen aus amorphem Silizium erwartet, die jedoch noch keine Marktreife erlangt haben.370 In den genannten Zahlen für Strom aus Fotovoltaik sind die Kosten für Regelenergie und Speicherung noch nicht berücksichtigt, die anfallen würden, wenn der gesamte Bedarf eines Haushaltes aus Fotovoltaik gedeckt werden sollte. Aufgrund der beschriebenen Rahmenbedingungen hat Fotovoltaik in erster Linie in Insellagen einen Markt, wo der nächste Anschluss an das öffentliche Stromnetz sehr weit – nach Schätzungen der RWE mehr als 35 Kilometer 371 – entfernt liegt. Ökologie Die eigentliche Erzeugung von Fotovoltaikstrom ist frei von Schadstoffemissionen und sonstigen negativen Umweltfolgen. Nachteilig ist jedoch, dass der Energieaufwand für die Produktion von Fotozellen relativ hoch ist und dementsprechend zumindest zur Zeit noch erhebliche indirekte Schadstoffemissionen durch vor- und nachgelagerte Prozessstufen entstehen, die sogar über denen moderner Gaskraftwerke liegen (Abb. 3.38).372
368 369 370 371 372
Fischedick / Langniß / Nitsch: Nach dem Ausstieg: Zukunftskurs Erneuerbare Energien, Stuttgart 2000, S. 30. Kostensenkungspotenzial nach M. Argiri / F. Birol: Renewable Energy Supply to 2020 – Key findings of recent IEA-Work, in: World Power 2002, S. 23. Vgl. dazu R. Preu / S. Glunz: Masse plus Klasse, in: Spektrum der Wissenschaft, 04/2002, S. 86–88. RWE (Hrsg.): Verantwortlich handeln. Erneuerbare Energien heute und morgen, Essen 2001, S. 25. Zahlen nach W. Krewitt: Externe Kosten der Stromerzeugung, in: E. Rebhan (Hrsg.): Energiehandbuch, Berlin 2002, S. 1002 ff.; vgl. auch T. Marheinike, W. Krewitt, J. Neubarth, R. Friedrich, A. Voß: Ganzheitliche Bilanzierung der Energie- und Stoffströme von Energieversorgungstechniken, Bd. 74, Stuttgart 2000, S. 22 ff.
Erneuerbare Energien
189
Abb. 3.38 Schadstoffemissionen verschiedener Energiesysteme einschließlich vor- und nachgelagerter Prozesse [nach Krewitt 2002]
Natürlich könnte die Energie zur Herstellung der Fotozellen theoretisch aus erneuerbaren Energien gewonnen werden, dies würde die ohnehin hohen Herstellungskosten jedoch noch weiter in die Höhe treiben. Bei der ersten Generation von Fotozellen lag der Energieaufwand für die Herstellung noch über dem während der gesamten Lebensdauer kumulierten Energiegewinn der Fotozelle, d. h. dass mit diesen Fotozellen ursprünglich überhaupt keine Energie „gewonnen“ werden konnte, sondern im Gegenteil netto sogar Energie „verloren“ ging. Mittlerweile haben sich die Herstellungskosten und damit auch der Energieaufwand jedoch so weit reduziert, dass auch Fotovoltaikzellen sich energetisch mehrfach amortisieren. Aufwind-Kraftwerke Technik Aufwind-Kraftwerke sind solarthermische Kraftwerke, die jedoch im Gegensatz zu den oben beschriebenen Kraftwerktypen nicht auf einer Konzentration von Sonnenlicht beruhen, sondern auf der Erwärmung von Luft.
190
Darstellung der verschiedenen Energieoptionen
Aufwind-Kraftwerke bestehen aus einem riesigen kreisförmigen lichtdurchlässigen Dach, bei dem sich wie in einem Treibhaus der darunter liegende Boden und die Luft erwärmen. In der Mitte der kreisrunden Anlage kann die erwärmte Luft durch einen sehr hohen Kamin nach oben abziehen. Wie in einem Treibhaus wird durch das Dach die Konvektion der Luft unterbunden und damit auch eine Vermischung und Temperaturausgleich mit den darüber liegenden Luftschichten. Zwischen der unter dem Dach befindlichen, warmen bodennahen Luft und der kühlen Luft oberhalb der Abdeckung entsteht so ein Temperatur- und Luftdruckgefälle. Durch den Kamin in der Mitte der kreisrunden Anlage kann die erwärmte Luft nach oben abziehen, wobei „kühle“ Luft von außerhalb der Überdachung nachströmt. Je höher der Kamin ist, desto größer ist die Temperatur und Luftdruckdifferenz und desto größer ist der ausgeübte Sog. Im Kamin befindet sich eine Windturbine, durch die die kinetische Energie der durchströmenden Luft zur Stromerzeugung genutzt werden kann. Der dabei erzielte elektrische Wirkungsgrad von (bisher) nur 0,2 Prozent ist verglichen mit den solar-konzentrierenden Systemen extrem niedrig, dafür sind die Materialien einfacher und der Wartungsaufwand geringer. Zudem besteht die relativ leicht zu realisierende Möglichkeit, einen Teil der Sonnenenergie durch die Aufstellung von Wasserbehältern unter dem Dach zu speichern und so die Betriebsdauer der Anlage in die Nachtstunden hinein zu erweitern. Eine ausgereifte technische Lösung des Speicherproblems existiert jedoch auch für diesen Kraftwerkstyp noch nicht. Das einzige bisher realisierte Aufwindkraftwerk wurde zwischen 1981 und 1982 nach Plänen des Ingenieurs Jörg Schlaich mit Mitteln des Bundesforschungsministeriums bei Manzanares, südlich von Madrid, gebaut. Die durchsichtige Dachkonstruktion dieses Kraftwerkes hatte einen Durchmesser von 122 m und der Turm eine Höhe von 195 m. Insgesamt wurde durch die Dachkonstruktion eine Fläche von 45000 m2 überdeckt. Nach Abschluss der Experimentierphase erzeugte diese Anlage bei einer Durchschnittsleistung von 50 kW im vollautomatischen Dauerbetrieb 44 Megawattstunden Strom pro Jahr. Die Versuchsanlage musste 1989 aufgegeben werden, nachdem ein Orkan den Turm zerstört hatte, der aus Kostengründen nur aus Blech gefertigt worden war. Trotz des erfolgreichen Testlaufs ist eine Anlage dieser Größenordnung zu klein, um sich auch energetisch zu amortisieren, da der elektrische Wirkungsgrad nur bei 0,25 Prozent liegt.373 Für höhere Wirkungsgrade von 2–3 Prozent als Voraussetzung einer kommerziellen Nutzung müssten Kraftwerke dieser Art um eine ganze Dimension größer konzipiert werden. Seit dem unfreiwilligen Ende der Anlage hatte das deutsche Ingenieurbüro Schlaich Ber-
373
Heinloth 1983, S. 144.
Erneuerbare Energien
191
germann und Partner, bei dem die technische Leitung des Projektes lag, lange Zeit vergeblich einen privaten Investor für den Bau eines kommerziellen Aufwindkraftwerks gesucht. Pläne, ein solches Kraftwerk in Indien oder Afrika zu errichten, scheiterten an der ungeklärten Finanzierung.374 Mittlerweile (2002) hat jedoch die australische Solarfirma Environmission den Bau eines riesigen Kraftwerks im Norden von Australiens Bundesstaat Victoria, 65 km westlich des Städtchens Mildura, angekündigt. Dieses Kraftwerk ist im Gegensatz zu dem in Manzanares von vorneherein in einer ganz anderen Größenordnung geplant, um eine kommerzielle Nutzung möglich zu machen. Die untenstehende Tabelle 3.8 mit den wichtigsten Daten der früheren Versuchsanlage in Manzanares und dem geplanten kommerziellen Kraftwerk in Mildura macht dies deutlich. Bei einer überdeckten Grundfläche von 38 km2 und einer Kaminhöhe von 1000 m soll eine Leistung von 200 MW erzielt werden. Der Kamin des neuen Aufwindkraftwerkes wird, wenn er denn je fertiggestellt wird, das höchste Bauwerk der Welt sein. Als Fertigstellungstermin für das Kraftwerk wird das Jahr 2005 angestrebt. Tabelle 3.8
375
Technische Daten375
Manzanares
Mildura (geplant)
Kaminhöhe
195 m
1000 m
Durchmesser
122 m
6000–7000 m
Grundfläche
0,045 km2
38 km2
Leistung
50 kW
200 MW
Kosten
7,67 Mill. 3
750 Mill. 3
Bauzeit
1981/82
2003–2005
Elektrischer Wirkungsgrad
0,25 %
3–4 %
Um eine vorzeitige Zerstörung der Anlage durch Sturm, wie seinerzeit in Manzanares auszuschließen, soll der Turm – die ingenieurstechnisch größte Herausforderung der Anlage – aus Spannbeton gebaut werden. Im Fuß des Turmes werden fünf Turbinenräder, wie sie auch in Wasserkraftwerken Verwendung finden, den Aufwind in Elektrizität umwandeln. Insgesamt wird der elektrische Wirkungsgrad bei schätzungsweise drei bis vier Prozent liegen. 374 375
Heinloth 1998, S. 318. Daten kompiliert nach: H. Kroker: „Das höchste Bauwerk der Welt“, in: Die Welt vom 12. 1. 02; sowie: P. Bethge: Heißer Sturm im Riesenroh, in: Der Spiegel 22. 4. 02, 17/2002.
192
Darstellung der verschiedenen Energieoptionen
Kosten Prinzipiell sind Aufwindkraftwerke eine interessante Option für alle Länder im Sonnengürtel der Erde. Die Kosten der in Mildura geplanten Anlage in Höhe von 750 Millionen 3, entsprechend Investitionskosten von 3750 3/kW verweisen aber auf ein Problem, das auch für andere solarthermische Kraftwerke gilt, nämlich sehr hohe Anfangsinvestitionen verbunden mit einem hohen Bedarf an technischem Know-How. Vor diesem Hintergrund ist es kein Zufall, dass das erste kommerzielle Aufwindkraftwerk der Welt in Australien und nicht, wie ursprünglich geplant, in Indien oder Ghana gebaut wird. Aufwindkraftwerke sind also nicht die „Kraftwerke des armen Mannes“, als die sie in der Vergangenheit bisweilen gehandelt wurden. Ob Aufwindkraftwerke wirtschaftlich betrieben werden können, werden Pilotanlagen wie die in Mildura erweisen müssen.
3.4.3 Windenergie Windenergie wird durch den wirtschaftenden Menschen schon seit Jahrtausenden genutzt. Vor der Industriealisierung diente sie vor allem zum Antrieb von Segelschiffen und Windmühlen. Mitte des 18. Jahrhunderts drehten sich in Europa 200000 Windmühlen. Mit der Einführung der jederzeit verfügbaren Dampfkraft im 19. Jahrhundert verloren Windmühlen zunehmend an Bedeutung, spätestens seit der Elektrifizierung Anfang des 20. Jahrhunderts wurden sie schließlich ganz verdrängt. Während in Windmühlen die Windenergie unmittelbar als Rotationsenergie zum Antrieb von Mühlsteinen genutzt wurde, werden Windräder heute hauptsächlich zur Erzeugung von Elektrizität genutzt. In den USA spielten Windräder Anfang des 20. Jahrhunderts eine bedeutende Rolle bei der Stromversorgung von Farmen außerhalb des öffentlichen Stromnetzes. Mit der Elektrifizierung auch des ländlichen Raumes verlor diese Form der Stromgewinnung jedoch zunehmend an Bedeutung. Erst die ökologische Diskussion um Luftschadstoffe und den Treibhauseffekt hat in einigen Ländern eine Renaissance der Windenergie eingeleitet. Den Anfang machten die USA, wo Anfang der 80er Jahre, gefördert durch großzügige Steuererleichterungen, 2,5 Milliarden $ in den Ausbau der Windkraft investiert wurden.376 Nach einer kurzfristigen Ausbauphase verebbte der ursprüngliche Enthusiasmus jedoch sehr bald, weil die installierten Anlagen sich als zu groß und ineffizient erwiesen und die fluktuierende Einspeiseleistung zu wachsenden technischen Schwierigkeiten führte.
376
D. Thompson: Breezing into the future, Time, 13. 1. 92, S. 36–37.
Erneuerbare Energien
193
Durch neue Technologien konnte die Effizienz von Windkraftanlagen jedoch entscheidend verbessert werden, so dass Anfang der 90er Jahre eine zweite Welle des Windkraftausbaus folgte, diesmal schwerpunktmäßig in Dänemark, Indien und Deutschland. Durch Windflügelräder kann die kinetische Energie des Windes zumindest partiell in mechanische Rotationsenergie umgewandelt werden, indem der an den Windflügeln vorbeiziehende Wind abgebremst wird und die resultierende Energiedifferenz in Rotationsenergie umgewandelt wird. Frühere Windmühlen arbeiteten nach dem Widerstandprinzip, bei dem Wind ein Widerstand entgegengesetzt wird und ereichten dabei einen Wirkungsgrad von nur 15 Prozent. Moderne Anlagen erreichen mit dem Auftriebsprinzip, bei dem die Flügel, ähnlich wie bei einem Flugzeug einen Auftrieb erzeugen, heute einen mittleren Wirkungsgrad von 45 Prozent. Die resultierende Rotationsenergie wird schließlich über eine Kardanwelle auf einen elektrischen Generator übertragen und in Strom umgewandelt. Die Leistung einer Windkraftanlage nimmt mit der dritten Potenz der Windgeschwindigkeit zu, d. h. bei einer Verdoppelung der Windgeschwindigkeit verachtfacht sich die Leistung. Windkraftanlagen können jedoch nur in einem Korridor zwischen mindestens 4 m/s und höchstens 20 m/s Windgeschwindigkeit arbeiten. Unterhalb von 4 m/s reicht die Energie des Windes nicht, die Reibungs- und Trägheitsmomente der Anlage zu überwinden. Oberhalb einer Windgeschwindigkeit von 20 m/s werden die Lasten auf dem Rotor zu groß und die Anlage muss abgeschaltet werden. Typische Anlagengrößen liegen heute zwischen 10 kW und 1 MW Spitzenleistung. Die größte Anlage der Welt, die derzeit [Stand 2001] von der Firma Enercon bei Magdeburg gebaut wird, erreicht 4,5 MW. Mit dieser Größe sind die technischen Möglichkeiten aber wahrscheinlich ausgereizt, weil bei Rotoren von mehr als 100 m Durchmesser die Belastungsgrenze des Materials erreicht wird; zudem führen große Rotoren zunehmend zu logistischen Problemen.377 In Deutschland lassen sich Rotorblätter von mehr als 40 m Länge auf der Strasse nicht mehr transportieren. Windkraftanlagen lassen sich aber auch in Parks von bis zu 100 MW und mehr zusammenschalten. Mit Stromgestehungskosten zwischen 6 bis 15 Cent/kWh ist Strom aus Windenergie relativ preiswert. Allerdings ist bei diesem Preis zu berücksichtigen, dass Strom aus Windkraftanlagen aufgrund der beschriebenen Beschränkungen nur 1600–2000 Volllaststunden im Jahr zur Verfügung steht.
377
Zahlen nach: Guter Boden für die Windkraft. Stößt die Windkraft an Grenzen?, in: VDINachrichten, 17. 8. 01.
194
Darstellung der verschiedenen Energieoptionen
Weltweit sind Windenergieanlagen mit einer Spitzenleistung von derzeit [2003] 32000 MW installiert, die jährlich rund 50 TWh elektrische Energie erzeugen.378 Deutschland ist mit einer installierten Spitzenleistung von 12 000 MW [2003] der mit Abstand führende Windenergienutzer in der Welt. Diese Windkraftanlagen erzeugten im Jahr 2002 17 TWh elektrischer Energie, bei einer Gesamterzeugung von rund 500 TWh, hatten also einen Anteil von 3,4 Prozent.379 Der massive Ausbau der Windenergieleistung in Deutschland beruht auf einer staatlichen Förderpolitik, die den Anlagenbauern seit 1991 eine gesetzlich garantierte Einspeisevergütung gewährt, die am 1. April 2000 durch das Gesetz für den Vorrang erneuerbarer Energien (EEG), heute Erneuerbare-Energien-Gesetz, deutlich angehoben wurde. Aufgrund der Förderpolitik wurden in Deutschland allein in den ersten neun Monaten des Jahres 2000 987 MW an zusätzlicher Windkraft installiert.380 Die staatlich garantierte Einspeisevergütung für Windstrom ist allerdings vom Zeitpunkt des Inkrafttretens des EEG an rückläufig. Im Jahr 2001 betrug sie im Durchschnitt 8,7 Cent/kWh. Insgesamt beliefen sich die Einspeisevergütungen aus dem EEG in 2001 auf 1,5 Milliarden 3, von denen rund zwei Drittel auf Windstrom entfielen.381 Neben Deutschland verfügen nur Spanien, die USA, Dänemark und Indien über einen nennenswerten Windkraftpark. Diese vier Länder verfügen auch über die ehrgeizigsten Programme beim Ausbau der Windkraft. So wurde im September 1999 in den USA die größte Windkraftanlage der Welt mit einer Leistung von 193 MW eingeweiht. Spanien verfolgt im Rahmen eines Gesetzes zum Ausbau regenerativer Energien den ehrgeizigen Plan, die installierte Leistung bis 2012 auf 10 800 MW zu erhöhen.382 Der Anteil der Windenergie an der Stromerzeugung soll nach dem Willen der Bundesregierung in den nächsten Jahren weiterhin massiv ausgebaut werden. Eine im Auftrag der Bundesregierung erstellte Studie des Deutschen Windenergie-Instituts (DEWI) kommt in einem „optimistischen Szenario“ zu dem Schluss, dass bei einem optimalen Verlauf bis 2030 378
379 380 381
382
Eine permanent aktualisierte Datenbank von Volker Quaschning unter: www.volkerquaschning.de [Stand 2003] vgl. auch ders.: Die Rolle regenerativer Energien zur weltweiten Elektrizitätserzeugung, in: Energiewirtschaftliche Tagesfragen 05/2003, S. 290–293. Angaben nach: BMU (Hrsg.): Erneuerbare Energien in Zahlen, Berlin 2003, S. 13. EIA (Hrsg.): World Energy Outlook 2001, S. 101. BMU 2003, S. 15; vgl. zu den volkswirtschaftlichen Kosten: H. Alt: Energiewirtschaftliche Bedeutung der Windenergie, Vortrag auf dem VWEW Fachkongress Windkraft vom 28. 2.–1. 3. 2002 in Bremen, S. 4 ff. EIA 2001, S. 102.
Erneuerbare Energien
195
Abb. 3.39 Entwicklung der Windkraftleistung in den fünf wichtigsten Nutzerländern [nach Quaschning 2003]
42000 MW Windkraftleistung installiert werden könnten, die mit 110 TWh Strom im Jahr 23 Prozent zum Stromverbrauch in Deutschland beitrügen.383 Aber auch im „verhalten optimistischen Szenario“ würden bis 2030 36000 MW Windenergieleistung, mit einem jährlichen Beitrag von 95 TWh realisiert. Eine Schlüsselrolle soll dabei der Windenergienutzung im Offshore-Bereich zukommen, wo bis 2030 zwischen 20000 und 25000 MW installiert werden sollen. Diese Zielvorstellungen müssen als unrealistisch beurteilt werden, weil x
x
383
das Problem der bloß schwankenden Verfügbarkeit von Strom aus Windkraft nicht ausreichend berücksichtigt wird und weil die Windkraftnutzung im Offshore-Bereich vor bislang ungeklärten technischen und wirtschaftlichen Problemen steht. BMU (Hrsg.): Windenergienutzung auf See. Positionspapier des BMU zur Windenergienutzung im Offshore Bereich, Berlin 2001, S. 16 ff. Ein neues und erweitertes Positionspapier unter Zusammenarbeit mit dem BMWi hält an diesen Zielvorgaben fest, vgl. BMU/ BMWi (Hrsg.): Strategie der Bundesregierung zur Windenergienutzung auf See, Berlin 2002, S. 8.
196
Darstellung der verschiedenen Energieoptionen
Auf das Problem der schwankenden Verfügbarkeit soll im folgenden kurz eingegangen werden. Die beeindruckenden Zahlen über den Ausbau der Windkraftleistung in Deutschland und anderen Ländern dürfen nicht darüber hinwegtäuschen, dass – wie bei der Fotovoltaik – mit ihnen nur Nennleistungen angegeben werden. Nur selten erreichen die Windkraftanlagen Volllast und oberhalb einer bestimmten Windgeschwindigkeit schalten sie sich automatisch ab. Die arithmetisch ermittelten Vollastzeiten 384 liegen bei den Windverhältnissen in Deutschland zwischen 1600 und 1800 Stunden im Jahr.385 Erschwerend kommt hinzu, dass die Einspeiseleistung von Windkraftanlagen bloß stochastisch und damit völlig unabhängig von der jeweiligen Nachfrage erfolgt, was den Wert der Einspeiseleistung energiewirtschaftlich mindert.386 Sowohl plötzliche Leistungsspitzen als auch Leistungseinbrüche müssen durch kommerzielle Kraftwerke im Verbundnetz abgefangen werden.387 Dies geschieht durch die Leistungs-Frequenzregelung, bei der durch die Zurücknahme oder Aktivierung von Erzeugungsleistung aus konventionell betriebenen Kraftwerken das notwendige Gleichgewicht zwischen Bedarf und Erzeugung hergestellt wird. Durch den steigenden Bedarf an Regelenergie entstehen erhebliche volkswirtschaftliche Zusatzbelastungen, die unter 3.4.4 ausführlich diskutiert werden. Die Nutzung der Windkraft ist eine der umweltfreundlichsten Formen der Energiegewinnung überhaupt. Die einzigen Nachteile liegen in Schallemissionen, Beeinträchtigungen des Landschaftsbildes und bisweilen auftretenden Lichtbrechungen an den Rotoren (sogenannter Diskoeffekt). Durch verbesserte Rotoren konnten die Schallemissionen in den letzten Jahren jedoch dramatisch gesenkt werden. In 500 m Entfernung, dem Mindestabstand zu Wohnanlagen in Deutschland, sind moderne Windkraftanlagen praktisch nicht mehr zu hören.388 Verglichen mit anderen Stromerzeugungstechnolo384
385 386
387 388
Die Volllaststunden errechnen sich aus dem Quotienten der im Verlauf eines Jahres eingespeisten elektrischen Energie (in kWh) und der installierten Leistung (in kW). Es handelt sich um einen rein statistischen Wert. Die Betriebsstundenzahl ist wesentlich höher, aber während des größten Teils der Zeit speist die Anlage Leistungen in das Netz ein, die deutlich unter der Nennleistung liegen. Alt 2002, S. 4. Vgl. dazu die umfangreiche Analyse von Alt am Fallbeispiel der Energie-Versorgung des Landkreises Schleiden, die einen großen Anteil ihres Strombedarfs aus Windenergie bezieht, Alt 2002, S. 7 ff. Beispiel nach Alt, S. 7 ff. vgl. Fischedick et al. 2000, S. 35.
Erneuerbare Energien
197
gien sind diese Beeinträchtigungen jedoch marginal. Da Windkraftanlagen im Gegensatz zu Fotozellen einen sehr hohen Energie-Erntefaktor erzielen, sind auch die indirekten Schadstoffemissionen aus vorgelagerten Prozessstufen sehr niedrig. Aufgrund der beschriebenen Rahmenbedingungen werden die externen Kosten von verschiedenen Instituten daher übereinstimmend auf einige Hunderstel bis Zehntel Cent/kWh geschätzt.389 Etwas getrübt wird die ökologische Gesamtbilanz des Windkraftausbaus in Deutschland jedoch durch die wachsende Nachfrage nach Regelenergie aus konventionellen Kraftwerken. Da der größte Teil der Reserveleistung durch Kohlekraftwerke bereitgehalten werden muss, die im Teillastbereich nur niedrige Wirkungsgrade erreichen, steigen auch Brennstoffverbrauch und CO2-Ausstoß dieser Kraftwerke. Über die Höhe des durch die Reservehaltung bedingten zusätzlichen CO2-Ausstoßes gibt es bislang jedoch noch keine zuverlässigen Schätzungen.390 Ein weiterer Ausbau der Windenergie in Deutschland, darin sind sich Experten einig, erfordert den Bau von „Offshore-Anlagen“, d. h. die Windkraftparks müssten auf dem offenen Meer errichtet werden, wo der Wind kontinuierlicher und stärker weht als im Binnenland und eine doppelt so hohe Windernte verspricht.391 Das technische Potenzial der Windkraft „offshore“ in Deutschland ist noch einmal so groß wie das im Binnenland.392 Die Bundesregierung strebt derzeit einen dreistufigen Ausbau an, bei dem in einer Startphase bis 2006 500 MW, bis 2010 2000 bis 3000 MW und bis 2030 20000 bis 25000 MW Offshore-Anlagen installiert werden sollen.393 Der Hauptteil dieser Offshore Anlagen müsste dabei in der „Ausschließlichen Wirtschaftszone“ (AWZ) der Bundesrepublik vor der deutschen Nordseeküste errichtet werden. Gerade im Bereich der schon heute sehr intensiv genutzten ausschließlichen Wirtschaftzone zeichnen sich jedoch schon jetzt massive Nutzungskonflikte zwischen den potenziellen Windkraftbetreibern, der örtlichen Fischereiwirtschaft, der Marine und dem Schutz der internationalen Schifffahrtswege ab, abgesehen davon, dass der engere Bereich des Wattenmeeres den Schutzstatus eines Nationalparks genießt, der jede Form der wirtschaftlichen Nutzung ausschließt.394 389 390 391 392 393 394
vgl. R. Friedrich, A. Greßmann, W. Krewitt, P. Mayerhofer (IER): Externe Kosten der Stromerzeugung VDEW 1996, S. 47 ff. vgl. dazu G. Küffner: Die Sicherheit der Stromversorgung leidet unter der Windkraft, FAZ 4. 7. 03. Vgl. Fischedick et al. 2000, S. 36. Vgl. auch Heinloth 1997, S. 295. BMU Strategie 2002, S. 7. Vgl. dazu Alt, S. 23; ein Gesamtüberblick über die zu erwartenden Nutzungskonflikte findet sich in der im Auftrag des BMU erstellte rechtswissenschaftliche Expertise „Recht-
198
Darstellung der verschiedenen Energieoptionen
Das Bundesamt für Naturschutz hat 2002 Karten für die Nord- und Ostsee vorgelegt, die mögliche Standorte für „Offshore“-Windenergieanlagen unter Berücksichtigung von Umweltschutzauflagen ausweisen.395 Im Falle der Deutschen Bucht handelt es sich dabei um zwei Gebiete, die ca. 300 Kilometer vor der deutschen Nordseeküste im offenen Meer liegen. Derzeit (2002) liegen dem Bundesamt für Seeschifffahrt und Hydrographie 28 Anträge zum Bau von Offshore-Anlagen in einer Größenordnung von 60 000 MW vor.396 Genehmigt sind bislang (2003) jedoch nur zwei Projekte: Eine Pilotanlage 45 km nördlich von Borkum und der Windpark Butendiek 34 km westlich vor Sylt.397 Die technischen Herausforderungen an Offshore-Windparks sind ungeheuer: Die Windkraftanlagen müssten bei 20 bis 40 Meter tiefem Meerwasser so im Boden verankert werden, dass sie in einer mindestens zwanzigjährigen Betriebszeit auch einem Jahrhundertsturm trotzen könnten, der in der stürmischen Nordsee alle paar Jahrzehnte einmal auftritt. Da über die Windverhältnisse in den höheren Luftschichten auf hoher See nur wenig bekannt ist, wird im Borkumer Riff in den nächsten zwei Jahren (Stand 2003) zur Vorbereitung der Offshore-Anlagen zunächst eine 100 m hohe Messstation errichtet, mit deren Hilfe die benötigten Daten gesammelt werden sollen.398 Windkraftanlagen sind bisher noch nie so weit im Meer gebaut worden und auch ein Positionspapier des Bundesumweltministeriums von 2001 räumt ein: „Für die Realisierung von Offshore-Windparks unter diesen Bedingungen liegen weltweit noch keine Erfahrungen vor.“ 399 Erschwerend zu den härteren Witterungsbedingungen auf See tritt hinzu, dass die Anlagen, um überhaupt rentabel arbeiten zu können, Größenklassen von 4,5 bis 5 MW erreichen müssen, von denen bislang nur Versuchsanlagen existieren. Die offiziell veranschlagten Kosten von 1 bis 1,5 Millionen 3 pro Anlage werden von Experten daher als zu niedrig eingeschätzt.400 Offshore-Anlagen mit einigen hundert MW erfordern zudem einen Anschluss an das Hochspannungsnetz (220/380 kV). Da das Stromnetz der deutschen Nordseeküste für die projektierten Anlagen im Bereich von mehreren zehntausend Megawatt nicht ausgelegt ist, werden für die Off-
395 396 397 398 399 400
liche Probleme der Zulassung von Windkraftanlagen in ausschließlichen Wirtschaftzone (AWZ)“ von Stefan Klinski, hrsg. vom Bundesumweltamt, Berlin 2001. Die Karten stehen im Internet als Download zur Verfügung: http://www.bmu.de/de/ 1024/js/download/b_offshore_nordsee/ [Stand: Juli 2003]. O. Ristau: Vision vom sauberen Strom, Die ZEIT Nr. 16, 11. 4. 02, S. 36; vgl. auch BMU 2002, S. 4. Offshore-Windpark vor Sylt, in: Energie-Perspektiven, 1/2003. D. Asendorf: Messer im Wind, Die Zeit 26/2003. BMU 2001, S. 17. Ristau 2002.
Erneuerbare Energien
199
shore-Anlagen zudem einige 100 Millionen 3 in die Infrastruktur investiert werden müssen, um den Windstrom zu den Verbraucherzentren im Binnenland abführen zu können. Derzeit ist noch unklar, wie die punktuelle Großeinspeisung von mehreren tausend MW, die zudem schwankend wäre, technisch bewerkstelligt werden soll. Auch über den Aufwand der Wartungsarbeiten für eine derartige Anlage auf dem offenen Meer können derzeit nur Vermutungen angestellt werden. Die Wartung von Offshore-Anlagen auf hoher See erfordert in jedem Fall Spezialschiffe und unter Umständen auch Hubschrauber. Neben geplanten Wartungszyklen muss auch mit unvorhergesehenen Ausfällen gerechnet werden, die die Wartungskosten erhöhen. Die Energieagentur Renorga schätzt wegen der aufwändigen Wartungsarbeiten die Kosten für OffshoreWindstrom daher trotz der höheren Windernte auf 11 Cent/kWh.401 Angesichts dieser vielfältigen technischen und wirtschaftlichen Unsicherheiten kann es kaum verwundern, dass potenzielle Anlagenbetreiber derzeit weder eine Versicherung noch einen Kreditgeber für ihre ehrgeizigen Offshore Projekte finden.402 Trotz der beschriebenen technischen Schwierigkeiten gilt es als sicher, dass in den nächsten Jahren zumindest die beiden erwähnten Pilot-Projekte in der deutschen Bucht umgesetzt werden sollen. Größe und Standort der geplanten Offshore-Anlagen bringt die wegen ihrer Umweltfreundlichkeit beliebte Windkraft zunehmend in Konflikt mit Belangen des Umweltschutzes.403 So könnte etwa Schalleintrag in das Wasser Fische und Meeressäuger stören.404 Vor allem aber besteht die Gefahr, dass im Frühjahr und Winter Zugvögel, die die Nordsee auf dem Weg zu ihren Rastplätzen im Wattenmeer zu Zehntausenden überqueren, auf den nächtlichen Zugrouten mit den Anlagen kollidieren. Wegen der Nähe zu Vogelschutzgebieten haben die beiden größten deutschen Umweltschutzverbände NABU und BUND bereits eine Klage gegen den geplanten Bau des Offshore-Windparks Butendiek eingereicht.405 Seitens der Bewoh-
401 402 403
404
405
H.D. Sauer: In rauer See. An der Rentabilität von Offshore-Windparks gibt es Zweifel, in: VDI-Nachrichten, 9. 8. 02. Ristau 2002. Einen Überblick über den aktuellen Forschungsstand bietet: BMU (Hrsg.): Ökologische Begleitforschung zur Offshore-Windenergienutzung, Fachtagung des BMU und des FZ Jülich, Bremerhaven 28. und 29. Mai 2002. S. Garthe: Möglicher Einfluß der Offshorewindenergienutzung auf die Avifauna, in: Workshop Offshore-Windenergienutzung. Technik, Naturschutz, Planung, DEWI 2000, S. 72. Klage gegen Windpark Butendiek, in: Energieperspektiven 02/2003, unter: www.ipp.mpg.de/de/pr/publikationen/energieperspektiven/0203_butendiek_ep.html [Stand Juni 2003].
200
Darstellung der verschiedenen Energieoptionen
ner der deutschen Nordseeinseln bestehen zudem Sorgen, dass eine Tankerkollosion mit einer Offshore-Anlage zu einer Ölkatastrophe führen könnte, die den örtlichen Tourismus zum Erliegen brächte. Allerdings wird diese Wahrscheinlichkeit von Experten als sehr klein eingeschätzt.406 Wie groß (oder klein) die möglichen ökologischen Belastungen durch Offshore-Windparks sind, ist in Ermangelung von belastbaren Daten heute nicht sicher zu beurteilen. Es steht zu hoffen, dass die oben erwähnte geplante Messstation bei Borkum in den nächsten Jahren wichtige Daten zur Klärung der offenen ökologischen Fragen liefern wird.
3.4.4 Exkurs: Technische und wirtschaftliche Grenzen der Einspeiseleistung aus schwankenden Energiequellen In modernen Industriegesellschaften ist die permanente Verfügbarkeit von elektrischer Energie längst eine alltägliche Selbstverständlichkeit.
Abb. 3.40 Durchschnittliche Ausnutzungsdauer der deutschen Kraftwerke 1999 [nach VDEW 2001]
406
Asendorf 2003.
Erneuerbare Energien
201
Einige der neuen erneuerbaren Energien sind – wie oben im Zusammenhang mit Fotovoltaik und Windkraft bereits exemplarisch diskutiert wurde – hingegen bloß von schwankender Verfügbarkeit (Abb.3.40). Strom aus diesen Energiequellen wird mehr oder weniger stochastisch in das Netz eingespeist und kann nicht an den Verbrauch angepasst werden. Eine Verfügbarkeit und Regelbarkeit, die mit fossilen und nuklearen Energiesystemen verglichen werden könnte, erreichen derzeit nur Elektrizitätskraftwerke auf der Basis von Wasserkraft und Biomasse.407 Die Stromversorger sind in Deutschland durch das Energiewirtschaftsgesetz verpflichtet, kontinuierlich elektrische Leistung in der nachgefragten Höhe zur Verfügung zu stellen. Da elektrischer Strom nicht in nennenswertem Umfang gespeichert werden kann 408, bedeutet dies, dass eine permanente Anpassung der Erzeugerleistung an den durch die Abnehmer erzeugten Lastgang erfolgen muss. In Deutschland wird die Grundlast der Stromerzeugung durch Kernkraftwerke gedeckt, während Kohlekraftwerke hauptsächlich im Bereich der Mittellast eingesetzt werden (vgl. Abb. 3.40). Zeitweilig auftretende Spitzenlasten, wie sie vor allem in der Mittagszeit auftreten, werden vor allem durch die kurzfristige Zuschaltung von Pumpspeicherkraftwerken ausgeglichen. Die Einbindung von Windkraftwerken und Fotovoltaikanlagen in den bestehenden Kraftwerkspark wird durch die nicht-nachfragegerechte Einspeiseleistung dieser erneuerbaren Energiequellen erschwert. Die Einspeiseleistung von Fotovoltaikanlagen folgt typischerweise dem Tagesverlauf der Sonne und insofern durchaus nachfragegerecht, da die größte Nachfrage nach elektrischer Leistung in der Regel in die Mittagszeit fällt.409 Saisonal dagegen besteht die höchste Einspeiseleistung dieser Kraftwerke naturgemäß im Sommer, während der höchste Stromverbrauch in die Wintermonate fällt. Hier klaffen Angebot und Nachfrage weit auseinander. Zudem ist auch die Einspeiseleistung im Tagesverlauf witterungsbedingt schwankend, insbesondere ist sie vom jeweiligen Bedeckungsgrad der Sonne abhängig. Verglichen mit der Fotovoltaik erfolgt die Einspeisung aus Windkraftwerken im Tagesverlauf vollkommen zufällig und im Gegensatz zur
407
408 409
Einschränkend muss zur Wasserkraft bemerkt werden, dass auch hier durch Schwankungen in den Niederschlägen Engpässe auftreten können. Diese Erfahrung mussten die von Wasserkraft abhängigen Staaten Norwegen und Brasilien in den Jahren 2001/2002 machen, als durch ausbleibende Niederschläge Stromengpässe auftraten, vgl. „Stromengpässe in Norwegen und Brasilien“, in: Energie-Perspektiven 1/2003. Vgl. zu den technischen Problemen der Stromspeicherung R. Tamme: Speichern von Energie, in: Rebhan (Hrsg.): Energiehandbuch, Berlin 2002, S. 653 ff. Vgl. U. Wagner, O. Brückl: Kostengünstige Stromerzeugung – wie lang noch?, in: Energiewirtschaftliche Tagesfragen 11/2002, S. 746.
202
Darstellung der verschiedenen Energieoptionen
Fotovoltaik auch nachts.410 Lediglich saisonal zeigen sich gewisse Leistungsspitzen im Frühjahr und Herbst. Über den Tagesverlauf kann die eingespeiste Windkraftleistung innerhalb von Stunden extrem fluktuieren. Solange der Anteil der Windkraft an der Stromversorgung vernachlässigbar klein war, stellte die schwankende Einspeiseleistung kein Problem dar. Mit ihrer wachsenden Bedeutung wächst jedoch auch die Anfrage teurer Regelenergie. In Deutschland, das mit einer installierten Leistung von mittlerweile 10 000 MW (Stand 2002) Windkraftleistung das führende Land in der Nutzung der Windenergie ist, liegen seit einigen Jahren Erfahrungswerte mit stark fluktuierenden Stromeinspeisungen aus Windkraftanlagen vor. Etwa die Hälfte der installierten Windkraftleistung entfällt in Deutschland auf die E.ON-Regelzone, die sich von der deutschen Nordseeküste bis nach Garmisch-Partenkirchen erstreckt. In dieser Zone liegt die bei Starkwindphasen ermittelte Einspeiseleistung der Windkraftanlagen heute (2003) im Bereich von 4000 MW mit zeitlichen Änderungen von bis zu 500 MW innerhalb von 15 Minuten.411 Ein Beispiel dafür, welche extremen Schwankungen auftreten können, bietet die Situation im nördlichen E.ON-Netz: Am 26. Februar 2002 stieg dort die Einspeiseleistung der Windkraftanlagen tagsüber auf über 3000 MW und deckte damit etwa die Hälfte des Elektrizitätsbedarfs in Norddeutschland, gegen Abend wuchs die Brise jedoch zu einem Sturm an und die meisten Windkraftanlagen schalteten sich aus Sicherheitsgründen automatisch ab.412 Die plötzlich wegfallende Leistung in Höhe von 2500 MW musste innerhalb kürzester Zeit in der E.ON-Hauptschaltleitung durch konventionelle Kraftwerke aus der E.ON-Regelzone ersetzt werden. Der steigende Bedarf an Regelenergie aus fossilen Kraftwerken hat jedoch zur Folge, dass diese in einem ungünstigen Lastbereich fahren und das häufige An- und Abfahren zu einem höheren Verschleiß der Anlagen führt. Zudem erreichen Kohlekraftwerke im Teillastbereich nur niedrige Wirkungsgrade, weshalb auch Brennstoffverbrauch und CO2-Ausstoß die410
411
412
Typische Leistungsgänge einer Windkraftanlage bei Alt 2002., sowie H. J. Wagner: Windenergy Conversion, in: Landolt Börnstein VIII, Vol. 3 Energy Technologies, subvol C (renewable energy), hrsg. von K. Heinloth, Berlin 2003. Zahlen nach M. Luther, U. Radtke, W. Winter: Einbindung großer Windleistungen – Systemverhalten und Maßnahmen zur Erhaltung der Versorgungsqualität in Übertragungsnetzen, ETG Fachtagung Zuverlässigkeit in der Energieversorgung, Mannheim, 4.–5. Februar 2003. Eine Kurve der Windstromerzeugung an diesem Tag bei: W. Leonhard, K. Müller: Ausgleich von Windenergieschwankungen mit fossil befeuerten Kraftwerken – wo sind die Grenzen?, in: ew, Jg. 101, Heft 21–22/2002, S. 32; vgl. dazu auch D. Asendorf: Mühlen im Sturm, Die ZEIT 31/2002.
Erneuerbare Energien
203
ser Kraftwerke steigen.413 Nach Berechnungen von Leonhard und Müller liegt die Brennstoffersparnis durch Windkraftanlagen wegen der Regelverluste in fossilen Kraftwerken rund ein Drittel unter den theoretischen Erwartungswerten.414 Im Sommer 2002 wandte E.ON sich mit dem Problem der schwankenden Einspeiseleistungen an die Öffentlichkeit und beklagte, dass dem Unternehmen je Kilowattstunde Windstrom 0,7 Cent Regelenergiekosten und weitere 1,5 Cent steigende Erzeugungskosten in den konventionellen Kraftwerken entstehen, deren mittlere Ausnutzungsdauer sinkt.415 Weitere Kosten in Höhe von 0,2 Cent/kWh entstünden zudem durch den Netzausbau an der deutschen Nordseeküste. Zusammen addieren sich die Zusatzkosten der Windenergie nach Angaben von E.ON somit auf 2,4 Cent je kWh Windstrom und erreichen damit bereits das Niveau der Stromgestehungskosten konventioneller Kraftwerke, das zwischen 2–3 Cent/kWh liegt. Die von E.ON in die Diskussion gebrachten Zahlen sind möglicherweise zu hoch angesetzt, die Zusatzkosten selbst können der Sache nach aber kaum bestritten werden. Bestätigung finden die Angaben von E.ON durch ein Gutachten des Stromnetz-Experten Hans-Jürgen Haubrich von der RWTH Aachen. Dieser kommt in seiner Studie „Technische Grenzen der Einspeisung aus Windenergieanlagen“ zu dem Schluss, dass bei ungebremst fortgeführtem Windenergieausbau auf 16 000 MW im Jahr 2016 die derzeit im Verbund kontinentaleuropäischer Übertragungsnetzbetreiber vorgehaltene Sekundenreserve zum Ausgleich von Lastschwankungen in Höhe von 3000 MW nicht mehr ausreichen wird. Zur Aufrechterhaltung des heutigen Zuverlässigkeitsniveaus würden die Zusatzkosten für Regelenergie allein für E.ON bis 2016 auf jährlich 850 Millionen Euro steigen. Hinzu kämen jährlich steigende Investitionen in den Ausbau der Hochspannungsnetze, insbesondere im Bereich der deutschen Nordseeküste, in Höhe von 110 Millionen 3 in 2006 auf 400 Millionen 3 2011 und 550 Millionen 3 2016.416 Zu ähnlichen Ergebnissen gelangt auch eine Studie von Wagner von der TH Aachen. In einem Szenario der Entwicklung der Stromgestehungskosten bis 2020 unter Zugrundelegung des Erneuerbaren Energiengesetzes (EEG) 413 414 415
416
G. Küffner: Die Sicherheit der Stromversorgung leidet unter der Windkraft, FAZ 4. 7. 2003. Leonhard / Müller 2002., S. 36. Zahlen nach F. Elsässer: Kosten der Windenergienutzung in Deutschland. Sitzung des Wirtschaftsbeirates der Union am 23. 7. 02, unter http://www.eon-energie.com [Stand Juli 2002]. Zahlen nach H. J. Haubrich: Technische Grenzen der Einspeisung aus Windenergieanlagen, Aachen 2003; vgl. D. Wetzel: Windkraft-Ausbau führt zu Engpässen im Stromnetz, in: Die Welt, 12. 11. 02.
204
Darstellung der verschiedenen Energieoptionen
kommt er zu dem Schluss, dass im Falle eines Ausbaus der Windenergie auf 15 Prozent des Gesamtverbrauchs in Deutschland die durchschnittlichen Stromgestehungskosten durch die hohen Einspeisevergütungen und den Bedarf an zusätzlicher Regelenergie von heute 2,9 auf 4,55 Cent/kWh ansteigen werden, entsprechend einer Mehrbelastung der Stromkunden von 6 Milliarden 3 im Jahr 2020.417 Die zusätzliche Regelenergie wird nach dieser Prognose voraussichtlich Zusatzkosten von 0,3 Cent/kWh Windstrom verursachen. Die Speicherung des Windstroms in Pumpspeicherkraftwerken oder durch elektrolytische Wasserstofferzeugung käme nach Wagners Berechnungen noch teurer: x
x
Für eine Ausregelung der fluktuierenden Windstromeinspeisung mittels Pumpspeicherkraftwerken wären 20000 MW zusätzliche Kapazitäten an Pumpspeicherleistung erforderlich, durch die Zusatzkosten von 0,44 Cent je kWh Windstrom entstehen würden. Allerdings ist ein solcher Zubau der Pumpspeicherleistung in Deutschland schon aus Gründen der Topographie nicht realisierbar. Speicherung durch elektrolytische Wasserstofferzeugung würde 25000 MW Elektrolyseurleistung erfordern und Zusatzkosten von 0,7 Cent je kWh Windstrom verursachen.418
Aufgrund der beschriebenen Schwierigkeiten Strom zu speichern, konzentrieren sich die Anstrengungen derzeit vermehrt darauf, die Regelenergiekosten durch verbesserte Windprognosen möglichst niedrig zu halten. So hat das Institut für Solare Energieversorgungstechnik (ISET) an der Universität Karlsruhe in Zusammenarbeit mit dem Deutschen Wetterdient (DWD) in Essen für die großen Verbundunternehmen eine neuartige Software entwickelt, mit deren Hilfe die wahrscheinliche Windleistung für den nächsten Tag besser modelliert werden kann.419 Da derzeit eine direkte Erfassung der Windleistung an den Anlagen selbst nicht möglich ist, haben die Forscher an repräsentativ ausgewählten Anlagen die wetterabhängigen Einspeiseleistungen für bestimmte Regionen extrapoliert. Mit Hilfe neuronaler Netze und der stündlich aktualisierten Wettervorhersage können nun deutlich verbesserte Prognosen über die erwartete Einspeiseleistung in bestimmten Regionen erstellt werden. 417 418
419
U. Wagner, O. Brückl: Kostengünstige Stromerzeugung – wie lang noch?, in: Energiewirtschaftliche Tagesfragen 11/2002, S. 744–750. Sollte Windstrom in Form von Wasserstoff chemisch gespeichert und in Brennstoffzellen bedarfsgerecht zur Verfügung gestellt werden, wären ca. 4 kWh Windstrom für eine kWh Brennstoffzellenstrom aufzuwenden. Die zusätzlichen Kosten der Speicherung von Windstrom in Form von Wasserstoff in Wagners Schätzungen sind vor diesem Hintergrund als sehr optimistisch anzusehen. U. Pagel: Wissen, wie der Wind weht, in: Umweltmagazin 10/11 2002, S. 60–61.
Erneuerbare Energien
205
Neben der schwankenden Einspeiseleistung sind Windkraftanlagen für die Netzstabilität problematisch, da sie sich nicht nur bei zu hohen Windgeschwindigkeiten, sondern auch bei Spannungseinbrüchen innerhalb eines Ausfallgebietes vom Netz trennen. Dieses Verhalten kann sich wie bei einem Dominoeffekt fortpflanzen und zu einer weiträumigen Destabilisierung des Netzes führen. Nach Berechnungen der Gruppe um Luther könnte dieses Verhalten im Bereich der E.ON Regelzone im Extremfall zu einem Ausfall von bis zu 3000 MW Windkraftleistung führen.420 Die Gruppe empfiehlt daher eine Einbindung von Windkraftanlagen in die Netzregelung. Die Sichtung der mit schwankenden Einspeiseleistungen zusammenhängenden technischen Schwierigkeiten verdeutlicht, dass eine massive Ausweitung der Stromerzeugung auf der Basis schwankender Energiequellen ein keineswegs triviales Risiko für die technische Versorgungssicherheit beinhaltet.421 Historische Erfahrungen mit Totalausfällen zeigen, dass eine hohe Netzstabilität kein Luxus ist. Welche katastrophalen Ausmaße ein weiträumiger Totalausfall der Stromversorgung haben kann, zeigt die „Jahrhundertkatastrophe“ vom 9. November 1965 422: An diesem Tag fiel im nordamerikanischen Energieverbundsystem CANUSE (Canada, USA – East) innerhalb von 11 Minuten auf dem Gebiet der Metropolen New York, Boston und Montreal der Strom aus. Menschen blieben in Fahrstühlen und U-Bahnen stecken, durch den Ausfall von Ampeln herrschte Verkehrschaos, Flugzeuge konnten nicht landen und in den Großstädten fehlte das Licht. Die Versorgung mit elektrischer Energie konnte erst am Morgen des nächsten Tages wiederhergestellt werden. Der Ausfall erzeugte einen volkswirtschaftlichen Schaden von 100 Millionen $ (nach damaliger Kaufkraft). Ähnlich katastrophale Totalausfälle traten im selben Verbundsystem nochmals 1977 und 2002 auf. Die volkswirtschaftlichen Kosten für den jüngsten Stromausfall im August 2002 werden auf 5–6 Milliarden $ geschätzt. Diese in ihrem Schadensausmaß sicherlich extremen Totalausfälle zeigen exemplarisch, dass aufgrund der Abhängigkeit moderner Gesellschaften von permanent verfügbarer elektrischer Energie eine Verringerung der Netzstabilität ein erhebliches Risiko einschließt. Vor dem Hintergrund der skizzierten technischen und wirtschaftlichen Probleme, die die Stromerzeugung aus schwankenden Energiequellen schon 420 421 422
Luther et al. 2003. Vgl. zu den Risiken für die Versorgungssicherheit auch das Interview mit dem Vorsitzenden der Eon-Netz GmbH, Martin Fuchs, in: Die Welt, 16. 12. 03. zitiert nach V. Karcev, P. Chazanovskij: Warum irrten die Experten?, Unglücksfälle und Katastrophen aus der Sicht technischer Zuverlässigkeit, 3. bearb. Auflg., Berlin [Ost] 1990, S. 82 ff.
206
Darstellung der verschiedenen Energieoptionen
heute aufwirft, müssen Prognosen, denen zufolge Windkraft und Fotovoltaik schon in einigen Jahrzehnten die Säulen der Stromversorgung in Deutschland bilden könnten, als unrealistisch beurteilt werden. So fordern etwa die DLR-Autoren des „solaren Langfristszenarios für Deutschland“ einen Ausbau der in Deutschland installierten Fotovoltaik-Leistung bis 2050 auf 93,4 GW und einen Ausbau der Windkraft auf 32,1 GW (bei einem Bedarf von heute 50–60 GW).423 Solche Szenarien extrapolieren, basierend auf dem heutigen Strombedarf in Deutschland, lediglich die theoretisch zu installierenden Leistungen von Windkraft- und Fotovoltaikanlagen, ohne die technischen Probleme der bloß schwankenden Verfügbarkeit dieser Energiequellen angemessen zu berücksichtigen. So heißt es im solaren Langfristszenario von 1998, der zukünftige Kraftwerkspark müsse „überwiegend aus Einheiten bestehen, die in ihrer Regelbreite und in ihren Regelzeiten hochvariabel sind“ 424, ohne dass näher ausgeführt wird, wie dieser hochvariable Kraftwerkspark in Zukunft aussehen soll. Die Möglichkeit der Stromversorgung aus schwankenden Energiequellen wird nur durch Computersimulationen gestützt. Aus einer Simulationen für das Jahr 2050 ziehen die Autoren die Schlussfolgerung, dass bei einer dann installierten Gesamtleistung von 32,1 GW Windkraft (Onshore – und Offshore-Anlagen) 75 Prozent der Spitzenleistung nur selten, dafür aber mindestens 20 Prozent der Spitzenleistung mehr als 70 Prozent der Zeit im Jahr zur Verfügung stehen würden.425 Aber auch diese Simulation lässt keinen Zweifel daran, dass voraussichtlich nur ein kleiner Teil der installierten Spitzenleistung – und dies auch nur mit einer gewissen Wahrscheinlichkeit – rund um die Uhr verfügbar sein wird. In einer anderen Computersimulation versuchen Quaschning und Hanitsch (ebenfalls DLR) zu zeigen, dass sich bei einer Deckung des bundesdeutschen Strombedarfs aus Fotovoltaik und Windkraft in Höhe von 418 TWh im Jahr 2050 die monatlichen Energieerträge wechselseitig ausgleichen werden, da die Haupterträge der Windkraft in die kalte, die der Fotovoltaik hingegen in die warme Jahreszeit fallen.426 Da sich nach ihrer Simulation die schwankenden Einspeiseleistungen aus Windkraft und Fotovoltaik an den verschiedenen Einspeisepunkten im Land im wesentlichen ausgleichen, sehen sie nur einen Speicherbedarf in Höhe von 13 TWh, der durch die Speicherung von Wasserstoff in Salzkavernen be-
423
424 425 426
Diese Forderung bei Langniß et al.: Strategien für eine nachhaltige Energieversorgung – ein solares Langfristszenario für Deutschland (DLR), Freiburg 2. Auflg. 1998, S. 26 ff. und S. 33 ff. ebd., S. 37. ebd., S. 23. Quaschning / Hanitsch: Klimaschutz beim Wort genommen, in: Sonnenenergie & Wärmetechnik 5/1999, S. 12–15.
Erneuerbare Energien
207
reitgehalten werden soll. Zudem schlagen sie – in Umkehrung der Forderung nach einer nachfragegerechten Energiebereitstellung – eine Anpassung der Verbraucher an die Last vor.427 Auch die Autoren des Buches „Zukunftskurs erneuerbare Energien“, das aus einer zwischen 1998 und 1999 im Auftrag des BMU erstellten Studie hervorging 428, gehen im Rahmen des von ihnen vertretenen solaren Energiewirtschaftsszenarios (SEE) von einer massiven Steigerung von Windenergie und Fotovoltaik aus. Hinsichtlich des Problems der schwankenden Verfügbarkeit konstatieren auch sie beiläufig: „Eine sehr weitgehende Erschließung dieser Potenziale verlangt jedoch eine deutliche Umgestaltung der bestehenden Kraftwerksstrukturen hinsichtlich Reservehaltung und Kraftwerksregelung. Es werden mehr flexible, schnell regelbare mittelgroße Gaskraftwerke benötigt und sehr viel weniger große Grundlastkraftwerke.“ 429. Solche pauschal gehaltenen Anforderungen bleiben ohne konkrete technische Angaben über die Leistungsgröße und Zusammensetzung des erforderlichen Kraftwerksparks und dessen wahrscheinliche Auswirkungen auf die Netzstabilität sehr diffus. Gänzlich unberücksichtigt bleiben in allen genannten Prognosen die volkswirtschaftlichen Kosten, die durch eine derartig einschneidende Umstrukturierung der gesamten Elektrizitätswirtschaft entstehen. Es wurde oben bereits diskutiert, dass die durch den Windkraftausbau in Deutschland wachsende Regelenergienachfrage aus fossilen Kraftwerken bereits heute erhebliche Zusatzkosten verursacht. Wie die Zusammenschau verschiedener Prognosen und Simulationen einer auf Windkraft- und Fotovoltaik basierenden Elektrizitätswirtschaft gezeigt hat, werden die technischen Schwierigkeiten, die eine Netzeinbindung schwankender Einspeiseleistungen aufwirft, überwiegend ausgeblendet. Auch die diskutierten Computersimulationen, die zur Stützung dieser Energieszenarien vorgebracht werden, sind wenig geeignet, den Nachweis einer ausreichenden Versorgungssicherheit zu erbringen. Zusammenfassend kann festgehalten werden, dass das wirtschaftliche Potenzial von Strom aus Windkraft und Fotovoltaik nur im Zusammenhang mit sogenannten Backstop-Technologien diskutiert werden kann, d. h. Technologien zur Stromspeicherung oder Bereitstellung von Regelenergie.430 Da bislang noch keine effizienten und kostengünstigen Techno427 428
429 430
ebd., S. 14. Das Buch basiert auf einer zwischen 1998–1999 im Auftrag des BMU erstellten Studie von Mitarbeitern des DLR, Wuppertaler Instituts (WI), Zentrums für Wasserstoffforschung (ZSW) und IWR unter dem Titel „Klimaschutz durch Nutzung erneuerbarer Energien“, vgl. Fischedick et al. 2000, S. 7. Fischedick et al. 2000, S. 57. vgl. dazu W. Leonhard, H. Bouillon: Netzeinspeisung aus regenerativen Quellen, in: ew, Jg. 101, Heft 4 2002, S. 38/39.
208
Darstellung der verschiedenen Energieoptionen
logien zur Stromspeicherung existieren, können Windkraft und Fotovoltaik im Rahmen der heutigen technischen Möglichkeiten elektrische Energie nicht nachfragegerecht bereitstellen.
3.4.5 Wasserkraft Etwa ein Fünftel der auf die Erde einstrahlenden Sonnenenergie wird durch Verdunstung über den Weltmeeren und zum kleineren Teil auch über Binnengewässern in Höhe von 1,18 × 1024 J in potenzielle Energie umgewandelt. Ein kleiner Teil dieser Verdunstungsenergie kann, wenn sich der Wasserdampf über den Kontinenten abregnet, als kinetische Energie des strömenden Wassers (M/2 × v2) in Flüssen bzw. als potenzielle Energie in Stauseen (M × g × h) durch den Menschen genutzt werden. Neben der Energie des Wassergefälles an Land, lassen sich zumindest prinzipiell auch die kinetische Energie von Gezeiten und Meeresströmungen nutzen, deren Energie aus der Rotationsenergie der Erde in Verbindung mit der Gravitationskraft stammt. Auch eine Nutzung der durch die Reibung zwischen Wind und Wasseroberfläche erzeugten Wellenenergie der Weltmeere ist denkbar. Genauso wie die Windkraft wird auch die Wasserkraft durch den wirtschaftenden Menschen schon seit Jahrtausenden zur Erzeugung von mechanischer Energie genutzt. In Frankreich, das im Gegensatz zu Großbritannien nur über wenig Kohlevorkommen verfügte, spielte die Gewinnung mechanischer Energie aus Wasserkraft eine bedeutende Rolle in der Phase der Frühindustrialisierung, weshalb sie im Französischen bis heute auch als „houille blanche“ (weiße Kohle) bezeichnet wird.431 Vor allem französische Ingenieure waren es daher auch, die die Wasserräder im 18. und 19. Jahrhundert immer mehr vervollkommneten, wodurch ihr Wirkungsgrad im Laufe der Zeit von 15 auf 60 Prozent gesteigert werden konnte. Die vertikalen Wasserräder wurden dabei durch horizontal angeordnete Wasserräder verdrängt, bei denen das Wasser von oben durch das mit gekrümmten Schaufeln versehenen Wasserrad hindurchströmt, dieses in Rotation versetzt und es auf der unteren Seite wieder verlässt.432 Diese Form der horizontalen Wasserräder wird als Turbine bezeichnet und bildet heute noch die Grundlage der Wasserkraftnutzung in modernen Wasserkraftwerken.
431 432
N. Smith: Vom Wasserrad zur Wasserturbine, in: Spektrum der Wissenschaft 3/1980, S. 85ff. ebd., S. 86.
Erneuerbare Energien
209
Abhängig vom Gefälle kommen heute hauptsächlich die Kaplan-, Francis- und Pelton-Turbine zum Einsatz, die einen Wirkungsgrad von 90 bis 95 % erreichen.433 Heute dienen Wasserkraftwerke jedoch nicht mehr der Gewinnung mechanischer Energie, sondern in erster Linie zur Elektrizitätserzeugung. Dabei wird die Wasserkraft in einer Turbine zunächst in mechanische Energie und dann in einem elektrischen Generator in Strom umgewandelt. Abhängig von der Fallhöhe des Wassers wird das Wasser bei großem Gefälle in Speicherkraftwerken über Fallrohre in die Turbinen geleitet, bei Laufwasserkraftwerken hingegen durch Turbinen im unteren Teil des Stauwerks. Da in der Stauhöhe des Wassers riesige Mengen an potenzieller Energie gespeichert sind, die kurzfristig verfügbar sind, eignet sich Stauwasserkraft in besonderem Maße zur Deckung von Lastspitzen. Positiv an der Wasserkraft ist ihre für eine regenerative Energie hohe Verfügbarkeit mit 5000 bis 6000 Volllaststunden im Jahr bei moderaten Stromgestehungskosten von 2–4 Cent/kWh für große und 6–13 Cent/kWh für kleine Anlagen.434 Derzeit (2001) erzeugen Wasserkraftwerke bei einer installierten Gesamtleistung von rund 700 GW jährlich 2500 TWh elektrischer Energie und decken so knapp ein Fünftel des weltweiten Elektrizitätsbedarfs.435 Der Anteil am weltweiten Primärenergieverbrauch liegt damit jedoch genau wie der der Kernkraft nur bei rund zwei Prozent. Mit 2500 TWh pro Jahr ist das Potenzial der Wasserkraft global jedoch noch längst nicht ausgeschöpft. Das technische Potenzial ungeachtet irgendwelcher wirtschaftlichen Erwägungen und ohne Berücksichtigung von Belangen des Umweltschutzes wird auf immerhin 36000 TWh geschätzt.436 Das wirtschaftliche Potenzial der Wasserkraft wird heute mit 8000–9000 TWh veranschlagt.437 In Europa werden von einem wirtschaftlichen Potenzial von 915 TWh bereits 890 genutzt, d. h. dass das wirtschaftliche Potenzial in Europa praktisch vollständig ausgeschöpft wird.438 Weltweit bestehen allerdings noch erhebliche technische und wirtschaftliche Potenziale, insbesondere in Afrika, Lateinamerika und Asien (Abb. 3.41).
433 434 435 436 437 438
Vgl. M. Kleemann: Windenergie, Wasserkraft, Gezeitenenergie und Erdwärme, in: Rebhan (Hrsg.) 2002, S. 388 ff. ebd., S. 390; höhere Zahlen bei Heinloth 1997, S. 291. Zahlen nach: EIA: International Energy Annual 2001, Washington 2003, S. 36; bei Kleemann, eine höhere Zahl von 3200 TWh/a ebd., S. 386. Zahlen nach: Link: Wasserkraftpotenzial, in: Schaefer (Hrsg.): VDI-Lexikon Energietechnik, Düsseldorf 1994, S. 1382. Kleemann 2002; Link 1994.; vgl. auch: H. D. Sauer: Gelobt und gescholten. Das Potenzial der Wasserkraft ist nur wenig genutzt, in: VDI-Nachrichten, 27. 7. 01. Kleemann2002, S. 386.
210
Darstellung der verschiedenen Energieoptionen
Abb. 3.41 Derzeitige Nutzung des weltweiten technischen Wasserkraftpotentials [Siemens AG nach RWE 2001]
Die weltweiten Wasserkraftkapazitäten werden in den nächsten Jahren voraussichtlich stark ausgebaut werden. Weltweit befinden sich heute (2001) 108 GW zusätzliche Wasserkraftkapazitäten im Bau.439 Nach Prognosen der IEA werden die weltweiten Kapazitäten an Wasserkraft bis 2020 um 340 GW ansteigen, ihr Anteil an der weltweiten Stromerzeugung wird wegen des insgesamt schneller wachsenden Strommarktes jedoch voraussichtlich leicht zurückgehen.440 Möglicherweise werden die bestehenden Wasserkraftkapazitäten auch durch Verlandung der Stauseen in den nächsten Jahren rückläufig sein. Auf der UN-Süßwasserkonferenz im Dezember 2001 warnten Wissenschaftler davor, dass in den nächsten Jahrzehnten von weltweit 7000 Kubikkilometern Speicherkapazität 1500, also 20 Prozent, durch den Eintrag von Schlamm und Schlick verloren gehen werden, wenn keine geeigneten Gegenmaßnahmen getroffen werden.441 Wegen Verlandung von Stauseen und höheren Umweltauflagen wird auch für die USA ein starker Rückgang der Wasserkraft prognostiziert.442 In den letzten Jahren ist die Stromerzeugung aus Wasserkraft in den USA bereits von 352 TWh (1997) auf 208 TWh (2001) zurückgegangen.443 439 440 441 442 443
Sauer 2001. Weltenergieausblick 2000 (Zusammenfassung), S. 97. UN warnt vor Verlandung von Stauseen, in: Die Süddeutsche 5. 12. 01. EIA 2001, S. 98. Vgl. EIA: International Energy Annual 2001, Washington 2003, S. 36.
Erneuerbare Energien
211
Abb. 3.42 Die führenden Länder in der weltweiten Wasserkraftnutzung [EIA 2003 / Stand 2001]
Besonders stark ausgebaut wurde die Wasserkraft in den letzten Jahren in China, wo die jährliche Stromerzeugung von 130 TWh (1992) auf 263 TWh (2001) angestiegen ist.444 Besonders China und Indien verfolgen sehr ehrgeizige Pläne beim Ausbau ihrer Wasserkraftkapazitäten, um den Energiebedarf ihrer wachsenden Bevölkerung zu stillen. Das weltweit größte und wohl auch umstrittenste Projekt verfolgt China mit der Aufstauung des Jangtsekiang durch den Bau des Drei-Schluchten-Staudamms. Mit einer Leistung von 18 500 MW wird das Staukraftwerk am Jangtsekiang nach seiner geplanten Fertigstellung 2009 das weltweit größte Elektrizitätskraftwerk sein. Insgesamt will China bis 2020 seine Wasserkraftkapazitäten um 80 bis 100 GW ausbauen. Auch Indien forciert derzeit den Ausbau seiner Wasserkraft. Anders als in China stoßen Staudammprojekte in der indischen Demokratie jedoch auf den Widerstand der betroffenen Anwohner, die die Realisierung von Großprojekten, wie im Falle des Sardar Sarovar Dammes durch die Ausschöpfung rechtsstaatlicher Mittel wenn nicht verhindern, so doch erfolgreich verzögern oder modifizieren können.445 Insgesamt befinden sich in Indien derzeit (2001) 695 Dämme im Bau. Gegen die Wasserkraftgiganten nimmt sich die in Deutschland installierte Leistung der Wasserkraftwerke von 9 GW, die jährlich 24,7 TWh elek444 445
Ebd. EIA 2001, S. 108.
212
Darstellung der verschiedenen Energieoptionen
trischer Energie, d. h. 4 Prozent des gesamten deutschen Stromverbrauchs liefern, sehr bescheiden aus.446 Von diesen 9 GW entfallen drei auf Laufwasserkraftwerke und 0,4 auf Speicherkraftwerke. Die 5500 Pumpspeicherkraftwerke in Deutschland dienen vor allem der indirekten Stromspeicherung, indem das während weniger Stunden am Tag herrschende Stromüberangebot mittels Pumpen als potenzielle Energie in Stauseen gespeichert wird. Mit der heute installierten Leistung muss das Potenzial der Wasserkraft in Deutschland aber als weitgehend erschöpft gelten.447 Im Zuge des Gesetzes zur Förderung erneuerbarer Energien wird in jüngster Zeit versucht, in der Vergangenheit wegen fehlender Rentabilität stillgelegte Kleinkraftwerke wieder ans Netz zu nehmen. Zudem werden wegen des wachsenden Bedarfs an Regelenergie die Pumpspeicherleistungen ausgebaut. Das größte Projekt ist der Bau eines Staukraftwerks im Goldisthal in Thüringen, das eine Spitzenleistung von 1000 MW erreichen soll.448 Anteil der Wasserkraft an der Gesamtstromerzeugung Der Anteil der Wasserkraft an der Gesamtstromerzeugung hängt von naturräumlichen Voraussetzungen und dem wirtschaftlichen Entwicklungsstand eines Landes ab (Abb. 3.42 und 3.43).
Abb. 3.43 Anteil der Wasserkraft an der Gesamtstromerzeugung verschiedener europäischer Länder [nach Link 1994 Stand 1984]
446 447 448
Heinloth 1998, S. 289. Heinloth 1998, S. 290; Fischedick et al. 2000, S. 49. D. Asendorf: „VEB pump und saug“, in: Die Zeit, Wissen 42/2002.
Erneuerbare Energien
213
Auch innerhalb der verschiedenen Weltregionen ist der Anteil der Wasserkraft noch einmal sehr ungleichmäßig verteilt. Während etwa in Europa Staaten wie die Schweiz, Österreich und Norwegen den größten Teil ihres Elektrizitätsbedarfs aus Wasserkraft decken können, ist ihr Anteil in großen Flächenstaaten wie Frankreich und Deutschland nur gering. Stromerzeugung aus Wasserkraft ist frei von Schadstoffemissionen jeder Art und insofern eine sehr saubere Form der Energiegewinnung. Andererseits bedeutet der Bau eines Stau- und Laufwasserkraftwerks einen massiven Eingriff in die Ökologie eines Fließgewässers mit zahlreichen negativen Nebenfolgen. Zudem geht durch den Bau von Staudämmen Siedlungs- und landwirtschaftliche Nutzfläche verloren und Menschen müssen für den Bau umgesiedelt werden. Verlust von Heimat und Siedlungsraum Im Verlauf des 20. Jahrhunderts sind weltweit 45000 Großstaudämme 449 errichtet worden, um den Bedarf einer wachsenden Weltbevölkerung an Wasser und Energie zu decken. Für den Bau der Dämme wurden nach Schätzungen der UN-Staudammkommission weltweit 40 bis 80 Millionen Menschen umgesiedelt oder vertrieben.450 Die sozialen und ökologischen Auswirkungen vieler dieser Staudammprojekte sind bis heute umstritten. Aus diesem Grund hat die UNO 1998 eine Weltkommission für Staudämme unter Leitung von Prof. Asmal eingerichtet, die den Nutzen bestehender Großstaudämme bewerten und im Hinblick auf den Bau künftiger Dämme international anerkannte Verfahrensrichtlinien entwickeln soll.451 Diese Kommission ist in ihrem vorläufigen Abschlussbericht vom 16. November 2000 zu dem Schluss gekommen, dass die Staudämme insgesamt tatsächlich einen bedeutenden Beitrag zur wirtschaftlichen Entwicklung geleistet haben, in vielen Fällen aber vermeidbare soziale und ökologische Folgekosten verursachten.452 Vor diesem Hintergrund hat die Kommission, wie oben bereits unter dem Aspekt der Sozialverträglichkeit diskutiert (vgl. 2.2.4), einen umfassenden Kriterienkatalog und Verfahrensrichtlinien erarbeitet, die künftig beim Bau von Großstaudämmen berücksichtigt werden sollen. Die wich449
450
451 452
Nach der Definition der UN-Staudammkommission handelt es sich um einen Großstaudamm, wenn der Damm eine Höhe von 15 m oder mehr hat und sein Speichervolumen 3 Millionen Kubikmeter überschreitet. Weltkommission für Staudämme (Hrsg.): Staudämme und Entwicklung: ein neuer Rahmen zur Entscheidungsfindung, Bericht der Weltkommission für Staudämme. Ein Überblick – 16. 11. 2000, S. 4; unter www.dams.org [Stand Mai 2003]. ebd. ebd., S. 5.
214
Darstellung der verschiedenen Energieoptionen
tigsten Punkte dieses Verfahrenskatalogs sind die Einbindung aller vom Staudammbau Betroffenen und die sorgfältige Prüfung, ob die mit dem Staudamm angestrebten Zwecke nicht mit anderen Mitteln oder an anderen Standorten sozial und ökologisch verträglicher realisiert werden können. Wie schwierig solche Abwägungsprozesse sind, zeigt exemplarisch die derzeitige Aufstauung des Jangtsekiang durch den Drei-Schluchten-Staudamm. Dieser Staudamm wird bei Abschluss der letzten Staustufe 2006 das weltweit größte Wasserkraftwerk sein. Der Damm mit einer Höhe von 185 Metern und einer Länge von 2,3 km wird ein 22 Mrd. m3 großes Wasserreservoir schaffen, dass die Umsiedlung von insgesamt 1,13 bis 2 Millionen Menschen erfordert. Die erste Staustufe ist pünktlich 2003 fertiggestellt worden und staut den Damm derzeit auf 130 m an. Später soll er noch einmal um 40 bis 50 m angehoben werden. Gegen das Projekt sind schwerwiegende ökologische und ökonomische Bedenken geltend gemacht worden.453 Umweltschützer befürchten eine ökologische Katastrophe für die betroffene Region durch die Schädigung des Trinkwassers, die Vermehrung von Krankheitserregern und Störungen des regionalen Wasserhaushaltes. Die Befürworter des Dammes verweisen darauf, dass der Damm neben der Elektrizitätserzeugung vor allem die periodisch wiederkehrenden Überschwemmungskatastrophen des Jangtsekiang verhindern soll, die allein im 20. Jahrhundert in China schätzungsweise eine Million Menschenleben gekostet haben. Zudem könne der Staudamm dazu beitragen, den Anteil an emissionsfreiem Strom in China zu erhöhen, der bislang überwiegend aus Kohlekraftwerken stammt.454 Die chinesische Regierung hat im Vorfeld des Dammbaus bei mehreren Universitäten umfangreiche Umweltverträglichkeitsgutachten in Auftrag gegeben, die eine Abschätzung der ökologischen Folgen für die Region erlauben.455 Zweifellos bedeutet die erzwungene Umsiedlung für mehr als eine Million Menschen neben der materiellen auch eine erhebliche psychische Belastung. Unterbrechung der natürlichen Überschwemmungsrhythmen Die wichtigste ökologische Folge eines Staukraftwerks ist die Unterbrechung der natürlichen Überschwemmungsrhythmen unterhalb der Staumauer, durch die flussnahen Ökosysteme, wie z.B. Auenwälder, zerstört werden. 453 454 455
International Energy Outlook 2001, S. 98. S.B. Yichang: Taming the river wild, Time, 19. 12. 94, S. 56/57. Environment Impact Assessment Departmend (Hrsg.): Environmental impact statement for the Yangtze three gorges project, Beijing / New York 1995.
Erneuerbare Energien
215
Besonders nachteilig wirkte sich die Unterbrechung der Überschwemmungen durch den Bau des Assuan Staudamms am Nil aus. In Ägypten spülten die jährlichen Nilüberschwemmungen vor dem Bau des Staudamms fruchtbare Schlemmsande auf die an den Fluss angrenzenden Felder. Seit dem Bau des Staudamms ist der jährliche Eintrag von Sedimenten und Schlamm von 130 Millionen Tonnen auf 2,5 Millionen Tonnen gesunken.456 Die an den Fluss angrenzenden Felder müssen seither mit Kunstdünger bestellt werden. Umgekehrt sammeln sich die Schlemmsande heute im Stausee und führen zu einer kontinuierlichen Abnahme der Speicherkapazität. Dieses Problem ist nicht auf den Assuan-Staudamm beschränkt. Es wurde oben bereits darauf hingewiesen, dass die weltweiten Speicherkapazitäten der Stauseen durch den Eintrag von Schlamm bedroht sind.457 Auf der anderen Seite kann nicht übersehen werden, dass gerade der Schutz vor Überschwemmungen und Hochwasserkatastrophen eine wichtige Funktion von Großstaudämmen ist. Zerschneidung des Lebensraums von Fischen Eine weiteres ökologisches Problem der Aufstauung von Flüssen liegt darin, dass sie für wandernde Fische eine unüberwindliche Barriere darstellen. Viele Fischarten, die Wanderungsbewegungen vollziehen, sind durch den Bau von Wasserkraftwerken ausgestorben. Als im Juni 2000 nach jahrzehntelangen Bemühungen um eine Verbesserung der Wasserqualität des Rheins erstmals wieder Lachse den Rhein hinaufzogen, war die Begeisterung unter Naturfreunden groß.458 An mehreren Staustufen des Rheins waren für mehrere Millionen 3 Fischtreppen gebaut worden, die den Lachsen den Aufstieg zu den Laichgründen in den Nebenflüssen ermöglichen sollten. Doch der Erfolg wurde alsbald getrübt. Die in den Nebenflüssen des Schwarzwalds und der Vogesen aufgewachsenen Junglachse, so genannte Smolts, gerieten auf dem Weg in den Atlantik in die Turbinen der Wasserkraftwerke. Nach Schätzungen niederländischer Forscher sterben in den Turbinen der drei niederländischen Rheinkraftwerke pro Wasserkraftanlage bis zu zehn Prozent der wandernden Smolts und fünfundzwanzig Prozent der Aale.459 Eine Untersuchung am Wasserkraftwerk Main-Dettelsbach hat ergeben, dass bis zu 28 Prozent der Aale in den Turbinen sterben und ein Drittel der 456 457 458 459
Staudämme, Helvetas-Wasser-Fachsheets, unter http://www.helvetas.ch/deutsch/pdf/ staudaemme.PDF [Stand Juli 2003]. SZ: UN warnt vor Verlandung der Stauseen, 5. 12. 01. J. Oeder: Tod auf dem Weg zum Atlantik, in: SZ, 20. 11. 01. ebd.
216
Darstellung der verschiedenen Energieoptionen
größeren Fische schwere Verletzungen erleiden.460 Als mögliche Lösungen werden derzeit der Rückbau der unzähligen Kleinstwasserkraftanlagen zugunsten weniger Großanlagen diskutiert, sowie der Bau fischfreundlicher Turbinen. Die am Rhein beobachteten Probleme existieren weltweit. Es wird davon ausgegangen, dass von den im Jangtsekiang lebenden 193 Fischarten in den nächsten Jahren viele durch den Dammbau aussterben werden. Staudammbrüche Ein großer Staudamm speichert eine ungeheure potenzielle Energie, die im Falle eines Dammbruchs explosionsartig freigesetzt werden kann. Ähnlich wie große Kernkraftunfälle sind Staudammbrüche Risiken mit niedriger Eintrittswahrscheinlichkeit und hohem Schadensausmaß. Insgesamt sind im 20. Jahrhundert mehr als 10000 Menschen durch Staudammbrüche umgekommen.461 Eine der schwersten Staudammkatastrophen des 20. Jahrhunderts ereignete sich am 9. Oktober 1963 am italienischen Vajont-Stausee, der zu den größten der Welt gehört. Während der Aufstauung des Sees lösten sich 260 Millionen Kubikmeter Geröll aus den seitlichen Berghängen und stürzten in den Stausee. Die Schuttmassen erzeugten eine riesige Welle von mehr als hundert Metern Höhe, die die Staumauer überschwappte und die unterhalb des Damms gelegenen Dörfer Longarone, Castellavazzo, Erto, und Casso vernichtete. Die Katastrophe kostete etwa 3000 Menschen das Leben.462 Wegen der riesigen in Stauseen gespeicherten Energien sind Staukraftwerke auch potenzielle Angriffsziele für terroristische Anschläge. Zudem kann die gezielte Zerstörung von Stauseen im Krieg als Waffe eingesetzt werden. So versuchten Einheiten der serbischen Armee 1991 den Peruca-Staudamm in Kroatien zu sprengen, um die darunter liegenden Dörfer zu vernichten.463 Dieser gegen geltendes Kriegsrecht verstoßende Anschlag konnte durch das umsichtige Handeln eines britischen Offiziers verhindert werden.
3.4.6 Energie der Gezeiten An geeigneten Stelle an der Küste, wo der tägliche Tidenhub mindestens 5 m beträgt, kann mit Hilfe von Gezeitenkraftwerken elektrische Energie aus der Bewegung des Meeres gewonnen werden. 460 461 462 463
ebd. Zahl nach: Kallenbach / Thöne: Gesundheitsrisiken der Stromerzeugung, Köln 1989, S. 110. ebd. E. Rathfelder: Gefährliche Kräfte: Dämme, Deiche und Atomkraftwerke, in: R. Gutmann, D. Rieff: Kriegsverbrechen, Stuttgart 2000, S. 136–137.
Erneuerbare Energien
217
Ein Gezeitenkraftwerk nutzt dabei die kinetische Energie, die in den um die Erdkugel wandernden Flutbergen steckt, für die Stromgewinnung. Die Energie der Gezeiten stammt letztlich aus der Eigenrotation der Erde und der durch die Anziehungskraft des Mondes bedingten Massenträgheit der Weltmeere. Das theoretische Potenzial der Energie der Eigenrotation der Erde ist ungeheuer groß. Es beträgt ERot = 2 × 1029 Joule.464 Eine langandauernde großtechnische Nutzung dieses Potenzials wäre unabhängig von der Realisierbarkeit jedoch problematisch, da die für das Leben auf der Erde unverzichtbare Rotation, die eine einseitige Abkühlung bzw. Erhitzung der Erde verhindert, sich verlangsamen würde. Aber auch ohne den Eingriff des Menschen wirken die den Erdball umwandernden Flutberge wie „Bremsbacken“ und entziehen der Erde Rotationsenergie. Auf diese Weise bewirken die Gezeiten eine allmähliche „Abbremsung“ der Umdrehung. Dieser Prozess verläuft jedoch so langsam, dass die Verringerung der Rotationsgeschwindigkeit selbst in historischen Zeiträumen kaum messbar ist. Die Gewinnung von kinetischer Energie aus den Gezeiten entzieht der Erde also keine Rotationsenergie, die sie nicht auf natürlichem Wege ohnehin verlieren würde. a) Konventionelle Gezeitenkraftwerke Technisch funktioniert ein Gezeitenkraftwerk im Prinzip genauso, wie ein Staukraftwerk, mit dem einzigen Unterschied, dass bei diesem Kraftwerkstyp Zweiwegsturbinen benötigt werden, da im Rhythmus von Ebbe und Flut das Wasser das Stauwerk täglich in beiden Richtungen durchquert. Durch eine Staumauer wird das Meer bei Flut am Eindringen in eine Bucht gehindert. Wenn die Flut am höchsten steht, werden die Schleusen geöffnet und das Meerwasser strömt entlang des Gefälles in die dahinter liegende Bucht, wobei Turbinen zur Stromerzeugung angetrieben werden. Bei Ebbe wird das Wasser so lange zurückgehalten, bis der Tiefstand des Meeresspiegels erreicht ist, dann werden die Schleusen geöffnet und das Wasser strömt zurück ins offene Meer. Der Rhythmus von Ebbe und Flut bedingt, dass es zumindest zweimal täglich kurzzeitig bei gleich hohem Wasserpegel zu einem Stillstand des Kraftwerksbetriebs kommt. Trotzdem ist die Verfügbarkeit dieses Kraftwerkstyps mit 90 Prozent immer noch sehr hoch. Das erste und bislang einzige kommerzielle Gezeitenkraftwerk der Welt mit einer Leistung von 240 MW wurde 1966 bei La Rance in Frankreich gebaut.465 Der Staudamm ist 750 m lang und staut auf einer Fläche von 22 km2 ein Wasservolumen von 184 Millionen Kubikmetern. 464 465
Heinloth 1983, S. 191. Zahlen nach „Die Funktionsweise eines Gezeitenkraftwerkes“ unter: http://www.gymnasium-eberswalde.de/frame.html [Stand: Januar 2004].
218
Darstellung der verschiedenen Energieoptionen
Jährlich erzeugt das Kraftwerk 540 Millionen kWh Strom, was einem Anteil von 0,2 Prozent an der französischen Stromerzeugung entspricht. Genau wie ein Staukraftwerk kann das Werk in La Rance zudem als Pumpspeicherwerk genutzt werden und so eine zusätzliche Funktion erfüllen. Seit 1984 betreibt die kanadische Regierung bei Annapolis in der Bay of Fundy (Bucht von Neufundland), wo mit bis zu 12 Metern die größten Tidenhübe der Welt erreicht werden, ein Versuchskraftwerk mit einer Leistung von 20 MW, das jährlich 30 Millionen kW/h elektrischer Energie liefert. Mit Hilfe des Kraftwerks sollen mögliche Auswirkungen einer großindustriellen Nutzung der Gezeitenenergie in dieser Bucht untersucht werden. Insbesondere soll geklärt werden, wie der Bau von Staudämmen sich auf die besonderen Resonanzeigenschaften der Bucht auswirken würde, die wiederum die Voraussetzung für die ungewöhnlich hohen Tidenhübe an dieser Stelle bilden.466 Dieses Beispiel illustriert, dass auch unter auf den ersten Blick optimalen Standortbedingungen sorgfältige Vorstudien vor dem Bau eines solchen Kraftwerks nötig sind. Ein weiteres Versuchskraftwerk mit einer Leistung von 50 MW wird derzeit bei Derby in Westaustralien gebaut. b) Gezeitenzäune Da der Bau einer Staumauer den größten Teil der hohen Anfangsinvestitionen eines Gezeitenkraftwerks ausmacht, gibt es derzeit Überlegungen die Staumauern durch preiswertere „Gezeitenzäune“, englisch „tidal fences“ zu ersetzen, die alternativ auch zur Nutzung von Meeresströmungen eingesetzt werden könnten.467 Die kanadische Firma „Blue energy“ hat entsprechende Pläne für den Bau solcher Gezeitenzäune, die aus Kostengründen nach dem Baukastenprinzip aus autonomen Einzeleinheiten zusammengesetzt sind, vorgelegt. Die einzelnen Einheiten sind mit je einer Davis-Hydroturbine mit einer Spitzenleistung von 12 MW ausgestattet. Im Auftrag der philippinischen Regierung wollte Blue Energy in der Dalupiri Passage zwischen einer Insel und dem Festland ein Demonstrationskraftwerk mit einer Spitzenleistung von 2200 MW bauen. Politische Schwierigkeiten haben das Projekt jedoch zum Erliegen gebracht.468 Geplant war ein 4 km langer Zaun, bestehend aus insgesamt 274 Einheiten mit Davis-Hydroturbinen und veranschlagten Baukosten von 2,8 Milliarden US-Dollar.
466 467 468
vgl. dazu auch Heinloth 1983, S. 197 ff. P. Osborne: Electricity from the sea, Fujita Research Report 1998, update unter: www.fujitaresearch.com [Stand: Juli 2000]. C. Heckmann: Tapping the tides power, Seattle post-intelligencer, 30. 4. 01.
Erneuerbare Energien
219
Im Falles eines erfolgreichen Verlaufs der Demonstrationsphase sollte die gesamte San Bernardino Passage mit solchen Gezeitenzäunen durchzogen werden. c) Gezeitenturbinen Die interessanteste Alternative zu Gezeitenkraftwerken bilden möglicherweise Gezeitenturbinen. Dabei handelt es sich um kleine Einheiten, die wie Unterwasser-Windkrafträder aussehen und auch nach demselben Prinzip arbeiten wie Windkrafträder. Sie können dort eingesetzt werden, wo die Küstenströmung zwischen 2 bis 2,5 m/s beträgt. Niedrigere Geschwindigkeiten sind unökonomisch, höhere können die Turbinen beschädigen. Ähnlich wie Windkrafträder setzen sie die kinetische Energie des fließenden Wassers in Rotations- und elektrische Energie um. Da die Dichte von Wasser um ein Vielfaches höher ist als die von Luft können diese Turbinen viermal so viel Energie erzeugen wie eine Windkraftanlage gleicher Größe. Optimale Standorte lägen nahe der Küste in Wassertiefen von 20–30 Metern. An geeigneten Stellen könnten Gezeitenturbinen zu Parks mit einer Leistung von mehreren MW zusammengefasst werden. Die EU hat derzeit 106 mögliche Standorte ausgewiesen. Die Stromgestehungskosten dieser Anlagen lägen nach Angaben des Herstellers bei 10 US-Cent pro kW/h.469 Im Juni 2003 wurde an der Südwestküste Englands das erste Unterwasser-Meeresströmungskraftwerk der Welt („Seaflow“) mit einer Leistung von 300 KW in Betrieb genommen.470 Die Anlage befindet sich derzeit noch in der Erprobungsphase.
3.4.7 Energie der Meereswellen Durch die Reibung zwischen Wind und Wasseroberfläche entstehen weltweit auf Seen und Meeren Wellen, deren kinetische Energie sich prinzipiell zur Energieerzeugung nutzen lässt. Die kinetische Energie einer großen Meereswelle ist erheblich: Eine typische Oberflächenwelle im Meer enthält z. B. kinetische Energie, die einer Leistung von 140 MW entspricht.471 Die Energie aus Meereswellen konnte jedoch bislang aus technischen Gründen praktisch nicht genutzt werden. Gerade in jüngster Zeit sind jedoch im Bereich der Wellenenergienutzung wichtige neue Technologien entwickelt worden. 469 470 471
Osborne 1998. Angaben nach: Meeresströmungskraftwerk, in: Energieperspektiven 4/2003. Zahl nach Heinloth 1983, S. 204.
220
Darstellung der verschiedenen Energieoptionen
Für die Nutzung der Wellenenergie sind im Laufe der Jahrzehnte die unterschiedlichsten technischen Konzepte vorgeschlagen worden, die mit Ausnahme der Energieversorgung von Bojen bislang jedoch allesamt keinen kommerziellen Einsatz gefunden haben. Prinzipiell lassen sich Systeme, die die kinetische Energie der Wellen (z. B. in Form von Brandungswellen) nutzen, von solchen unterscheiden, die ihre potenzielle Energie (z. B. in Form des Wellenhubs) nutzen. Nachdem in der Vergangenheit eine Vielzahl unterschiedlicher Nutzungskonzepte diskutiert worden waren 472, konzentriert sich die internationale Forschung heute im wesentlichen auf zwei Systeme 473: x x
TAPCHAN-Anlagen (TAPered CHANnel = Spitz zulaufender Kanal) und OWC-Anlagen (=Oscillating Water Column)
Von beiden Systemen existieren weltweit eine Reihe von Forschungsanlagen mit einer installierten Gesamtleistung von 3,2 MW. Seit November 2000 arbeitet auf der schottischen Insel Isle of Islay ein erstes halbkommerzielles Wellenkraftwerk mit einer Leistung von 500 kW.474 a) TAPCHAN-Anlagen Bei Tapchan-Anlagen wird das Wasser der auf den Strand auflaufenden Welle entlang eines ansteigenden, spitz zulaufenden Kanals in ein erhöhtes Speicherbecken geleitet, aus dem es durch eine Turbine wieder in das Meer zurücklaufen kann. Durch den spitz zulaufenden Kanal ist gewährleistet, dass nahezu alle Wellen irgendwann die notwendige Höhe erreichen, um über die Wände hinweg das Becken zu füllen. Der Hauptvorteil dieses Systems ist, dass die oszillierende kinetische Energie der Wellen als potenzielle Energie eines erhöhten Wasserspeichers kontinuierlich verfügbar gemacht werden kann, zudem sind die Maschinen nicht der rauen See ausgesetzt, was die erforderlichen Wartungsarbeiten reduziert. Nachteilig ist, dass die Energie der Wellen wenig effizient genutzt wird und Anlagen dieses Typs wegen der Speicherbecken einen großen Flächenbedarf haben. Bereits 1986 wurden auf Bergen in Norwegen die ersten Tapchan-Anlagen gebaut, es ist jedoch bis heute kein einziges kommerzielles Kraftwerk 472 473 474
Eine Darstellung älterer Konzepte bei Heinloth 1983. Darstellung nach K. U. Graw: Wellenenergiewandlertypen, unter: www.uni-leipzig.de/ ~grw/welle [Juli 2002]. vgl. Energie aus Ebbe und Flut, in: Energieperspektiven, 3/2002; C.P. Sesin: Billiger Strom aus dem Meer, in: VDI-Nachrichten, 11. 2. 2000.
Erneuerbare Energien
221
dieses Typs errichtet worden. Derzeit ist der Bau eines kommerziellen Kraftwerks in Indonesien geplant. b) OWC-Anlagen OWC-Anlagen (OWC = Oscillating Water Column) nutzen die über den Wellen oszillierende Luftsäule zur Erzeugung elektrischer Energie, indem die Luft abwechselnd durch eine Turbine gepresst und wieder angesaugt wird, die unabhängig davon, in welcher Richtung sie durchströmt wird, nur in einer Richtung dreht (Wells-Turbinen). Je nach Einsatzort werden drei verschieden Typen von OWC-Anlagen unterschieden: x x x
OWC-Bojen, Schwimmende OWC’s, Küsten OWC’s.
OWC-Bojen basieren auf einem vertikalen Rohr, das so weit unter die Wasseroberfläche reicht, dass es in die nicht mehr von Wellen bewegten Wasserschichten mündet. Die darin eingeschlossene Luftsäule kann der Bewegung der Wellen und der Boje nicht folgen, wodurch sie dieser gegenüber oszilliert und eine in dem Rohr eingebaute Luftturbine in Drehung versetzt, die wiederum einen Generator antreibt. Auf dieses Weise ist eine autonome Elektrizitätsversorgung der Boje garantiert. Die OWC-Bojen beruhen auf einer Erfindung des Japaners Masuda und werden seit mehr als 20 Jahren erfolgreich auf See eingesetzt. Lange Zeit wurde versucht, dass erfolgreiche Prinzip der OWC-Boje auf große Schwimmende OWC’s zu übertragen. Erfolgreich war bislang jedoch nur das von der IEA geleitete Kaimei-Projekt in Japan, bei dem eine schwimmende OWC im Japanischen Meer eingesetzt wurde (1978–1986).475 Als neuen Prototyp testet Japan derzeit die Anlage „Mighty Whale“, die entfernt an die Form eines Walfisches erinnert. Die schwimmenden Anlagen sollen außer zur Stromerzeugung vor allem als vorgelagerte Wellenbrecher dienen, um dahinter liegende Fischzuchtfarmen zu schützen. Die Kosten der Versuchsanlage mit einer Leistung von 60 MW werden auf ca. 15 Millionen $ veranschlagt. Die Schwierigkeiten mit schwimmenden OWC’s haben dazu geführt, dass die Forschung sich zunehmend auf Küsten-OWC’s verlagert hat. Diese OWC-Anlagen sind in die Küstelinie integriert oder unmittelbar vor der Küste am Meeresboden befestigt und bestehen hauptsächlich aus einer künstlichen gegen die Brandung vorgewölbten Kammer, in der eine Luft475
Angaben hier und im Folgenden nach: Graw: Japanische Wellenenergiekraftwerkskonzeptionen, ebd.
222
Darstellung der verschiedenen Energieoptionen
säule oszilliert. Oberhalb der Kammer existiert eine mit einer Turbine versehene Öffnung, durch die die Luft in der Kammer mit der Umgebungsluft verbunden ist. Im Rhythmus der Wellen wird Luft durch die Turbine gepresst bzw. angesaugt. Eine wichtige Voraussetzung für die Nutzung dieser oszillierenden Luftsäule ist die nach ihrem Erfinder Allan Wells benannten Wells-Turbine, die bei wechselnder Strömungsrichtung den gleichen Drehsinn behalten.476 Nachteilig an den Wellsturbinen ist, dass sie nur einen Wirkungsgrad von 50 bis 70 Prozent erreichen. Kraftwerke dieses Anlagentyps existieren derzeit in Kerala (Indien) sowie in Japan, Schottland und Norwegen. Da solche Küsten-OWCs den Wellen Energie entziehen, bietet es sich an, diesen Anlagentyp mit bereits etablierten baulichen Anlagen im Bereich des Küsten- und Hafenschutzes zu kombinieren und so Baukosten zu sparen. Dazu wird ein Wellenbrecher mit integrierter oszillierender Wassersäule entwickelt (OWC-Wellenbrecher). Besonders intensive Anstrengungen auf diesem Gebiet hat Japan unternommen, das wegen seiner langen Küstenlinie ohnehin erhebliche Mittel für den Küstenschutz aufwenden muss. Japan hat im Laufe der Zeit in Sanze (1983), Niigata (1986), Kujukuri (1987) und Sakata (1988) mehrere solcher Küsten-OWC-Pilotanlagen errichtet. In Europa wurden unter erheblichen technischen Schwierigkeiten zwei erste OWC-Prototypen auf der Isle of Islay (Schottland) errichtet. Das zweite Wellenkraftwerk, Limpet 500, das dort im November 2000 mit einer Nennleistung von 500 kW in Betrieb genommen wurde, speist die Elektrizität bereits in das öffentliche Netz ein. Die Stromgestehungskosten dieses Kraftwerks liegen bei 9 Cent/kWh.477 Daneben ist in Großbritannien unter Beteiligung der Industrie ein größeres Wellenkraftwerk mit dem Namen ART-OSPREY(Ocean swell powered renewable energy) und einer Leistung von 2 MW entwickelt worden, das in industrieller Serienproduktion aus Stahl gebaut werden und als fertige Einheit schwimmend per Schiff in sein Einsatzgebiet geschleppt werden kann.478 Sollte sich dieser Kraftwerkstyp als zuverlässig erweisen, könnte er den Einstieg in eine kommerzielle Nutzung der Wellenenergie einleiten. Eine interessante Pilotanlage wurde auch mit Unterstützung der Europäischen Union vom Indian Institute of Technology (IIT) in Madras im indischen Fischerhafen Vizhinjam im Bundesstaat Kerala (Indien) verwirk-
476 477 478
Nähere Informationen zur Wells-Turbine unter www.wavegen.co.uk [Stand Dezember 2002]. vgl. Energie aus Ebbe und Flut, in: Energieperspektiven, 3/2002; C.P. Sesin: Billiger Strom aus dem Meer, in: VDI-Nachrichten, 11. 2. 2000. Graw: „Europa – die 90 er“, ebd.
Erneuerbare Energien
223
licht.479 Diese Anlage besteht aus einem 3000 t schweren Beton-Caisson mit aufgesetztem Stahlturm und einer Wells-Turbine mit 150 kW Leistung, die an das lokale Netz angeschlossen ist und das Dorf mit Strom versorgt. Die Gesamtkosten der Anlage beliefen sich auf 600 Millionen 3. Diese OWC-Pilotanlage ist vor den Wellenbrecher des kleinen Fischerhafens gesetzt worden, da sie noch nicht die Sicherheitsanforderungen eines Wellenbrechers erfüllt. Spätere Anlagen werden jedoch diesen Sicherheitsstandards genügen müssen, wenn sie ihre doppelte Funktion als Energieerzeuger und Wellenschutz erfüllen sollen. Die Stromgestehungskosten betragen nach Angaben der Betreiber unter Berücksichtigung der Küstenschutzfunktion 5 Cent/ kWh, im Hinblick auf die Gesamtkosten der Anlage jedoch 17 Cent/ kWh.480 Das weltweite technische Potenzial an Wellenenergie wird auf 2000 TWh im Jahr geschätzt.481 Umfangreiche Erhebungen liegen bisher jedoch nur über die europäischen Küsten vor. Nach einer ersten grundlegenden Studie der Europäischen Union von 1992 besteht nahe der europäischen Küsten (nearshore) ein technische Potenzial von 34–46 TW/h im Jahr und von 120–190 TW/h auf offener See (offshore).482 Der größte Teil des Potenzials entfällt dabei wegen der langen und wellenreichen Küstenlinie auf die britischen Inseln, über kleinere Potenziale verfügen Portugal, Frankreich, Italien und Spanien. In Deutschland ist das Potenzial wegen der kurzen und ohnehin schon intensiv genutzten Küstenlinien vernachlässigbar (Ab. 3.44). Positiv an der Wellenenergie ist ihre mit über 90 Prozent relativ hohe Verfügbarkeit. Zudem fällt die reichste „Wellenernte“ in die kalte Jahreszeit, was der Energienachfrage in Europa besser entspricht. Im Prinzip sind einige Prototypen von Wellenkraftwerken mittlerweile technisch ausgereift, einer kommerziellen Nutzung der Wellenenergie stehen jedoch wegen fehlender Erfahrungen immer noch erhebliche Investitionsrisiken entgegen und historisch bedingte Vorbehalte gegen eine in der Vergangenheit oft von Laien betriebene naive Forschung. Die Schätzungen für die Stromgestehungskosten von Wellenkraftwerken lagen in der Vergangenheit zudem abschreckend hoch, sind jedoch auf der Grundlage der neuen Technologien beständig nach unten korrigiert 479 480 481 482
Graw: „Vizhinjam-OWC“ 2002. Zahlen nach Graw: Nutzung der Wellenenergie, ebd. European Commission (Ed.): An assessment of the state of art, technical perspectives an potential market for wave energy, prepared by ETSU and CCE, EU 1992. ebd.
224
Darstellung der verschiedenen Energieoptionen
Abb. 3.44 Technisches Potential der Wellenenergie in Europa [EU 1992]
worden. Die Investitionskosten von rund 1600 3/kW liegen etwa so hoch wie bei Windkraftanlagen. Die EU schätzt die künftigen Stromgestehungskosten auf 6 Cent/kWh (Tab. 3.9). Allerdings liegt das Investitionsrisiko für Investoren nach wie vor sehr hoch, da bislang noch keine ausreichenden Erfahrungen hinsichtlich Verfügbarkeit, Effizienz und Wartungsaufwand gesammelt werden konnten. Bislang sind das Limpet 500 und das OSPREY-Projekt in Großbritannien weltweit die einzigen mit einer privatwirtschaftlichen Beteiligung. Eingeschränkt wird das Potenzial der Wellenenergie vor allem durch eine limitierte Zahl geeigneter Küstenstandorte, denn vor einer kommerziellen Nutzung der Wellenenergie müssten die möglichen Auswirkungen auf die Küste und das die Anlage umgebende Wasser geprüft werden. Zudem wären erhebliche Anstrengungen beim Ausbau des öffentlichen Stromnetzes nötig, da die interessantesten Standorte weit entfernt von den potenziellen Verbraucherzentren liegen. Wegen der hohen Anfangsinvestitionskosten für Wellenkraftwerke und der schwierigen Netzanbindung scheint insbesondere die in Japan entwickelte Form der Verknüpfung von Küstenschutzmaßnahmen mit dem Bau von Wellenkraftwerken zukunftsweisend. Voraussetzung wäre allerdings, dass die OWC-Anlagen eine den herkömmlichen Küstenschutzeinrichtungen vergleichbare Sicherheit bieten. Zudem entfielen bei integrierten OWC Konflikte mit dem Umweltschutz, da für bestehende Küstenschutzeinrichtungen bereits Genehmigungen vorliegen.
225
Erneuerbare Energien Tabelle 3.9
483
Kenndaten von Wellenkraftwerken486
1995
2000
2005
2010
2
3,5
3,5
3,5
94
97
97
97
Typische Kraftwerksgröße (MW) Verfügbarkeit (%) Konstruktionsdauer (Jahre) Betriebszeit (Jahre)