Entscheidungen in der Energiepolitik werden heute oft mit Verweis auf die Ergebnisse der Klimaforscher getroffen. Ist nicht die Erkenntnis, dass etwas existiert, was als Vehikel dermaßen nützlich für die Politik ist, schon Beweis genug, dass es sich um einen Schwindel handeln muss? Leider ist es nicht ganz so einfach. Wer es ernst meint, kommt nicht darum herum, sich mit der physikalischen Beschreibung der Geschehnisse in der Atmosphäre, den nüchternen Messwerten, den aktuellen Prognosen und den Handlungsmöglichkeiten zu befassen.

Das menschliche Gehirn sucht nach Erklärungen, nach Begründungen. Wenn die Fakten fehlen, dann entwirft es plausible Szenarien oder ist außerordentlich empfänglich dafür, Erklärungsversuchen, die ihm vorgelegt werden, zu folgen. Dies ist einer der Gründe, warum in frühgeschichtlicher Zeit natürlichen Phänomenen göttliche Absichten unterstellt wurden.

Nun wurden auf der einen Seite enorme Fortschritte darin erzielt, die Erscheinungen in unserer Umwelt zu erklären, so dass sich derartige Naturreligionen heute überlebt haben. Über Blitz und Donner, Jahreszeiten und Kometen weiß heute jeder bescheid. Auf der anderen Seite wurde das Leben erheblich komplexer. Die Dinge, mit denen man täglich Umgang hat, werden von vielen Menschen genauso wenig verstanden, wie vor 3.000 Jahren Vulkanausbrüche und Krankheiten.

Dies bietet wiederum einen idealen Nährboden dafür, unserem Gehirn mystische Eigenschaften oder Absichten hinter bestimmten Erscheinungen zu suggerieren. Wir werden empfänglich für vorgetragene Erklärungen, weil wir sind, wie wir sind. Wenn über Handystrahlen, Sieben-Zonen-Matratzen oder die Wichtigkeit des Dosenpfandes berichtet wird, dann wollen wir daran teilhaben und richten unseren Konsum daran aus.

Was hat das alles nun mit dem Klima zu tun? Nun, mit Klimaforschung gar nichts, mit Klimapolitik sehr viel. Aus genau diesem Stoff ist die gegenwärtige Lage gestrickt, in der wir dazu verdammt sind, entweder die Botschaft zu glauben, dass die Menschheit sich in absehbarer, großer Gefahr durch eine sich erwärmende Erdatmosphäre befindet, oder eben diese Botschaft zu ignorieren. Fast scheint es wie im Mittelalter zu sein, als man die Wahl hatte zu glauben, die neue Bäuerin hätte mittels Hexerei die Kälber sterben lassen, oder diese gängige Erklärung zurückzuweisen.

Fast.

Qualitätskontrolle in der Wissenschaft
Der Unterschied ist der, dass die Botschaft in diesem Fall von Naturwissenschaftlern vorgetragen wird und gerade nicht von den Kräften, die die Welt mit Dämonen besiedeln, sobald sie etwas nicht verstehen. Die Klimaforscher arbeiten nicht im Geheimen sondern veröffentlichen Ihre Messungen und Ergebnisse. Diese Vorgehensweise ist in der wissenschaftlichen Gemeinschaft bewährte Praxis und im allgemeinen der Garant dafür, dass sich zutreffende, reproduzierbare und „wahre“ Resultate durchsetzen, zumal bereits bei Veröffentlichung per Peer Review – also durch fachliche, gegenseitige Kontrolle – ein Mechanismus vorgeschaltet ist, der weitgehend sicherstellt, dass wissenschaftliche Maßstäbe eingehalten werden.

Leider hat niemand außer den Wissenschaftlern dieses Fachgebiets eine reelle Chance persönlich nachzuvollziehen und zu verstehen, was genau der Inhalt einer solchen Veröffentlichung ist. Alle anderen, auch arrivierte Forscher auf Nachbardisziplinen, müssen irgendwann die Waffen strecken und können wieder nur vertrauen oder glauben, wobei die Anzahl der Veröffentlichungen ein überwältigender Anhaltspunkt ist. Dem daraus hervorgehenden Maß an Konsens nicht zu glauben, zeugt von vornherein zunächst einmal von Arroganz.

Auch wenn das Gesamtbild so eindrucksvoll ist, kann man auf den Gedanken kommen, es gebe für die Forscher und Institute eventuell auch weniger ehrenwerte Motive, bei der Klimamodellierung mitzumischen. Schließlich gibt es dafür im Moment so großzügige Finanzierung und einen Platz auf dem Heldensockel obendrein. Solche Motive sind natürlich nicht von der Hand zu weisen. Jeder, der einmal mit dem universitären Forschungsbetrieb zu tun hatte, weiß, dass die Frage, welches Forschungsthema die größte Chance auf die Zustimmung der Gutachter und Geldgeber hat, durchaus relevant ist. Vielleicht wird auf diese Weise an einigen eher weniger bedeutenden Details herumgeforscht, möglicherweise auch nicht durchgehend mit bahnbrechender Qualität. Falschmeldungen haben aber auch unter solchen Umständen keine Chance, sich versehentlich in wissenschaftlichen Konsens zu verwandeln.

Ansatzweise vergleichen lässt sich der Überschwang, mit dem heute Klimaforschung öffentlich forciert wird, mit dem Hype um die Hochtemperatursupraleiter Ende der 80er-Jahre. Nach der Entdeckung durch Bednorz und Müller wurde der Effekt schnell von anderen Wissenschaftlern bestätigt, andere Substanzen wurden gefunden, Verfahren zur Herstellung wurden erarbeitet – viel Geld und Arbeitszeit der Industrie und der öffentlichen Forschung flossen hinein. Allein: der überall an die Wand gemalte Erfolg verlustfreien Stromtransports in Motoren und Überlandleitungen stellte sich bis heute nicht ein. Die Forscher waren es nicht gewohnt, dermaßen im medialen Fokus zu stehen, sie glaubten nur zu gerne selbst der an die Wand gemalten Aussicht auf Wunderdinge und surften die Welle ab. Die High-TC werden heute immerhin in bestimmten Nischen eingesetzt.

Von einer „Supra-Religion“ war damals nicht die Rede. Man vertraute zu Recht dem Forschungsbetrieb. Es gab durchaus Veröffentlichungen, in denen Verfahren und Stoffe vorgestellt wurden, die Aufsehen erregend waren – etwa Zimmertemperatur-Supraleiter oder Abschirmung der Schwerkraft –, doch diese waren schnell als fehlerhaft entlarvt. Mit der bloßen Feststellung, dass ein Forschungsthema mit öffentlichem Interesse und öffentlichem Geld verbunden ist, ist der Wahrheitsgehalt der Forschungsergebnisse jedenfalls nicht anzuzweifeln. Man kommt nicht darum herum, sich dem Fachgebiet selbst zu nähern.

Das schlechte Wort von der Klimareligion
Es ist aussichtslost, so ganz nebenbei zum Klimaforscher zu werden, doch wer nicht glauben will, muss rechnen. Es ist wichtig, die einfachen und eindeutigen Dinge rund um das Klima – die gibt es! – zu verstehen und den Klimaforschern ein Stückweit auf die Finger zu schauen – das ist zu schaffen.

Der erste Schritt hin zu einer seriösen Klimadebatte ist getan, wenn man als Skeptiker oder Kritiker darauf verzichtet, die Vertreter der Pro-Seite als „Klimareligöse“ zu bezeichnen, da dieses Attribut mindestens ebenso sehr auf die Seite der Kritiker zutrifft. Die Selektivität, mit der Plattformen wie „EIKE“ oder „GWPF“ das Thema medial wiedergeben, ist höchst unbefriedigend und wirkt bisweilen unseriös bis hetzerisch. Dort wird jeder Quadratmeter Meereis im Südlichen Ozean als Beweis vorgelegt, dass die Klimaforschung am Ende wäre. Einen Unterschied zu denjenigen, die jedes Nordseehochwasser oder jeden Taifun als Beweis für das Ausmaß des menschengemachten Klimawandels darstellen, ist nicht auszumachen.

Der Begriff der „Klimareligion“ verquickt das Debattenfeld zudem mit dem sehr emotionsgeladenen Thema Religion. Nicht jeder ist der Meinung, ein religiös motiviertes Vorgehen sei rundweg nachteilig, und es vernebelt die Lage, indem ohne Not eine zweite Front eröffnet wird. Interessanterweise wird in Umfragen in den USA ein Zusammenhang zwischen Klima und Religion gefunden. Die Erhebungen legen jedoch nahe, dass gläubige Menschen eher dazu neigen, einen menschengemachten Klimawandel abzustreiten und nichtreligiöse diesen als zutreffend akzeptieren. Wer als Nichtgläubiger das Übernatürliche ablehnt, neigt also auch dazu, wissenschaftlichen Erklärungsansätzen eines Klimawandels zu folgen. Mehrheitlich unterstützen die Amerikaner jedoch die Theorie des menschengemachten Klimawandels. Es gibt dort sogar weniger „Klimaleugner“ als Evolutionsleugner.

Der Treibhauseffekt
Der zweite Schritt besteht darin, sich klar zu machen, dass die Annahme, die Aktivitäten des Menschen könnten einen bedeutenden Einfluss auf die Klimaentwicklung haben, wenn nicht zu 100 Prozent erwiesen so auf jeden Fall plausibel ist. Wir haben es in der Klimadebatte nicht einfach mit Spinnern zu tun, mit Profiteuren oder taktierenden Politikern – die kamen alle später dazu und überstrahlen heute das eigentliche Thema. Als Kritiker des Politikgeschehens rund um die globale Erwärmung sollte man sich nicht auf die wissenschaftlich unhaltbare Behauptung festlegen, es gebe keinen atmosphärischen Treibhauseffekt.

Wie der wärmende Effekt der Atmosphäre funktioniert, ist schnell umrissen. Dabei ist man zunächst einmal auf dem falschen Dampfer, wenn man eine zu enge Parallele zum „echten“ Treibhauseffekt sucht. Bei dem geht es bekanntermaßen darum, dass in den Innenraum eines Objekts mit Glaswänden (z. B. eines geparkten Autos), Sonnenstrahlen eindringen und das Inventar erwärmen, während die miterwärmte Luft keinen Austausch mit der Außenluft erfährt und so am Ende erheblich wärmer ist als diese. Gut für die Gewächshausbauern und für die Hersteller von PKW-Klimaanlagen.

„Außenluft“ gibt es beim atmosphärischen Treibhauseffekt natürlich nicht, jeder Wärmeaustausch zwischen Sonne und Erde erfolgt über Strahlung. Der Effekt ist hier also etwas anders zu verstehen. Ganz ohne Atmosphäre heizte sich ein Planet wie die Erde durch Sonneneinstrahlung so weit auf, bis die von ihm wieder abgestrahlte Wärmemenge der aufgenommenen Energie entspräche. Die Erdoberfläche hätte unter den herrschenden Bedingungen (Entfernung zur Sonne etc.) eine mittlere Temperatur von -18° Celsius. Eine Gashülle ändert daran grundsätzlich nichts, solange diese völlig transparent ist, wie es beim Stickstoff und beim Sauerstoff alleine etwa der Fall wäre.

Bestimmte Gase, am prominentesten ist hier das Kohlendioxid (CO2), sind in bestimmten Wellenlängenbereichen, zum Beispiel im Infraroten, aber keinesfalls transparent. Der Knackpunkt ist der, dass die eintreffende Strahlung von der Sonne ein breites Spektrum umfasst und das Maximum im sichtbaren Bereich liegt. Die viel kältere Erde strahlt jedoch in alle Richtungen ein mattes Infrarot ab. Diese Gase lassen also das eintreffende, aufheizende Sonnenlicht (den größten Teil davon) passieren und halten die abgehende, abkühlende Infrarotstrahlung zurück. Genauer: sie streuen diese Strahlung in alle Richtungen und sorgen dafür, dass ein Großteil davon wieder auf die Erde trifft, was uns annehmbare Temperaturen beschert.

Der Einfluss des CO2
Die nächsten Schritte wären es, nachzurechnen, bei welcher CO2-Konzentration sich welche Infrarot-Absorption in welcher Höhe innerhalb der Atmosphäre ergibt und welche Temperatur sich als Folge daraus an der Erdoberfläche einstellt. Dies ist noch ohne Computersimulation möglich, indem ein naives, idealisiertes Bild eines Planeten herangezogen wird, der von einer Gashülle umgeben sich im Strahlungsbereich eines Sterns befindet. Solange Wetter, Wasserdampf und andere in der Praxis entscheidende Faktoren außer Acht gelassen werden, kann man diese Zahl rechnerisch ermitteln.

Demnach erhöht sich die Oberflächentemperatur um ca. 1 Grad, wenn sich der CO2-Gehalt der Atmosphäre von 0,028 Prozent (anzunehmender Wert der vorindustriellen Zeit) auf 0,056 Prozent verdoppelt.

Das alles – es sei nochmals gesagt – ergibt sich aus einem einfachen Rechenmodell, in dem keinerlei Folgeeffekte (Feedback) berücksichtigt werden. Auch unter der Annahme, dass die gesamte heutige Klimaforschung nur aus willigen Wissenschaftlerdarstellern bestünde, wäre dieses Ergebnis unstrittig. Wir haben es bei der Erwärmung als Folge der Verbrennung fossiler Treibstoffe mit einem plausiblen Phänomen, einer naheliegenden, wenn nicht zwingenden, Annahme zu tun. Da beißt die Maus keinen Faden ab. Auch die CO2-Konzentration der Atmosphäre lässt sich einfch und genau bestimmen. Sie stieg im letzten Jahrzehnt um ca. 2 ppm pro Jahr an.

Dem einen oder anderen mag es gelingen, einem einführenden Text in die Klimamodellierung zu folgen, etwa dem Skript von Professor Stocker, Bern. Im wesentlichen geht es darum, mit einfachen Modellen und gängigen Verfahren der Analysis und der numerischen Mathematik die Prozesse in der Atmosphäre zu beschreiben. Solange es dabei nur um die Frage geht, ich welchem Maße der Anstieg der CO2-Konzentration zu einer Erwärmung der Erdoberfläche führt, bleiben diese Modelle überschaubar. Kompliziert wird es, wenn mehr und mehr in der Realität vorhandene Erscheinungen, etwa Rückkopplungseffekte, einbezogen werden sollen. Der Zusammenhang zwischen der CO2-Konzentration und dem Gehalt an Wasserdampf ist aus diesen einfachen Modellen nicht abzuleiten und erfordert weitere Annahmen oder Berechnungen. Wasserdampf besitzt aber eine stärkere Klimasensitivität als CO2, so dass gerade dieser Zusammenhang entscheidend ist.

Es kommen noch weitere Feedbackmechanismen hinzu, etwa die Entwicklung der Schnee- und Eisbedeckung der Erdoberfläche. Mehr Weiß – eine höhere Albedo – bewirkt eine größere Reflexion der eintreffenden wärmenden Strahlung und wirkt einer weiteren Erwärmung entgegen. Auch eine höhere Wolkenbedeckung hat diesen Effekt.

Nachprüfbare Vorhersagen
Spätestens an diesem Punkt muss man sich von dem Gedanken verabschieden, die Berechnungen der Klimaforscher persönlich nachvollziehen zu können. Was aber möglich ist, und dafür genügt ein naturwissenschaftlich-technisches Grundwissen vollkommen, ist es, die Vorannahmen zu prüfen und die Vorhersagen zu bewerten. (Fast) niemand wird die Allgemeine Relativitätstheorie rechnerisch ergründen können. Der darin beschriebene Gravitationslinseneffekt und dessen messtechnische Überprüfung sind jedoch auch ohne Nobelpreis-IQ nachvollziehbar.

Der Knackpunkt ist also: welche nachprüfbaren Vorhersagen hat die Klimaforschung getroffen? Solange sie nur mit intellektuell anspruchsvollen Beschreibungsversuchen der Realität von sich reden macht und die beobachteten Effekte im Nachhinein durch Anpassung der Parameter in die Modelle aufnimmt, hat sie diesen Grad der Gewissheit nicht erreicht.

Im Moment wird vorausgesagt, dass ohne erhebliche Reduktion des CO2-Ausstoßes die mittlere Temperatur der Erdoberfläche bis zum Ende des Jahrhunderts um 3 bis 5 Grad ansteigen wird. Bis 2200 können es demnach 4 bis 10 Grad sein. Bis zum Ende des Jahrhunderts ist demnach beim „Weiter-So-Szenario“ (RCP8.5) mit einem Anstieg des Meerespegels von zunächst ca. einem Meter zu rechnen. Dies ist im aktuellen Bericht des IPCC nachzulesen. Daraus lassen sich Szenarien sehr bildlich ausmalen.

IPCC-Prognose aus dem neuen Weltklimabericht (Bild: Climate Change 2013 The Physical Science Basis - Summary for Policymakers - Seite 19)
IPCC-Prognose aus dem neuen Weltklimabericht
(Bild: Climate Change 2013 The Physical Science Basis – Summary for Policymakers – Seite 19)

Da sich die heute getroffenen Vorhersagen auf Zeiträume in Jahrzehnten beziehen und prinzipbedingt keine Vorhersagen getroffen werden können, die kurzfristig exakt nachprüfbar wären, so sollte wenigstens der Effekt, der durch die Theorien und Modelle beschrieben wird, rückwirkend empirisch beobachtet werden können. Wir fragen also etwas weniger streng nicht nach einer erfolgreichen Prognose als Beweis sondern nach Belegen dafür, dass die geschichtliche und die aktuelle Entwicklung der Erdtemperatur wesentlich auf menschliches Zutun zurückzuführen ist. Nach dem Gesagten ist dies zwar möglich, die Frage danach sogar naheliegend, doch was sagen die Daten?

Verlässliche und nüchterne Darstellung der Temperaturverläufe
Leider besitzen nüchterne Messdaten keinen Nachrichtenwert. Wenn ein Gletscher irgendwo auf der Welt schrumpft, dann liest man dies etwa im Spiegel. Findet man darunter Reste mittelalterlicher Wälder und damit den Beleg, dass „kürzlich“ dort schon einmal ohne zivilisatorisches Zutun kein Gletscher war, so schreiben darüber Benny Peiser und die Global Warming Policy Foundation (GWPF), und zwar jeweils in einer Art, als hätte die eigene Mannschaft ein Tor geschossen. Die einen sagen: „Siehste wohl, da kimmt er“, der Wandel. Die anderen könnten folgern: „Das hatten wir schon, dazu braucht es keine menschengemachte globale Erwärmung.“ In jedem Fall sind solche Momentaufnahmen bedeutungslos – der heißeste November seit … die größte antarktische Seeeisfläche seit … Mit solchen Meldungen werden die Grundstimmungen der „Klimareligiösen“ und der „Klimaskepsisreligiösen“ bedient.

Historische und aktuelle Durchschnittstemperaturen der Erdoberfläche(Bild: Climatic Research Unit, University of East Anglia; Original und Rechte: siehe Link)
Historische und aktuelle Durchschnittstemperaturen der Erdoberfläche
(Bild: Climatic Research Unit, University of East Anglia; Original und Rechte: siehe Link)

Also was sagen die nüchternen, langfristigen Daten? Etwa seit dem Jahr 1850 werden weltweit Temperaturen gemessen und die Ergebnisse gesammelt. Die wohl umfassendste regelmäßig aktualisierte Datensammlung wird unter dem Titel HadCRUT herausgegeben vom Wetterdienst „Hadley Centre“ des Vereinigten Königreichs in Zusammenarbeit mit dem Klimaforschungsinstitut CRU der University of East Anglia. Aktuell ist zur Zeit die Version HadCRUT4. Daraus geht unter anderem hervor: Die mittlere Temperatur der Erdatmosphäre stieg von 1910 bis 1940 um etwa 0,4 Grad an, blieb bis 1980 ungefähr konstant, stieg bis 2000 um weitere 0,4 Grad an. Auf diesem Plateau verharrt die mittlere Temperatur seitdem. Diese Daten fließen auch in die Berichte des Intergovernmental Panel on Climate Change (IPCC) ein. Die Oberflächentemperatur der Erde ist damit seit 100 Jahren um ein knappes Grad angestiegen und ist seitdem höher, als sie in ca. 75 Prozent der Erdneuzeit war. Die erwähnte Klimakritikergruppe GWPF zitiert denselben Sachverhalt so, dass die heutige Temperatur niedriger ist, als sie es zu 28 Prozent im betrachteten Zeitraum war.

Auch die Entwicklung der Meereshöhe und der Eisbedeckung, zum Beispiel in Grönland und an den Polen, werden erfasst und können etwa beim Commonwealth Scientific and Industrial Research Organisation (CSIRO) oder bei der National Oceanic and Atmospheric Administration (NOAA) nachgeschlagen werden, wenn man die Originalzitate des Abschlussberichts des IPCC nicht einzeln nachprüfen möchte.

Sicher gibt es verschiedene Mechanismen, die Temperaturwechsel verursachen können und dies in einem komplexen System wie der Erdatmosphäre auch tun. In der Tat gab es in der Vergangenheit Temperaturanstiege, doch taugt dies natürlich nicht als Beweis dafür, dass die Berechnungen der Klimaforscher unzutreffend sind. Dieses Argument ähnelt dem des Rauchers, der auf den frühen Krebstod seines nichtrauchenden Kollegen verweist und damit bewiesen haben will, dass Rauchen nicht eine wesentliche Ursache für Lungenkrebs ist.

Soviel steht also fest:

  • Der CO2-Gehalt der Atmosphäre ist messbar angestiegen und wird den Anstieg fortsetzen.
  • Die Temperaturen und die Meereshöhen sind messbar angestiegen, die Annahme eines weiteren Anstiegs ist heute wegen der Wirkung des CO2 und anderer Gase auf den Wärmetransport innerhalb der Atmosphäre plausibel
  • Die aktuelle Entwicklungsgeschwindigkeit liegt im unteren Bereich der Prognosen.

Aus den Daten Schlüsse ziehen
Wer sich als politischer Mensch versteht, darf die Messwerte und deren wissenschaftliche Einordnung nicht außer Acht lassen. Insofern sind die Grünen aller Parteien bei all ihrer Kopflosigkeit zumindest scheinbar konsequent. In der Tat muss man sich entweder für eine solche Politik mit Windrädern, Photovoltaik und Stromsperren bei ungünstiger Versorgungslage (vulgo „Smart Metering“) einsetzen. Oder aber man nutzt die Zeit, die die insgesamt doch eher schleichende Entwicklung bietet und stellt eine Roadmap auf, die in einem verträglichen Zeitrahmen das Notwendige vorsieht.

Welcher der Wege ist nun wirklich „nachhaltig“ im Wortsinne? Welcher Weg ist geeignet, eine Entwicklung herbeizuführen, „die den Bedürfnissen der heutigen Generation entspricht, ohne die Möglichkeiten künftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen und ihren Lebensstil zu wählen.“? Dies ist die Definition der Nachhaltigkeit, wie sie 1987 von der Brundtland-Kommission vorgetragen wurde.

„Irgendwo muss man ja anfangen“ – mit diesem Appell wird Aktionismus begründet und Kritik barsch übergangen. Man hört diesen immer wieder in Diskussionen zu den Themen Umwelt und Klima, man wird ihn aber weltweit in keinem Projektmanagementhandbuch eines Unternehmens finden. Je umfangreicher eine Aufgabe ist, deren Umsetzung man sich vorgenommen hat, desto wichtiger ist es, planvoll zu handeln. Genau das geschieht bei der heutigen Energiewende nicht. Anstelle eines Stufenplans mit definierten Meilensteinen werden diejenigen Schritte zuerst getan, die die größte Außenwirkung haben, in diesem Fall der massive Ausbau von Windenergie- und Photovoltaikanlagen und der in puncto CO2-Reduktion völlig kontraproduktive Ausstieg aus der Nutzung der Kernenergie zur Stromerzeugung. Genau genommen, mangelt es gerade den Vertretern des grünen Weges an der notwendigen Ernsthaftigkeit. Die Kritik an ihrem Weg ist berechtigt. Wenn man den eigenen Maßstab anlegt, dann ist dieser Weg widerlegt, da er im Ergebnis in Deutschland CO2-Emmissionen in Rekordhöhe hervorgebracht hat und gleichzeitig aufgrund der enormen Kosten und der absehbaren negativen Folgen für die Wirtschaft die „Möglichkeiten künftiger Generationen“ gefährdet. Nachhaltigkeit geht anders.

Das Problem dabei: Einen alternativen Plan für den Weg in das postfossile Zeitalter gibt es in der heutigen Politiklandschaft einfach nicht. Die AfD stellt sich zwar offen gegen das heutige Gesetz für den Vorrang Erneuerbarer Energien (EEG), das den Großteil der Energiewende ausmacht, hat aber darüber hinaus noch keinen langfristigen Plan vorgelegt, der das Thema Klima berücksichtigt.

Vision 2100 – Das postfosslie Zeitalter
Wie könnte ein solcher Plan aussehen? Vorneweg: Kernenergie ist für das postfossile Zeitalter alternativlos. Eine andere Art der nichtfossilen Stromerzeugung gibt es heute nicht. Und Spargel statt Meiler? Selbst bei verfügbarer Speichertechnik müsste die Anzahl an Windkraftanlagen vervielfacht werden, um möglicherweise den Strombedarf und auch den Energiebedarf des Straßenverkehrs zu decken. Wer es mit der Nachhaltigkeit im erwähnten Sinne ernst meint, kommt um die – heute von allen Parteien abgelehnte – Rennaissance der Kernenergie und die Rückkehr zur Nüchternheit auf diesem Gebiet nicht herum. Wie bereits bei metropolico geschrieben, ist die Entwicklung dort nicht stehen geblieben. Reaktoren, die die Kernbrennstoffe erheblich effizienter nutzen, als die herkömmlichen Reaktoren und erheblich kurzlebigere Abfallstoffe produzieren, werden bereits in Betrieb genommen, echte Reaktoren der vierten Generation stehen bevor. Die Entwicklungen und Prognosen auf diesem Gebiet sind ebenso wahr und unleugbar, wie die Forschungsbefunde zur Klimaentwicklung.

Nun aber zu einem holzschnittartigen Stufenplan, mit dessen Hilfe der CO2-Ausstoß reduziert werden könnte.

1. Handlungsentscheidung fällt 2050
Die Berechnungen des IPCC gehen bis zum Jahr 2050 von einer Erhöhung der mittleren Oberflächentemperatur von einem bis drei Grad aus. Daran wird ein nationaler Umstieg auf Gas als alleinige fossile Energiequelle genauso wenig ändern, wie die heutige populistische „Energiewende“. Beide Zwischenschritte sind also im wesentlichen Aktionismus und können mit Blick auf eine dauerhafte Lösung ebenso gut unterlassen werden. In jedem Fall sollte 2050 als Meilenstein definiert werden, zu dem die Entscheidung über den weltweiten Ausstieg aus der fossilen Energiegewinnung getroffen wird. Solange können wir es uns leisten, die in Zukunft benötigten Techniken weiterzuentwickeln, im wesentlichen also die Kernenergie sowie Speichertechniken wie Power-to-Gas.

Wem daran gelegen ist, bereits vorher einen – eher symbolischen, nationalen – Beitrag zu leisten und die Abschaltung der Kernkraftwerke (noch) nicht rückgängig machen möchte, der sollte auf Erdgas setzen. Dank neuer Gewinnungsmethoden (Schiefergas/Fracking) kann die Erdgasnutzung bei der Stromerzeugung ausgeweitet werden. Pro erzeugter Kilowattstunde
entstehen bei Einsatz von Erdgas ca. 428 g CO2, bei Steinkohle sind es 949 g, bei Braunkohle 1153 g. Das Ziel könnte es sein, ab ca. 2030 die Kohleverstromung zu beenden und damit in Deutschland den CO2-Ausstoß bei der Stromerzeugung um mehr als 25 Prozent zu reduzieren. Die Mehrkosten pro kWh betrügen allenfalls einige cent und lägen damit nicht über den heutigen EEG-Umlagen. Für das gleiche Geld erhielte man so einen besseren Klimaschutz, falls dieser auf die Schnelle als wünschenswert beurteilt wird. Mit der vorzeitigen Abschaltung zahlreicher gar nicht so alter Altanlagen – in diesem Fall Kohlekraftwerke – wurden rechtlich inzwischen ausreichend Erfahrungen gesammelt, um hier nicht in Schadensersatzfallen der Stromerzeuger zu tappen.

2. Kernenergie zur Stromerzeugung
Wenn Temperaturen und Meerespegel nicht in 100 Jahren beunruhigende Werte annehmen, dann werden sie dies in 200 tun. Nach momentanem Kenntnisstand genügt es nicht, den fossilen CO2-Ausstoß zu reduzieren, er muss auf Null gebracht werden. Kombiniert mit Wind- und Solarenergie, könnte ab 2075 der Strommix in Deutschland auf Kernenergie umgestellt werden. Ob die Energie im Inland erzeugt oder zum größten Teil aus Ländern mit einem modernen Kraftwerkspark importiert werden müsste, wäre von der Klimabilanz her zweitrangig, wirtschaftlich und aus dem Blickwinkel der Souveränität aber keine unwichtige Frage. Das Französische „ASTRID“-Projekt sieht die kommerzielle Verfügbarkeit der Kraftwerke der vierten Generation für 2040 bis 2050 vor.

3. Einsatz von nichtfossilem Methan-Gas
Für Wohnhäuser wäre der Umstieg auf Elektroheizung (Wärmepumpe) ohnehin nur die Fortsetzung eines bestehenden Trends. Alle Bereiche, in denen es nach wie vor sinnvoll ist, mit Verbrennung Wärme oder Kraft zu erzeugen, könnten Methan nutzen, das aus elektrolytisch hergestelltem Wasserstoff und dem CO2 der Luft produziert wird. Dies gilt auch für Kraftfahrzeuge, da sich Methan mit seiner hohen Energiedichte zumindest heute besser zum PKW-Antrieb nutzen lässt als Wasserstoff oder in Akkus gespeicherte Elektrizität. Auch die Deutsche Energieagentur (dena) befasst sich mit diesem Thema, sieht es aber (heute) ausschlielich als Ergänzung zu Windkraft und Photovoltaik.

Die dena beziffert den Energieverbrauch des Verkehrs in Deutschland mit ca. 2.500 Petajoule pro Jahr. Um diese Energiemenge in Kraftwerken zu erzeugen, benötigte man etwa 20 bis 30 sehr große Anlagen. Zum Vergleich: das französische Großkraftwerk in Gravelines liefert bei 5.700 Megawatt Leistung etwa 150 Petajoule pro Jahr. Alle Windkraftanlagen in Deutschland zusammengenommen lieferten im Jahr 2013 etwa 180 Petajoule.

4. Option für die CO2-Reduktion der Atmosphäre
Sollte sich in fernerer Zukunft zeigen, dass das bis dahin in die Atmosphäre gelangte CO2 ein echtes Problem darstellt, könnte man – freilich mit großen Mengen elektrischer Energie und über lange Zeiträume – das CO2 wieder in Kohle (Grafit) und Sauerstoff zerlegen. Der Grafit ließe sich gefahrlos und dauerhaft endlagern, die Kohle quasi der Erde wieder zurückgegeben werden. Die Einlagerung von CO2 birgt immer das Risiko, dass das Gas wieder austritt und wäre wiederum nicht „nachhaltig“.

Manch einem mag das Warten auf das hier vorgeschlagene Jahr 2050 feige und träge erscheinen. Doch ist der selbst von den Pessimisten erwartete Effekt bis dahin noch überschaubar. Auch werden im Jahr 2050 sowohl aussagekräftige empirische Daten zur tatsächlichen Klimaentwicklung vorliegen als auch verbesserte Modelle sowie die Computerleistung, mit diesen zu rechnen, um mit hoher Genauigkeit sagen zu können, was uns in welchen Gegenden der Erde bevorsteht. Ebenfalls zu diesem Termin werden bereits nach heutiger Planung Projektmeilensteine für die Bereitstellung der Technik des postfossilen Zeitalters absolviert sein, etwa die Verfügbarkeit von Kernkraftwerken der vierten Generation und die Power-to-Gas-Technik. Mit heutiger Technik werden wir uns daran noch die Zähne ausbeißen. Wegen der langsamen Klimaentwicklung spielt die Zeit (noch) für uns, vorausgesetzt sie wird nicht mit dumpfer Technikfeindlichkeit verplempert.

Klimakritik statt Klimaskepsis
Angesichts der Erkenntnisse ist es kein Zeichen gesunder Skepsis, wenn man sich gegen den Befund des menschengemachten Klimawandels stellt. Es ist vergleichbar mit der Skepsis gegenüber der Evolutionstheorie, gegen die von religiöser Seite Kreationismus oder Intelligent Design ins Feld geführt werden. In der Klimadebatte halten sich die Skeptiker für besonders aufgeklärt, dabei sind sie doch nicht weniger „klimareligiös“ als diejenigen, die die Befunde zum Klima zur Durchsetzung ihres calvinistischen Verständnisses einer ökologisch ausgerichteten Politik instrumentalisieren.

Ja, das Waldsterben ist nicht eingetreten, ja, das Ozonloch hat keine umwälzenden Auswirkungen, ja, das Öl und die übrigen fossilen Ressourcen wurden keinesfalls knapp. All diese Vorhersagen, derer sich die Politik bediente, indem sie sich mit Schreckensbildern als Retter anbieten konnte, sind nicht eingetroffen. Ja, auch heute bedient sie sich wieder desselben Schemas und will uns gerne in das gelobte Land führen, „klimareligiös“ trifft es manchmal eben doch, und diese Religion hat viele treue Kirchgänger. Was die Sache selbst angeht, so haben wir es heute aber nicht mit einzelnen Veröffentlichungen von Nichtregierungsorganisationen wie dem Club of Rome zu tun, sondern mit einem überwältigenden Konsens von Wissenschaftlern auf der ganzen Welt. Eine aktuelle Statistik zeigt, dass von 13.950 zwischen 1991 und 2012 nach wissenschaftlichen Maßstäben veröffentlichten Artikel zum Erdklima nur 24 eine globale Erwärmung ablehnen.

Ob nun eine Planung in der Art, wie sie oben angerissen wurde, den Weg in ein Parteiprogramm oder Regierungsprogramm finden wird, ist ungewiss. Die Vernunft zwingt uns dazu, einen solchen oder ähnlichen Kurs anzustreben.