Mit dem Golfstrom spielen

Wie sehr interessiert uns, was in zwei- oder vierhundert Jahren passieren wird?

amoc-liu-2017-1cjpg-600x288
Hypothetischer Zeitverlauf der Konvektionsströmung im Atlantik nach einer sprunghaften CO2-Verdopplung bei monostabiler (blau) und bistabiler AMOC (rot)(Quelle)

Ob zum Beispiel die Antlantic Meridional Overturning Circulation (AMOC) zusammenbrechen wird oder nicht?

Wie sehr sind wir verbunden mit den Menschen, die dann leben werden, sechs oder zwölf Generationen entfernt?

Die AMOC ist der Konvektionsanteil des Golfstromsystems, der nicht vom Wind, sondern von Abkühlung des Wassers in der Arktis angetrieben wird. Es ist noch nicht abschließend geklärt, ob sie bistabil ist oder nicht. Klar ist, dass die Klimaerwärmung sie schwächt. Wenn sie bistabil ist, gibt es einen Grad der Schwächung, ab dem sie fast völlig zusammenbricht (und auch bei einer Temperatursenkung nicht wieder anspränge). Dieses Zusammenbrechen findet auf einer Zeitskala von einigen hundert Jahren statt.

Wie Stefan Rahmstorf hier schreibt, mehren sich die Hinweise, dass die Zirkulation bistabil ist. Ein kleiner Unterschied in der Verdunstung und dem Niederschlags über den Ozeanen, verusacht einen großen Unterschied in der Meereströmung.

Dieser Unterschied in der Ursache ist so klein, dass er durch die bisherigen Messungen nicht entschieden werden kann. Er kann nur erschlossen werden dadurch, dass mit ihm die Simulationsergebnisse besser zu den Messdaten passen als ohne ihn.

Ein Beispiel dafür, wie vertrackt Klimawissenschaft ist und wie sträflich es wäre, die Mittel dafür zu streichen.

 

Advertisements

Klimawissenschaftsupdate: die vertrackten Wolkenrückkopplungen

Mit den Wolken ist das so eine Sache.Cirrus in Kreuzberg

Einerseits reflektieren sie Sonnenlicht. Das ist gut.

Andererseits behindern sie die Wärmeabstrahlung ins Weltall. Das ist schlecht.

Sind sie niedrig, sind sie warm und strahlen ihrerseits eine Menge Wärme nach oben ab. Das ist gut.

Sind sie hoch, sind sie kalt und absorbieren zwar die Strahlung von unten, strahlen aber selbst wenig Wärme ins Weltall ab, sondern erwärmen stattdessen die Luft um sich herum. Das ist schlecht.

Eine wichtige Kennzahl ist die Temperaturerhöhung nach einer Verdopplung des CO2-Gehalts der Atmosphäre relativ zur vorindustriellen Zeit, wenn das System zu einem neuen Gleichgewicht gefunden haben wird. Das ist die Gleichgewichts-Klimasensitivität der Erde. Sie wurde bisher mit 3 ± 1,5 K angegeben.

(Wir haben gerade die 1,4 – fache CO2-Konzentration überschritten. )

Die große Streuung spiegelt die Streuung zwischen den mehr als drei Dutzend verschiedenen Klimamodellen wieder.

Seit zwei Jahren allerdings gibt es starke Hinweise, dass die Modelle der unteren Hälfte einen Fehler enthalten: sie unterschätzen die Durchmischung in der unteren Luftschicht in den Tropen. Diese entzieht dieser Schicht Wasserdampf und führt zu geringerer niedriger Bewölkung – – – siehe oben. Eine positive, also schlechte, Rückkopplung.

Darüberhinaus gibt es eine ähnliche Situation die hohen Wolken betreffend. Diese bestehen zum Teil aus Eiskristallen und zum Teil aus Wassertröpfchen. Wassertröpfchen sind gut. Weil sie besser reflektieren. Durch die Klimaerwärmung steigt ihr Anteil.

Dieser Effekt ist also eine negative, d.h. eine gute, Rückkopplung.

Nun gibt es Hinweise, dass die meisten Modelle den momentanen Eiskristallanteil überschätzen. Also können in Wirklichkeit weniger Eiskristalle zu Wassertröpfchen werden, also überschätzen sie auch die negative Rückkopplung. Auch schlecht.

Damit erhöht sich die Klimasensitivität, d.h. die Erwärmung, möglicherweise um 30 %. (2)

Anders ausgedrückt: darauf zu spekulieren, dass es schon nicht so wild werden wird, heißt, sich auf sehr sehr dünnes Eis zu begeben.

Das heißt nicht, dass jede*r jetzt mit einem langen Gesicht rumlaufen soll. Die Welt wird (wahrscheinlich) nicht untergehen und der Himmel wird uns nicht auf den Kopf fallen. Aber es gibt Probleme.

Und mensch kan wat tun.

 

(1)  Steven C. Sherwood 1 , Sandrine Bony 2 & Jean-Louis Dufresne,
Spread in model climate sensitivity traced to atmospheric convective mixing
 2 JANUARY 2014 | VOL 505 | NATURE | 37,doi:10.1038/nature12829

(2)  https://www.sciencedaily.com/releases/2016/04/160407221445.htm

 

 

wieder ein bischen mehr verstanden über Fehlergrenzen der Klimavorhersagen

Es gab da ja diese sogenannte Pause in der atmosphärischen Erwärmung. Die hat sich nun erwartungsgemäß in Luft aufgelöst. Aber darum soll es mir jetzt nicht gehen.

In einer Antwort auf einen dieser unsäglichen erwärmungsleugnenden Leserforumsbeiträge, in dem auf dieser „Pause“ herumgeritten worden war, schrieb ich lakonisch: „Die Temperaturentwicklung ist im Rahmen der Fehlergrenzen der Vorhersagen. Punkt.“

comparison cmip climate models with measurementsIm Kopf hatte ich dabei diese Grafik (Quelle):

Die bunten Kurven sind die verschiedenen Temperaturkurven und der graue Bereich ist der durch eine Unmenge Klimamodelle und -Rechnungen entstehende Streubereich. Die gestrichelten Linien sind das Gleiche, nur mit neueren Daten korrigiert.

Ich war davon ausgegangen, dass der Streubereich der Klimavorhersagen auch deren Unsicherheitsbereich ist. Aber weit gefehlt. Lies hier nach: der 95 % – Unsicherheitsbereich der Vorhersagen ist erheblich größer. Um wieviel ist nicht genau bekannt, aber geschätzt 100 %.

Das heißt, dass ich sogar noch mehr Recht hatte, als ich dachte. Die gemessene Erwärmung liegt nicht im 95, sondern im komfortableren 66 % – Unsicherheitsbereich.

 

BOINC, Idealismus und Typisierung

Ich helfe jetzt der Klimawissenschaft. Oder genauer gesagt, mein Computer tut es. Er bekommt von einem Server aus England ein Klimamodell mit betsimmten Parametern zum Berechnen und tut das in seiner Freizeit.

Damit nehme ich an der Bewegung des “volunteer computing” teil, eine der vielen idealistischen Bewegungen, die aus den USA kommen, und die hier den Vorteil hat, am High-Tech-Image teilzuhaben.

Warum BOINC (Berkeley Open Infrastructure for Network Computing)? Volunteer Computing begann seinerzeit mit dem SETI-Projekt, der Suche nach erkennbaren Nachrichten im Strom der von Radioteleskopen eingefangenen elektromagnetischen Strahlung von bestimmten Himmelsregionen. Es entstanden jedoch mehr und mehr Projekte, die auf der Suche nach billiger Rechenzeit sind, nicht nur das bei mir laufende climatepredictions.net, sondern z.B. auch FightMalaria@Home, das Kandidaten für ein Malaria-Antibiotikum daraufhin untersucht, an welches der (bekannten) Proteine des Malaria-Parasiten Plasmodium falciparum diese andocken (und sie so in ihrer Funktion blockieren). Es gibt eine ganze Reihe weiterer pharmakologischer, mathematischer, kryptograpfischer, physikalischer Projekte deren Liste man  hier findet.

BOINC ist ein Modul, das den einzelnen Computer mit den Projektservern zusammenbringt. Auf meinem Rechner läuft ein kleines Programm, dass alle Kommunikation und Steuerung übernimmt.

Es ist ein Beispiel dafür, wie ein informationeller Prozess modularisiert wird – ein einheitliches Stück Software wird für eine ganze Klasse von Aufgaben verwendet, was enorm Entwicklungszeit einspart. Andere Beispiele für Modularisierung sind Content-Management-Systeme und Programmiersprachen. Ein Beispiel aus einem ganz anderen Gebiet ist die Verwendung von Halbzeug (standardisierte Rohre, Träger, Schrauben etc.) in der Industrie. Die Ausdifferenzierung wird über Typisierung enorm beschleunigt, wenn auch mit gewissen Abstrichen bei der Optimierung. Eine mit einem Hilfprogramm erstellte Softwarelösung wird niemals so effizient sein können, wie eine genau auf den Anwendungsfall zugeschnittene; ebenso wird eine aus Halbzeug bestehende Konstruktion niemals so leicht sein können, wie eine aus speziell entworfenen und angefertigten Teilen, aber die menschliche Arbeitszeit bis zu einem funktionsfähigen Produkt ist meist nur ein Bruchteil der für die maximale Lösung.

(Außerdem sollte das Zertifikatesystem auf sämtliche Treibhausgasemissionen ausgedehnt werden, anstatt nur die Hälfte abzudecken!)

Klimalektüre: 4 Grad und was ist mit dem Wasser?

Es gibt ja dieses 2-Grad–Ziel, d.h. die Begrenzung der Erhöhung der globalen Mitteltemperatur auf 2 Grad Celsius. Ihm ist unter tatkräftiger Mithilfe von unserer Frau Merkel der Rang eines Weltziels zugefallen. Wer die Dinge ein wenig verfolgt, dem ist seit einiger Zeit klar, dass es nur ein frommer Wunsch ist, eine kleine Motivationshilfe, nicht mehr. (Der Klimaverhandlungsführer der USA, Todd Stern, sagt das auch, mit anderen Worten, hier.) Wahrscheinlich war es das schon von Anfang an. Die Folgen der Erwärmung liegen einfach zu weit in der Zukunft und sind zu ungreifbar und die Kosten für ihre Vermeidung sind sofort da und sehr greifbar – das ist eine sehr ungünstige Konstellation für menschliche Motivation.

Also wir steuern mehr in Richtung 4 Grad Erhöhung, die unsere Enkel, so wir welche haben, genießen können. Das wird sicher recht spannend für sie. Aber sie werden es gewohnt sein. (Siehe z.B. hier.)

Was ich mich daran am meisten interessiert, ist die Nahrungsmittelsituation und als deren wichtigste Voraussetzung die Wassersituation. Deren Hauptkenngröße ist die jährliche Niederschlagsmenge. Und dafür gibt es mittlerweile Ergebnisse aus Simulationsrechnungen, die Aussagen über deren raumzeitliche Verteilung erlauben. (Dies sind natürlich, wie alle wissenschaftlichen Aussagen, Wahrscheinlichkeitsaussagen.)

water runoff and stress index 4 deg Die Grafik bezieht sich auf 4 °C Erwärmung gegenüber dem vorindustriellen Niveau und zeigt die Differenzen.

Durch die Erwärmung nimmt die Menge des Wassers im Wasserkreislauf zu. Es gibt also in der Summe mehr Niederschläge. Dennoch kommt es Gebietsweise zu einer Verringerung der Niederschläge, zu einer Erhöhung in anderen.

Gut ist die Erwartung im Norden Kanadas und in Sibirien und interessanterweise auch in der östlichen Sahara, Ostafrika, der arabischen Pakistan, West-Indien und Argentinien. Neutral bleiben Ostindien und China. Damit ist zumindest für einige große Bevölkerungsballungen der Welt die Befürchtung von Hungersnöten durch Wassermangel verringert. Mitteleuropa und die USA haben leichte Verschlechterungen hinzunehmen, Brasilien deutliche, aber von einem hohen Niveau aus, das wird man hinkriegen. Südeuropa könnte Probleme kriegen, ebenso wie Westafrika.

Wasserknappheit ist aber nicht nur durch die Niederschlagsmenge bestimmt, sondern auch durch die Bevölkerungsdichte. Dies wird im water stress index abgebildet, und hier fließt natürlich das erwartete Bevölkerungswachstum mit ein. Hier sind die Brennpunkte Brasilien, das zentrale Afrika und Südeuropa.

Ebenso wichtig wie das langjährige Mittel ist vielleicht die Wahrscheinlichkeit von ein- oder mehrjährigen Dürreperioden, und hier sieht das Bild etwas anders aus. (Quelle, die gleiche Grafik hatte ich bereits hier gepostet.)

drought probability 2060-2069 Der Unterschied zum vorigen Bild liegt vor allen Dingen in Zentralamerika und den USA, die beide sehr dürregefährdet werden, und China, das mit einer mittleren Häufigkeit von Dürren umgehen muss. Auffallend hier die Gefährdung des gesamten Mittelmeerraums bis hinauf nach Frankreich!

Facit: Die Ernährungssituation für unsere Nachkkommen wird kritischer, aber nicht unbewältigbar. Einschränkungen und die Notwendigkeit internationalen Ausgleichs sind sehr wahrscheinlich. Immerhin etwas. Billig wird das nicht. In der Größenordnung von 1 Billiarde € (Quelle), das sind um die 100.000 € pro Erdenbürger. Aber das ist eine andere Geschichte und soll in einem anderen Post erzählt werden.

Im übrigen meine ich, dass wir die Zertifikatpflicht auf die gesamten Treibhausgas-Emissionen in der EU ausdehnen müssen.

Verantwortung für was??

Eben las ich hier, dass die Menschheit Mitte des Jahrhunderts gewisse Probleme mit Trockenheit zu erwarten hat. Das Wahrscheinlichkeitsfeld sagt aus, dass die Mittelmeerländer, der Nahe Osten, Mittelamerika, Zentral-USA und einige kleinere Gebiete deutlich trockener werden (violette Gebiete in der Grafik unten). Das heißt in der Praxis, das mehrjährige Dürren häufiger werden, die zu lokalen oder sogar globalen Einbrüchen in der Nahrungsmittelerzeugung führen können.

Feuchter werden demnach nur die extrem nördlichen Gebiete, etwas immerhin Indien, Ostafrika und Zentralasien. Wie belastbar die Daten auch immer sind in Bezug auf die Feinheiten der Verteilung – man kann jedenfalls davon ausgehen, dass es größere Änderungen in der landwirtschaftlichen Nutzung geben wird, die lokal oder sogar global Hunger hervorrufen oder verstärken und die Umlenkung von Lebensmittelströmen oder Umsiedlung von Menschen bedeuten können.

Es tritt aber folgender Gesichtspunkt auf: Zu diesem Zeitpunkt sind ich und ein Gutteil der Leser bereits nicht mehr existent, ebenso die Entscheider in Wirtschaft und Staat. Wir müssen aufgrund von Wahrscheinlichkeiten Entscheidungen treffen, die Wirkungen für viele Generationen haben werden. Wer kann sagen, ob nicht in zehn Generationen der Klimawandel als Segen empfunden werden wird (fruchtbare Taiga)? Welche Verantwortung haben wir gegenüber Menschen, die in 200 Jahren geboren werden? Der Veränderungsprozess ist langsam, durchsetzt mit zufallartig auftretenden Katastrophen, von denen man keine einzeln dem Klimawandel zuordnen kann, sondern nur alle in ihrer Gesamtheit. Sicher wird die Erde nicht mehr ganz so sein, wie wir sie kennen. Zum Beispiel wird es wohl um 2018 im Sommer gar kein Eis mehr am Nordpol geben. Sicher wird es große Probleme geben für die Armen der Welt. Aber andererseits werden (hoffentlich) die technischen und organisatorischen Fähigkeiten der Menschheit gewachsen sein, insbesondere die Einbindung der Ärmsten in das Produktions- und Verteilungsfeld, so dass jene Effekte, auch wenn ihre nachteilige Wirkung unbestreitbar ist, nicht  katastrophal, sondern lediglich wohlstandsmindernd sich bemerkbar machen. Vielleicht.

Die Verantwortung ist diffus: unbestimmt viele Unbekannte, an einem unbestimmten Ort und zu einer unbestimmten Zeit werden hungern durch Entscheidungen, die wir heute treffen – und durch unbestimmte andere Umstände wie soziale Schichtungen und Ausgrenzungen.

Reicht das, um die Unlust des Konsumverzichts auf sich zu nehmen?

Neues vom Polareis

cryosat_kleinManchmal wird die Entwicklung der Forschung in einem Fachgebiet durch einen kleinen Fehler auf Jahre blockiert. Dies geschah, als im Jahre 2005 die russische Rockot-Trägerrakete mitsamt dem Satelliten Cryosat-1 wegen eines Softwarefehlers ins Polarmeer stürzte. Der Satellit hatte als einziges Messgerät einen sehr genauen Radar-Oberflächenerhöhungsmesser an Bord, mit dem die  exakte Vermessung der Eisoberfläche sowohl des polaren Festland- als auch des Meereises möglich gewesen wären. Seine Messungen hätten eine große Informationslücke über das polare Meereis geschlossen – oder zumindest erheblich verkleinert – , die seit Jahrzehnten besteht, nämlich die über den Wert seines Volumens.

Für die Fläche des polaren Meereises gibt es durch langjährige Satellitenüberwachung eine konsistente Datenreihe – für das wichtigere Volumen, in das das Eisdickenfeld eingeht, gibt es nur punktuelle Messungen durch Sonden, U-Boot-Sonardaten und Überflüge, die mit komplexen numerischen Simulationen zu einem konstruierten Dickenfeld interpoliert werden. Das momentan wichtigste dieser Modelle ist PIOMAS vom Polar Science Center der Universität Washington, dessen Ergebnisse ich am 7. August gepostet habe. Die Kurve sieht scheußlich aus und sagt, dass wir mit etwas Glück in drei, spätestens vier Jahren den ersten eisfreien Sommer im Nordpolarmeer feiern können. (Es ist mindestens ein weiters Modell in Entwicklung, PIPS vom Naval Reserch Laboratory, das solche Berechnungen durchführen kann, aber ich habe keine brauchbaren Ergebnisse davon gefunden.)

Die Simulationsrechnungen sind mit Satellitenmessungen verglichen worden, und zwar mit denen von IceSat in den Jahren 2003 – 2008, und die Übereinstimmung war ziemlich verdammt gut. Seitdem gibt es aber keine weiteren Überprüfungen. IceSat wurde im August deaktiviert. Die NASA will 2015 einen weiteren starten; seit 2008 haben wir nichts als PIOMAS mit einer dünneren Datenbasis, bewegen uns sozusagen auf dünnem Eis, um mal einen bitteren Scherz zu machen.

Die Folge davon ist, dass die Glaubwürdigkeit der Ergebnisse nicht so hoch ist, wie sie sein sollte – ich meine, die Kurve ist wirklich alarmierend, aber niemand, d.h. keins der großen Medien, nimmt sie auch nur zur Kenntnis.

CryoSat hätte das Glaubwürdigkeitsproblem beseitigt.

Es ist bemerkenswert, dass die ESA nur vier Monate nach dem Desaster begann, einen neuen Satelliten zu bauen, der i.W. der alte ist mit einer Reihe Verbesserungen, und ihn im April 2010 – diesmal erfolgreich – in den Orbit schoss. Der Apparat durchlief ein Phase von Tests und Feineinstellungen, das sogenannte “Commissioning”, und was ich hier berichten will, ist, dass diese seit Ende Oktober beendet ist.

Das heißt, dass wir in einigen Wochen die ersten Veröffentlichungen zum Eisvolumen – die ersten Überprüfungen der Genauigkeit der Volumenberechnungen mit CrySat – Daten – zu erwarten haben.

Wir werden sehen, ob diese dann in den Medien ihren Widerhall finden.