Klimawissenschaftsupdate: die vertrackten Wolkenrückkopplungen

Mit den Wolken ist das so eine Sache.Cirrus in Kreuzberg

Einerseits reflektieren sie Sonnenlicht. Das ist gut.

Andererseits behindern sie die Wärmeabstrahlung ins Weltall. Das ist schlecht.

Sind sie niedrig, sind sie warm und strahlen ihrerseits eine Menge Wärme nach oben ab. Das ist gut.

Sind sie hoch, sind sie kalt und absorbieren zwar die Strahlung von unten, strahlen aber selbst wenig Wärme ins Weltall ab, sondern erwärmen stattdessen die Luft um sich herum. Das ist schlecht.

Eine wichtige Kennzahl ist die Temperaturerhöhung nach einer Verdopplung des CO2-Gehalts der Atmosphäre relativ zur vorindustriellen Zeit, wenn das System zu einem neuen Gleichgewicht gefunden haben wird. Das ist die Gleichgewichts-Klimasensitivität der Erde. Sie wurde bisher mit 3 ± 1,5 K angegeben.

(Wir haben gerade die 1,4 – fache CO2-Konzentration überschritten. )

Die große Streuung spiegelt die Streuung zwischen den mehr als drei Dutzend verschiedenen Klimamodellen wieder.

Seit zwei Jahren allerdings gibt es starke Hinweise, dass die Modelle der unteren Hälfte einen Fehler enthalten: sie unterschätzen die Durchmischung in der unteren Luftschicht in den Tropen. Diese entzieht dieser Schicht Wasserdampf und führt zu geringerer niedriger Bewölkung – – – siehe oben. Eine positive, also schlechte, Rückkopplung.

Darüberhinaus gibt es eine ähnliche Situation die hohen Wolken betreffend. Diese bestehen zum Teil aus Eiskristallen und zum Teil aus Wassertröpfchen. Wassertröpfchen sind gut. Weil sie besser reflektieren. Durch die Klimaerwärmung steigt ihr Anteil.

Dieser Effekt ist also eine negative, d.h. eine gute, Rückkopplung.

Nun gibt es Hinweise, dass die meisten Modelle den momentanen Eiskristallanteil überschätzen. Also können in Wirklichkeit weniger Eiskristalle zu Wassertröpfchen werden, also überschätzen sie auch die negative Rückkopplung. Auch schlecht.

Damit erhöht sich die Klimasensitivität, d.h. die Erwärmung, möglicherweise um 30 %. (2)

Anders ausgedrückt: darauf zu spekulieren, dass es schon nicht so wild werden wird, heißt, sich auf sehr sehr dünnes Eis zu begeben.

Das heißt nicht, dass jede*r jetzt mit einem langen Gesicht rumlaufen soll. Die Welt wird (wahrscheinlich) nicht untergehen und der Himmel wird uns nicht auf den Kopf fallen. Aber es gibt Probleme.

Und mensch kan wat tun.

 

(1)  Steven C. Sherwood 1 , Sandrine Bony 2 & Jean-Louis Dufresne,
Spread in model climate sensitivity traced to atmospheric convective mixing
 2 JANUARY 2014 | VOL 505 | NATURE | 37,doi:10.1038/nature12829

(2)  https://www.sciencedaily.com/releases/2016/04/160407221445.htm

 

 

Eine Tonne CO2 weniger durch mich.

carbon destruction certificateIch verursache sowieso eine verhältnismäßig niedrige jährliche Emission, da kein Auto, wenig Fernreisen, kein Elektrodurchlauferhitzer oder Wäschetrockner, großes Mietshaus, Gasherd, Fahrrad als Hauptverkehrsmittel und so weiter und so fort. Ich schätze ich dürfte damit bei um die 7 t CO2-Äquivalent pro Jahr liegen.

Nun habe ich diesen Wert für 2016 durch die Investition von 8,25 britischen Pfund um eine Tonne gesenkt. Wie habe ich das gemacht?

Ganz einfach: ich habe über sandbag.org.uk ein Zertifikat für die Emission einer Tonne CO2-Äquivalent gekauft. Die genaue Webseite ist hier. Dieses Zertifikat fehlt nun im Pool und das entsprechende CO2 kann nicht mehr emittiert werden!

Nachmachen erwünscht.

Signal und Rauschen des Weltklimas

global_anomalies_frac010

Obwohl die Temperaturkurve chaotisch aussieht, ist sie es nicht. Man kann sehr gut Veränderungen im Dekadenmaßstab von höherfrequentem „Rauschen“ abtrennen. Dieses habe ich in der obigen Grafik einmal getan. Man sieht, dass die Stärke des Rauschens, der grüne Strich, immer ungefähr gleich bleibt.

Die Originaldaten sind hellgrau im Hintergrund, die geglättete Kurve rot, deren Differenz zu den Originaldaten, das ist das Rauschen, ist blau und die Amplitude desselben grün.

Die Trennung zwischen interessierender Information und Rauschen ist willkürlich, eine Definitionsfrage. Als Bezugszeitintervall für klimatische Veränderungen wird hier 30 Jahre angegeben. Dafür ist die Glättung fast noch zu schwach.

In den folgenden beiden Plots habe ich die Anpassung der roten Kurve immer feiner gemacht, die Glättung immer schwächer. Es erscheint dann die sogenannte „Pause“ zwischen etwa 2002 und 2012, die mittlerweile beendet ist. Je mehr Struktur durch die Verfeinerung in die Signalkurve wandert, desto strukturloser wird das Rauschen, und auch seine Amplitude sinkt etwas:

global_anomalies_frac0065

global_anomalies_frac002

Ich habe hier einen Vorgang bewusst vorgeführt, den wir fast immer unbewusst vornehmen, nämlich die Isolierung der uns momentan interessierenden Informationsanteile und die Vernachlässigung der Anderen.

Und im Übrigen müssen wir unser Zertifikatesystem zum Laufen bringen…

Schlechte Luft für unsere Enkel

Die verschiedenen in den IPCC - Studien für die Klimafolgenabschätzung angenommenen Verläufe der CO2 - Konzentration
Die verschiedenen in den IPCC – Studien für die Klimafolgenabschätzung angenommenen Verläufe der CO2 – Konzentration (Quelle)

Es sind eine ganze Reihe von Problemen, die durch den CO2 – Konzentrationsanstieg auf die Menschheit zukommen und ihr die Freude an der Industrialisierung mindern.

  • Ausgeprägtere und längere Dürren, sowie andererseits intensive Starkregen, die noch unabsehbare Folgen für die Nahrungsmittelversorgung mit sich bringen.
  • Verschwinden der Gletscher, die als Wasserspeicher dienen, damit ebenfalls Risiken für die Landwirtschaft (1).
  • Erhöhung der Temperaturen über das Maß hinaus, in dem bestimmte Kulturpflanzen gedeihen (2).
  • Verminderung der menschlichen Produktivität durch die Hitze (3).
  • Ansäuerung des Meerwassers mit unabsehbaren Folgen für die Meeresfauna.
  • Anstieg des Meeresspiegels mit entsprechenden Kosten für die Eindeichung, bzw. Verlust meeresnaher Gebiete (4).

Nun stellt sich aber (hier) heraus, dass das Kohlenstoffdioxid bereits in Konzentrationen, die sehr wahrscheinlich bis 2100 erreicht werden, eine negative Wirkung auf den Menschen hat. Ab 600 ppm CO2  – und das ist der mittlere Wert der vom IPCC untersuchten Verlaufsvarianten- beginnt der Mensch die Luft als „schlecht“ zu empfinden. Es lassen sich auch negative Auswirkungen auf bestimmte kognitive Funktionen feststellen. Betroffen sind das allgemeine Aktivitätsniveau, die Fähigkeit zur Informationsverwendung und das strategische Denken.

Andere Funktionen hingegen leiden gar nicht, wie die Aufgabenorientierung oder das Informationssuchverhalten, oder erst bei oberhalb von 1000 ppm, wie das fokussierte Aktivitätsniveau oder die Krisenreaktionsfähigkeit.

Wie relevant ist das? In Innenräumen, wie Büros und Klassenräumen, ist die CO2 – Konzentration fast immer erheblich höher als außen, um einige hundert ppm. Das kommt dann nochmal dazu. Sterben wird davon niemand. Aber schön ist es irgenwie auch nicht.


(1) Siehe etwa den Report „Turn Down The Heat“ der Weltbank, zu finden hier , neben einer ganzen Reihe anderer äußerst interessanter Reports.
(2) Zur Wirkung der Hitze auf Ernteerträge siehe hier.
(3) Zur Beeinträchtigung der Arbeitsproduktivität siehe hier.
(4) Der Meeresspiegelanstieg wird sich etwas mehr Zeit lassen. Hier z.B. wird die Lage um 2300 untersucht.

Die Geschichte der Entdeckung des Klimawandels

Auf http://www.aip.org/history/climate/co2.htm ist ein Abriss der Entwicklung des Wissens zu lesen, die zu unserem momentanen Verständnis des Klimawandels geführt hat. Es beginnt mit Arrhenius am Ende des 19. Jahrhunderts, der bekanntlich die atmosphärische Infrarotabsorption als verantwortlich für die Bewohnbarkeit der Erde erkannt hatte, und führt dann durch alle Aspekte der Temperaturberechnungen und auch des Kohlenstoffkreislaufs, schließlich der numerischen Modellierung, die zu dem Erkenntnisstand führen, der heute als schlüssig gilt.

Was mich faszinierte ist die Tatsache, dass die ersten Warnungen vor dem Klimawandel bereits in den 50er Jahren publiziert wurden, noch basierend auf Überschlagsrechnungen, und dass die Mechanismen in ihrer Komplexität bereits damals ein tieferes Verständnis sogar durch Fachleute behinderte, zu schweigen von normalen Menschen.

Zwei Beispiele, an denen diese Komplexität aufschien:

Das Absorptionsverhalten der beiden wichtigsten Spurengase Wasserdampf und Kohlendioxid ist nicht etwa in jeder Höhenschicht gleich. Nicht nur ändert sich die Wasserdampfkonzentration, auch die Breite der Absorptionslinien ändert sich mit dem Druck stark. Dies hat zur Folge, dass in der unteren Atmosphäre die Infrarotabsorption praktisch vollständig durch den Wasserdampf dominiert ist, in höheren Schichten aber, dadurch, dass dessen Absorptionslinien immer schmaler werden, das Kohlendioxid mehr und mehr Anteile übernimmt. Als Effekt davon musste man die Gesamtabsorption für jede Höhenschicht extra berechnen, was erst mit den ersten Computern überhaupt mit vertretbarem Aufwand realisierbar wurde.

Das zweite Beispiel ist die Aufnahmerate von Kohlendioxid im Meerwasser, die schlicht unbekannt war. Erste Berechnungen, die Meerwasser einfach als Salzwasser modellierten, lieferten Ergebnisse, die um den Faktor 10 zu günstig waren. Es dauerte Jahre, bis sich die Erkenntnis in der wissenschaftlichen Gemeinschaft durchsetzte, dass die übrigen Bestandteile des Meerwassers – obwohl in der Konzentration niedrig – die Kohlendioxid-Absorptionsrate im Meerwasser durch einen Puffereffekt massiv herabsetzen – und so bewirken, dass die Emissionen des Menschen überhaupt zu einem nennenswerten Anstieg der CO2-Konzentration in der Atmosphäre führten.

Eine Besonderheit der Klimadebatte ist, dass jeder Hinz und Kunz meint, dort mitreden zu können. Wenn man sich die entsprechenden Kommentare, die oft von selbstgefälliger Boshaftigkeit strotzen, durchliest, fällt auf, dass diese Leute immer wieder einzelne Teilaspekte des Gesamtbildes, die in einzelnen von tausenden von Veröffentlichungen problematisiert werden, herausgreifen und damit das ganze Gebäude der Erkenntnisse zum Einsturz zu bringen glauben. Was ihnen nicht auffällt ist, dass sie damit nichts weiter als elende Stümperei betreiben.

Der Impuls, der dahinter steht, ist durchaus menschlich und verständlich: man will sich von niemandem, auch nicht von den Eierköpfen (wie der Ami sagt) , seine Lebensweise diktieren lassen. Es ist schon eine verdrießliche Sache, das. Verantwortung und Verzicht drücken halt auf die Stimmung.

Noch etwas interessantes: Bereits die ersten Abschätzungen für die zu erwartende Temperaturerhöhung liefern Zahlenwerte, die nicht so sehr verschieden sind von den heutigen, die durch unvorstellbar komplexe Modelle errechnet wurden. Das finde ich bemerkenswert. Anscheinend gleichen sich alle in der Zwischenzeit hinzugenommenen Informationen sich in ihrer Wirkung etwa aus.

Verbrennungsmotor der Zukunft 2

Es ist immer seltsam, wenn man daher kommt und schreit: hier, das ist das Ei des Kolumbus, also eine bestimmte technische Lösung missionarisch in den Himmel hebt.
Nichtsdestotrotz will ich hier auf eine solche Lösung aufmerksam machen: den Gegenkolbenmotor.

Er besteht aus einem Brennraum für zwei Kolben, die darin gegeneinander laufen. Er könnte ein Viertakter, wenn man in der Mitte Ventile unterbringen würde, aber als Zweitakter ist er viel eleganter. Dann nämlich öffnen die Kolben am äußeren Totpunkt den Zuluft und den Abgaskanal. Durch eine leichte Phasenversetzung kann man erreichen, dass sich erst der Abgas- und dann der Zuluftkanal öffnet. So wird ein Gasaustausch erzielt, der ebensogut wie beim Viertakter ist. Der Zweitakter braucht einen Lader, der während des offenen Zylinders die frische Luft hineindrückt.

Der Hauptvorteil ist folgender:

Die Oberfläche des Brennraums ist eine der Hauptverlustquellen beim Verbrennungsmotors. In erster Näherung sind die Wärmeverluste nicht von der Motorleistung, sondern nur von dieser Oberflächengröße und der Ladung abhängig. Man möchte also zwei Ziele erreichen: ein großes Hub-zu-Bohrungsverhältnis (langen Hub), um die Oberfläche des Brennraums gering zu halten, und eine hohe Drehzahl, um bei gegebener Oberfläche, also gegebenen Verlusten, möglichst viel Nutzleistung zu erzielen. Großer Hub bedeutet aber große Beschleunigung von Bauteilen – wegen der begrenzten Materialfestigkeit sind Hub und Drehzahl ungefähr umgekehrt proportional. Wenn der Hub auf zwei Kolben aufgeteilt wird, lässt sich also im Prinzip die doppelte Drehzahl erreichen, d.h. doppelte Leistung bei gleichen Verlusten. Der Wirkungsgrad steigt.

Dieser Effekt trifft besonders auf den Teillastbereich zu, weil hier die Oberflächenverluste relativ größer sind als bei Volllast. Dies ist von Bedeutung, da unsere Autos vielleicht 80 % ihrer Zeit im unteren Teillastbereich gefahren werden.

Die Komplexität das Motors ist etwas geringer als die des Standard-Viertakters. Keine Zylinderköpfe, keine Ventile und Ventiltriebe und Nockenwellen, weniger Masse, da weniger Hubraum umbaut werden muss – dafür zwei Kurbelwellen, die über Zahnräder synchronisiert werden müssen und der Lader.

Nachteile gibt es leider auch. Dadurch dass die Lauffläche für den Ein- und Auslass unterbrochen ist, gerät Öl in den Gasstrom, insbesondere ins Abgas. Ob sich das wegentwickeln lässt  ist die Frage. Es erfordert eben Risiko einzugehen.

Mehr aus der Welt der Algen

Was ich neulich im Focus über Treibstoff-aus-Algen las ist nur die Spitze eines Eisberges an Forschung, die auf diesem Gebiet geleistet wird. Die Idee dazu entstand bereits in den 50er Jahren, damals allerdings noch mit einer anderen Zielrichtung (Methanherstellung unter Nutzung von Abwässern). Von 1978 bis 1996 lief ein Forschungsprogramm des U.S. Department of Energy’s Office of Fuels Development, in dem bereits wesentliche Vorarbeiten wie die Suche geeigneten Arten, die Erforschung von Physiologie und Biochemie der Algen, Erstellung von Demonstrationsanlagen und  Kostenanalysen geleistet wurden. Dieses Programm ist in letzter Zeit wieder aufgenommen worden. Ein PDF-Dokument mit einem Überblick findet sich hier.

Der SPIEGEL könnte ein Beleg für die These sein, das hierzulande die Algentechnologie als exotisch und versponnen gilt. Nicht nur, dass er bei Stichwort „Algen“ überhaupt keinen entsprechenden Treffer in seiner internen Suche liefert, einer der zwei Artikel über die neue Technologie ist ein herber Verriss des Hamburger Pilotprojekts zur Umwandlung von Kraftwerks-CO2 in Biomasse. In anderen Medien wird immerhin wohlwollend über den Algen-Ansatz berichtet, z.B. in der Welt. Der Gerechtigkeit halber muss man sagen, dass das besagte Pilotprojekt wirklich nicht mehr sein kann als ein Forschungsprojekt – es krankt an dem Problem aller regenerativen Energien in Deutschland: zu wenig Licht um billig werden zu können. Der andere Artikel im SPIEGEL ist wohlwollender .

Währenddessen haben sich in den USA bereits zwei Organisationen zur Koordination und Interessenvertretung von Sprit-aus-Algen-Unternehmen gegründet, die Algal Biomass Organisation (ABO) und die National Algae Association, von denen die erstere so klangvolle Namen wie Boeing, Airbus, KLM, FedEx und IATA in ihrer Mitgliederliste führt. Die Fliegerei ist harscher Kritik der Umweltschützer ausgesetzt und will nicht nur ihr Image polieren, sondern sich auch langfristig ihre Treibstoffbasis sichern. Auch die Firma Sapphire Energy findet sich in der ABO – sie hat jüngst 100 Mio. Dollar von Bill Gates erhalten.

Doch nicht nur die Großen sind drüben rege – es scheint eine kleine Gemeinde von Hobby-Biodieselern zu geben. Zumindest gibt es Anleitungen im Netz zu kaufen, wie man einer wird, die als Lehrbeispiel für sales hype gelten können. Hier ein Bericht über ein Garagentreffen solcher Algen-Geeks. Amerika ist halt das Land des „can do“!

Leider muss ich meine frühere Darstellung der Wunder der Algen etwas zurückstutzen, nämlich was den maximalen Umwandlungswirkungsgrad betrifft. Nach besagtem „Welt“-Artikel und anderen Quellen beträgt er nicht 30, sondern nur 10 %. Aber immerhin kann ich den geneigten Leser aus dieser Quelle mit einer offiziellen Schätzung des Zeitrahmens versorgen, bis die Sache zum Durchbruch kommt: kommerziell lohnende Produktion 2015, 2022 dann 36 Mrd. Gallonen (= 137 Mrd. Liter, = 98 Mrd. kg, = 98 Mio. t, = etwa der momentane deutsche Verbrauch an Benzin).