Von Thomas Maul.
Der Vorschlag aus den Reihen der Grünen, Klima-Greta mit dem Friedensnobelpreis zu ehren, ist freilich nicht überraschend angesichts einer Gesellschaft, die sich mit hohen Zustimmungswerten so etwas wie Klimapolitik überhaupt leistet. Schließlich exekutiert diese nichts anderes als einen unschwer zu durchschauenden Wahn. Und doch wird die Klima-Hysterie bisweilen sogar dort, wo man sich aufs Erkennen von Wahnvorstellungen spezialisiert wähnt – in israelsolidarischen oder ideologiekritischen Kreisen also –, entweder geteilt oder in Äquidistanz zu einem Forscherstreit verharmlost, zu dem eindeutig Stellung zu beziehen man sich aus falscher Bescheidenheit die Fachkompetenz abspricht – zumal ja auch die von der „klimaskeptischen Szene“ herumgereichten „Wissenschaftler“ mit ihren alternativen Grafiken und Schaubildern mitunter tatsächlich nicht weniger verschroben anmuten als ihre den Ton angebenden Widersacher. Dabei genügte ein Blick in die „Sachstandsberichte“ und Politikempfehlungen des Weltklimarats (IPCC), die im Internet ebenso leicht aufzuspüren sind wie die „Abschlussberichte“ und sonstigen Dokumente der politischen Klimakonferenzen.
Einen schnellen Einstieg, sich mit der kruden Propaganda der Klimaretter vertraut zu machen, bietet auch Wikipedia unter den entsprechenden Schlagworten („Klimawandel“, „Klimaschutz“, „globale Erderwärmung“, „CO2“ etc.) samt Verlinkung aufs einschlägige Material, gerade weil das Online-Lexikon in dieser Frage auf Linie ist: Und schon würde deutlich, dass in der Internationalität der Klimapolitik so wenig Kosmopolitismus aufscheint wie in der Ideologie des Globalismus, hier also keineswegs die Idee eines Weltbürgertums praktisch angegangen wird, dem sich nur unverbesserliche und reaktionäre Souveränisten verweigern können.
Viel eher ist es so, dass auf internationalen Konferenzen zum Schutz des Planeten ein in Aktion getretenes Weltreichsbürgertum zusammenkommt, nach dessen klimapolitischer Vorstellung eine Weltregierung (die es nicht gibt – und deshalb auf Klimakonferenzen imitiert wird) auf Empfehlungen eines Weltorakels (das es mit dem IPCC durchaus gibt) mittels einer Maschine, die der Atmosphäre CO2 nach Belieben entnehmen und hinzufügen kann (die es ebenfalls nicht gibt), an der Durchschnittstemperatur der Erde so drehen kann wie der Normalbürger per Regler eines Heizkörpers an der empirischen Innenraumtemperatur – nur exakter als Letzterer, das heißt auf den Grad beziehungsweise sogar zwei Stellen hinter’m Komma genau.
Eine infantile Hybris
Die Arbeit des IPCC, die Klimakonferenzen und klimapolitischen Maßnahmen der ihnen „verpflichteten“ Regierungen, die inzwischen Milliarden verschlingen, zielen nämlich grenzenlos irrsinnig darauf ab, die Durchschnittstemperatur der Erde, die monokausal-proportional-linear vom CO2-Gehalt der Atmosphäre abhängen soll, nur noch um 1 Grad („2-Grad-Ziel“) bzw. 0,5 Grad („1,5-Grad-Ziel“) weiter als bisher (etwa 1 Grad „seit der Industrialisierung“) ansteigen zu lassen, weil andernfalls der Ofen endgültig aus sei.
Da die „dramatische“ Erderwärmung von rund einem Grad auf eine „dramatische“ Zunahme der CO2-Konzentration in der Atmosphäre von 0,028 Prozent auf 0,04 Prozent zurückzuführen sei und es der IPCC seit seinem 2013 erschienenen fünften Sachstandsbericht für „extrem wahrscheinlich“ hält, dass die Menschen per von ihnen verursachten CO2-Ausstoßes (Verbrennen fossiler Brennstoffe für Energie und Stahl, Entwaldung, Zement-, Land- und Viehwirtschaft) für mehr als 50 Prozent der beobachteten Erwärmung verantwortlich sind, soll eine radikale Einsparung der CO2-Emissionen den drohenden Weltuntergang verhindern.
Eine infantile Hybris also, der kein einziger seriöser wissenschaftlicher Beleg zugrunde liegt, sondern allein der Glaube daran, was jeder wenigstens ahnen könnte, wenn er denn nur die zentralen Behauptungen, Fakten und Schlussfolgerungen der „Klimaforscher“ an der mathematischen sowie naturwissenschaftlichen Allgemeinbildung und der eigenen Alltagserfahrung überprüfte.
Dann erweist es sich erstens als kategorisch unmöglich, die Temperaturentwicklung der Erde für die letzten beispielsweise 200 Jahre auf das Grad genau zu bestimmen. Zweitens existiert das Temperatur-CO2-Verhältnis (auf das der Begriff des Klimas reduziert wurde) in der Realität nicht so, wie es die Klimaschützer gerne hätten und es die klimapolitischen Maßnahmen logisch zwingend voraussetzen. Aber dies den Klimarettungsgläubigen zu erklären, ist so, als wollte man einem Hund das Sprechen beibringen, weshalb die folgenden Überlegungen ausschließlich allen anderen an die Hand gegeben seien.
Keine Klima-Messapparaturen im 19. Jahrhundert
Jede Messapparatur hat – man könnte es etwa von Kant oder der Heisenbergschen Unschärferelation wissen – neben der zur messenden Realität einen nicht zu unterschätzenden Einfluss auf das angezeigte Messergebnis. Darauf nehmen Alltagsverstand und Alltagspraxis zum Beispiel beim Fiebermessen – wenn auch unbewusst – Bezug. Jeder, der herausfinden will, um welchen möglichst exakten Betrag Fieber in den letzten zwei Stunden gesunken oder gestiegen ist, legt ein- und dasselbe Fieberthermometer an derselben Stelle an.
Vergleicht man hingegen Daten miteinander, die von verschiedenen Instrumenten an verschiedenen Orten erhoben wurden, kann man unter Umständen zwar immer noch steigendes oder sinkendes Fieber feststellen; ein gesicherter Wert lässt sich mit dieser Methode aber nicht gewinnen. Ist die Entwicklung der Tagesdurchschnittstemperatur gefragt, sollte mehrmals täglich zu je identischen Uhrzeiten gemessen worden sein, um dann aus den erhobenen Daten den jeweiligen Durchschnitt errechnen und zwecks Tendenzermittlung die Durchschnittswerte mehrerer Tage aufeinander beziehen zu können.
Auch als Laie hätte man folglich an Wissenschaftler, die mit der Durchschnittstemperatur des Planeten (in Erdnähe, wie sie sagen, also nicht vom Erdboden bis zur Weltraumgrenze) hantieren, einige Anforderungen zu stellen. Überzeugend wäre es zum Beispiel, wenn, um konkrete Zahlen zu nennen, fünf- bis zwanzigtausend technisch identisch ausgestattete Wetterstationen – ihren Abstand betreffend gleichmäßig über die Erdfläche verteilt – dreimal täglich (morgens, mittags, abends) die Temperatur in fünf oder fünzehn Metern über dem Boden (was auch immer dies im Falle der Meere und Berge heißt) messen und aufzeichnen würden, so dass man aus (fünf- bis zwanzigtausend Wetterstationen x drei Uhrzeiten x 365 Tage =) 5,5 bis 22 Millionen Daten die Jahresdurchschnittstemperatur bilden könnte, wobei Computer bei der Datenverarbeitung recht hilfreich sein dürften.
Als Laie ließe man sich sicherlich auch – ohne skeptisch zu werden – erzählen, dass Satelliten die entsprechenden Temperaturdaten liefern und/oder dass die Daten aus einer Kombination von Wetterstationen und Satelliten gewonnen werden. Ebenso wäre Menschen, Computern und der Mathematik zuzutrauen, trotz damit eingehandelter Erhöhung der Datenmenge den Temperaturdurchschnitt für dreißig Jahre (= eine Klimaeinheit) ermitteln zu können.
Um aber – in einem nächsten Schritt – realistisch einzuschätzen, ob man sich gegenwärtig in einer drastischen und bedenklichen Klimaanomalie mit gefährlicher Tendenz befindet, wären fünf bis 10 vergangene Klimaeinheiten (also 150 bis 300 Jahre) als Referenzwerte doch wohl das Mindeste. Das wiederum verursachte zwar keine unlösbaren Rechenaufgaben, wirft zwingend aber die Frage auf, ob die heutige Messapparatur und Aufzeichnungsmethode bereits zum Beispiel im 19. Jahrhundert installiert war, ob also damals schon so flächendeckend wie – idealer-, nicht realerweise – heute dieselben Wetterstationen verteilt waren oder entsprechende Satelliten die Erde umkreisten.
Die omnipotente Anmaßung der Wetterfrösche
Dies zu verneinen, bedeutet, Experten- oder Laientum hin oder her, dass die Klimaforschung für die Gegenwart (wie zureichend auch immer) gemessene mit für die Vergangenheit geschätzten Werten vergleicht, die z.B. auf der Analyse von Baumringen, Pollen, Korallen, See- und Meeressedimenten, Eisbohrkernen, Stalagmiten sowie historischen Dokumenten, Berichten und/oder Gemälden beruhen. Das ist für sich nicht illegitim; Wissenschaft kann eben nicht alles und tut, was sie kann, und auch Schätzungen sind je nach Forschungsstand besser oder schlechter begründet.
Und natürlich reichen solche Schätzungen auch vollkommen hin, um für die Erdgeschichte etwa größere und kleinere Eiszeiten von größeren und kleineren Warmzeiten zu unterscheiden, wobei für die „jüngere“ Zeit Schwankungen der Durchschnittstemperatur in der Spannweite von immerhin rund 6 Grad angegeben werden. Nur wären eben darum Aussagen wie der folgenden des IPCC von 2007 – und von der Bauart sind nahezu sämtliche im Umfeld der Klimarettung getroffenen – doch wohl grundsätzlich zu misstrauen: „Der berechnete Erwärmungstrend über die letzten 50 Jahre (1956 bis 2005) in Höhe von 0,13 °C ± 0,03 °C pro Jahrzehnt ist fast zweimal so groß wie derjenige über die letzten 100 Jahre (1906 bis 2005) in Höhe von 0,07 °C ± 0,02 °C pro Jahrzehnt.“
Man arbeitet mit einer grobschlächtigen Lupe und attestiert den Ergebnissen eine Genauigkeit, für die ein hochentwickeltes Mikroskop hätte zur Anwendung kommen müssen. Die omnipotente Anmaßung der Wetterfrösche offenbart sich als solche auch an anderer Stelle: Im Internet, das reich ist an Einträgen zum populären Klimathema, finden sich nämlich – zunächst erstaunlicherweise – gar keine Schaubilder, Balkendiagramme oder Kurven zur Entwicklung der Durchschnittstemperatur der Erde selbst, obwohl doch gerade von ihr permanent die Rede ist. Die Seiten des Deutschen Wetterdienstes enthalten immerhin einen Hinweis auf den Grund dieser Abwesenheit:
Nach den Ergebnissen der NASA beträgt die mittlere globale Durchschnittstemperatur im Referenzzeitraum (1951–1980) 14 °C. Die Angabe einer globalen Durchschnittstemperatur ist allerdings mit noch größeren Unsicherheiten behaftet als die Angabe von Abweichungen, da eigentlich kleinräumige Besonderheiten berücksichtigt werden müssten, während die Abweichungen räumlich einheitlicher sind. Daher werden bei den Zeitreihen meist nur die Abweichungen und nicht deren Absolutwerte angegeben.
Für Absolutwerte (für die Gegenwart wird eine Erd-Durchschnittstemperatur von um die 15°C – für Deutschland übrigens ca. 10°C – angenommen) sind die Angaben also „noch unsicherer“ als die Relativwerte, mit denen operiert wird, obwohl sie selbst noch mit großen Unsicherheiten behaftet sind – zumal auch für diese ja wenigstens ein Absolutwert zwingend bleibt, den der willkürlich gewählte Referenzzeitraum 1951–1980 in den offiziellen Zeitreihen stellt. Während die Temperatur- und CO2-Daten seit den späten 1950ern je einigermaßen „gleich“ erhoben werden, lässt sich dies von den Werten für die Zeiträume davor nicht behaupten. Insbesondere sehr weit zurückreichende Daten werden aber benötigt, um eine Entwicklung mehrerer Klima-Einheiten und vor allem den furchtbaren Einfluss „der Industrialisierung“ in einer Zeitreihe abzubilden.
Mit ähnlich großen Unsicherheiten ist auch die Datenbasis zur Konzentration von CO2 in der Atmosphäre behaftet. Seit 1958 wird der CO2-Gehalt der Luft von einer meteorologischen Forschungsstation auf dem Vulkan Mauna Loa auf Hawaii gemessen. Die hier – wie es auf Wikipedia heißt – „entstandene Messreihe, die nach dem maßgeblich beteiligten Forscher Charles David Keeling benannte Keeling-Kurve, ist die längste kontinuierliche Aufzeichnung der CO2-Konzentration in der Atmosphäre.“ Jene Kurve zeigt nun den skandalisierten CO2-Anstieg von ca. 280 ppm (parts per million = 0,028 Prozent) auf ca. 400 ppm zwischen 1958 (damit das Schlüsseljahr einer für anthropogene CO2-Emissionen relevanten „Industrialisierung“) und 2015 an, Tendenz weiter steigend.
Eisbohr- und Hawaii-Daten
Geht man zugunsten der Klimaretter davon aus, dass dieser eine Ort auf der Erde die Entwicklung des durchschnittlichen CO2-Gehalts für die Gesamtatmosphäre repräsentieren kann, bleibt für einen Vergleich von Temperaturentwicklung und CO2-Konzentration über die Jahrhunderte die Frage, woher „die Wissenschaft“ so genau über den CO2-Anteil in der Atmosphäre etwa vor 3000 Jahren Bescheid weiß. Das sind wieder Schätzungen, die in dem Fall auf Daten beruhen, die durch Eisbohrungen zustandekommen, wobei man der Idee folgt, dass die Atmosphäre ihre Vergangenheit in identischen Kopien ihrer selbst in Eisschichten abgelegt hat. In einem Bereich, der sich erdgeschichtlich zwischen 0,01 und 0,04 Prozent abspielen soll, wo man also hunderte bestimmte Teilchen unter Millionen herauszählt, werden irgendwo per Eisbohrung rekonstruierte und geschätzte mit auf Hawaii gemessenen Daten verglichen.
Daher ist auch folgende Aussage, welche die Entwicklung der Jetztzeit dramatisieren soll, und die Wikipedia aus einschlägiger Quelle zitiert, schon für sich recht fragwürdig: „Eisbohrkerndaten ergaben, dass die atmosphärischen CO2-Werte in den vergangenen 420.000 Jahren bis zum Beginn der Industrialisierung Mitte des 18. Jahrhunderts zwischen 190 ppm während den Höhepunkten der Eiszeiten und 280 ppm während der Warmzeiten schwankten.“
Angenommen, eine globale Erderwärmung um einen Grad hätte „seit der Industrialisierung“ bis heute tatsächlich stattgefunden und mit dieser würde ein tatsächlicher Anstieg der CO2-Konzentration in der Atmosphäre von 280 ppm auf 400 ppm positiv korrelieren, dann sprechen selbst die Zahlen der Klimaschützer dagegen, dass es sich bei der Korrelation um eine vom CO2 ausgehende linear-proportionale Kausalität handelt, der es logisch bedarf, damit die Panikmache aufgeht und eine erhebliche Reduktion des anthropogen verursachten CO2-Gehalts (der ja „extrem wahrscheinlich“, wie auch immer diese Schätzung zustande kommt, mindestens 50 Prozent neben den natürlichen Ursachen der Erderwärmung ausmacht) zum Gebot der Stunde wird:
Einerseits soll Weltuntergangsstimmung aufkommen, insofern der für die Erderwärmung verantwortliche CO2-Anteil seit der Industrialisierung stetig steigend um ein Vielfaches höher sei als in den 420.000 Jahren davor. Andererseits folgt aus denselben Zahlen, dass vor der Industrialisierung eine Differenz von nur 90 ppm CO2 für Temperaturunterschiede von 6 Grad gesorgt hat, während es seit der Industrialisierung 120 ppm CO2 gerade mal auf einen Grad Erwärmung bringen, was den entwarnenden Schluss nahelegt, immer mehr CO2 führe zu immer geringeren Temperaturzunahmen (und zwar gen Null tendierend), weshalb man die anthropogenen CO2-Emissionen recht bedenkenlos sogar vermehren könnte. Oder aber die globale Mitteltemperatur hängt schlicht und ergreifend nicht allein vom CO2-Gehalt, sondern vom Zusammenwirken vieler sich zudem wandelnder Faktoren ab, das noch gar nicht begriffen und in Hinblick auf menschliche Beeinflussbarkeit womöglich nicht begreifbar ist, wie es selbst der IPCC im dritten Report von 2007 konstatierte:
In der Klimaforschung und -modellierung sollten wir erkennen, dass es sich um ein gekoppeltes [!] nicht-lineares [!] chaotisches [!] System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht [!] möglich.
Wenn sie recht hätten, genügte einer
Kein konsistentes Argument auf ihrer Seite und von nichts eine Ahnung sind die Klimaretter nicht nur damit beschäftigt, so zu tun, als sei das Unmögliche irgendwie doch möglich. Weil selbst Laien, die „den Wissenschaftlern“ der Politiker abnehmen, die Durchschnittstemperatur des Planeten zu kennen und dessen Erwärmung auf das Grad genau angeben zu können, von einer 1-Grad-Erhöhung des Temperaturdurchschnitts (seit 1958) allein nicht in Panik zu versetzen sind – schließlich lassen sich jedes Jahr an vielen Orten Unterschiede der empirischen Temperatur von 40–80 Grad erleben und überleben –, müssen mit willkürlichen Parametern bestückte Computersimulationen von Schreckensszenarien regelrecht zwanghaft um die Behauptung ergänzt werden, dass dieser oder jener gegenwärtige Tsunami oder Hurrikan oder Schneefall oder Regen oder eine sonstige Naturkatastrophe unmittelbare Folge der 1-Grad-Erwärmung der Erde sei.
Dem leisesten Zweifel an dieser Klima-Apokalyptik wird dann nur noch entgegen gehalten, dass eine ominöse „Mehrheit“ [!] der „Wissenschaftler weltweit“ diese Drohkulisse für „wahrscheinlich“ oder „sehr wahrscheinlich“ und eine Klimapolitik daher für richtig halte, die weder mit gesicherten Daten noch kohärenten Schlussfolgerungen operiert, sondern in sich widersprüchliches Material zur Bebilderung und Forcierung einer gewünschten Stimmung nutzt. Ob sich das mit der „Mehrheit der Wissenschaftler“ empirisch belegen lässt, ist dabei völlig unwichtig: Als Albert Einstein sich mit dem 1931 von den Nazis initiierten Buch Hundert Autoren gegen Einstein konfrontiert sah, soll er wie folgt reagiert haben: „Warum einhundert? Wenn sie recht hätten, würde ein Einziger genügen!“ Mit diesem traditionellen Selbstverständnis der Wissenschaft, wonach die Richtigkeit von Erkenntnissen eine Frage der Beweisführung und nicht einer Mehrheitsmeinung oder Empfindungslage sei, haben die Klimapropheten jedenfalls populistisch brechen müssen, um den Laden am Laufen zu halten.
Lesen Sie morgen in Teil 4: Die nötige Wende, von der niemand spricht
Teil 1 finden Sie hier
Teil 2 finden Sie hier
Thomas Maul ist Autor mehrerer Bücher, unter anderem zum Islam und zu Kritischer Theorie, und publiziert regelmäßig in der Zeitschrift BAHAMAS, zuletzt zu „Metoo“. Einen Überblick über seine Publikationen verschafft seine Website, auf der weitere Texte abrufbar sind: www.thomasmaul.de.