Sie sind auf Seite 1von 18

Peter Krah

01809 Heidenau/Sa.

Anmerkungen zum 4. Bericht des IPCC 2007


Computermodellierung und –simulation

Vorbemerkung:

Der 4. Bericht des IPCC 2007 (IPCC AR4) ist ein sehr umfangreiches Werk (ca. 2400
Seiten). Die hier vorgenommenen Anmerkungen befassen sich mit speziellen
Aussagen des Berichts. Das Augenmerk wurde vorrangig auf die
Computermodellierung und -simulation gerichtet, wie sie im Band 1 The Physical
Science Basis des Berichtes beschrieben werden. Die Fokussierung erklärt sich
dadurch, dass wegen einer jahrzehntelangen Tätigkeit als Systemanalytiker und
Manager in der Softwareentwicklung die persönliche Kompetenz für eine derartige
Untersuchung am ehesten gegeben ist. Auf der Grundlage der im Berichtsband
verstreut vorhandenen Aussagen, gezielter Auswertung der Referenzliteratur sowie
eigener Kenntnisse wird das Vorgehen bei der Modellierung und Simulation referiert
und somit ein Bild zu dem Teil des Berichtes gegeben, der die quantitativen
Aussagen festlegt.

Modellierung und Simulation im Bericht

Modellierung und Simulation werden vorrangig im Kapitel 8 des o.g. Band 1


behandelt. Der Bericht beschreibt die zum Einsatz kommenden IT-Technologien und
-Verfahren nicht explizit. Die Informationstechnik (IT) wird als Werkzeug betrachtet,
mit dem die Klimaereignisse (Temperatur, Wolken, Meereis, Einfluss der
Treibhausgase usw.) modelliert, die Modellkomponenten zu einem System
zusammen geschaltet und anschließend die Ereignisse simuliert werden.
Klimasimulationen werden durch Variation von Anfangs- und Randbedingungen der
zugrunde liegenden Algorithmen erzeugt.
Modellierung und Simulation sind aus der Sicht der Klimaereignisse beschrieben.
Welche Algorithmen für die Modellierung und Simulation zugrunde liegen, wird im
Bericht nicht ausgeführt. Folgerichtig gibt es so gut wie keine Angaben zur
informationstechnischen Umsetzung. Dies erschwert das Verständnis, ist aber legitim
hinsichtlich der Zielstellung des Berichtes.

Das Klimageschehen wird allgemein durch die Navier-Stokes-Gleichungen [1]


beschrieben. Die Navier-Stokes-Gleichungen bilden ein System von nichtlinearen
partiellen Differentialgleichungen 2. Ordnung. Es ist bis heute nicht gelungen, die
Existenz von allgemeinen Lösungen nachzuweisen. Die Differentialgleichungen
werden mittels finiter Elemente oder Differenzenmethoden diskretiert und einer
numerischen Behandlung zugänglich gemacht. Für die Klimamodelle ist dieser Weg
beschritten worden, Klimaereignisse werden durch entsprechende Algorithmen, die
weitgehend nichtlinear sind, im Computer abgebildet [2]. Dieses Vorgehen kann als
fundamentales Charakteristikum der aktuellen Klimamodelle bezeichnet werden.

Bei der Modellierung wird die Erdoberfläche mit einem Netz überzogen, dessen
Maschen die Längen- und Breitenbegrenzungen so genannter Gridelemente sind.
Ein Gridelement ist das Basiselement eines jeden Klimamodells, neben Länge und
Breite weist es gewöhnlich auch eine Höhe (Tiefe) auf. Die Höhe (Tiefe) wird in
Schichten (layer) unterteilt. Land-Gridelemente und Meeres-Gridelemente
unterscheiden sich im Allgemeinen in der Größe (letztere sind kleiner). Die Größe
eines Gridelements bestimmt u.a. die geografische Auflösung der Simulation [3].
Parallel dazu werden die Differenzengleichungen, die für die einzelnen
Klimaereignisse stehen, mittels Programmierung in eine für den Computer
abarbeitbare Form (Modellkomponente) überführt. Eine Modellkomponente ist in der
Regel durch Eingabe von Daten (Parametrisierung) steuerbar. Durch
Parametervorgaben werden Zeithorizonte und die Schrittweiten dahin festgelegt,
Anfangs- und Randbedingungen variiert oder auch die Abarbeitung verändert. In
einem weiteren Schritt werden dem Gridelement entsprechend seiner geografischen
Position (Land oder Meer) die Modellkomponenten zugeordnet, welche die dort
vorkommenden Klimaereignisse abbilden.

Bei der Abarbeitung erhält ein Gridelement Eingangswerte aus einem


Arbeitsspeicher. Die Eingangswerte werden gemäß der zugeordneten
Modellkomponenten und etwaiger Parametervorgaben verändert und als
Ausgangswerte in den Arbeitsspeicher abgelegt. Eine alle Gridelemente umfassende
Steuerung besorgt die Initialvorgabe der Eingangswerte und überwacht und lenkt die
Abarbeitung. An deren Schluss werden die Ergebnisse der einzelnen Gridelemente
wie Temperatur, Niederschlag usw. aus dem Arbeitsspeicher ausgelesen und
weiterbearbeitet.

Die Entwicklung der Klimamodelle begann vor nunmehr 30 Jahren. Der Fortschritt in
der Informationstechnik bewirkte, dass sowohl die Anzahl der modellierten
Klimaereignisse zunahm als auch die geografische Auflösung immer feiner wurde.
Aktuell werden drei Typen von Klimamodellen unterschieden [4]:

1. die Allgemeinen Atmosphäre-Ozean-Zirkulationsmodelle – (Atmosphere-Ocean


General Circulation Model - AOGCM ):

Die AOGCM sind die umfassendsten Klimamodelle, sie enthalten eine wachsende
Zahl von Komponenten, welche einzelne Klimaereignisse örtlich und zeitlich in den
Computer abbilden. AOGCM bestehen aus den Teilsystemen für die Atmosphäre
(AGCM) und für den Ozean (OGCM), sie können in den meisten Fällen auch
unabhängig voneinander arbeiten. Das Koppeln beider Teilsysteme ist nicht trivial,
die Modellgüte wird u.a. dadurch bestimmt, dass keine externen Eingriffe (flux
adjustment) [5] erforderlich werden, um den Übergang zwischen den Teilsystemen
numerisch stabil zu halten. Die geografische Auflösung, die Layerzahl sowie die
Anzahl der Zeitschritte führen zu enormen Anforderungen an die Computer-
ressourcen. Die Schrittweite kann von wenigen Minuten bis zu einem Jahr differieren,
der Zeithorizont liegt dann bei einigen Jahren bis zu mehreren zehntausend Jahren.
AOGCM werden auf Supercomputern oder Multiprozessor-Rechnern betrieben.

Der 4. IPCC-Bericht nennt 23 AOGCM, die ihm zugearbeitet haben. Beispielhaft für
die anderen seien die Daten von CSIRO-MK3.0 von der Commonwealth Scientific
and Industrial Research Organisation, Atmospheric Research aus Australien
angegeben. Die Gridelementgröße für die Atmosphäre beträgt ca. 1.9° x 1.9°, die
Anzahl der Layer ist 18 bei einer maximalen Höhe von 4,5 hPa (ca. 36.000 m). Für
den Ozean betragen die Werte 0.8° x 1.9° bei 31 Layer und einer Tiefe von 4.800
Meter.

2. Die einfachen Klimamodelle – (simple climate model) [6]:

Mit einem einfachen Klimamodell werden in einem parametrisierten Vorgehen

• die Emissionen von Treibhausgasen zeitlich vorgegeben,


• die Strahlungsantriebe entsprechend dieser Emissionen simuliert,
• die durchschnittliche globale Oberflächentemperatur daraus bestimmt,
• der Anstieg der Meeresoberfläche und die Auswirkungen auf Gletscher und
Eisschilde prognostiziert sowie
• regional begrenzte abrupte Klimaänderungen simuliert.

Die einfachen Klimamodelle setzen auf den Vorgaben und Ergebnissen von 19 der
im 4. IPCC-Bericht aufgeführten AOGCM auf. Das einfache Klimamodell wird in
einem iterativen Prozess den von dem zugehörigen AOGCM gelieferten Zeitserien
zur Temperatur und dem berechneten ozeanischen Wärmeaufnahmevermögen
angeglichen. Der Einsatz eines einfachen Klimamodells spart Computeraufwand. Es
lassen sich mit einem auf die hier interessanten Klimaereignisse (Treibhausgase)
abgerüsteten Modell viel leichter als mit einem AOGCM eine große Anzahl von
Varianten durchrechnen.

Die einfachen Klimamodelle setzen auf den Vorgaben und Ergebnissen von 19 der
im 4. IPCC-Bericht aufgeführten AOGCM auf. Das einfache Klimamodell wird in
einem iterativen Prozess den von dem zugehörigen AOGCM gelieferten Zeitserien
zur Temperatur und dem berechneten ozeanischen Wärmeaufnahmevermögen
angeglichen. Der Einsatz eines einfachen Klimamodells spart Computeraufwand. Es
lassen sich mit einem auf die hier interessanten Klimaereignisse (Treibhausgase)
abgerüsteten Modell viel leichter als mit einem AOGCM eine große Anzahl von
Varianten durchrechnen.

3. Erdsystemmodelle mittlerer Komplexität (Earth System Models of Intermediate


Complexity – EMIC) [7]:

Die Erdsystemmodelle mittlerer Komplexität liegen mit ihrer Funktionalität zwischen


den AOGCM und den einfachen Klimamodellen. Ein EMIC besteht aus einem
vereinfachten AGCM, das mit einem OGCM gekoppelt ist oder aus
Modellkomponenten für Atmosphäre und Ozean, die vereinfachte Algorithmen im
Vergleich zu den AOGCM nutzen. EMIC sind von sehr unterschiedlicher
Ausprägung, einige nähern sich in ihrer Funktionalität den AOGCM, andere wurden
wie die einfachen Klimamodelle für die Berechnung des Treibhausgas-Einflusses
geschaffen.

Ein EMIC ist in der Regel so ausgelegt, dass es auf einem leistungsfähigen PC oder
einer Workstation lauffähig ist. Ein wichtiges Einsatzgebiet der EMIC ist die
Langzeituntersuchung von Klimaänderungen. Ein Maß ihrer Leistungsfähigkeit ist
deshalb die Anzahl von Jahren, die vom EMIC in einem Computerlauf von
vorgegebener Dauer als Klimaablauf simuliert werden kann. Die Werte schwanken
stark, von 20.000 Jahre/CPU-Std. bis zu 36 CPU-Stunden für 100 Jahre [8].
Evaluierung und Tuning der Modelle

Ein Klimamodell ist ein sehr komplexes System mit vielen Komponenten. Seiner
Nutzung gehen viele Tests voraus, die sowohl die Einzelkomponenten als auch das
Gesamtsystem umfassen.

Für Komponententests stehen standardisierte Verfahren zur Verfügung, welche die


angewandten numerischen Methoden und die physikalische Parametrisierung
verifizieren. Der Systemtest speziell von AOGCM wird durch das Programm für
Klimamodell-Diagnose und –Vergleich (Program for Climate Model Diagnosis and
Intercomparison - PCMDI) [9] unterstützt. Programmziel ist, die Qualität der
Simulationen zu erhöhen. Dazu werden Methoden und Werkzeuge entwickelt, die
das Verhalten der Modelle analysieren und vergleichen. Aktuell liegt der
Schwerpunkt der Arbeit auf dem Bereitstellen eines verbindlichen Testspiegels
(Testbed) für die Modell-Parametrisierung, um damit den Vergleich zwischen den
einzelnen Klimamodellen zu standardisieren.

Die im Bericht vorgestellten Modelle simulieren das Klima gemäß den vorgegebenen
Algorithmen und Randbedingungen. Die Güte der Modellergebnisse hat sich
zuvorderst an der Realität zu messen, also an den existierenden Messdaten zum
Klima. Diese Daten liegen jedoch im qualitativ und quantitativ ausreichenden Maße
erst seit wenigen Jahrzehnten vor, zu wenig, um belastbare Vorausberechnungen für
die ins Auge gefasste Zeitdauer (≥ 100 Jahre) zu erhalten. Dazu ist mindestens ein
weiterer Fixpunkt für die Modelljustierung erforderlich. Dieser wird mit dem
Höhepunkt der letzten Eiszeit festgelegt [10].

Ein weiterer Vergleich kann mit Modellen für die Wettervorhersage geführt werden.
Klimamodelle schneiden hierbei in der Regel schlechter ab. Die Ursache wird in der
zu geringen Auflösung (zu großen Gridelementgröße) gesehen. Beim so genannten
Modelltuning wird wie folgt vorgegangen: Durch Variation von Parametern wird eine
große Anzahl von Ergebnisvarianten erzeugt (im vorliegenden Fall ca. eintausend).
Im nächsten Schritt werden die Varianten mit Messdaten und daraus abgeleiteten
berechneten Daten und Schätzungen verglichen und alle die aussortiert, die das
Klima nicht hinreichend gut wiedergeben. Gleiches geschieht mit der Simulation des
Höhepunktes der letzten Eiszeit. Übrig bleiben schließlich ca. 10 % der
ursprünglichen Varianten, deren Parameter als zulässig für eine Modellrechnung
betrachtet werden [11].

Klimasensitivität

Die Klimasensitivität ist die Größe, welche die Auswirkung eines vorgegebenen
Strahlungsantriebs (radiative forcing) auf das globale Klimasystem wiedergibt. Im 4.
IPCC-Bericht wird sie als die Änderung der durchschnittlichen globalen
Oberflächentemperatur definiert, die sich nach einer Verdoppelung der
atmosphärischen CO -Konzentration einstellt. Diese Definition ist übrigens seit dem
2

Beginn der aktuellen Klimadiskussion gültig, auch die vom IPCC und seinen
Vorgängerorganisationen veröffentlichten Temperaturwerte (1,5°C – 4,5ºC) für eine
CO -Verdopplung haben sich seit den siebziger Jahren so gut wie nicht geändert.
2

Die Vorgabe zur Bestimmung der Klimasensitivität besteht aus einer 1%igen
Steigerung der CO -Konzentration/Jahr bis zum Erreichen des doppelten
2
Ausgangswertes (2 x CO ). Anschließend wird die Konzentration nicht weiter erhöht.
2

Zur Bestimmung gehört weiter eine Kontrollrechnung, die über den gleichen
Zeithorizont mit dem ursprünglichen CO -Ausgangswert erfolgt. Verdopplungs- und
2

Kontrollvorgaben werden in ein Klimamodell eingegeben und entsprechende


Simulationsrechnungen vorgenommen. Das Ergebnis ist die Klimasensitivität als
Temperaturdifferenz aus den durchschnittlichen globalen Oberflächentemperaturen
beider Simulationsläufe.

Ein solches Ergebnis basiert, wie gesagt, auf einer Simulation. Es kann nicht durch
Messungen verifiziert werden. Unter Laborbedingungen, also ohne Rückkopplungen
durch andere Klimaereignisse, führt eine CO -Verdopplung zu einer Erwärmung von
2

1,2ºC [12]. Rückkopplungen können sowohl dämpfend als auch verstärkend wirken.
Alle bisherigen IPCC-Berichte gehen davon aus, dass per Saldo verstärkende
Rückkopplungen vorliegen.

Die Simulationsrechnungen der verschiedenen Klimamodelle liefern unterschiedliche


quantitative Ergebnisse, bei gleicher Tendenz (verstärkend) gegenüber dem o.g.
Laborwert. Dabei streuen vorrangig die oberen Temperaturwerte. Die Ergebnisse
werden zusammengefasst und einer Fehlerdiskussion unterzogen. Das Endergebnis
ist eine rechnerische Größe mit Angabe ihrer 95%-igen ± -Abweichung.

Wertung der Computermodellierung und -simulation

Ausgang

Bevor auf spezifische Fragen der Computermodellierung und -simulation im 4.


IPCC-Bericht eingegangen wird, ist eine grundsätzliche Aussage voran zu stellen:

Ein Computermodell simuliert ganz allgemein Abläufe von Vorgängen und


Ereignissen, die sowohl real als auch fiktiv sein können. Auf drastische Weise hat
John von Neumann, der wohl bedeutendste Mathematiker des 20.Jahrhunderts, die
Möglichkeit beschrieben, die Ergebnisse einer Simulation zu variieren: "Give me four
adjustable parameters and I can simulate an elephant. Give me one more and I can
make his trunk wiggle".

Als Analogon bietet sich ein Theaterstück oder ein Spielfilm an. Auch ein Spielfilm
enthält Abläufe von Vorgängen und Ereignissen, welche zwischen der Realität und
der Fiktion angesiedelt werden können. Der entscheidende Unterschied zwischen
Computermodell und Film ist, dass ein Computermodell in sich logisch
widerspruchsfrei ist, was bekanntlich von Filmen nicht behauptet werden kann.
Computermodellierung und -simulation sind angewandte Mathematik

.Wird diese Aussage auf den vorliegenden Bericht angewendet, hat sich eine
kritische Wertung vor allem mit dem Vergleich Realität – Simulation zu befassen. Die
Realität wird hierbei durch statistisch erfasste und aufbereitete Messdaten und aus
diesen abgeleiteten Daten sowie Schätzwerten repräsentiert. Sie werden in
Zeitreihen angeordnet, um die Dynamik des Klimas darzustellen. Ferner sind die aus
Messungen gewonnenen Daten fehlerbehaftet. Aktuelle Daten weisen in der Regel
geringere Fehler auf als Daten aus der Vergangenheit, direkt gemessene Werte (z.B.
die Temperatur) sind genauer als solche, die aus anderen Daten errechnet oder
geschätzt wurden.
Die Güte der Computermodellierung und -simulation ergibt sich aus der
Vollständigkeit der im Modell erfassten relevanten Klimaereignisse und deren
realitätsgetreuen Darstellung im Computer. Wie bereits ausgeführt, liegen den
Modellkomponenten Algorithmen und Randbedingungen der Navier-Stokes-
Gleichungen zugrunde. Die Algorithmen werden im Bericht hinsichtlich ihres
Übereinstimmens mit dem realen Geschehen eingeschätzt. Die Einschätzung, der so
genannte Grad des wissenschaftlichen Verständnisses (level of scientific un-
derstanding – LOSU), wird den Klimaereignissen zugeordnet. Er bewegt sich zwi-
schen hoch (high) und sehr niedrig (very low) [13].

Computermodelle setzen immer die auf anderen Wegen gewonnenen Daten voraus.
Modelle berechnen innerhalb des zugrunde liegenden Datenbereichs weitere Daten
durch Interpolation, wobei die dabei auftretenden Fehler annähernd gleich sind. Wird
der Datenbereich verlassen (Extrapolation), nimmt mit wachsender Entfernung die
Fehlergröße zu und die Simulationsergebnisse werden zunehmend wertlos.

Klimamodelle

Kennzeichnend für alle Klimamodelle ist, dass sie eindeutig auf die Untersuchung
des Einflusses der Treibhausgase ausgerichtet sind. Dies gilt definitionsgemäß für
die einfachen Klimamodelle, aber auch für die EMIC. Die AOGCM scheinen auf den
ersten Blick davon ausgenommen. Werden aber zusätzlich die
Systembeschreibungen ausgewertet, zeigt sich, dass es Erweiterungen und
Neuinstallationen nur bei den Modellkomponenten gibt, die zur Simulation des Treib-
hausgas-Effektes beitragen. Die Zielstellung der Simulationsrechnungen ist daher
nicht ergebnisoffen. Der Grund für das Bevorzugen des Treibhausgas-Effektes wird
im Bericht nicht diskutiert. In einer Systembeschreibung [14] wird ausgeführt, dass
das Klimageschehen der letzten 40 Jahre allein durch das Wirken von
Treibhausgasen dargestellt werden kann. Daraus ließe sich schlussfolgern, dass
Gleiches auch für die nähere Zukunft gilt. Sobald aber das letzte Jahrhundert
ausschließlich mit dem Treibhausgas-Antrieb simuliert wird, ergeben sich
Temperaturwerte, die beträchtlich über den gemessenen (1,2 ºC zu 0,8 ºC) liegen.
Erforderlich sei, andere Antriebe wie Aerosole, die Vulkantätigkeit, Änderungen des
Ozongehaltes und die Sonnenaktivität zu berücksichtigen. Diese Antriebe sind
jedoch bei weitem nicht so erforscht wie die Treibhausgase. Das führe dazu, dass
die Computermodellierung mehr eine Kunst als eine Wissenschaft werde. Die
Betrachtung schließt mit "You may believe the future predictions of global
temperatures by models are valid, but do you trust them more than the statistician?”

Komponenten, die sich mit der Sonnenaktivität befassen, sind in einigen AOGCM
implementiert. Sie simulieren dort die Milankovitch-Zyklen, welche die Stellung der
Erdachse und Änderungen der Erdbahn um die Sonne beschreiben.
Sonnenfleckenperioden und der Einfluss der Höhenstrahlung (z.B. auf die
Wolkenbildung) werden in den Systembeschreibungen nicht erwähnt.

Allerdings wurde nur ein Teil der Systembeschreibungen ausgewertet, die zu den
AOGCM des 4. IPCC-Berichtes gehören.

Zu berücksichtigen ist ferner das Wirken des Programms für Klimamodell-Diagnose


und -Vergleich (PCMDI). Ein solches Programm ist notwendig, um die
Vergleichbarkeit zwischen den Ergebnissen der Klimamodelle herzustellen.
Gleichzeitig trägt es dazu bei, die Modellkomponenten auch
programmierungstechnisch zu vereinheitlichen. So darf davon ausgegangen werden,
dass die so genannte durchschnittliche jährliche Energiebilanz der Erde [15] (Abb.1)
auch quantitativ in allen AOGCM implementiert ist.

Damit ist den Modellen ein Verhalten aufgeprägt, das beispielsweise den Saldo bei
den Rückkopplungen immer positiv werden lässt. Auch erklärt es den Effekt, dass
verschiedene Klimamodelle für bestimmte Erdregionen die gleichen Ergebnisse
liefern. Dies wird gelegentlich als Beweis für die Übereinstimmung von Simulation
und Realität genannt. Davon kann keine Rede sein. Nutzen die zur Simulation
vorrangig beitragenden Modellkomponenten die gleichen Fortran-Programme, wären
im Gegenteil unterschiedliche Ergebnisse zu hinterfragen.

Die Hockeyschlägerkurve

Ein Beispiel für das Vermischen von Realität und Fiktion ist die so genannte
Hockeyschlägerkurve, die im 3. IPCC-Bericht von 2001 veröffentlicht wurde (Abb. 2).
Das Diagramm zeigt die Rekonstruktion des Temperaturverlaufs auf der nördlichen
Hemisphäre bezogen auf die mittlere Temperatur von 1961 bis 1990. Die
Temperaturwerte wurden aus Daten von Baumringen und Eiskernen abgeleitet sowie
den Messreihen der Wetterstationen entnommen. Auffällig ist der lineare Verlauf von
1000 bis 1900 mit dem anschließenden steilen Anstieg, was der Kurve ihren Namen
gab. Der lineare Verlauf ist umso verwunderlicher, weil jeder einigermaßen in der
europäischen Geschichte Beschlagene die kalten Jahrhunderte der Kleinen Eiszeit in
der Darstellung erwartet. Ebenso entspricht der Verlauf auch nicht der Vorstellung
vom damaligen Klima, das bei der Besiedlung von Grönland durch die Wikinger um
das Jahr 1000 herrschte. Immerhin wuchs damals auf Neufundland und Wein.
Formal ist alles in Ordnung. Der Trendberechnung wurde die Gerade vorgegeben,
sie liefert ein Ergebnis, das mathematisch korrekt ist. Es stimmt nur nicht mit der
Realität überein. Der 4. IPCC-Bericht enthält nicht mehr die Hockeyschlägerkurve, er
bietet dafür die Erklärung an, dass die letzten 1000 Jahre regional durch sehr
heterogenes Klima gekennzeichnet waren. Auch wird eingeräumt, dass um das Jahr
1000 in einigen Regionen das Klima wärmer als im 20.Jahrhundert gewesen sein
könnte [17]. Nicht zulässig sei aber daraus zu schlussfolgern, dass die
mittelalterliche Warmzeit weltweit geherrscht habe. Dies gebe das vorhandene
Datenmaterial nicht her, da es sowohl qualitativ als auch quantitativ nicht
ausreichend sei.

Warum aber wurde die Hockeyschlägerkurve veröffentlicht? Die Vermutung liegt


nahe: zur Stützung der Treibhausgas-These. Diese lautet, dass mit mindestens 90%-
iger Wahrscheinlichkeit menschliche Aktivitäten (durch Freisetzen von
Treibhausgasen) seit 1750 zu einem Anwachsen des globalen durchschnittlichen
Strahlungsantriebes um 1,6 (0,6 bis 2,4) Wm geführt haben [18]. Treibhausgase
-2

haben jedoch bis in das 19. Jahrhundert hinein keine klimaverändernde Rolle
gespielt (Abb.3). Wenn nun globale Temperaturschwankungen mit vergleichbaren
Amplituden auch vor Beginn der Moderne auftraten, welche Strahlungsantriebe
waren es dann? Sind es die Sonne und die Vulkantätigkeit oder andere, bislang nicht
berücksichtigte Antriebe? Der 4. IPCC-Bericht räumt zumindest der Sonnenaktivität
einen gewissen Einfluss ein, die Treibhausgas-These aber bleibt bestehen. Es findet
ein Wechsel in der Argumentation statt, von der offensiven im 3. Bericht, bei der mit
Fiktionen gearbeitet wird, zur defensiven des 4. Berichtes. Hier stütze das
vorhandene Datenmaterial gleich hohe Temperaturschwankungen nur in
ausgewählten Erdregionen, eine Extrapolation auf die Gesamterde sei unzulässig, da
mit zu großen Fehlern behaftet.

Diese Beweisführung ist kaum zu widerlegen. Das Wissen über das Klima im Jahr
1000 ist sehr bruchstückhaft. Auch sind die vorliegenden Klimarekonstruktionen
teilweise nicht miteinander vergleichbar. Klimadaten aus Baumringen und aus
Eisbohrkernen können erst seit 2008 zeitlich synchronisiert werden [19].

Die o.g. Aussagen zur Hockeyschlägerkurve betreffen die Rekonstruktion der


Klimadaten der letzten 1000 Jahre, also die Klimarealität. Welche Ergebnisse bringt
die Simulation für diesen Zeitraum? Abb. 3 zeigt die Ergebnisse der
Simulationsrechnungen dreier EMIC, denen die nach Wahrscheinlichkeit zusammen
gefassten Daten der Rekonstruktion (schwarz = hoch, hellgrau = gering) unterlegt
wurden. Die dicken Linien stellen die Ergebnisse mit allen Antrieben, die dünnen
ohne die Treibhausgase dar. Die Verläufe trennen sich ab der Mitte des 19.
Jahrhunderts. Zusätzlich werden die zugrunde liegenden Strahlungsantriebe
(Vulkantätigkeit, zwei Varianten der Sonnenaktivität und die übrigen Antriebe) im
zeitlichen Verlauf dargestellt.

Eine Diskussion der Simulationsergebnisse wird hierbei immer subjektiv sein. Der
Anhänger der Treibhausgas-These sieht mit den Verläufen ab 1850 seine Ansichten
bestätigt, der Skeptiker wird auf die teilweise negative Korrelation von Rekonstruktion
und Simulation hinweisen. Hat man die Aussage des Berichts im Hinterkopf, dass
das Datenmaterial für die Rekonstruktion sehr fehlerbehaftet ist, ist die Simulation
größtenteils wertlos. Hier ist mehr Kunst als Wissenschaft am Werke.

Fehlerbetrachtungen

Ein Klimamodell besteht aus Modellkomponenten, welche die Klimaereignisse


simulieren. Die Qualität der Simulation eines Ereignisses ist abhängig von den
zugrunde liegenden Algorithmen und Randbedingungen, die Güte des Modells vom
sachgerechten Zusammenspiel und der Vollständigkeit der Modellkomponenten.
Man mag von seinem eigenen Modell überzeugt sein, erst der Vergleich der
Ergebnisse mit auf anderem Wege gewonnenen verlässlichen Daten gibt
Gewissheit. Wie steht es nun um die Belastbarkeit der aus der Realität stammenden
Daten? Wie bereits ausgeführt, gibt es erst seit etwa 50 Jahren Datenmaterial, das
der Forderung nach umfassender globaler Gültigkeit gerecht wird. Je weiter in die
Vergangenheit gegangen wird, desto geringer die Flächendeckung und desto
schwächer die Verlässlichkeit der Klimadaten [21].

Hier stellt sich folgende Frage: Wenn schon das Datenmaterial der Zeit vor 1000
Jahre nicht ausreicht zu entscheiden, ob das Erdklima damals wärmer oder kälter als
heute war, wie gelingt es dann, ein Klimamodell mit den Daten des letzten Eiszeit-
Maximum (vor 21.000 Jahren) zu justieren? Zur Erinnerung: Justiert wird, indem ein
Modell sowohl für die jetzige Zeit als auch für das Eiszeit-Maximum zahlreiche
Variantenrechnungen durchführt, aus denen dann (durch Menschen) die Ergebnisse
aussortiert werden, welche das jeweilige Klima nicht realistisch wiedergeben. Wie
aber sah das realistische Klima vor 21.000 Jahren aus? Ohne Zweifel ist das Wissen
darüber weitaus geringer und ungenauer als zum aktuellen Klima. Es ist daher mit
Annahmen und Schätzungen zu arbeiten. Das hat für die Modelljustierung zur Folge,
dass ein systematischer Fehler, dessen Größe nicht bekannt ist, der Simulation
aufgeprägt wird.

Das zusammen gefasste Ergebnis des 4. IPCC-Berichts wird in Abb. 4 dargestellt.


Es zeigt im Diagramm A den Anteil der einzelnen Strahlungsantriebe
(Treibhausgase, Ozon, stratosphärischer Wasserdampf aus der Methan-Aufspaltung,
Albedo der Erdoberfläche, Aerosole (direkter Einfluss und durch Wolkenbildung),
Kondensationsstreifen von Flugzeugen sowie die Sonnenaktivität). Die Anteile
wärmen oder kühlen, sie werden nicht als absolute Werte sondern als Änderungen
zum Bezugswert von 1750 ausgewiesen. Unter der Klima-Wirksamkeit (climate
efficacy) wird das Verhältnis der Klimasensitivität eines Antriebes zur Sensitivität des
CO verstanden. Die Zeitskala sagt aus, nach welcher Zeitspanne ein
2

Strahlungsantrieb wieder aus der Atmosphäre verschwunden ist. Die Bereichs-Skala


(spatial scale) benennt den Bereich, in dem ein Antrieb wirkt. Der Grad des
wissenschaftlichen Verständnisses gibt die Einschätzung zum Wissen über den
jeweiligen Antrieb wieder.
Das untere Diagramm B zeigt die zusammen gefassten Antriebe in ihrer
Wahrscheinlichkeitsverteilung (bei 90 % Fehlerintervall). Nur bei den Treibhausgasen
wird Normalverteilung angenommen, die Aerosole und die anthropogenen Antriebe
zeigen abweichende Verteilungen, die sich nach Anwendung der Monte-Carlo-
Methode einstellen.

Die Änderung des Antriebs wird in Watt/m angegeben. Dieser Wert ist eine reine
2

Rechengröße und Ergebnis der Simulation. Es gibt keine Messdaten zu einzelnen


Strahlungsantrieben.

Wie stimmen die in Abb. 4 gezeigten Antriebe zu den Klimaereignissen mit der
Realität überein? Der Bericht enthält dazu keine direkte Aussage. Der zugehörige
Grad des wissenschaftlichen Verständnisses (LOSU) gibt lediglich die Meinung der
Fachleute wieder, die im Rahmen des Berichts mit dem speziellen Klimaereignis
befasst sind. Ist der Grad hoch, bedeutet dies gute bis sehr gute Übereinstimmung
unter den Fachleuten, ist er niedrig, werden sehr unterschiedliche Ansichten
diskutiert. Der LOSU ist demnach nicht von subjektiven Einflüssen frei, zur
Beurteilung, wie Simulation und Realität übereinstimmen, ist er nur mit Vorbehalten
nutzbar.
Gemäß Abb. 4 wird das Wirken der Treibhausgase gut verstanden. Dies basiert vor
allem auf den Messwerten. Zwar liegen präzise Messungen erst seit 1958 vor [23].
Es gibt jedoch Eiskerne aus der Antarktis, aus denen mit einer Auflösung von ca. 10
Jahren der CO -Anteil der Atmosphäre zeitabhängig rekonstruiert wurde.
2

Wie sieht es aber bei den Aerosolen aus? Hierbei wird zwischen den direkten und
indirekten Effekten unterschieden. Beim direkten Effekt zerstreuen und absorbieren
die Aerosole die kurzwellige und langwellige Strahlung, wobei sie die
Strahlungsbilanz der Atmosphäre verändern. Der indirekte Effekt beeinflusst die
Stärke und die Dauer der Wolkenbildung. Wolken tragen entscheidend zu der Erd-
Albedo bei.

Der 4. IPCC-Bericht kommentiert ausgiebig die Fortschritte, die sowohl bei den
Messverfahren als auch in der Simulation von Wolkenbildung und Albedo seit dem 3.
Bericht getätigt wurden. Trotzdem wird der LOSU des Albedo-Effekts durch Wolken
als niedrig eingeschätzt. Gründe dafür liegen in den Messverfahren und in der
Modellierung. Als Mängel bei den Messverfahren werden die zu grobe Auflösung der
Satellitenmessungen und das Nichtunterscheiden von anthropogenen und
natürlichen Aerosolen genannt. Die Hauptschwäche der Modellierung sei das
geringe Wissen über Quantität und Verteilung anthropogener Aerosole, besonders in
der präindustriellen Zeit. Weiterhin versagen die AOGCM bei der Simulation der
Aerosol-Wolken-Interaktion, weil die dafür erforderliche kleinteilige Auflösung nicht
geleistet werden kann [24]. Im Übrigen simulieren lediglich neun der 23 AOGCM den
indirekten Effekt.

Die Albedo beeinflusst wesentlich das Temperaturgleichgewicht der Erde. Die Erd-
Albedo beträgt ca. 30 %, Wolken sind daran zu etwa zwei Drittel beteiligt. Verringert
sich die Albedo um ein Prozent, erhöht sich die mittlere Temperatur um 1 ºC und
vice versa. Dieser Wert entspricht ungefähr dem, der durch die langwellige
Strahlungsänderung einer CO -Verdopplung erreicht wird [25].
2

Die im 4. Bericht enthaltenen Aussagen über Aerosole tragen nicht dazu bei, den
zugehörigen Ergebnissen zu vertrauen. Als geradezu abenteuerlich muss die
Angabe gelten, wonach seit 1750 der Strahlungsantrieb des Albedo-Effekts durch
Wolken sich um -0,7 (-0,3 bis -1,8) Wm geändert hat (Abb. 4). Auf welche Weise
-2

wurde der Antrieb für das Jahr 1750 bestimmt, wenn weder die Messverfahren noch
die Modellierung hinreichend korrekt arbeiten?

Weiter stellt sich die Frage, warum für den zusammen gefassten Antrieb kein LOSU
angegeben wird. Der Bericht gibt darauf keine Antwort. Dass eine Antwort von
Bedeutung ist, hat der Verfasser selbst erfahren. Im Vortrag zum Klimawandel eines
Abteilungsleiters des Bundesumweltamtes wurde behauptet, dass mit 99,9%-iger
Wahrscheinlichkeit die Simulationen mit dem tatsächlichen Geschehen
übereinstimmen. Auf den Einwand, für Treibhausgase als die am besten erforschten
Klimaagenzien gelte gemäß dem 4. IPCC-Bericht, dass die Expertenmeinungen zu
lediglich 90 % übereinstimmen, wurde mit Verdächtigungen und persönlichen
Unterstellungen geantwortet.

Der zusammen gefasste Antrieb setzt sich aus den Antrieben einzelner
Klimaereignisse zusammen, deren Übereinstimmung von Simulation und Realität
sehr unterschiedlich ist. Für die Übereinstimmung wird der LOSU als Maß zugrunde
gelegt, da nur er zur Verfügung steht. Sicher ist, dass ein LOSU des kombinierten
Antriebs beträchtlich niedriger ist als der höchste der Einzelantriebe [26]. Die
Aussage, es sei höchst wahrscheinlich (extremely likely), dass Menschen einen
substantiellen Einfluss auf die Klimaerwärmung haben [27], lässt sich folglich nicht
aus dem Ergebnis-Diagramm der Abb. 4 herleiten. Dieses liefert nach der
berichtseigenen Sprachregelung [28] nur ein about as likely as not für den
menschlichen Faktor. Die Frage stellt sich, wie und durch wen das einen
Außenstehenden überzeugende extremely likely zustande kam.

Vorausberechnungen

Vorausberechnungen zum zukünftigen Klima gründen sich ausschließlich auf


Modellrechnungen. Eine Vorausberechnung ist eine Extrapolation, die auf einem
soweit als möglich abgesicherten Ergebnis als Ausgangsbasis und der Vorgabe von
Einflussfaktoren basiert. Die Einflussfaktoren sind dabei grundlegende Größen. Die
Fehler einer Vorausberechnung bestehen aus dem Fehler der Ausgangsbasis und
dem mit der Entfernung vom Ausgang wachsenden Extrapolationsfehler.

Typisch für Vorausberechnungen sind so genannte Szenarien. Ein Szenario stellt die
Simulation eines Vorgangs dar, der einen konkreten Bezug zur Realität hat und für
sich plausibel ist. Eine Vorausberechnung setzt sich in der Regel aus mehreren
Szenarien zusammen. Erforderlich ist, mit möglichst wenigen Szenarien einen
Ereignisbereich zu schaffen, der die wesentlichen Fragen an die Zukunft
beantworten kann. Im Bericht werden vorrangig drei Szenarien behandelt, deren
Einflussfaktoren ausschließlich anthropogene Treibhausgase sind. Sie werden als
B1(low)-, A1B(medium)- und A2(high)-Szenarien bezeichnet. Jedem Szenario
werden spezifische Emissionsverläufe von Treibhausgasen (CO , SO , NH ) über die
2 2 4

Jahre von 2000 bis 2100 vorgegeben. Mit diesen Eingaben berechnen die
Klimamodelle (AOGCM, EMIC, einfache Klimamodelle) die sich einstellenden
Gaskonzentrationen, die Strahlungsantriebe und die mittleren globalen
Temperaturänderungen [29]. Das Jahr 2000 ist die Ausgangsbasis, demnach
beginnen alle Emissionen mit deren globalen Durchschnittswerten, ausgenommen ist
die mittlere globale Temperaturänderung. Deren Bezugsgröße ist die
durchschnittliche globale Temperatur der Zeitspanne von 1980 bis 1999. Zusätzlich
zu den drei Szenarien werden noch drei weitere so genannte Stabilisationsszenarien
erstellt. Beim Ersten bleiben die Vorgabewerte, also die Emissionen, von 2000 für die
100 Jahre zeitlich konstant, Szenario 2 und 3 setzen im Jahr 2100 auf und rechnen
200 Jahre mit den fixen Endwerten der Szenarien A1B und B1 weiter.

Abb. 5 zeigt die Ergebnisse der Szenarien B1, A1B und A2 sowie die
Stabilisierungsszenarien für die mittlere globale Temperaturänderung. Die Zahlen an
den Verläufen geben die Anzahl der beteiligten Klimamodelle an. Die untergelegten
Schatten bezeichnen die Standardabweichungen der jährlichen Mittelwerte der
einzelnen Modelle.
Abb.5: Mittlere globale Temperaturänderung der Erdoberfläche gemäß der Szenarien B1, A1B und A2
sowie der Stabilisierungsszenarien [30]

Wie sind nun diese Vorausberechnungen einzuschätzen? Grundsätzlich ist


festzustellen, dass die Zeitspannen der Vorhersage ob ihrer Dauer alle Vorstellungen
sprengen. Selbst bei einer im Vergleich zum Klima mathematisch einfachen Sache
wie eine Bevölkerungsvorausberechnung (sehr gute Daten als Ausgang und keine
Nichtlinearitäten in den Modellen) werden seriöse Aussagen nicht über einen
Zeithorizont von 50 Jahren hinaus getroffen. Bei der Voraussetzung, dass der Fehler
der Ausgangsbasis vernachlässigbar ist, wird üblicherweise die Vorausberechnung
beendet, wenn sich die Vorhersagewerte der einzelnen Szenarien mehr als 20 %
voneinander unterscheiden. Dem liegt die Annahme zugrunde, dass mit längerer
Vorhersagezeit die Vorgaben für die Szenarien immer unwahrscheinlicher sowie die
Ergebnisse beliebiger werden, mithin der Extrapolationsfehler zu groß wird.

Für die in Abb. 5 gezeigten Szenarien ergeben sich folgende Verhältnisse [31]:

(max. Differenz = (Tmax – Tmin)/ Tmax * 100%)

Mittlere globale Temperaturänderung (ºC)


2011 – 2030 2046 – 2065 2080 - 2099
A2 0,64 1,65 3,13
A1B 0,69 1,75 2,65
B1 0,66 1,29 1,79
Max. Differenz 7,2 % 26,3 % 42,8 %

Demnach sollte die Vorausberechnung des Klimageschehens etwa mit dem Jahr
2040 gestoppt werden, wobei der Fehler der Ausgangsbasis nicht berücksichtigt
wird. Für die Zeit nach 2040 werden die Ergebnisse zunehmend wertlos, da sich die
Szenarienverläufe immer mehr voneinander unterscheiden. Es ist dann eine
Glaubenssache, welchem Szenario der Vorzug gegeben wird.

Die hier vorgetragene Argumentation lässt sich gleichermaßen auf die Ausführungen
des 4. IPCC-Berichts zu regionalen Klimavoraussagen [32] anwenden. Eine
Vorausberechnung liefert qualitative und quantitative Ergebnisse für einen definierten
Bereich, im Fall der Abb. 5 ist es die Erde. Die kleinste Flächeneinheit einer globalen
Vorausberechnung ist das Gridelement, dessen Fläche, vom AOGCM abhängig,
zwischen 15.600 und 160.000 km beträgt. Das bedeutet, dass beispielsweise der
2

Freistaat Sachsen mit einer Fläche von 18.415 km bei den meisten AOGCM kleiner
2

als ein Gridelement ist. Damit sind keine oder höchstens sehr eingeschränkte
Simulationen möglich.

Seitens der Klimamodelle wird versucht, diesen Mangel zu beheben. Ein Ansatz ist
das so genannte genestete Modell (nested regional climate model). In das AOGCM
wird ein regionales Klimamodell (RCM) mit entsprechend angepasster
Gridelementgröße eingebettet. Die Gridelementgröße beträgt in der Regel 50 x 50
km, es wird aber auch mit kleineren Gridelementen (10 x 10 km) gerechnet.
Kennzeichnend für die genesteten Modelle ist der Austausch von zeitveränderlichen
Klimagrößen über die Modellgrenzen hinweg. Dies führt gemäß dem 4. IPCC-Bericht
zu schwierigen Problemen bei den Randbedingungen [33]. Die Folgen sind
Inkonsistenzen zwischen den beiden Klimamodellen. Über die Güte der so erzeugten
regionalen Simulationen gibt der Bericht keine Auskunft. Sie dürfte aber mit
Sicherheit geringer als die einer weltweiten Simulation sein.

Die Gridelementengröße beeinflusst die Ergebnisse der Simulationsrechnungen.


Einerseits können die Resultate besser dem realen Geschehen entsprechen,
beispielsweise bei der Wolkenbildung. Andererseits ist die Gleichverteilung der
Klimaagenzien wie die der Treibhausgase bei kleinerem Gridelement zunehmend
nicht mehr gegeben. Bei einem 10 x 10 km-Gridelement ist u.a. zwischen Stadt- und
Landregionen zu unterscheiden. Städte weisen deutlich höhere
Durchschnittstemperaturen als ländliche Regionen auf. Neben den erwähnten
Inkonsistenzen, also Unterschiede in den Ergebnissen von AOGCM und RCM bei
der Vorgabe von Emissionsänderungen, wären noch systematische Fehler
unbekannter Größe wegen veränderter und unvollständiger Berechnungsgrundlagen
zu erwarten. Alles in allem sollte dies den Zeithorizont der regionalen gegenüber den
weltweiten Vorausberechnungen weiter verkürzen [34].

Anfang Mai 2008 wurde die Öffentlichkeit von einer Publikation in der Zeitschrift
Nature überrascht [35]. Sie sagt nicht mehr und nicht weniger aus, dass sich der
Klimawandel eine Pause gönnt. Grund für diese neue Erkenntnis sind offensichtlich
Messwerte des letzten Jahrzehnts, die nicht mit den Ergebnissen der
Simulationsrechnungen übereinstimmen. Für die Vorausberechnungen hat das zur
Folge, dass ihre Ausgangsbasis nicht durch Messdaten gesichert ist und beliebig
wird. Die dazu gehörenden Kurvenverläufe sind dann weitgehend fiktional. Die
Klimavorausschau des Berichts ist streng genommen Makulatur. Es bleibt
abzuwarten, ob der IPCC für die wichtigste Aussage des Band 1 The Physical
Science Basis eine Korrektur nachreichen wird.

Fazit

Der Focus der Anmerkungen zum 4. IPCC-Bericht wurde auf die


Computermodellierung und -simulation gerichtet. Ohne Zweifel bildet dieser Bereich
einen Eckstein des Berichts, erst mit der umfassenden Nutzung moderner Hard- und
Software lässt sich ein so komplexes Wissengebiet wie das Klima der Erde
überhaupt systematisch ordnen und in seinen Auswirkungen verstehen.
Hervorzuheben ist die immense Leistung, die in der Computermodellierung und
-simulation von Klimaereignissen in einem nun schon Jahrzehnte dauernden Prozess
erbracht wurde. Viele Dutzende, wenn nicht Hunderte von Arbeitskräftejahren an
Aufwand für Design, Programmierung und Test waren erforderlich, um die
Klimamodelle in den heutigen Zustand zu bringen. Viele von ihnen geben ein
herausragendes Beispiel für den state of the art der Softwaretechnologie.

Diese Aussage gilt der Computermodellierung und -simulation. Sie ist ein Instrument,
das bei der Klimaforschung eingesetzt werden muss. Als Instrument erweitert sie die
Möglichkeiten der Klimaforscher um Größenordnungen. Was die
Informationstechnologie aber nicht kann, ist den Beweis für die Übereinstimmung der
Simulation mit der Realität zu liefern. Auch das Rechnen mit verschiedenen
Klimamodellen und das Zusammenfassen der so erhaltenen Ergebnisse helfen da
nicht weiter. Nur der Vergleich der Simulationsergebnisse mit auf anderem Wege
gewonnenen verlässlichen Daten schafft Gewissheit.

Wie aber sieht die verfügbare andere Datenlage aus? Daten mit umfassender
globaler Gültigkeit gibt es seit ca. 50 Jahren, eine für den Anspruch der Klimatologie
sehr, sehr kurze Zeit. Wenige Daten aus direkter Messung reichen etwas weiter
zurück. Aus ihnen werden fehlende Messwerte errechnet oder geschätzt. Beide
Methoden haben den Mangel, dass sie den Fehler der Vergleichsdaten vergrößern,
die erste Methode weniger, die zweite mehr. Für eine Wissenschaft, die in
Jahrhunderten und Jahrtausenden denkt, eine erbärmliche Ausgangslage. Daraus
verbindliche Aussagen zum vergangenen und zukünftigen Klimageschehen zu
treffen, erfordert ein ungeheures Maß an Chuzpe.

Aber hat die Klimatologie nicht Erfolg in der Gesellschaft? Ja, sie hat Erfolg, sogar
riesigen.

Es ist ein Phänomen, wie eine Orchideenwissenschaft es geschafft hat, sich im


Ranking des allgemeinen öffentlichen Interesses so weit oben anzusiedeln. Dies liegt
nicht an den ohne Zweifel vorhandenen wissenschaftlichen Erkenntnissen. Was also
ist der Grund? Er ist im gesellschaftlichen und psychologischen Bereich zu suchen.
Eine Hypothese: In der westlichen Welt weit verbreitet ist das schlechte Gewissen
über und die Ängste am eigenen Fortschritt. Ängste entstehen dadurch, dass der
Fortschritt immer unverständlicher wird. Die Aussage, der Klimawandel sei
menschgemacht und sehr schlimm und vor allem durch die entwickelten
Gesellschaften verursacht, entspricht der Gefühlslage vollkommen. Die politischen
und medialen Eliten nehmen sie auf und verstärken sie je nach Bedarf. Sie bedienen
das schlechte Gewissen und bestätigen das Gefühl, bald in den selbstverschuldeten
Niedergang einzutreten.

Was ist zu tun? Die Regeln der Wissenschaft gelten weiter. Aussagen, von denen
behauptet wird, wissenschaftlich zu sein, müssen falsifiziert werden können. Dieser
Prozess ist unabhängig von Mehrheiten, auch von demokratisch hergestellten.
Notwendig ist, die Publikationen und Verlautbarungen des IPCC auf deren
wissenschaftlichen Gehalt abzuklopfen und die Ergebnisse zu veröffentlichen.
Optimistisch wird erwartet, dass die so vorgebrachten Argumente schließlich wirken,
spätestens dann, wenn der Bevölkerung wegen des "menschgemachten"
Klimawandels große Kosten aufgebürdet werden.
Die prognostizierten Kosten belaufen sich auf Abermilliarden. Es ist festzustellen,
dass der Großteil der Medien und die Politik aktuell die Aussage des IPCC kritiklos
hinnehmen, der Klimawandel sei höchst wahrscheinlich menschgemacht. Warum
wird, wie bei Geldgeschäften üblich, nicht ein Gutachten unabhängiger Dritter
eingeholt? Die Milliarden können nur einmal ausgegeben werden, was ist, wenn sich
der "menschgemachte" Klimawandel als nicht existent herausstellt?

___________________________________________________________________________

[1] Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of
Physics, 2007, Gerlich., p.81

[2] IPCC AR4 Chapt. 8.1.3

[3] Russell, G.L., 2005: 4x3 Atmosphere-Ocean Model Documentation,Grid.


http://aom.giss.nasa.gov/doc4x3.html

[4] IPCC AR4 Chapt. 8.2

[5] IPCC AR4 Chapt. 8.2.7

[6] IPCC AR4 Chapt. 8.8.2

[7] IPCC AR4 Chapt. 8.8.3

[8] Claussen, M., 2005: Table of EMICs. http://www.pik-potsdam.de/emics

[9] http://www-pcmdi.llnl.gov/ipcc/about_ipcc.php

[10] IPCC AR4 Chapt. 6.4.1.3

[11] Der Klimawandel, S.Rahmstorf, H.J.Schellnhuber, C.H.Beck, 2006

[12] Der Klimawandel, S.Rahmstorf, H.J.Schellnhuber, C.H.Beck, 2006

[13] IPCC AR4 Chapt. 2.9.1

[14] Russell, G.L., 2005: 4x3 Atmosphere-Ocean Model Documentation, Introduction.


http://aom.giss.nasa.gov/doc4x3.html

[15] IPCC AR4 S. 96

[16] IPCC-TAR 2001, The Scientific Basis, p. 134

[17] IPCC AR4 Box 6.4

[18] IPCC AR4 Summary for Policymakers, p.3

[19] http://www.uni-heidelberg.de/presse/news08/pm280402-3bau.html

[20] IPCC AR4 Chapt. 6.6.3.4


[21] IPCC AT4 Chapt. 6.1.2.3

[22] IPCC AR4 Chapt. 2.9.2

[23] IPCC AR4 Chap. 2.3.1

[24] IPCC AR4 Chap. 2.4.4.5

[25] IPCC AR4 Chap. 1.5.2

[26] Die mathematisch begründete Berechnung eines zusammen gefassten LOSU kann nicht
gegeben werden. Eine Abschätzung, die auf dem Schwergewicht (Produktsumme aus |
Differenz des Antriebswerts| x LOSU, geteilt durch die Gesamtantriebsdifferenz) basiert,
kommt zu einem Gesamt-LOSU von ca. 0,6. LOSU-Angaben entsprechen hierbei high=0,9,
medium=0,5, medium-low=0,35, low=0,2.

[27] IPCC AR4 Executive Summary, S. 131

[28] Guidance Notes for Lead Authors of the IPCC Fourth Assessment Report on Adressing
Uncertainities, Table 4

[29] IPCC AR4 Chap. 10, Fig. 10.1, Fig. 10.26

[30] IPCC AR4 Chap. 10, Fig. 10.4

[31] IPCC AR4 Chap. 10, Table 10.5

[32] IPCC AR4 Chap. 11

[33] IPCC AR4 Chap. 11 S. 919

[34] Der Freistaat Sachsen hat solche regionale Vorausberechnungen vornehmen lassen. Sie
folgen dem gleichen zeitlichen Schema wie die weltweiten Prognosen. Es ergeben sich dann
skurrile Resultate. So wurde bei einer Präsentation eine Ergebniskarte gezeigt, die für einen
Teil des Lausitzer Berglandes (die Gridelementengröße betrug 10 x 10 km) im Jahr 2089 für
die Höhenlinie 500 m einen Temperaturzuwachs von 4,2 ºC auswies.

[35] Keenlyside, N. S., M. Latif, J. Jungclaus, L. Kornblueh, and E. Roeckner, 2008:


Advancing Decadal-Scale Climate Prediction in the North Atlantic Sector. Nature, 453, 84 –
88