Ohne elektronische Großhirne ist keine genaue Klimaprognose zu treffen. Mit ihnen auch nicht. Über den technogenen Treibhauseffekt.
Text: Christoph Rosol aus De:Bug 121


Petit Telephone von Anne-Claire Petit.

It’s the IT, stupid!

Um zu bemerken, dass es global gesehen wärmer wird, braucht man natürlich keinen Supercomputer. Das hätte man auch vor 150 Jahren mit dem vorhandenen Netzwerk aus Thermometer- und Telegraphen-Stationen registrieren können. Und auch der Zusammenhang zwischen Erwärmung der Atmosphäre und Treibhausgasen ist schon seit jenen guten alten Web-0.1-Tagen bekannt.

Der Mathematiker Jean Babtiste Joseph Fourier – ja, genau jener Fourier, dessen Transformationsformeln überhaupt erst Klangsynthese, also Musik aus Strom inklusive all ihrer Clubkulturen und Clubkulturpostillen ermöglicht hat – sprach schon 1827 vom “Glashauseffekt” der Lufthülle. Nachdem die industrielle Revolution und ihr Agens schlechthin, die Verbrennung von Kohle, so richtig in Gang gekommen waren, rechnete dann 1896 der Chemiker Svante Arrhenius den entscheidenden Anteil aus, den Kohlenstoffverbindungen an diesem Effekt haben.

Klimaforschung schafft Klimaprobleme

Wie man sieht, geht es beim Klima also zunächst einmal um eines: rechnen! Im Falle des Klimawandels, also der dynamischen Veränderung des Systems, sogar um massenhaftes. Um aus den Temperaturmessungen und den physikochemischen Wechselbeziehungen eine Simulation bzw. eine Vorhersage zu zimmern, kann man gar nicht genug an Rechenpower kriegen. Als man zur Mitte des vergangenen Jahrhunderts den ersten universalen Röhrencomputer, den ENIAC, zur Wetterprognose ausprobierte, war man noch frohen Mutes, bereits in ein paar Jahren mit einem erdumspannenden Zirkulationsmodell das Wetter überall punktgenau prognostizieren zu können. Knappe sechzig Jahre Mooreschen Wachstums an Rechenleistung später träumt man davon noch immer. Man kennt das ja: Die Kapazitäten reichen nie hin. Schon gar nicht, um die Dynamik des ungemein komplexeren Klimas sattelfest simulieren zu können.

Dabei ist dies nicht allein eine Frage der Komplexität, jener schier endlosen Anzahl an Faktoren, welche diesen hochgradig interaktiven Kuddelmuddel namens Klima beeinflussen. Es ist ein prinzipielles Problem. Die Strömungsvorgänge in der Atmosphäre und in den Ozeanen, welche die Klimamodelle im Wesentlichen abzubilden versuchen, lassen eine rein analytische Behandlung nicht zu:

Während man mittels newtonscher Bewegungsgleichungen die exakte Stellung des Mondes auch noch in 10.000 Jahren berechnen kann, ist das präzise Verhalten aller Teilchen in einer Hand voll Luft – jenseits statistischer Verteilungsangaben – nicht zu bestimmen. Klimamodelle basieren deshalb auf numerischen Gleichungen, das heißt, in ihnen rattern fortlaufend Algorithmen, die durch massives number crunching versuchen, einer Lösung so nahe wie möglich zu kommen. Ohne sie je wirklich erreichen zu können.

Alles nur Schmuh?

Aber nicht doch. Wie Realität und Simulation auseinander klaffen, sieht man eher daran, wie der real existierende Mensch immer erst dann reagiert, wenn ihn die durch die Simulation doch ziemlich genau vorhergesagte Realität eingeholt hat. Je genauer die Ausgangsdaten und die Zeitschritte, desto genauer die Vorhersage, sprich die Wahrscheinlichkeit, dass es so und so kommt. Und von etwas anderem als bloßen Wahrscheinlichkeiten redet in der modernen Wissenschaft sowieso niemand mehr. Sorry, Skeptiker!

Kurzum: Es geht um hohe Datenauflösung und geschwinde Datenverarbeitung. Ohne den elektronischen Rechenknecht hätte man schlicht nicht auf die Idee kommen können, zukünftiges Klima vorhersagen zu wollen. Unser eigener, hausgemachter Klimawandel fände vor unseren Augen statt, ohne dass wir auch nur die geringste Vorstellung davon hätten, was genau ihn ausmacht, wohin er uns führen könnte und wie mit ihm umzugehen sei. Sprich: welche Zahlen man unseren Technokratien an die Hand geben sollte. Dass es wärmer wird, sagt uns das Thermometer – wie es wärmer wird, Onkel Supercomputer. Durchaus ein Faszinosum, wie hier Problem und Erkenntnis-Instrument historisch in eins fallen.

Aber es geht weiter: Denn längst hat sich bekanntermaßen das Rechnen selber zu einem Faktor im Klima etabliert. Um die chaotischen Vorgänge im Energiehaushalt der Atmosphäre zu quantifizieren, ist paradoxerweise jede Menge Energie vonnöten, die wiederum in der Atmosphäre neue Energie bindet, indem sie Treibhausgase entlässt. Was die Emissionen betrifft, so hat der weltweite IT-Park inzwischen den weltweiten Flugverkehr eingeholt – den Stromverbrauch all der Lebensmittelpunkte wie Laptops, Konsolen und Handys noch nicht mal mit eingerechnet. Keine Entwarnung also für YouTube-Cineasten und andere Immobile: Das Rechenzentrum-Treibhaus des lokalen Providers, dessen Abwärme so aufwendig gekühlt werden muss, dass ein ganzes Blockheizkraftwerk nötig ist, macht die neurotische Pflege des MySpace-Accounts schnell mal zu einem Sitzplatz im A380.

Die Antwort der Computerbranche auf diese Problematik lautet natürlich Effizienzsteigerung. Tatsächlich ist diese fulminant: Zog der ENIAC noch irgendwas um die 1500 Watt Leistung für eine einzige Rechenoperation, kann der kürzlich im Forschungszentrum Jülich aufgestellte Supercomputer aus IBMs Blue-Gene-Reihe mit derselben Leistung ca. 500 Milliarden Operationen ausführen.

Da aber sechzig Jahre nach dem ENIAC Wissenschaft fast gleichbedeutend mit Computersimulation geworden ist (die “in-silico”-Modellierung hat – neben der Klimaforschung – inzwischen sämtliche Bereiche der Wissenschaften kolonialisiert, egal ob es sich dabei um Proteinfaltung, Gravitationsphysik oder Evakuierungsszenarien handelt), verpuffen solche Wirkungsgradsteigerungen rasch in der überbordenden Nachfrage nach Höchstleistungsrechnern. Und selbst mit dem gegenwärtigen Zuwachs an Effizienz, so schätzt der Blue-Gene-Chefarchitekt Alan Gara, wäre man etwa in zehn Jahren an dem Punkt angelangt, an welchem die Energiekosten eines Supercomputers dessen Anschaffungskosten übersteigen. Viva Numerica!

About The Author

Elektronische Lebensaspekte.