Angeblich hilft größere Rechenkraft bei der Lösung der großen Herausforderungen der Menschheit - doch die größten Rechner im High-Performance Computing (HPC) verwenden die USA zur Atomwaffenforschung. Dennoch stimmt die Aussage, wie die Klimaforscher auf der International Supercomputing Conference belegt haben.
Eine Revolution in der Klimaforschung fordert Professor Julia Slingo, Chefwissenschaftler der
britischen Met Office: "Wir brauchen einen Petaflops-Rechner und Petabyte-Speicher – und wir müssen
mit 100 Mannjahren Arbeit unsere Klimamodelle für die massiv-parallelen Architekturen der
Multicore-Systeme umcodieren." Am liebsten hätten die Forscher zur globalen Klimavorhersage ein
engeres Gitternetz über die Welt gelegt. "Die Empfehlung auf dem World Modelling Summit ist eine
Gitterkantenlänge von einem Kilometer", so Slingo. "Und dafür bräuchten wir eine Vereinigung
unserer Kapazitäten, um quasi eine Einrichtung wie das CERN für die Teilchenphysik zuschaffen."
Bisher wird die Welt in Gitter mit einer Auflösung von 100 Kilometer eingeteilt, in denen die
klimarelevanten Phänomene bemessen werden – verarbeitet zu Prognosen in Zehn-Teraflops-Rechnern. Um
beispielsweise Wolkenprozesse mit einer Ein-Kilometer-Auflösung akurat zu verrechnen, sind nach
Auskunft des Lawrence Berkeley National Lab zehn Petaflops erforderlich.
Auch wenn Myles Allen, Klimaforscher und Physiker der University of Oxford, lieber mit
Seti-at-Home-ähnlichen Konzepten Teraflops-Leistungen erreichen will, geht er mit Slingo konform in
der Einschätzung, dass eine grundlegende Veränderung erforderlich ist: "Wir brauchen eine
Revolution in der Modellierung." Allen belegt anhand von Statistiken, dass beispielsweise die
globale Oberflächenerwärmung um vier Grad Celsius als Tendenz von allen Multimodell-Berechnungen
bestätigt wird – aber die Ergebnisse variieren: Weil mehrere Simulationen zusammengefasst werden,
würden auch Unsicherheiten kombiniert. "Wir brauchen also größere Ensemble und müssen Modelle
finden, die konsistent sind."
"Der Supercomputer ist das Labor des Klimaforschers", erklärt Panagiotis Adamidis vom Scientific
Computing des Deutschen Klimarechenzentrums in Hamburg. Das Klima sei ein träges System und die
Forscher rechneten in Zyklen von 30 Jahren – und natürlich wollen sie das globale Klima auf 100
Jahre vorausrechnen.
"Das Klima ist ein komplexes System mit vielen Komponenten", so Adamidis. "Maßgeblich sind
Einflüsse aus dem Weltraum, Phänomene in der Atmosphäre, im Ozean, der Koppelung von ozeanischer
Tiefe udn Oberfläche, das Land, der Mensch – und die vielen Kreisläufe wie beispielsweise
Kohlendioxid." Für die Zustandswerte wie Temperatur, Windgeschwindigkeit oder Niederschläge werden
Gleichungen modelliert, die numerisch gelöst werden.
"In den 70ern wurde nur die Atmosphäre simuliert", so der Wissenschaftsinformatiker. Heute
würden bald zehn Modelle für durchgerechnet – "inzwischen auch die Vegetation." Je kleiner nun das
Gitter der Berechnung ist, desto mehr Phänomene lassen sich einfangen. Empfohlen wird inzwischen
eine Gitterauflösung von 80 Kilometer. "Die kleineren Gitter verraten auch mehr Details", so
Adamidis. "Wenn für die Erderwärmung in 100 Jahren von einem globalen Wert von vier Grad
ausgegangen wird, so haben wir am Deutschen Klimarechenzentrum für die Kontinente eine Erwärmung
von acht Grad errechnet." Vor allem könne die Langfristprognose auf kleinere Räume bezogen werden: "
Durch das HPC bekommt die Prognose lokalen bezug – wir können beispielsweise sagen, wie sich
regional die Niederschlagsmengen entwickeln werden."
Nicht nur die Multi-Skalen erfordern mehr Rechen-Power. "Wir rechnen in Ensembles – die
Simulation wird also wiederholt bei variierenden Anfangsbedingungen", so Adamidis. Beispielsweise
wurde der Niederschlag 48 Mal durchgerechnet. Die Modelle müssen zunächst einmal die Vergangenheit
wiedergeben – seit 1890 liegen Daten vor. "Wir können also unsere Simulationsergebnisse mit
Messungen vergleichen und dann Prognosen stellen."
Am Deutschen Klimarechenzentrum ist eine IBM-Superrechner installiert mit 250 Power6-Knoten –
die insgesamt 8384 Kerne bringen eine Leistung von über 150 Teraflops.
Rochus Rademacher/CZ