Salishan Conference gilt als die Tafelrunde des High-Performance Computings: Nur 150 Experten sind zugelassen

2016 soll ein 100-Petaflop-System in Betrieb gehen

5. Mai 2009, 22:59 Uhr |

Auf der exklusiven Salishan Conference on High-Speed Computing trifft sich die US-Supercomputing-Elite zur Richtungsbestimmung. Die Gemeinde des High-Performance Computing (HPC) diskutierte dieses Jahr über das Kernthema Simulationstechnik für die Energiegewinnung, aber auch über den Exaflop-Rechner und die Energieeffiizienz.

Seit 1981 organisieren die führenden Supercomputerzentren der USA in Los Alamos, Sandia und
Livermore unter der Schirmherrschaft des Department of Energy die Salishan Conference on High-Speed
Computing zur Standortbestimmung für aktuelle und künftige Rechner- und Softwarearchitekturen. In
fünf Sessions sind energiebezogene Themen behandelt worden – von der Energie-Bereitstellung über
energieeffiziente Systeme bis zu Simulationen. Bei letzteren ist die Entwicklung und Analyse von
konventionellen und neuen Energietechniken besprochen worden, bei den Systemen die Energieeffizienz
von Supercomputern beziehungsweise deren Komponenten bis zum Data-Center-Level.

In der Keynote Address widmete sich der Vertreter des DOE, Vic Reis, der potenziellen Rollen des
HPC in der Obama-Administration. Reis verweist auf die Erfahrungen, die das DOE mit der Accelerated
Strategic Computing Initiative (ASCI) gemacht hat und betont, dass das Thema HPC indirekt über die
Anwendungen immer wichtiger wird. Die Performance-Projektionen der Top500-Liste der weltschnellsten
Rechner bis zum Jahre 2016 nutzend – dann wird ein 100-Petaflops-System erwartet – nennt Reis
Anwendungen, die diese Leistungsanforderungen brauchen, wie die Ab-Iinitio-Simulation von
biologischen Zellen, von der Interaktion von Zellen und Wirkstoffen oder auch die verbesserte
Verarbeitung seismischer Daten für die Ölsuche.

In der ersten Session stand die Modellierung künftiger Energieerzeugung und CO2-Reduktion auf
der Agenda. Tomás Diaz de la Rubia vom Lawrence Livermore National Lab propagierte dabei das
Konzept der Laser Inertial Confinement Fusion-Fission Energy, das durch Kombination einer
neutronenreichen Fusionsquelle mit einer unterkritischen Hülle aus spaltbarem Material Tausende von
Megawatt liefern soll.

Vorteile dieses CO2-freien Systems sind laut Rubia nicht nur, dass dabei natürliches Uran und
nuklearer Abfall aus Atom-Waffen und Kernkraftwerken genutzt werden können: "Es besteht auch keine
Gefahr einer Reaktorexplosion und der langlebige nukleare Abfall wird um den Faktor 20 bis 100
reduziert." Alle Vortragenden dieser Session – und auch der folgenden Anwendungsvortrags-Serien –
betonten die Notwendigkeit von Rechenleistungen jenseits der Petaflops, um die Herausforderungen
aktueller und neuer Technologien zu bewältigen bezüglich Sicherheit, Effizienz und Abfall – unter
anderem das Einfangen und die Speicherung von CO2.

Die zweite Session war Large-Scale-Simulationen zur Erschließung neuer Energiequellen gewidmet –
bis hin zur Bioenergie und Optimierung des Verbrauchs. Jaqueline Chen von den Sandia Labs hat hier
die direkte numerische Simulationen neuartiger Verbrennungsmotoren vorgestellt, die bei höheren
Drücken, niedrigeren Temperaturen und geringeren Mischungsverhältnissen als konventionelle
Maschinen arbeiten, um Energieverbrauch, Abgas- und CO2-Ausstoß zu reduzieren. Bei den auf dem
Petaflops-System am Oak Ridge National Laboratory (ORNL) durchgeführten Rechnungen wurden schon
Hunderte von TBytes an Daten produziert, die Einblicke in die Stabilität und Ausbreitung der
Flammen unter verschiedenen Bedingungen liefern.

In der dritten Session hat sich Professor Horst Simon vom Lawrence Berkeley National Lab (LBNL)
den Ansätzen des energieeffizienten Computings "von Bits bis hin zu Gebäuden" angenommen. Simon
betont, dass wir bereits die kritische Grenze beim Stromverbrauch im HPC erreicht haben und dass
dieser weiter zu wachsen drohende Stromverbrauch der limitierende Faktor bei HPC-Anwendungen in
Zukunft werden wird. Am LBNL ist ein Forschungsprojekt angelaufen, das den Energieverbrauch beim
HPC bei Systemen wie auch bei Gebäuden reduzieren will. "Wir müssen die kommenden enormen
Leistungsanforderungen bewältigen, ohne die CO2-Emissionen und Globale Erwärmung zu erhöhen."

Das Thema beschäftigt auch Shekar Borkar von Intel, der die zentralen Herausforderungen im Blick
hat, die der Erreichung mit der Exaflops-Leistung verbunden sind. In jeweils rund elf Jahren sei
die Performance von Gigaflops – Cray2 im Jahr 1986 – über den Intel ASCI Red im Jahr 1997 bis zum
IBM-Roadrunner im Jahre 2008 um den Faktor 1000 gesteigert worden. "Exascale-Systeme werden
erstmalig im Jahre 2019 in die HPC-Arena einziehen", so Borkar, der warnt: "Wir können aber nicht
weiter Business as usual erwarten." Drei Hürden bauen sich auf:

Erstens werde Energie und Strom eine Hauptherausforderung darstellen. Eine
Straight-forward-Extrapolation zeigt, dass Exaflops-Maschinen Gigawatt verbrauchen.

Zweitens wird auch die Memory- und Kommunikations-Bandbreite, um solche Systeme mit Daten zu
versorgen, unerschwinglich teuer sein.

Drittens wird die um Größenordnungen erhöhte Parallelität zu völlig unzuverlässigen Systemen
führen.

Borkar verweist auf Ergebnisse der Exascale Study Workgroup unter Bill Harrod von der
US-Verteidigungsforschungsagentur DARPA und Kollegen: Ein Exaflops-System wird mindestens 120
Megawatt Anschlussleistung haben und sehr stark auf Datenlokalität angewiesen sein, so dass zur
Programmierung wesentliche Paradigma-Änderungen erforderlich werden.

In der Random-Access-Sitzung hat sich unter anderem der Top500-Co-Autor Professor Jack Dongarra
vom ORNL über Greener HPC zu Wort gemeldet. Die Top500-Autoren sehen sich nämlich mit der Tatsache
konfrontiert, dass der Aufwand zur Gewinnung der Best Linpack Performance Rmax mit der
Leistungsfähigkeit der Systeme steigt – und schon sehr bald kaum mehr den Sites zugemutet werden
kann. So werden bei der aktuellen Nummer zwei der Liste, dem Petaflops-System Jaguar in Oak Ridge,
wegen des großen Hauptspeichers von 300 TByte bereits 18 Stunden Laufzeit verbraucht. In weniger
als zwei Jahren werden für Fünf-Petaflops-Systeme rund 2,5 Tage für den Linpack anzusetzen sein.
Dongarra schlägt unter anderem vor, nur geeignete Teile des Linpack laufen zu lassen und begrenzt
auf sechs Stunden, um trotzdem noch zu aussagefähigen Resultaten zu gelangen.

In Session vier hat Mark Seager vom LLNL das Sequoia-System skizziert, das von IBM entwickelt
und gebaut wird und einen Flop-Watt-Standard setzen soll. Geplant ist, Sequoia 2011 am LLNL zu
installieren und 2012 in Betrieb zu nehmen. Es wird mit 1,6 Millionen Power-Prozessoren und 1,6
Petabytes an Hauptspeicher eine Spitzenleistung von mehr als 20 Petaflops erreichen – und dürfte
damit vermutlich mit großem Vorsprung an der Spitze der Top500-Liste stehen.

Technologisch stellt das System eine Weiterentwicklung der Blue Gene/P-Architektur dar, wobei
nun – wahrscheinlich – 16 Kerne pro Chip in 45-Nanometer-Technologie integriert sein werden. Für
die Kommunikation soll mit neu entwickelter Switching-Technologie die optische Übertragung
eingesetzt werden. Insgesamt wird Sequoia nur eine Anschlussleistung von sechs Megawatt benötigen,
wodurch ein neuer Bestwert von 3000 Megaflops pro Watt erreicht werden soll – eine siebenfache
Verbesserung gegenüber Blue Gene/P und noch mehr als das Fünffache gegenüber dem Cell-basierten
Roadrunner. Eingesetzt werden soll das System vor allem für das Stockpile Stewardship Program – bei
dem Programm zur Erhaltung des Atomwaffenarsenals sollen auch Unsicherheiten der Vorhersagen
berechnet werden.

In der letzten Session gab es von Andrew White, LANL, und Arthur Bland, ORNL, Updates der
augenblicklichen Spitzensysteme Roadrunner und Jaguar – der beiden Petaflops-Rechner in der
Top500-Liste. Ryataro Himeno vom japanischen Wissenschaftsprogramm RIKEN berichtet über das
Next-Generation-Supercomputer-Projekt und seine Anwendungen in den Lebenswissenschaften: RIKEN ist
im Zeitplan und das volle System wird im März 2012 fertig gestellt sein. Aber niemand auf der
Konferenz zweifelt an, dass die Amerikaner Lehren aus dem Earth-Simulator-Überraschungseffekt der
Japaner von vor sieben Jahren gezogen haben – auch damals wurde von den Japanern der
Fertigstellungszeitpunkt genau vorhergesagt, nur hatte in USA niemand daran geglaubt. Roadrunner
glänzt – auch in ersten Anwendungsprojekten – durch seine Energieeffizienz, Crays Designs für
Supercomputer war schon immer für ihre ausgezeichnete Leistung als auch für ihr ausgefeiltes
innovatives Konzept für Strom und Kühlung bekannt – das gilt auch für das auf der Cray XT5
basierende Jaguar-System.

In einem Panel wurden Redner gefragt, welches System in vier Jahren die 41sten Top-500-Liste mit
welcher Leistung anführen wird. Einmütige Antwort: Die USA werden die Nase vorne haben mit einer
Leistung von 18 bis 20 Petaflops – und auch Himeno von RIKEN erwartet IBM mit dem Sequoia-System an
der Spitze.

Hintergrund: In Salishan treffen sich handverlesene Experten des Supercomputings

Sucht man bei Google nach Salishan, so findet man keinerlei Hinweise auf High Performance
Computing (HPC), sondern nur auf ein verstecktes und exklusives Resort an der Pazifikküste in
Oregon, ideal geeignet für Manager, die sich bei Golf, Kitesurfing oder anderen Sportarten
entspannen und erholen wollen. In dieser Jahreszeit bevölkern noch wenige dieser Gäste die
Golfplätze. Trotzdem war das Salishan Lodge in der letzten Aprilwoche komplett ausgebucht. Grund
war, wie jedes Jahr seit 1981, die exklusive Salishan Conference on High-Speed Computing
organisiert von den führenden Supercomputerzentren der USA in Los Alamos, Sandia und Livermore,
unter der Schirmherrschaft des Department of Energy (DOE). Die Konferenz erhebt den Anspruch, die
führenden Köpfe der HPC-Welt zu versammeln, um die aktuellen und künftigen Rechner- und
Software-Architekturen zu diskutieren. Die Teilnahme war auf maximal 150 HPC-Experten begrenzt und
nur auf persönliche Einladung möglich, das Programm umfasste 22 Vorträge hochkarätiger Referenten
und viel Zeit zu persönlicher Kommunikation und Fachdiskussion.

Die Amerikaner sind hierbei seit Jahren praktisch unter sich. Unter den Vortragenden war mit
Ryutaro Himeno, dem Leiter des Next-Generation Supercomputer Research and Development Center – nur
ein Japaner neben 21 US Amerikanern. Bei den Teilnehmern waren mit zwei aus Japan, zwei aus UK und
zwei aus Deutschland dabei. Die Teilnehmer kommen in aller erster Linie aus den National Research
Laboratories, aus Hochschulen, Regierung und der Industrie, vor allem der HPC-Herstellerindustrie.
Generell ist die HPC-Szene in intensivem Austausch: Eine ganze Reihe von Teilnehmern der Salishan
Conference wird auf der
International Supercomputing Conference (ISC 2009) vom 23.
bis 26. Juni in Hamburg kommen.

Durch die Teilnahme von Nicht-US-Amerikanern hat sich der Charakter der Salishan Conference als
Geheimzirkel – quasi einer HPC-Loge – relativiert. Die gut organisierte Konferenz lässt aufgrund
der geringen Anzahl von Teilnehmern Raum für Networking. Dass auch die Industrie die Salishan
Conference ernst nimmt, zeigt die Einladung des CTO von SGI, Eng Lim Goh, zu einer kurzen
Non-Disclosure-Veranstaltung, in der die Übernahme von SGI durch Rackable Systems detaillierter als
bisher vorgestellt wurde: Die Zukunft von SGI erscheint wieder in einem positiveren Licht.

Hans Meuer/Peter Merle/Rochus Rademacher/CZ


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+