Supercomputing

Erfolgversprechender Flop

2. Juni 2020, 8:41 Uhr | Autor: Stephan Gillich / Redaktion: Diana Künstler
Mit einer Rechenleistung von 17,59 Petaflops ist der "Titan" ein Supercomputer-Paradebeispiel. Zum Vergleich: Der schnellste Computer der Welt „Summit“ bringt 148,6 PFlops auf. Beide Computer gehören zum Oak Ridge National Laboratory in Tennessee, USA.
© Oak Ridge National Laboratory

Supercomputer und HPC-Systeme gehören derzeit zu den wichtigsten Technologien in der Forschung. Anders als beim Kultroman "Per Anhalter durch die Galaxis" geht es dabei jedoch nicht um die schwammige Frage "nach dem Leben, dem Universum und dem ganzen Rest". Es gibt bereits konkrete Einsatzgebiete.

Auch wenn es für Supercomputer oder High Performance Computing (HPC) keine feste Definition gibt, spricht man im Allgemeinen von Rechnern, die hochkomplexe und sehr umfangreiche Anwendungen erlauben. Dabei sind die Einsatzbereiche in Wissenschaft und Forschung vielfältig: beispielsweise bei der Simulation von Strömungen, zur Diagnose und Behandlung von Krebs oder zur Berechnung von Klimamodellen. Physiker, Chemiker, Klimaforscher und andere Wissenschaftler nutzen die extrem hohe Rechenleistung der Supercomputer, um eine große Menge an Daten in kurzer Zeit zu verarbeiten und Lösungen für komplexe Probleme der modernen Gesellschaft zu finden.

Oak Ridge National Laboratory, Verbrennungsforschung
Verbrennungsforschung: Mit Supercomputern können Forscher großmolekulare Kohlenwasserstoffbrennstoffe wie das Benzinsurrogat Isooctan modellieren.
© Oak Ridge National Laboratory

Supercomputer als Schlüsseltechnologie
Große Überschneidungen ergeben sich dabei bei HPC und Künstlicher Intelligenz (KI): KI-Methoden können beispielsweise bei der Analyse vorhandener Daten verwendet werden, auch um die Simu-lation und Modellierung zu verbessern. Gleichzeitig hat die hohe
Rechenleistung von Supercomputern bestimmte KI-Anwendungen überhaupt erst ermöglicht, weshalb eine zunehmende Anzahl dieser Applikationen auf HPC-Systemen ausgeführt wird. Interessanterweise gilt HPC laut einer Studie von Suse mittlerweile als eine der
wichtigsten Zukunftstechnologien. In der Umfrage unter 900 IT-Fachkräften bewerteten 46 Prozent der deutschen Teilnehmer High Performance Computing als wichtigste Technologie, um Innovationen zu fördern. Damit liegt Supercomputing noch vor Künstlicher Intelligenz (44 Prozent) und Internet of Things (35 Prozent). Die Befragten sehen HPC grundsätzlich als Schlüsseltechnologie, weil es die Infrastruktur schaffe, die moderne datengetriebene Anwendungen in Forschung und Unternehmen benötigen.

Kein & Aber Verlag, Douglas Adams, Per Anhalter durch die Galaxis
Fans des Romans "Per Anhalter durch die Galaxis" wissen vermutlich, worauf das Buchcover des Kein & Aber Verlags anspielt: Es ist nicht – wie zu vermuten wäre – der Supercomputer Deep Thought, sondern der "Paranoid Android" Marvin, ein depressiver Roboter mit suizidalen Anwandlungen.
© Kein & Aber Verlag

Firmen suchen ständig nach Wegen und Möglichkeiten, um noch leistungsfähigere Supercomputer zu entwickeln und ihr volles Potenzial auszuschöpfen. Ziel der Entwicklung sind Exascale-Systeme mit einer Rechenleistung von mindestens 1.000 Petaflops. Intel und Cray wollen beispielsweise 2021 den Aurora Exascale Supercomputer an das Argonne National Laboratory des US Department of Energy liefern. Die derzeit schnellsten und öffentlich bekannten Systeme werden jedes Jahr in einer Top-500-Liste gekürt. Unter den Top 10 der aktuellen Liste (Stand 19.11.2019) befindet sich der SuperMUC-NG am Leibniz-Rechenzentrum in München mit einem RPeak von 26,9 Petaflops. Diese hohe Leistung des Systems liefern insgesamt mehr als 6.400 Rechenknoten.

Literarischer Exkurs: Der Supercomputer Deep Thought
Prominentes Beispiel für einen Supercomputer in der Belletrikstik ist "Deep Thought" aus Douglas Adams‘ "Per Anhalter durch die Galaxis". Der aus den frühen 80er-Jahren stammende Roman avancierte innerhalb kurzer Zeit zu einem Klassiker der Science-Fiction-Literatur. Er zeichnet sich wie viele Werke Adams’ dadurch aus, dass er verschiedene Aspekte des Lebens parodiert, ins Groteske und Absurde verzerrt oder aus einem ungewöhnlichen Blickwinkel betrachtet. So wurde Deep Thought beispielsweise von einer außerirdischen Kultur speziell dafür gebaut, die Antwort auf die Frage aller Fragen, nämlich die "nach dem Leben, dem Universum und dem ganzen Rest" zu errechnen. Dabei ist er so leistungsfähig, dass er zum Zeitvertreib über die Vektoren sämtlicher Teilchen des Urknalls meditiert. Dennoch benötigt er 7,5 Millionen Jahre Rechenzeit, um diese Antwort zu ermitteln, und verkündet dann, sie laute "42" und sei mit absoluter Sicherheit korrekt. Dass sie dennoch unbefriedigend ist, erklärt er damit, dass die Frage zwar umschrieben, aber niemals als konkrete Frage formuliert wurde. Da er auch sich selbst nicht in der Lage dazu sieht, die Frage zu ermitteln, schlägt er vor, selbst einen noch größeren Computer zu konstruieren, so komplex, dass das organische Leben einen Teil seiner Arbeitsmatrix bildet. Dieser Computer ist der Planet Erde, der die ihm gestellte Aufgabe jedoch nicht abschließen kann, weil sich herausstellt, dass er einer geplanten Hyperraum-Umgehungsstraße im Weg ist und deshalb fünf Minuten vor Ablauf des Programms von einer kosmischen Bauflotte gesprengt wird. Ein Handlungsverlauf, der skurriler kaum sein könnte. Typisch Adams. (DK)

 


  1. Erfolgversprechender Flop
  2. Praktische Anwendung im wissenschaftlichen Umfeld
  3. Kernfusion und Krebsforschung

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu INTEL GmbH

Matchmaker+