Supercomputing

Erfolgversprechender Flop

2. Juni 2020, 8:41 Uhr | Autor: Stephan Gillich / Redaktion: Diana Künstler

Fortsetzung des Artikels von Teil 2

Kernfusion und Krebsforschung

Auch eine Vielzahl weiterer Forschungsstätten setzt auf die Rechenleistung von Supercomputern, um Projekte mit großen Datenmengen weiter voranzutreiben:

Oak Ridge National Laboratory, Reaktor
Virtueller Reaktor: Der Denovo-Code, mit dem das Verhalten von Neutronen in einem Kernkraftreaktor modelliert wird, hilft Ingenieuren beim Entwurf von Kernkraftwerken mit verbesserter Leistung und Sicherheit.
© Oak Ridge National Laboratory

Forschung an Kernfusion: Das Jülich Forschungszentrum ist Teil des internationalen ITER-Projekts zur Entwicklung von Kraftwerken auf Basis von Kernfusion. Ziel ist es, den Prozess, mit dem die Sonne und andere Sterne ihre Energie erzeugen, auch auf der Erde zu nutzen und damit eine sichere, umweltfreundliche und langfristige Energieversorgung zu realisieren. Besonders die erforderlichen Materialeigenschaften der Reaktoren und deren Wechselwirkungen mit der Materie in den Brennkammern stehen hierbei im Fokus. 

Medizinische Krebsforschung: Zur Erkennung und Behandlung von Gehirntumoren nutzen Forscher am Texas Advanced Computing Center den Supercomputer Frontera. Sie erstellen komplexe biophysikalische Modelle von solchen Tumoren und deren Entwicklung, um diese besser diagnostizieren und behandeln zu können. Frontera ermöglicht die automatische Verarbeitung medizinischer Bilder, um das Ausmaß von Krebsgeschwüren über das Wachstum des Haupttumors hinaus zu erkennen.

Höchstleistungen im nationalen Verbund

Höchstleistungsrechnen gilt als unverzichtbarer Baustein der neuen Hightech-Strategie der Bundesregierung. Das Bundesforschungsministerium (BMBF) fördert es daher nach eigener Aussage als Basis für wissenschaftliche Exzellenz in Deutschland und Wertschöpfungspotenziale der Wirtschaft durch den Ausbau von Rechenkapazitäten, Vernetzung und Technologien.

Die drei leistungsfähigsten Rechenzentren Deutschlands sind seit 2007 unter dem Dach des “Gauss Centre for Supercomputing” (GCS) vereint: das Höchstleistungsrechenzentrum Stuttgart (HLRS), das Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften in Garching bei München (LRZ) und das Jülicher Supercomputing Centre (JSC). Dazu haben das Bundesforschungsministerium und die Wissenschaftsministerien von Baden-Württemberg, Bayern und Nordrhein-Westfalen ein Verwaltungsabkommen geschlossen.

Seit 2017 geht die Förderung des Höchstleistungsrechnens in Deutschland in die zweite Runde. Das Forschungsministerium und die Länder Baden-Württemberg, Bayern und NRW werden bis zum Jahr 2025 circa 450 Millionen Euro in GCS investieren. Dabei steht neben dem weiteren schrittweisen Ausbau der Infrastruktur auch die Weiterentwicklung von Rechner- und Softwaretechnologien im Mittelpunkt. Aktuell stehen den deutschen Forscherinnen und Forschern drei GCS Supercomputer mit einer Rechenkapazität von insgesamt 60 Petaflops zur Verfügung. Die Rechner sind spezifisch auf die unterschiedlichen Anwendungsschwerpunkte an den Standorten abgestimmt.

Ein europäisches Ökosystem
Trotz des massiven Ausbaus der Supercomputerkapazitäten könne die europaweite Nachfrage an Rechenzeit laut BMBF kaum befriedigt werden. Mit dem von Deutschland maßgeblich vorangetriebene Supercomputer-Netzwerk PRACE (Partnership for Advanced Computing in Europe) haben europäische Wissenschaftlerinnen und Wissenschaftler sowie Unternehmen Zugang zu den leistungsfähigsten Rechenressourcen Europas, um Forschung auf höchstem Niveau betreiben zu können.

Zusätzlich wurde Ende 2018 das “Gemeinsame Unternehmen EuroHPC” gegründet mit dem Ziel, eine europäisches Supercomputer-Ökosystem auf Weltniveau zur Verfügung zu stellen. Die europäische Kommission und die Mitgliedsstaaten stellen damit einen unabhängigen Zugang zu Rechnern, Technologien und Anwendungen für die europäische Wissenschaft und Wirtschaft sicher.

Mit dem Start von EuroHPC – mit Deutschland als einem der Gründungsmitglieder – wird erstmals auch die europäische Kommission die Beschaffung und den Betrieb von Supercomputern unterstützen. Konkret will die EU die Hälfte der Investitions- und Betriebskosten der zukünftigen EuroHPC-Infrastruktur tragen. Stand heute hat EuroHPC die Beschaffung von drei Pre-Exascale-Systemen (mit mehr als 150 Petaflops Leistung) sowie weiterer fünf Petascale-Systeme (mit mindestens 4 Petaflops Leistung) beschlossen. Die Supercomputer sollen in der zweiten Jahreshälfte 2020 in Betrieb gehen und den europäischen Nutzern aus Wissenschaft, Industrie und öffentlichem Sektor zur Verfügung stehen. (DK)

 

Moderne Wissenschaft und Forschung sind ohne High Performance Computing oder Künstliche Intelligenz nicht mehr denkbar. Sie helfen, Antworten auf drängende Fragen unserer Zeit zu finden, wie etwa zu Klima- und Umweltschutz, zur Entwicklung wirksamer Medikamente oder neuer Materialien. Wissenschaft und Industrie benötigen dafür hohe Rechenleistungen, um die enorme Datenmenge zu verarbeiten und mit Hilfe von Forschung die Grundlage für die Welt von morgen zu schaffen.

Stephan Gillich ist Direktor Künstliche Intelligenz – GTM, EMEA, Datacenter Group, Intel Deutschland.


  1. Erfolgversprechender Flop
  2. Praktische Anwendung im wissenschaftlichen Umfeld
  3. Kernfusion und Krebsforschung

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu INTEL GmbH

Matchmaker+