Graphcore stellt IPU-POD128- und IPU-POD256-Systeme vor

KI-Systeme mit bis zu 64 Petaflops

2. November 2021, 8:00 Uhr | Anna Molder
Das IPU-POD256-System bietet eine hohe KI-Rechenleistung für Supercomputer-Umgebungen.
© Graphcore

Der europäische KI-Chiphersteller Graphcore hat mit dem IPU-POD128 und dem IPU-POD256 zwei neue KI-Systeme vorgestellt. Mit 32 Petaflops beim IPU-POD128 und 64 Petaflops beim IPU-POD256 bieten die Systeme eine hohe KI-Rechenleistung für Supercomputer-Umgebungen.

Die KI-Systeme sollen ein schnelles Training großer Transformer-basierter Sprachmodelle, Large-Scale-KI-Inferenzberechnungen und die Erforschung neuer KI-Modelle wie GPT und GNN (Graph Neural Networks) ermöglichen. Durch Aufteilung der Systeme in kleinere, flexible vPODs können mehrere KI-Entwickler Zugriff auf die IPUs (Intelligence Processing Units) erhalten. Die KI-Systeme eignen sich damit laut Graphcore insbesondere für Cloud-Hyperscaler, wissenschaftliche Rechenzentren und Unternehmen mit großen KI-Teams in Branchen wie der Finanz- oder Pharmaindustrie.

Die IPUs sollen aufgrund ihres On-Chip-Memorys eine hohe Leistung für traditionelle MatMul-Modelle wie Bert und ResNet-50 bieten. Darüber hinaus unterstützen sie laut Hersteller auch allgemeinere Berechnungsarten, die die Effizienz von Sparse-Multiplikationen und Fine-Grained-Berechnungen erhöhen. Die EfficientNet-Modellfamilie profitiere davon, aber auch verschiedene KI-Modelle für maschinelles Lernen, die nicht auf klassischen neuronalen Netzen basieren, zum Beispiel GNN.

Wie bei anderen IPU-POD-Systemen auch bedeute die Disaggregation von KI-Rechenleistung und Servern, dass man die  IPU-POD128- und IPU-POD256-Systeme weiter optimieren kann, um höchstmögliche Leistung für verschiedene KI-Workloads bereitzustellen und die Gesamtbetriebskosten (TCO) zu optimieren. Beispielsweise könne ein NLP-fokussiertes System mit nur zwei Servern auskommen, während datenintensivere Prozesse, wie zum Beispiel Computer-Vision-Tasks, eher von einer Konfiguration mit acht Servern profitieren.

Darüber hinaus lasse sich auch das angebundene Storage-System für bestimmte KI-Workloads optimieren. Die Storage-Anbieter DDN, Pure Storage, Vast Data und WekaIO unterstützen die KI-Systeme mit Referenzarchitekturen, so die weiteren Angaben.

Die IPU-POD128- und IPU-POD256-Systeme sind ab sofort über die Graphcore-Partner Atos, Boston und Megware in der DACH-Region lieferbar und auch als Cloud-Service im Angebot. Dazu bietet der Hersteller ein Schulungs- und Supportpaket an, das es ermöglichen soll, die KI-Server schon in kurzer Zeit produktiv einzusetzen.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu System-Management

Weitere Artikel zu Swissphone Telecommunications

Weitere Artikel zu Clint Digital

Matchmaker+