DeepL erweitert seine Nvidia-Infrastruktur. Voraussichtlich Mitte 2025 werde der Nvidia DGX SuperPOD mit DGX GB200-Systemen zum Einsatz kommen. Die höhere Rechenleistung solle genutzt werden, um neue Modelle zu trainieren und neue Funktionen zu entwickeln.
Um seine KI-Sprachtechnologie-Plattform wieter auszubauen, will DeepL im nächsten Jahr den Nvidia DGX SuperPOD in Betrieb nehmen. Dieser solle zusätzliche Rechenleistung bringen und für Forschungsberechnungen genutzt werden.
„Durch diese jüngste Investition in NVIDIA-Systeme für beschleunigtes Computing stellen wir unseren Forschungs- und Entwicklungsteams die nötige Rechenleistung zur Verfügung, mit der sie weiterhin Innovationen entwickeln und die KI‑Sprachtools und Funktionen auf den Markt bringen können, für die uns unsere Kunden kennen und schätzen“, sagt Jaroslaw Kutylowski, CEO und Gründer von DeepL.
Die flüssigkeitsgekühlte Rack-Infrastruktur der Nvidia DGX GB200-Systeme lasse sich laut Unternehmensangaben auf Zehntausende von Grafikprozessoren skalieren und enthalte Nvidia GB200-Grace Blackwell-Superchips. Damit wolle DeepL die KI‑Hochleistungsmodelle ausführen, die für seine generativen KI‑Anwendungen erforderlich sind. Diese Cluster der nächsten Generation wurden speziell entwickelt, um Höchstleistung und konstante Verfügbarkeit für das Training und die Inferenz von generativen KI‑Modellen in großem Maßstab zu gewährleisten.
Es sei demnach das dritte Mal, dass sich DeepL für einen Nvidia DGX SuperPOD entscheide. Vor einem Jahr wurde der Supercomputer DeepL Mercury vom Typ Nvidia DGX SuperPOD mit DGX H100-Systemen in Schweden in Betrieb genommen. Die neueste NVIDIA-Infrastruktur solle im gleichen schwedischen Rechenzentrum untergebracht werden.