Zum Inhalt springen
Mehr Effizienz, weniger Limit

Wie disaggregierter Speicher Rechenzentren für KI fit macht

Klassische Rechenzentrumsarchitekturen geraten durch KI-Anwendungen zunehmend an ihre Grenzen. Disaggregierte Speicherlösungen sollen hier Abhilfe schaffen – durch mehr Flexibilität, geringere Kosten und zukunftsfähige Skalierbarkeit. In Kombination mit NVMe-oF und Composable Infrastructure könnten sie zum neuen Standard für leistungsfähige IT-Infrastrukturen werden.

Autor: Uwe Kemmer / Redaktion: Diana Künstler • 30.1.2026 • ca. 3:25 Min

Rechenzentrum
© Western Digital Corporation

Viele Jahre lang galt sie als Königsweg für effiziente, skalierbare Rechenzentren: Hyper-Converged Infrastructure (HCI), also die Integration von Rechenleistung, Speicher und Netzwerk in einem einzigen, zentral verwalteten System (Node). Doch obwohl HCI die Komplexität von Rechenzentren deutlich reduziert, stößt die hyperkonvergente Infrastruktur mittlerweile an ihre Grenzen. Der Grund dafür ist der Boom bei Künstlicher Intelligenz (KI). Besonders generative KI (GenAI) erzeugt riesige Mengen unstrukturierter Daten. Laut McKinsey werden fortgeschrittene KI-Workloads bis 2030 70 Prozent der weltweiten Nachfrage nach Rechenzentrumskapazitäten ausmachen.

KI-Modelle benötigen schnelle Verfügbarkeit und sehr hohe I/O-Leistung. In HCI-Umgebungen entstehen Engpässe beim Zugriff und bei der Verarbeitung, gerade wenn Daten auf verschiedenen Nodes gespeichert sind. Es ist Zeit für einen Paradigmenwechsel: Storage und Computing sollten wieder entkoppelt werden, um flexibel und leistungsfähig auf KI-Workloads reagieren zu können.

Die Vorteile von disaggregiertem Speicher

Eine weitere Herausforderung der klassischen HCI-Architekturen liegt in den unterschiedlichen Lebenszyklen der einzelnen Komponenten. Rechenleistung und Speicher entwickeln sich nicht im gleichen Tempo weiter: Prozessoren und Beschleunigerkarten müssen deutlich häufiger erneuert werden als Speichersysteme. In hyperkonvergenten Umgebungen sind diese Komponenten jedoch fest miteinander gekoppelt und werden immer gemeinsam ausgetauscht.

Das führt in der Praxis zu unnötigen Kosten. Entweder müssen leistungsfähige Komponenten ersetzt werden, obwohl sie noch funktionsfähig sind oder es werden von Anfang an mehr Ressourcen eingeplant, als tatsächlich erforderlich sind. Mit dem steigenden Einsatz von Künstlicher Intelligenz verschärft sich dieses Problem zusätzlich. KI-Anwendungen stellen besonders hohe Anforderungen an CPUs und GPUs, die oft schon nach wenigen Jahren nicht mehr ausreichen. Speichermedien wie hochkapazitive HDDs hingegen sind langlebiger und müssen seltener ersetzt werden.

Disaggregierte Speicherarchitekturen lösen diesen Zielkonflikt auf. Speicher, Rechenleistung und Netzwerk werden getrennt betrachtet und lassen sich unabhängig voneinander erweitern oder modernisieren. So lässt sich Rechenleistung gezielt dort ausbauen, wo sie benötigt wird, während vorhandene Speicherressourcen weiter nutzbar sind. Das Ergebnis ist eine flexible, leistungsfähige und zugleich wirtschaftliche Infrastruktur, die sich besonders gut für KI-Anwendungen, cloudbasierte Software und andere datenintensive Einsatzbereiche eignet.

Die technologische Grundlage

Eine zentrale Rolle in diesem Ansatz spielt Non-Volatile Memory Express over Fabrics (NVMe-oF). Diese Technologie sorgt dafür, dass verteilte Speicherressourcen fast genauso schnell genutzt werden können wie lokal angeschlossene Speichersysteme. Für Anwendungen und Server wirkt es so, als befände sich der Speicher direkt im eigenen System – obwohl er tatsächlich an einem anderen Ort im Rechenzentrum liegt.

Das ist besonders wichtig für datenintensive Anwendungen wie Künstliche Intelligenz. NVMe-oF ermöglicht einen schnellen Datenaustausch mit minimalen Verzögerungen und verhindert so typische Engpässe bei der Verarbeitung großer Datenmengen. Gleichzeitig basiert die Technologie auf offenen Standards. Unternehmen bleiben dadurch flexibel und können unterschiedliche Systeme und Anbieter miteinander kombinieren, ohne sich festzulegen.

In Kombination bieten Disaggregation und NVMe-oF eine Architektur, die sowohl schnell als auch zukunftssicher ist: Speicher in Rechenzentren lässt sich bedarfsgerecht erweitern, ganz unabhängig von Rechen- oder Netzwerkkapazitäten.

Bedarfsgerechte Ressourennutzung

Während NVMe-oF und disaggregierte Architekturen die technische Basis schaffen, sorgt Composable Disaggregated Infrastructure (CDI) dafür, dass die Ressourcen eines Rechenzentrums maximal effizient genutzt werden. CDI kombiniert Rechenleistung, Speicher und Netzwerk über Software zu flexiblen, virtuellen Systemen – und kann diese bei Bedarf genauso schnell wieder freigeben. So verbindet es die physische Flexibilität der Hardware mit der Agilität moderner Software und entlastet gleichzeitig IT-Teams, die weniger Zeit mit Routineaufgaben wie Serverbereitstellung oder Speicherzuweisungen verbringen müssen.

CDI ist wie ein digitaler Schrank: In diesem stehen alle Komponenten des Rechenzentrums bereit – Prozessoren, Speicher, Netzwerkelemente und Beschleunigerkarten. Startet eine Anwendung, nimmt das System automatisch genau die Ressourcen aus dem Schrank, die benötigt werden, setzt sie virtuell zu einem funktionierenden Gesamtsystem zusammen und gibt sie anschließend wieder frei.

Für klassische Anwendungen, die konstanten und planbaren Bedarf haben, ist diese Flexibilität weniger wichtig. Bei KI-Training, großen Cloud-Diensten oder datenintensiven Anwendungen hingegen ist sie entscheidend. CDI ermöglicht hier eine schnelle, effiziente und bedarfsgerechte Nutzung aller verfügbaren Ressourcen. Deshalb wird CDI besonders in großen Rechenzentren eingesetzt, die bereits separate Pools für Rechenleistung, Speicher und Netzwerk aufgebaut haben.

Zukunftsfähiger Speicher: Modular und entkoppelt

Der Erfolg von KI-Anwendungen hängt nicht ausschließlich von Rechenleistung ab, sondern vor allem davon, wie schnell und effizient Daten bereitgestellt werden können. Disaggregierte Speicherarchitekturen in Kombination mit NVMe-oF und Softwareoptimierung schaffen die notwendige Grundlage: Sie machen Infrastruktur flexibel, skalierbar und wirtschaftlich. Unternehmen, die jetzt auf flexible, entkoppelte Architekturen setzen, positionieren sich optimal für das KI-Zeitalter.

HDDs stellen in diesem Kontext die Basis einer zukunftsorientierten Datenstrategie dar. Sie bieten höchste Kapazitäten zu geringen Kosten pro Terabyte und sind dank höherer Speicherdichte vergleichsweise energieeffizient – in Zeiten steigender Energiekosten und einem prognostizierten Strombedarf deutscher Rechenzentren von bis zu 37 Milliarden kWh bis 2030 ein entscheidender Faktor für Unternehmen.

Uwe Kemmer ist Director EMEA Field Engineering bei Western Digital Corporation.