Mit dieser Rechenpower im Gepäck verkündete Neri auf der Discover: HPE steigt in den KI-Cloud-Markt ein. Sein Konzern tritt damit in Konkurrenz zu Cloud-Größen wie AWS, Google und Microsoft sowie zu Open-Source-Lösungen und IBM, mit Watson ein Veteran im „KI as a Service“-Markt.
HPEs neues Angebot GreenLake for LLMs (Large Language Models) soll es Unternehmen jeder Größe ermöglichen, KI per multimandantenfähiger Supercomputer-Cloud zu trainieren, zu optimieren und zu nutzen. Es bildet laut HPE die erste einer Reihe spezifischer Varianten: Man plane Angebote für Klimamodellierung, Gesundheitswesen, Biowissenschaften, Finanzdienstleistungen, Fertigung, Transport und mehr.
GreenLake for LLMs erweitert HPEs GreenLake-Portfolio an „Alles von der Cloud bis zum Edge als Service“-Angeboten. Dieses umfasst seit letztem Jahr mit GreenLake Private Cloud Enterprise eine Managed Private Cloud, neuerdings mit GreenLake Private Cloud Business Edition auch eine als Service bereitgestellte, aber vom Anwenderunternehmen selbst verwaltete Private Cloud. Ein Sustainability Dashboard soll GreenLake-Nutzern künftig den Überblick über umweltrelevante Parameter geben. Ebenfalls neu: eine Partnerschaft mit der Colocation-Größe Equinix, dank der sich Private Clouds kurzfristig an zunächst sieben Equinix-Lokationen schnell bereitstellen lassen.
Für die KI-Cloud setzt HPE auf den deutschen KI-Spezialisten Aleph Alpha. Das Unternehmen aus Heidelberg bietet mit Luminous ein multimodales KI-Modell: Luminous kann Texte wie auch Bilder verwerten. GreenLake for LLMs gibt Anwendern Zugang zu dem vorab trainierten LLM von Aleph Alpha, verfügbar auf Deutsch, Englisch, Französisch, Italienisch und Spanisch. Die Pointe, wie bei so vielen neueren KI-Angeboten: Das Anwenderunternehmen kann das vortrainierte Modell nutzen, um mit internen Daten sein eigenes zu trainieren.
Anders als generische Public Clouds, so HPE, beruhe GreenLake for LLMs auf einer Architektur, die speziell für eine große KI-Trainings- und Simulationsumgebung konzipiert ist: Das Angebot unterstütze KI- und HPC-Aufgaben (High-Performance Computing) auf Hunderten oder Tausenden CPUs oder GPUs gleichzeitig. Dies mache das KI-Training wesentlich effizienter und erlaube es, präzisere KI-Modelle zu entwickeln, so HPE.
GreenLake for LLMs wird auf Cray-XD-Supercomputern laufen. Das Angebot umfasst das Cray Programming Environment, eine Softwaresuite zur Optimierung von HPC- und KI-Anwendungen. Zudem unterstützt die Plattform HPEs Machine Learning Development Environment zum schnellen Trainieren großer Modelle und die zugehörige Machine Learning Data Management Software. GreenLake for LLMs soll noch dieses Jahr in Nordamerika auf den Markt kommen, Europa soll Anfang 2024 folgen.
Enormes Potenzial von KI
Neri lud Gäste zur Podiumsdiskussion zu KI. Hier herrschte erwartungsgemäß große Einigkeit über deren Potenzial. „Generative KI ist der Anfang einer neuen Ära“, sagte Aleph-Alpha-Chef Jonas Andrulis. Generative KI, so Andrulis, werde die Welt wirklich verändern. Doch es gelte, die Zusammenarbeit zwischen Mensch und Maschine neu zu erfinden und auch das Verständnis „korrekter“ KI-Antworten weiterzuentwickeln.
„KI hat das größte Potenzial, Forschung, technologische Fortschritte und nachhaltiges Wachstum des Business zu verbessern“, so Iveta Lohovska, Principal Data Scientst AI bei HPE. KI könne hier viel leisten, zum Beispiel in der Gesundsheitsbranche mittels Computer Vision, ebenso für Geschäftsanalysen oder Security.
Chase Lochmiller von Crusoe Energy argumentierte, KI könne Menschen in allen Bereichen zehnmal so produktiv machen, von der Softwareentwicklung bis zum Marketing. Der Hauptwert für Unternehmen liege darin, hausinterne Expertise mit der Power von LLMs zu kombinieren. Doch er warnte: „Heute machen Rechenzentren ein bis 1,5 Prozent des globalen Stromverbrauchs aus, aber KI wird das über zehn Prozent hinaustreiben.“ Dies werde die Klimakrise befeuern. Crusoe verfolgt deshalb das Ziel, „gestrandete“, also überschüssige Energie aus anderen Industrien für RZs nutzbar zu machen.
Nachhaltigkeit vs. KI
Dem Klimadilemma versucht HPE zunächst mit Ingenieursarbeit zu begegnen: „Unsere Ingenieure bauen Nachhaltigkeit von Anfang bis Ende ein“, so CTO Fidelma Russo in ihrer Keynote mit Blick auf Aspekte vom Server-Design bis zur Flüssigkeitskühlung. Zudem werde man GreenLake for LLMs nur in umweltfreundlichen, energieeffizienten Colocation-Rechenzentren betreiben – schon aus schnöden monetären Gründen eine gute Wahl.
Den Anfang macht ein Colo-RZ von QScales in Lévis, einem Vorort der kanadischen Stadt Québec. Dieses läuft nach QScales-Angaben zu 99,5 Prozent mit Strom aus erneuerbaren Quellen, vorwiegend Wasserkraft, liegen Québec und Lévis doch direkt am Saint-Lawrence-Strom. Der kanadische Colo-Betreiber bemüht sich laut eigenen Angaben, Abwärme zurückzugewinnen und wiederzuverwenden. Außerdem, so QScales, eigne sich Québec zu 80 Prozent des Jahres für freie Kühlung. Und HPE hat sicher Ideen, wie man den RZ-Betrieb per KI-Analysen noch umweltfreundlicher gestalten kann.
Trotz aller Bemühungen der KI-Größen und Cloud-Betreiber: Der Carbon Footprint der globalen KI-Industrie wird durch die Decke schießen, wenn ein Teil der Menschheit künftig jeden Handgriff und Denkvorgang an ChatGPT & Co. auslagert. Und das wird passieren, ich kenn’ doch meine Hinzenheimer. Zum Glück folgt laut Gartners Hype Cycle auf den Hype-Gipfel stets das Tal der Enttäuschung. Und vielleicht wird man ja eines Tages mittels KI ein Heilmittel gegen exzessive KI-Abhängigkeit entwickeln. Dann könnte eine Anzeige in der „Apotheken Umschau“ lauten: „KI-Sucht – Gibt’s da nicht was von Ratiopharm?“