Künstliche Intelligenz und Klimawandel

Zwischen Energiefresser und Nachhaltigkeitsretter

23. Januar 2024, 11:45 Uhr | Autor: Andreas Thomasch / Redaktion: Lukas Steiglechner
© Starmarpro / AdobeStock

Die Weiterentwicklung von KI schreitet rasant voran. Die Technologie kann dabei entscheidende zum gesellschaftlichen Wohl beitragen – für die Gesundheitsversorgung, Mobilität oder gegen den Klimawandel. Doch damit KI zu mehr Nachhaltigkeit beitragen kann, muss der Energieverbrauch verbessert werden.

Künstliche Intelligenz (KI) hat das Potenzial bei der Lösung einiger der kniffligsten Probleme der Gesellschaft zu helfen: unter anderem auch dem Klimawandel. Gleichzeitig benötigt Künstliche Intelligenz und insbesondere generative KI eine enorme Rechenleistung und in Konsequenz sehr viel Strom. Aktuell verdoppelt sich die benötigte Rechenleistung für KI-Modelle alle fünf oder sechs Monate, sodass mit der steigenden Nachfrage nach dieser Technologie auch der Stromverbrauch weiter ansteigen wird. Rechenzentren verbrauchen bereits bis zu 1,5 Prozent des weltweiten Strombedarfs und haben weltweit in Summe etwa den gleichen CO2-Fußabdruck wie der globale Luftverkehr. In Deutschland selbst liegt der Energiebedarf bei über 18 Milliarden Kilowattstunden pro Jahr, was etwa 0,55 Prozent des Gesamtenergieverbrauchs entspricht. Das ist besonders bedenklich, wenn man berücksichtigt, dass circa 75 Prozent der verursachten Treibhausgasemissionen in der EU durch den hohen Stromverbrauch verursacht werden.

Neueste Ergebnisse von Gartner prognostizieren, dass KI dazu beitragen könnte, die weltweiten Treibhausgasemissionen bis 2030 um fünf bis zehn Prozent zu reduzieren. Gleichzeitig wird jedoch erwartet, dass KI bis zum selben Jahr bis zu 3,5 Prozent des weltweiten Stromverbrauchs ausmachen könnte. Die Technologiebranche steht nun vor einer klaren Herausforderung: das volle Potenzial der Technologie so nutzbar zu gestalten, dass der Energiebedarf von KI nicht die Vorteile auffrisst.

Energieverbrauch von Künstlicher Intelligenz

Der Energieverbrauch von KI setzt sich aus zwei Faktoren zusammen: Energie wird sowohl während des Trainings von Modellen als auch während der Inferenz verbraucht. Beim Training werden Modelle durch Daten iterativ verbessert, während bei der Inferenz Live-Daten durch ein bereits trainiertes KI-Modell verarbeitet werden, um spezifische Aufgaben zu lösen. Laut eines Forschungsberichts kann die Inferenz mindestens 60 Prozent des Energieverbrauchs von generativer KI ausmachen, während zum Beispiel auch die Integration von KI-Fähigkeiten in Web-Suchanfragen den Energiebedarf verzehnfachen kann.

Bei der Verwendung einer Suchmaschine gibt der Nutzer eine einzige Anfrage ein, während er bei einem generativen Modell in einen Dialog tritt, um das gewünschte Ergebnis zu erzielen. Diese Tatsache resultiert insgesamt in mehr Anfragen im Vergleich zur Nutzung bei einer herkömmlichen Suchmaschine.

Mit dem Aufkommen neuer Anwendungsgebiete für generative KI im Bereich Text, Bild und Video wird auch eine Zunahme von umfangreichen Modellen erwartet, die täglich trainiert, neu trainiert und verfeinert werden. Die gegenwärtigen generativen KI-Modelle erfordern im Vergleich zu früheren Generationen eine mehr als 200-fache Steigerung der Rechenleistung für das Training. Jede neu entstehende Modellgeneration beansprucht zusätzliche Rechenleistung für die Inferenz und erhöht den Energiebedarf für das Training. Es handelt sich um einen fortlaufenden Zyklus, der fortwährend zusätzliche Anforderungen an die erforderliche Infrastruktur stellt.

In Bezug auf die Hardware benötigen Grafikprozessoreinheiten (GPUs), die für KI verwendet werden, deutlich mehr Energie als ein herkömmliches CPU-System. Aktuelle GPUs können bis zu 700 Watt verbrauchen und eine durchschnittliche Konfiguration benötigt acht GPUs pro Server. Dies führt dazu, dass ein Server fast sechs Kilowatt verbraucht, im Gegensatz zu einem Kilowatt bei einem herkömmlichen 2-CPU-Server, den Unternehmen für die Virtualisierung einsetzen. Daher muss der Prozess nachhaltiger gestaltet werden.

Technologische Stellschrauben

Der erste Schritt besteht darin, zu verstehen, dass Nachhaltigkeit ein kontinuierlicher Prozess ist. Es gibt keine einzelne Maßnahme, die KI plötzlich nachhaltig gestalten kann. Allerdings können kleine Schritte einen großen Unterschied machen. Herstellern ist bewusst, dass sie leistungsfähigere Produkte entwickeln müssen, die gleichzeitig weniger Ressourcen verbrauchen. Diese Aufforderung kommt sowohl von Verbrauchern und Investoren als auch zunehmend von Regierungen. Die Energieeffizienz wird in der Zukunft für Organisationen im Bereich KI nicht nur eine ethische, sondern auch eine rechtliche Anforderung sein. Neuste Änderungen am AI-Act der EU schreiben vor, dass Betreiber fortschrittliche Methoden zur Reduzierung des Energieverbrauchs anwenden und die Effizienz ihrer KI-Plattformen verbessern müssen.

Technisch kann das auf drei verschiedenen Ebenen erreicht werden: Erstens durch Optimierung der Chips, die die Rechenleistung generieren, zweitens durch die Entwicklung umweltfreundlicher Computer, die auf diese Chips zugeschnitten sind, und drittens durch Effizienzverbesserungen in den Rechenzentren. Nachhaltigkeit wird für Chip- und PC-Hersteller zunehmend zu einem Wettbewerbsvorteil, insbesondere wenn Unternehmen bestrebt sind, ihre ESG-Ziele zu erreichen. In den kommenden Jahrzehnten könnten neue Fortschritte wie analoge Chips eine energieeffiziente Alternative bieten, die besonders gut für neuronale Netzwerke geeignet ist, wie aktuelle Forschung nahelegt.

In Rechenzentren stoßen ältere Luftkühlungstechnologien bereits an ihre Grenzen, um dem hohen Energiebedarf von KI gerecht zu werden. Kunden setzen deswegen vermehrt auf Flüssigkühlungen, um den Energieverbrauch zu minimieren. Dazu gehören zum Beispiel das Leibniz-Rechenzentrum (LRZ), das bereits seit über zehn Jahren eine Wasserkühlung einsetzt. Auch andere Einrichtungen, wie das Karlsruher Institut für Technologie (KIT) und das Zuse Institut Berlin (ZIB) nutzen warmwassergekühlte GPUs. Außerdem wird auch der neue Supercomputer des Potsdam Institut für Klimafolgenforschung (PIK) warmwassergekühlte KI-Systeme erhalten. Durch die effiziente Übertragung der von generativer KI erzeugten Wärme in Wasser können bis zu 30 bis 40 Prozent an elektrischer Energie eingespart und gleichzeitig die Rechenleistung durch diese bessere Kühlung erhöht werden.

Eine wachsende Anzahl von Kunden zeigt Interesse an derartigen Systemen, wobei dieser Trend sowohl von Nachhaltigkeits- als auch von Kostenzielen angetrieben wird. Dieses Interesse spiegelt sich sowohl bei Cloud-Service-Providern als auch bei Anbietern von Rechenzentrumskollokationen wider. Die verstärkten Anfragen zeugen von einer klaren Entwicklung in Richtung umweltfreundlicherer und kosteneffizienterer Kühlmethoden in der Branche.

Die Nutzung von Rechenzentren, die von erneuerbaren Energiequellen angetrieben werden, wird darüber hinaus entscheidend sein, um den CO2-Fußabdruck von KI zu reduzieren. As-a-Service-Ansätze für KI-Technologie können ebenfalls dazu beitragen, Verschwendung von Ressourcen durch geteilte Nutzung zu minimieren und sicherzustellen, dass Organisationen die neueste, nachhaltigste Hardware nutzen, ohne sofortige Kapitalausgaben tätigen zu müssen.

Mit KI zur Nachhaltigkeit

Viele nutzen KI zum Wohle der Gesellschaft, indem sie beispielsweise die medizinische Forschung verbessern oder den Klimawandel genauer erforschen. Andere hingegen setzen sie zum Beispiel zu Unterhaltungszwecken ein. Das wirft die Frage auf, ob diese unterschiedlichen Energieanforderungen unterschiedlich betrachtet werden sollten.

Es steht außer Frage, dass KI ein erhebliches Potenzial hat, positive Veränderungen zu bewirken und bereits in zahlreichen Bereichen Wirkungen zeigt. Es gibt zahlreiche Beispiele dafür, wie KI das Potenzial besitzt, die Auswirkungen des Klimawandels abzumildern. Die UN hebt hervor, dass KI nicht nur dazu beiträgt, extreme Wetterereignisse besser vorherzusagen und zu verstehen, sondern auch direkte Unterstützung für betroffene Gemeinschaften bereitstellen kann.

Zusätzlich dazu kann KI ein neues Verständnis unserer Umwelt schaffen, was wiederum dazu beitragen könnte, Treibhausgasemissionen zu verringern. In Smart Cities könnten Emissionen reduziert werden, indem mithilfe von KI die Betriebsdauer von Heizungen und Klimaanlagen verkürzt wird. Die Technologie erfasst die Gewohnheiten der Bewohner und kann die Heizung oder Klimaanlage bereits vor dem Verlassen der Häuser herunterfahren. Sie kann außerdem den Verkehr in einer Stadt steuern, um eine effiziente Fahrweise zu ermöglichen und Staus zu vermeiden. Das norwegische Start-up Oceanbox.io setzt auf KI, um die Tiefen des Ozeans zu erforschen. Es prognostiziert die Bewegung von Strömungen, um die Verschmutzung einzudämmen und hilft Schiffen, ihren Benzinverbrauch zu reduzieren.

Es steht außer Frage, dass KI erhebliche Mengen Energie benötigt. Deswegen muss dieses Problem schrittweise angegangen werden, indem auf Warmwasserkühlung anstatt auf Luftkühlung gesetzt, erneuerbare Energiequellen für den Betrieb von Rechenzentren genutzt und Innovationen in der Chip- und Computertechnologie gefördert werden.

Andreas Thomasch, Director HPC & AI DACH, France, UKI bei Lenovo


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lenovo Deutschland

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Nachhaltigkeit

Matchmaker+