Künftige Rechenzentren sollen noch stärker auf einen möglichst geringen Energie- und Wasserverbrauch getrimmt werden, verspricht Microsoft. Ein wichtiger Ansatzpunkt dafür ist die Standortwahl. War hier früher meist vor allem die reine Verfügbarkeit von Energie und Kühlwasser ausschlaggebend, spielen inzwischen eher solche Faktoren eine gewichtige Rolle, die einen möglichst geringen Einsatz der beiden Ressourcen begünstigen. So wurden zuletzt etwa mehrere neue Datacenter gezielt in Des Moines im Bundesstaat Iowa gebaut, wo die Temperaturen kalt genug sind, um die Rechenzentren weitestgehend mit Luft zu kühlen. Nur bei besonders hoher Auslastung und an heißen Sommertagen muss zusätzlich die Wasserkühlung genutzt werden. Das verbessert die Wasserverbrauchseffizienz WUE (Water usage effectiveness) erheblich. Noch in diesem Jahr sollen deshalb Datacenter Nummer 4 und 5 im örtlichen Cluster fertiggestellt werden, die Microsoft vor allem für Training und Betrieb der lastintensiven KI-Lösungen nutzen will. Alleine dafür stehen vor Ort dann fast 300.000 Prozessorkerne und mehr als 10.000 GPUs zur Verfügung.
Doch selbst unter solch guten Bedingungen werden noch immer erhebliche Mengen Wasser verbraucht. So sollen in Des Moines etwa alleine für die Schlussphase des Trainings von GPT 4 im Juli 2022 fast 45 Millionen Liter Wasser aufgewendet worden sein. Laut den lokalen Wasserwerken, die das Trinkwasser aus zwei Flüssen gewinnen und aufbereiten, entsprach das rund sechs Prozent des gesamten Wasserverbrauchs in ihrem Netzgebiet. Angesichts dieser Dimension kommen die kommunale Verwaltung und Politik nun offenbar ins Grübeln. Obwohl auch die Stadt und der Bezirk über die Steuern und Abgaben bestens an den Datacentern verdienen, wollen sie den weiteren Ausbau deutlich einschränken. Um eine Wasserknappheit für die Bürger und andere Betriebe zu verhindern, sollen neue Rechenzentren künftig nur noch genehmigt werden, wenn es Microsoft gelingt, den Wasserverbrauch deutlich unter das aktuelle Niveau zurückzufahren.
Eine Herausforderung, die gerade angesichts des KI-Booms nur schwer zu meistern sein dürfte. Denn obwohl das Training die meiste Rechenleistung benötigt, schlucken die Systeme auch im anschließenden Normalbetrieb einiges an Leistung, Energie und Kühlwasser. Eine US-Studie schätzt etwa, dass eine typische Anfrage an ChatGPT mit 25 bis 50 einzelnen Prompts einen halben Liter Trinkwasser kostet. Ein Aspekt, der bei den Diskussionen rund um KI nicht außer Acht gelassen werden sollte. Die Nachhaltigkeitsbemühungen und auch die mit den Berichten gezeigte Offenheit weisen hier zumindest in die richtige Richtung. Zwar wird kein Unternehmen durch die entsprechenden Berichte oder Vorhaben per se umweltfreundlicher oder nachhaltiger. Dennoch zeigen sie klar, dass man sich ernsthaft mit dem Thema beschäftigt und nach lohnenswerten Ansatzpunkten sucht, um weitere Einsparungspotenziale zu heben. Wird das so transparent gemacht wie in diesen Fällen, erhöht es zudem zugleich den Druck der Öffentlichkeit.