Wirkt KI als nächster Klimaschocker?

Der Rechenbedarf für maschinelles Lernen ist enorm. Doch niemand weiß, wie stark sich das konkret auf den CO2-Ausstoß auswirkt.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 3 Beiträge

(Bild: dpa, Patrick Pleul)

Von
  • Martin Giles

Bei einer Konferenz in San Francisco kam kürzlich Gary Dickerson auf die Bühne und machte eine erstaunliche Vorhersage. Der Chef des Halbleiterkonzerns Applied Materials, der viele Unternehmen der Branche versorgt, warnte davor, dass bis 2025 die Rechenzentren, in denen heute KI-Algorithmen laufen, ein Zehntel des gesamtem Stromverbrauchs der Welt auffressen könnten. Verhindern lasse sich dies nur durch "signifikante Innovationen" sowohl bei Chipmaterialien, Produktion und Design.

Schon heute sind die Millionen von Rechenzentren auf dem Planeten für immerhin etwas mehr als zwei Prozent des gesamten Energiebedarfs verantwortlich. Doch dabei geht es nicht nur um Künstliche Intelligenz, sondern auch um Speicherdienste, E-Commerce und Hosting. Aktuell, schätzt man bei Applied Materials, nutzt die KI vielleicht 0,1 Prozent des Weltstrombedarfs.

Dickerson ist nicht der einzige IT-Experte, der warnende Worte findet. Anders Andrae von Huawei denkt ebenfalls, dass Rechenzentren bis 2025 ein Zehntel des verfügbaren Stroms fressen werden, aber auch er rechnet hier alle Dienste zusammen und nicht nur maschinelles Lernen oder KI.

Jonathan Koomey, Chefberater des leitenden Wissenschaftlers am Rocky Mountain Institute, ist einer der wenigen, die das anders sehen. Er erwartet, dass der Energieverbrauch der Rechenzentren in den nächsten paar Jahren relativ unverändert bleibt, trotz neuer Lastspitzen durch KI.

Klar ist, dass noch niemand weiß, wie die Sache letztlich ausgehen wird. Die Digitalisierung wird jedenfalls nicht ohne Strom funktionieren – und die KI ist leistungshungrig. So benötigt das Trainieren und Ablaufenlassen von Deep-Learning-Modellen enorme Datenmengen, was Speicher und Prozessoren belastet. Eine Studie der Forschungsgruppe OpenAI kommt zu dem Schluss, dass die Menge an Rechenleistung, die größere KI-Modelle benötigen, sich alle dreieinhalb Monate verdoppelt.

Applied Materials sieht in der Vorhersage seines Chefs zunächst ein Worst-Case-Szenario. Es trete nur ein, wenn es an neuem Denken bei Soft- und Hardware fehle. Sundeep Bajikar, Leiter der Firmenstrategie und für Market Intelligence zuständig, sagt, dass es einen Wandel geben wird, welche Informationen mit KI-Modellen verwendet werden. Dabei werden einfache Texte oder Audiodateien immer weniger und es kommt zunehmend zur Verwendung von Videodaten, die rechenintensiver sind und deshalb mehr Energie benötigen.

Auch die Modelle werden komplexer, wenn sich autonome Fahrzeuge oder Geräte mit immer mehr Sensoren durchsetzen. Gleichzeitig wird das Netz immer schneller, die 5G-Revolution soll ja schließlich vor der Tür stehen. Bajikar glaubt, dass diese und andere Trends es extrem dringlich machen, ein "neues Spielfeld" zu eröffnen, was die Chipproduktion angeht. Dabei müssen neue Herstellungsprozesse ebenso her wie neue Rohstoffe.

Wenn sich nichts verändert, hat die KI negative Auswirkungen für das Klima. Eine Studie der University of Massachusetts brachte kürzlich hervor, dass das Training mehrerer populärer und großer KI-Modelle ungefähr fünf Mal soviel CO2-Ausstoß produziert hat wie die durchschnittlichen Lebensemissionen eines durchschnittlichen Autos in den Vereinigten Staaten.

Doch es gibt auch Grund zur Hoffnung. Firmen wie Facebook oder Amazon arbeiten an "Hyperscale"-Rechenzentren für spezifische Anwendungen. Deren Server sind energieeffizienter und für KI-Aufgaben vorgesehen, zudem verfügen sie über neuartige Kühlungssysteme und andere Verfahren, die dabei helfen, unnötigen Energieverbrauch einzudämmen. Bislang scheint das auch schon gut zu klappen, da der Strombedarf zumindest nicht signifikant zuzunehmen scheint, wenn man ein Rechenzentrum "hyperskaliert".

Neue Prozessoren könnten ebenfalls helfen. Applied Materials wendet seine Berechnung auf aktuelle Hardware an. Diverse Start-ups, aber auch Konzerne wie Intel oder AMD entwickeln jedoch Halbleiter, die unter anderem die Photonik einsetzen, um neuronale Netze und andere KI-Werkzeuge mit weniger Leistungsbedarf zu betreiben.

Optimist Koomey meint außerdem, dass bestimmte KI-Aufgaben, wie Mustererkennung, nicht unbedingt genaue Ergebnisse benötigen. Hier reichten einfachere Modelle. Das wiederum senkt den Energiebedarf. Und dann wären da noch technische Fortschritte: So lernt KI mittlerweile selbst, wie Administratoren vorgehen müssen, um Energie zu sparen – und wendet dieses Wissen dann automatisiert an. Bei Google wird das bereits getan.

(bsc)