Missing Link: Künstliche Intelligenz und Nachhaltigkeit – und ewig grüßt der Rebound-Effekt

Die Digitalkonzerne versprechen eine bessere Welt – mit Hilfe von Künstlicher Intelligenz. Doch wie sieht es aus mit dem Energiebedarf und dessen Fortschritt?

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 69 Beiträge

(Bild: Connect world/Shutterstock.com)

Von

Was ist dran am Versprechen, durch digitale Technologien würde unsere Welt nicht nur besser, schneller und demokratischer, sondern auch noch nachhaltiger? Stichwort: Videokonferenz statt Flug in der Business-Klasse? Oft passiert das Gegenteil, mögliche oder tatsächliche Einsparungseffekte werden durch veränderte oder vermehrte Nutzung zunichte gemacht oder sogar ins Negative verkehrt, das nennt man dann Rebound-Effekt.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Ein Beitrag von Timo Daum

(Bild: 

Timo Daum/Fabian Grimm

)

Timo Daum, geboren 1967, Timo Daum ist Physiker, kennt sich mit dem Digitalen Kapitalismus aus, ist Gastwissenschaftler beim Institut für digitale Mobilität und gesellschaftliche Differenzierung in Berlin. Zuletzt ist im Frühjahr 2019 sein Buch "Die Künstliche Intelligenz des Kapitals" bei der Edition Nautilus erschienen.

Wie sieht es mit Künstlicher Intelligenz aus, einer der gegenwärtig lautesten Trends, mit dem insbesondere die Digitalkonzerne zu beiden Seiten des Pazifiks die Welt mal wieder verbessern, sprich weiter beschleunigen und gleichzeitig energetisch verschlanken wollen?

Anmerkung aus aktuellem Anlass: Hier wird viel die Rede sein von exponentiellem Wachstum im Zusammenhang mit Technologie. Derzeit beschäftigt uns vorrangig ein ebenfalls exponentiell sich verbreitendes Phänomen, die Corona-Pandemie, neben der Erderwärmung ein weiteres globales Phänomen, dass der Menschheit zu entgleiten droht. Vielleicht gibt diese Krise Anlass zur Hoffnung insofern, als dass eine Infragestellung des höher, weiter, schneller im Kapitalismus in Zukunft stärker Gehör finden mag.

Applied Materials ist einer der größten Zulieferer der Halbleiterindustrie, sein Chef Gary Dickerson warnte kürzlich auf einer Konferenz in San Francisco, bis 2025 könnten KI-Prozesse zehn Prozent des weltweiten Energieverbrauchs von Rechenzentren beanspruchen, wenn bis dahin keine wesentlichen Innovationen bei Materialien, Chipherstellung oder Design gelängen – derzeit sind sie für gerade einmal 0,1 Prozent verantwortlich.

Dickerson versicherte, das sei ein worst-case Szenario, die grundsätzliche Einschätzung wird in der Branche aber durchaus geteilt. Denn das Trainieren und Ausführen von Dingen wie Deep-Learning-Modellen bringt das Bearbeiten großer Datenmengen mit sich, was Speicher und Prozessoren extrem beansprucht. Eine Studie der Forschungsgruppe OpenAI besagt, dass sich der Rechenaufwand für große KI-Modelle bereits alle dreieinhalb Monate verdoppelt – es handelt sich also um eine exponentielle Steigerung, ähnlich wie bei Moores Gesetz.

Rechenintensität von KI-Anwendungen

(Bild: OpenAI )

Damit ein Kind lernt, was ein Eichhörnchen ist, reicht meist eine Begegnung mit einem einzigen Exemplar. Damit eine Software zuverlässig Eichhörnchen identifizieren kann, beispielsweise auf Fotos, muss sie mit Millionen Trainings-, Demo, und Testbildern in vielen Iterationsschleifen gefüttert werden, bis sie dann schlussendlich eine Trefferquote erreicht, die zufriedenstellend und mit der von menschlichen Vergleichspersonen vergleichbar ist, typischerweise oberhalb von 97 Prozent.

Gary Dickerson Keynote – AI Design Forum™ 2019

Wissenschaftlerinnen der Universität von Massachusetts haben gerade berechnet, das Training eines einzigen solchen Modells verursache den gleichen CO2-Ausstoss wie 315 Flügen zwischen San Francisco-New York, nämlich 284 Tonnen. Insbesondere drei Trends werden diesen Aufwand voraussichtlich in Zukunft noch verstärken:

  • Immer mehr Audio- und Videodaten werden als Trainingsdaten verwendet, diese ziehen einen erheblich höheren Speicher- und Verarbeitungsaufwand nach sich als Texte und Bilder.
  • In vielen neuen Anwendungsfeldern, wie etwa dem autonomen Fahren, wird eine Vielzahl an Sensoren verbaut, die einen breiten Datenstrom liefern, der zum Training der entsprechenden Modelle verwendet wird.
  • Durch die Etablierung des 5G-Standards in der mobilen Datenübertragung werden immer größere Bandbreiten beim Transport von und zu Rechenzentren möglich.

Was sagt die Industrie zu den Warnungen vor immer größerem Energieverbrauch? Einige Ansätze, die derzeit diskutiert werden, sind folgende:

  • Bei allen großen Cloud-Anbietern geht der Trend zur Spezialisierung: Statt dass Rechenzentren eine breite Palette an Aufgaben erledigen, werden diese zunehmend ausschließlich für Spezialaufgaben eingesetzt, das nennt sich dann Hyperscale.
  • Viele Firmen entwickeln spezialisierte Computerchips für KI-Anwendungen, so hat z.B. Tesla einen eigenen Chip für autonomes Fahren entwickelt. Fortschritte bei der Kühlung und anderen Technologien wird ebenfalls noch als Potenzial gesehen.
  • Größte Hoffnungen setze die Branche jedoch auf KI selbst. Google sei es mit Hilfe von maschinellem Lernen gelungen, ihre Kühlkosten um 40% zu senken, heißt es immer wieder.

KI soll also die Probleme lösen helfen, die sie selbst verursacht hat, das erinnert an Baron Münchhausen, dem bekanntlich gelungen ist, sich am eigenen Schopfe aus dem Sumpf zu ziehen. Mit derlei technologischen Zirkelschlüsse sind wird endgültig in einer soluzionistischen Feedbackschleife gelandet. Als "Solutionism" bezeichnet Evgeny Morozov die Vorstellung, dass Technologie mit dem richtigen Code, den richtigen Algorithmen und Robotern alle Probleme der Menschheit wird lösen können. Wen das nicht überzeugt, der wird dann darauf verwiesen, ein Großteil des Stroms stamme eh aus erneuerbaren Energien. So argumentiert auch Tesla, wenn es um deren Batterien für Elektroautos geht.

Die Digitalkonzerne versprechen seit jeher, mit Hilfe digitaler Informationstechnologien sei ein Ausbruch aus dem fossilen Kapitalismus und blühende Landschaften trotz Grenzen des Wachstums möglich. In der Tat hat ja der industriell-fossile Kapitalismus gründlich abgewirtschaftet und den Planeten an den Rand der Klimakatastrophe gebracht. Optimierungspotenziale? Fehlanzeige. Ein Beispiel dazu aus der fossilen Welt:

"Früher war alles besser? Von wegen! Vor allem beim Verbrauch haben sich unsere Autos prima entwickelt" schreibt die Redation von Auto Bild und führt ein Beispiel an, um die frohe Botschaft zu untermauern: Der Mercedes E 230 aus dem Jahr 1990 genehmigte sich noch 10,4 Liter Super auf hundert Kilometer, in den seitdem vergangenen 30 Jahren haben die Ingenieure ganze Arbeit geleistet. Das aktuelle Nachfolgemodell der Daimler E 200 CGI verbraucht trotz höherer Leistung und trotz höheren Gewichts – es bleibt das Geheimnis der Redaktion, warum sie höheres Gewicht als feature und nicht als bug betrachten – nur noch ganze 8,1 Liter. In 30 Jahren ist also eine Verbrauchsreduktion um sage und schreibe 22 Prozent gelungen, man muss schon eine gehörige Portion Benzin im Blut haben, um – wie die Auto Bild-Redaktion – das beachtlich zu finden. War nicht mal vom Drei-Liter-Auto die Rede?

Vergleichen wir das mal mit der Computertechnik: Im Jahre 1990 war man mit einem Personal-Computer mit Intel 386-Prozessor und 20 MHz Taktfrequenz gut bedient. Würden wir uns heute, zwanzig Jahre später mit einem um 22 Prozent schnelleren, also mit 24 MHz getakteten Rechner zufrieden geben – wohl kaum. Anders gesagt: Würde der neue Daimler 0,05 Liter Sprit auf 100 Kilometer verbrauchen, also ca. ein Zweihundertstel des Werts von 1990 wären wir in einer vergleichbaren Größenordnung angelangt. Fazit: hier ist wenig bis gar nichts an Effizienz zu holen, deshalb ja auch derzeit der Umstieg auf eine andere Antriebstechnologie ansteht.

Doch halt, Leistung ist ja das eine, wir alle kennen Moores Gesetz, nach dem alle zwei Jahre die Leistung sich verdoppelt bei gleichbleibendem Platzbedarf und gleichbleibenden Preisen. Wie sieht es mit dem Energieverbrauch aus? Hier gilt ein ganz ähnliches Gesetz, benannt nach seinem Erfinder Jonathan Koomey, das dieser erstmals vor zehn Jahren publizierte, es lautet: "Der Batterieverbrauch für konstante Rechenleistung halbiert sich alle anderthalb Jahre." Anders ausgedrückt: Seit etwa einem halben Jahrhundert verdoppelt sich die Anzahl der Berechnungen pro Joule verbrauchter Energie etwa alle 1,57 Jahre.

Exponentielle Energieeinsparung begleitet also die Digitalisierung, das ist doch mal eine gute Nachricht, der Verbrennungsmotor kann da nur vor Neid erblassen: Gälte Koomeys Gesetz auch für den Energieverbrauche von Verbrennungsmotoren dürfte unser Daimler vom vorherigen Beispiel nur ein Zweihundertstel seines 1990er Modells schlucken, das sind 0,0025 Liter auf hundert Kilometer, in etwa ein Zehntel eines Schnapsglases.

Graph of computations/kWh from 1946 to 2009 by Jonathan Koomey

(Bild: Dr Jon Koomey / CC BY-SA )

Jonathan Koomey meldete sich kürzlich auch zur Debatte um den Energieverbraucht von KI, er geht davon aus, dass der Energieverbrauch von Rechenzentren in den nächsten Jahren trotz eines Anstiegs der AI-bezogenen Aktivitäten relativ konstant bleiben wird. In einer Veröffentlichung in Science beschreiben die Autorinnen und Autoren, darunter Koomey, dass sich der workload von Rechenzentren seit 2010 mehr als versechsfacht habe, gleichzeitig sei der Energieverbrauch jedoch weitgehend konstant geblieben, hauptsächlich durch verbesserte Energieeffizienz.

Um die Energieeffizienz weiter zu fördern empfehlen die Autoren des Berichts den politischen Entscheidungsträgern strenge Energieeffizienzstandards für Server, Speicher und Netzwerkgeräte durchzusetzen und Richtlinien zu verabschieden, die den Einsatz von effizienterem Cloud Computing fördern. Rechenzentrumsbetreiber sollten zudem ihren Energieverbrauch veröffentlichen müssen.

Verwirrt? Kein Wunder! Wenn selbst Experten bei einer so einfachen und gleichwohl wichtigen Frage wie dem zukünftigen Energiebedarf von KI-Technologien in Ihren Prognosen meilenweit auseinanderliegen, dann dürfte eins klar sein: Die Frage ist keine rein technische, sondern eine gesellschaftliche.

Was folgt daraus? Jedenfalls kein Nachhaltigkeits-Automatismus. Die Potenziale sind zwar riesig, insbesondere im Vergleich zu legacy-Technologien, wie dem Verbrennungsmotor. Aber um diese tatsächlich auszuschöpfen, ist eine Debatte um die Ziele des Einsatzes von KI und Technologie nötig. Und es ist vielleicht an der Zeit, auch für uns Techies, die Komfort-Zone zu verlassen, uns jenseits des naturwissenschaftlich-technisches Terrains zu begeben und für gesellschaftliche Veränderungen einzutreten.

Damit nicht, wie zum Beispiel beim Verbrennungsmotor, ein Sales-Trend wie derjenige der SUVs sämtliche Einspareffekte zunichtemacht. Damit nicht ein paar Digitalkonzerne entscheiden, ob wir einen Großteil unseres Energieverbrauchs für das Training von Katzenvideo-Erkennung und ähnlichem aufbringen.

Was soll passieren, wenn die Corona-Krise vorbei geht? Wird dann wieder auf die Tube gedrückt? Gilt dann wieder: Wachstum, Wachstum über alles? Heißt es dann wieder: Der Markt soll es richten?

Nächste Woche in der Fortsetzung… (bme)