Effizienz von Rechenzentren stieg in acht Jahren um den Faktor 6

Trotz immer mehr Leistungsbedarf ist der Energieverbrauch in Rechenzentren laut einer Studie seit 2010 fast gleich geblieben.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 42 Beiträge

(Bild: Tommy Lee Walker / Shutterstock.com)

Von

Rechenzentren mit großen Mengen an Prozessoren und Beschleunigerkarten sind seit 2010 deutlich effizienter geworden. Eine wissenschaftliche Ausarbeitung im Science-Magazin hat sich mit Rechenzentren von 2010 bis 2018 beschäftigt, deren Leistung in den acht Jahren um 550 Prozent gestiegen ist. Die Leistungsaufnahme wuchs im gleichen Zeitraum lediglich um 6 Prozent.

Laut den Wissenschaftlern machen Serverfarmen circa ein Prozent des weltweiten Energiebedarfs aus – anteilig genauso viel wie 2010. Sogenannte Hyperscale-Rechenzentren mit besonders viel gebündelter Rechenleistung arbeiten demnach effizienter als kleinere, lokale Server. Die elf größten Anbieter investieren mit Abstand das meiste Geld in ihre Rechenzentren – diesen Unternehmen dürfte die Effizienz besonders wichtig sein, weil sie schließlich große Mengen an Strom bezahlen müssen.

Deutsche Firmen halten allerdings gerne an deutschen Rechenzentren und eigenen Servern fest, was nicht zuletzt auch eine Frage des Datenschutzes ist. Die Vizepräsidentin der EU-Kommission, Margrethe Vestager, hat zudem eine andere Einschätzung in Sachen Energieverbrauch: Sie geht davon aus, durch die Digitalisierung werde der Verbrauch enorm ansteigen. Und auch Zahlen des Stromversorgers Eon legen nahe, dass alleine Streaming-Plattformen weltweit ungefähr so viel Strom verbrauchen, wie alle Haushalte in Deutschland, Italien und Polen zusammen. Der Warnung liegt freilich nicht alleine der Energieverbrauch im Verhältnis zur Leistung in Rechenzentren zu Grunde.

Die Effizienzsteigerungen kommen primär von verbesserten Chips mit feineren Fertigungsverfahren: Prozessoren werden unter anderem dank zusätzlicher Rechenkerne schneller, GPU-Beschleuniger erhalten stetig mehr Shader-Einheiten und neue spezialisierte FPGAs beziehungsweise ASICs erledigen bestimmte Aufgaben besonders energiesparend, zum Beispiel beim Trainieren und Ausführen von KI-Netzen.

Laut Google helfen zudem KI-Systeme, besser mit Energie umzugehen, zum Beispiel bei der Kühlung der Server. Smarte Temperaturmesser und Lichtsysteme kämen hinzu. Damit spare man bereits 30 Prozent des Energieverbrauchs ein. Umgerechnet liege der Stromverbrauch 2020 auf demselben Niveau von vor fünf Jahren bei einer siebenmal höheren Rechenleistung. In Deutschland lag der Stromverbrauch aus Rechenzentren zuletzt bei 13 Terawattstunden im Jahr – das ist etwa so viel wie auch Berlin verbraucht. Diskutiert wird immer wieder, ob die Abwärme der Server besser genutzt werden könne. Gerade die Betreiber fordern nachhaltige Lösungen.

c't beschäftigt sich in der aktuellen Ausgabe 6/2020 mit den Auswirkungen der IT-Branche auf den Klimawandel, darunter Daten zur CO2-Bilanz von Streaming, Smartphones und der Cloud. (mma)