Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Gefahr: Künstliche Intelligenz-Rechenzentren überfordern das globale Stromnetz

Von: StudyFinds via The Conversation

Sie haben ein Monster geschaffen, das die Welt bedroht. Schon jetzt verbrauchen KI-Rechenzentren so viel Strom wie die Niederlande. Nächstes Jahr wird es so viel sein wie in Japan. Bis 2030 wird KI über 10 % des weltweit erzeugten Stroms verbrauchen. Und denken Sie daran: KI steht erst am Anfang!

Die KI verwandelt sich in einen riesigen Vampirkalmar, der in der Lage ist, die ganze Welt zu fressen, auch wenn er dabei nicht irgendwie harpuniert wird.

TN Editor

Der Boom der künstlichen Intelligenz hat sich so stark auf die großen Technologieunternehmen ausgewirkt, dass ihr Energieverbrauch und damit auch ihre Kohlenstoffemissionen in die Höhe geschnellt sind.

Der spektakuläre Erfolg von großen Sprachmodellen wie ChatGPT hat dazu beigetragen, den Energiebedarf in die Höhe zu treiben. Mit 2,9 Wattstunden pro ChatGPT-Anfrage verbrauchen KI-Anfragen etwa zehnmal so viel Strom wie herkömmliche Google-Anfragen, so das Electric Power Research Institute, ein gemeinnütziges Forschungsunternehmen. Neu entstehende KI-Funktionen wie Audio- und Videogenerierung werden diesen Energiebedarf wahrscheinlich noch erhöhen.

Der Energiebedarf der KI verändert das Kalkül der Energieunternehmen. Sie prüfen nun bisher unhaltbare Optionen, wie die Wiederinbetriebnahme eines Kernreaktors im Kraftwerk Three Mile Island, das seit der berüchtigten Katastrophe von 1979 stillgelegt ist.

Datenzentren wachsen seit Jahrzehnten kontinuierlich, aber das Ausmaß des Wachstums in der noch jungen Ära der großen Sprachmodelle ist außergewöhnlich. Die künstliche Intelligenz erfordert viel mehr Rechen- und Datenspeicherressourcen, als das Wachstum der Rechenzentren vor der künstlichen Intelligenz bieten konnte.

Die Datenspeicherung ist im Laufe der Jahre zu einem immer größeren Problem für die Stromnetze geworden. Angesichts des raschen Anstiegs der künstlichen Intelligenz und ihrer Anforderungen warnen Experten, dass viele Stromnetze bereits an der Kapazitätsgrenze angelangt sind.

KI und das Stromnetz

Dank der künstlichen Intelligenz steht das Stromnetz, das vielerorts bereits an seine Kapazitätsgrenzen stößt oder mit Stabilitätsproblemen zu kämpfen hat, unter größerem Druck als bisher. Außerdem gibt es eine erhebliche Verzögerung zwischen dem Wachstum der Datenverarbeitung und dem Wachstum des Stromnetzes. Der Bau von Rechenzentren dauert ein bis zwei Jahre, während die Einspeisung neuer Energie in das Stromnetz mehr als vier Jahre in Anspruch nimmt.

Wie aus einem kürzlich erschienenen Bericht des Electric Power Research Institute hervorgeht, befinden sich 80 % der Rechenzentren in den USA in nur 15 Bundesstaaten. In einigen Staaten – wie Virginia, der Heimat von Data Center Alley – werden erstaunlicherweise über 25 % des Stroms von Rechenzentren verbraucht. In anderen Teilen der Welt gibt es ähnliche Trends zum Wachstum von Rechenzentren. Irland zum Beispiel hat sich zu einer Rechenzentrumsnation entwickelt.

Neben der Notwendigkeit, mehr Strom zu erzeugen, um dieses Wachstum aufrechtzuerhalten, haben fast alle Länder Dekarbonisierungsziele. Das bedeutet, dass sie danach streben, mehr erneuerbare Energiequellen in das Netz zu integrieren. Erneuerbare Energien wie Wind und Sonne sind unstetig: Der Wind weht nicht immer und die Sonne scheint nicht immer. Der Mangel an billigen, umweltfreundlichen und skalierbaren Energiespeichern bedeutet, dass das Netz vor einem noch größeren Problem steht, Angebot und Nachfrage aufeinander abzustimmen.

Zu den weiteren Herausforderungen für das Wachstum von Rechenzentren gehört der zunehmende Einsatz von Wasserkühlung aus Effizienzgründen, der die begrenzten Süßwasserquellen belastet. Infolgedessen wehren sich einige Gemeinden gegen neue Investitionen in Rechenzentren.

Bessere Technik

Es gibt mehrere Möglichkeiten, wie die Branche diese Energiekrise bewältigen kann. Erstens ist die Computerhardware im Laufe der Jahre wesentlich energieeffizienter geworden, was die ausgeführten Operationen pro verbrauchtem Watt angeht. Die Stromverbrauchseffizienz von Rechenzentren, eine Kennzahl, die das Verhältnis zwischen dem Stromverbrauch für die Datenverarbeitung und dem für die Kühlung und andere Infrastrukturen angibt, wurde auf durchschnittlich 1,5 und in modernen Einrichtungen sogar auf beeindruckende 1,2 gesenkt. Neue Rechenzentren verfügen über eine effizientere Kühlung, indem sie Wasserkühlung und externe Kühlluft verwenden, wenn diese verfügbar ist.

Leider lässt sich das Nachhaltigkeitsproblem mit Effizienz allein nicht lösen. Das Jevons’sche Paradoxon weist darauf hin, dass Effizienz auf lange Sicht zu einem höheren Energieverbrauch führen kann. Darüber hinaus haben sich die Effizienzsteigerungen bei der Hardware erheblich verlangsamt, da die Industrie an die Grenzen der Skalierung der Chiptechnologie gestoßen ist.

Um die Effizienz weiter zu verbessern, entwickeln Forscher spezielle Hardware wie Beschleuniger, neue Integrationstechnologien wie 3D-Chips und neue Chip-Kühltechniken.

In ähnlicher Weise untersuchen und entwickeln die Forscher zunehmend Kühltechnologien für Rechenzentren. Der Bericht des Electric Power Research Institute befürwortet neue Kühlmethoden wie die luftunterstützte Flüssigkeitskühlung und die Tauchkühlung. Während die Flüssigkeitskühlung bereits Einzug in die Rechenzentren gehalten hat, wird die noch in der Entwicklung befindliche Tauchkühlung erst in wenigen neuen Rechenzentren eingesetzt.

Flexible Zukunft

Eine neue Art des Aufbaus von KI-Rechenzentren ist das flexible Computing, bei dem der Grundgedanke darin besteht, mehr zu rechnen, wenn der Strom billiger, verfügbarer und umweltfreundlicher ist, und weniger zu rechnen, wenn er teurer, knapper und umweltschädlicher ist.

Die Betreiber von Rechenzentren können ihre Anlagen so umbauen, dass sie eine flexible Last im Netz darstellen. Die Wissenschaft und die Industrie haben bereits erste Beispiele für die Nachfragesteuerung von Rechenzentren geliefert, bei der die Rechenzentren ihre Leistung je nach Bedarf des Stromnetzes regulieren. So können sie beispielsweise bestimmte Rechenaufgaben für Zeiten außerhalb der Spitzenlastzeiten planen.

Die Umsetzung einer breiteren und umfassenderen Flexibilität beim Stromverbrauch erfordert Innovationen bei der Hardware, der Software und der Koordinierung zwischen Netz und Rechenzentrum. Vor allem im Bereich der künstlichen Intelligenz gibt es noch viel Spielraum für die Entwicklung neuer Strategien, um die Rechenlasten der Rechenzentren und damit den Energieverbrauch zu optimieren. So können Rechenzentren beispielsweise die Genauigkeit beim Training von KI-Modellen reduzieren, um die Arbeitslast zu verringern.

Die Verwirklichung dieser Vision erfordert eine bessere Modellierung und Vorhersage. Rechenzentren können versuchen, ihre Lasten und Bedingungen besser zu verstehen und vorherzusagen. Es ist auch wichtig, die Netzlast und das Wachstum vorherzusagen.

Die Lastprognose-Initiative des Electric Power Research Institute umfasst Aktivitäten, die bei der Netzplanung und dem Netzbetrieb helfen. Umfassende Überwachung und intelligente Analysen – möglicherweise auf der Grundlage von KI – sowohl für Rechenzentren als auch für das Netz sind für genaue Prognosen unerlässlich.

Am Rande

Die USA befinden sich mit dem explosionsartigen Wachstum der KI an einem kritischen Punkt. Es ist immens schwierig, Hunderte von Megawatt Stromnachfrage in bereits überlastete Netze zu integrieren. Es könnte an der Zeit sein, die Art und Weise, wie die Branche Rechenzentren baut, zu überdenken.

Eine Möglichkeit ist der nachhaltige Bau von mehr Edge-Rechenzentren – kleineren, weit verteilten Einrichtungen -, um die Datenverarbeitung in die lokalen Gemeinden zu bringen. Edge-Rechenzentren können auch dichte, städtische Regionen zuverlässig mit Rechenleistung versorgen, ohne das Netz weiter zu belasten. Während diese kleineren Zentren derzeit 10 % der Rechenzentren in den USA ausmachen, gehen Analysten davon aus, dass der Markt für kleinere Edge-Rechenzentren in den nächsten fünf Jahren um über 20 % wachsen wird.

Neben der Umwandlung von Rechenzentren in flexible und steuerbare Lasten können Innovationen im Bereich der Edge-Rechenzentren den Energiebedarf von KI wesentlich nachhaltiger gestalten.