Datacenter-Dichte belastet die Stromnetze
Die durch den KI-Boom befeuerte Zunahme von Rechenzentren lässt Bedenken bezüglich ihrer Auswirkungen auf den Energiebedarf aufkommen. In bestimmten Regionen ist die Datacenter-Dichte inzwischen so hoch, dass sie das Risiko einer Überlastung der Stromnetze und lokaler Umweltauswirkungen erhöht.
Der Hype um künstliche Intelligenz heizt die Investitionen in Rechenzentren (RZ) an. Somit wächst die Befürchtung, dass die Stromnachfrage steigt - was folgenschwere Konsequenzen nach sich ziehen würde.
Gemäss der Internationalen Energieagentur (IEA) haben sich die Ausgaben für Rechenzentren in den USA in den vergangenen zwei Jahren verdoppelt. Auch in China und Europa steigen die Investments in neue Datacenter, wenn auch nicht ganz so stark. Schätzungen zufolge geht heute etwa 1 Prozent des weltweiten Stromverbrauchs auf das Konto der Rechenzentren. In grossen Volkswirtschaften ist dieser Anteil allerdings grösser: Allein in den USA könnte der Stromverbrauch von Rechenzentren von 4 auf 6 Prozent im Jahre 2026 steigen.
Im Basisfall werden Rechenzentren bis 2030 für etwa 10 Prozent des Wachstums der gesamten weltweiten Stromnachfrage verantwortlich sein, wie die IEA prognostiziert. Dies entspreche knapp einem Drittel des Nachfragewachstums, den die Elektromobilität und Klimaanlagen im Gebäudesektor bis dahin verursachen würden.
KI verursacht mehr als nur unmittelbare Energiekosten
RZ-Kapazitäten sind geografisch ungleich verteilt. Unternehmen bevorzugen Gebiete, die in der Nähe von Kunden liegen und gut mit Glasfaserleitungen und Energieinfrastruktur versorgt sind. In den USA beispielsweise verursachen Rechenzentren in fünf Bundesstaaten, in denen die RZ-Dichte besonders hoch ist, mehr als 10 Prozent des Stromverbrauchs. Und in Irland sind Datacenter für über 20 Prozent des gesamten Stromverbrauchs des Landes verantwortlich.
Auch die Umweltkosten von KI sind ungleich verteilt - sowohl innerhalb einzelner Länder wie auch auf globaler Ebene, wie die beiden Forscher Shaolei Ren und Adam Wierman in einem Artikel der "Harvard Business Review" feststellen. Insbesondere die Stromerzeugung auf Basis fossiler Energieträger führe zu lokaler Luftverschmutzung, thermischer Verschmutzung von Gewässern und Kohlenstoffemissionen, die wiederum ökologische und soziale Kosten wie etwa erhöhte Ozon- und Feinstaubwerte oder vorzeitige Sterblichkeit nach sich zögen. Darüber hinaus könne die Belastung der lokalen Süsswasserressourcen durch den erheblichen Wasserverbrauch im Zusammenhang mit künstlicher Intelligenz - sowohl direkt für die Kühlung der Server vor Ort als auch indirekt für die Stromerzeugung - anhaltende Dürreperioden in wasserarmen Regionen verschlimmern.
Die derzeitigen Strategien für den Einsatz und das Management von KI tendieren zudem häufig dazu, diese Ungleichheiten zu verstärken, wie die beiden Forscher anmerken. So könne beispielsweise ein geografischer Lastausgleich, bei dem die Gesamtenergiekosten oder der CO2-Fussabdruck im Vordergrund stehen, unbeabsichtigt dazu führen, dass der Wasserverbrauch von Rechenzentren in wasserarmen Regionen steigt, was schliesslich die lokalen Süsswasserressourcen weiter belastet. Darüber hinaus könne ein erhöhter Energiebedarf die lokalen Stromnetze überlasten, die Grenzkosten der Energieerzeugung erhöhen und somit die Stromrechnungen der Anwohnerinnen und Anwohner in die Höhe treiben.
Lösungen zeichnen sich ab
Die Forscher weisen jedoch darauf hin, dass zumindest die Möglichkeit besteht, diese Ungleichheiten zu verringern - indem man den "KI-Verkehr", also den Datenverkehr in Zusammenhang mit künstlicher Intelligenz (inklusive des Trainings von Sprachmodellen und Inferenzanfragen), umleitet respektive auf eine möglichst faire Art und Weise verteilt. Die Idee wäre demnach eine dynamische Umverteilung von KI-Ressourcen über geografisch verteilte Rechenzentren, wobei lokale Echtzeitfaktoren wie der Anteil fossiler Energiequellen und die Wassereffizienz berücksichtigt würden. So könnten Unternehmen ihre Rechenlasten in Regionen verlagern, in denen sie die geringsten Auswirkungen auf die Umwelt haben.
Die Umsetzung eines solchen fairen Lastausgleichs wäre jedoch mit praktischen Problemen verbunden. So sei es selbst bei einem dynamischen Ausgleich der KI-Rechenleistung in Echtzeit schwierig, wenn nicht gar unmöglich, den künftigen Rechenbedarf der KI vorherzusagen, räumen die Forscher ein. Ausserdem sei es wichtig, eine gleichbleibende Leistung und Qualität der KI-Modellinferenz zu gewährleisten. Um diese Herausforderungen zu bewältigen, schlagen die beiden Forscher vor, Verlaufsdaten zu nutzen und modernste Reinforcement-Learning-Techniken einzusetzen, um das optimale KI-Computing-Management über geografisch verteilte Rechenzentren hinweg zu ermitteln und dabei der Umweltgerechtigkeit Vorrang einzuräumen, während die Umweltauswirkungen insgesamt minimiert werden.
Der Schweizer Markt für Rechenzentren hat sich in den vergangenen Jahren konsolidiert - grosse Player wie Interxion oder Safe Host haben den Besitzer gewechselt und betreiben ihre Rechenzentren jetzt unter anderen Namen. Mehr darüber erfahren Sie in der Marktübersicht: "So entwickelt sich der Schweizer Markt für Rechenzentren"