Je höher die Rechenleistung, desto höher der Energiebedarf
Laut World Economic Forum verdoppelt sich die für den Betrieb von KI-Systemen benötigte Rechenleistung etwa alle 100 Tage. Rechenleistung bedeutet gleichzeitig Energiebedarf. Mittlerweile gibt es verschiedene Studien, die sich mit dem Energieverbrauch von KI beschäftigen. Die Schätzungen sind jedoch schwierig und variieren dementsprechend. So könnte der weltweite Energieverbrauch aktuell dem Jahresverbrauch der Schweiz entsprechen.
Entscheidender ist jedoch das Wachstum: Experten halten eine Verzehnfachung des Energiebedarfs bis 2030 für realistisch. Inwieweit sie dabei die fortschreitende Integration von KI-Funktionen in digitale Systeme wie Smartphones, Office-Anwendungen, Suchmaschinen oder Betriebssysteme bereits berücksichtigt haben, bleibt unklar. Die Experten fordern jedenfalls dringend die Entwicklung nachhaltiger Lösungen, um den erheblichen ökologischen Auswirkungen entgegenzuwirken.
Lösungsansätze gibt es einige. Sie reichen von Bioprozessoren über Unterwasser-Rechenzentren und integrierte Ökokraftwerke bis hin zum Thermodynamic Computing. Sie unterteilen sich in Maßnahmen, die sofort wirksam werden können, und langfristige Entwicklungen, die uns eine nachhaltige KI-Zukunft ermöglichen sollen.
Rechenzentren im Meer „versenken“
Die Zahl der Rechenzentren wächst seit Jahren. Das Borderstep Institut für Innovation und Nachhaltigkeit schätzt die Zahl in einer Analyse auf etwa 80 Millionen weltweit (PDF) . Durch die zunehmende Digitalisierung und den Hype um KI dürfte die Zahl in den kommenden Jahren weiter steigen. KI-Experte Ralf Herbrich vom Hasso-Plattner-Institut schätzt, dass der Anteil der Rechenzentren am weltweiten Energieverbrauch von heute vier bis fünf Prozent in den nächsten Jahren auf bis zu 30 Prozent hochschnellen könnte.
Angesichts dieser Zahlen wird schnell klar, dass die Verbesserung der Energieeffizienz von Rechenzentren ein starker Hebel wäre. Rechenzentren könnten schnell und direkt Energie einsparen, indem sie ihre Leistung reduzieren, was aber die Antwortgeschwindigkeit von KI-Anwendungen deutlich verlangsamen würde. Realistischer ist eine ganz andere Einsparmöglichkeit: Rechenzentren verbrauchen viel Energie für die Kühlung.
Die Kühlung erfolgt in der Regel über Umluftsysteme, die die entstehende Wärme aufnehmen und an ein Kühlmedium, meist Wasser, abgeben. Es gab daher bereits Versuche, Rechenzentren direkt unter Wasser zu bauen. Derzeit wird in China ein riesiges Unterwasser-Rechenzentrum geplant, das die Rechenleistung von 6 Millionen konventionellen Computern aufbringen soll. Es soll 2025 in Betrieb gehen und durch die natürliche Wasserkühlung jährlich bis zu 122 Megawattstunden Strom einsparen.
Prognose: Wie erfolgreich das Projekt sein wird, hängt sicherlich auch von den Bau- und Unterhaltskosten ab, die sich von denen konventioneller Rechenzentren an Land unterscheiden dürften. Eher ist zu erwarten, dass Unterwasser-Rechenzentren die Ausnahme bleiben und sich vor allem für küstennahe Ballungsräume eignen, in denen ohnehin Platzmangel herrscht.
Klassische Computersysteme stoßen an ihre Grenzen
Die technologische Basis heutiger Computersysteme ist erstaunlich alt. Die sogenannte „Von-Neumann-Architektur“ (VNA) geht auf die Arbeiten des Mathematikers John von Neumann zurück und wurde erstmals 1945 veröffentlicht. Bei dieser Computerarchitektur arbeiten die Grundelemente wie z.B. Prozessoren und Speicher getrennt voneinander, sie müssen also ständig Daten austauschen. Außerdem verarbeiten sie Informationen digital in Form von Bits (0 und 1), führen Berechnungen durch logische Operationen durch und arbeiten deterministisch.
Insbesondere für KI-Anwendungen, die große Datenmengen nutzen, ist der Energieverbrauch dieser klassischen Architektur extrem hoch.
Eine Alternative bietet das Thermodynamische Rechnen. Prozessoren und Speicher arbeiten hier als Einheit und nutzen die Prinzipien der Thermodynamik, also der Wärme- und Energielehre. Statt auf rein logischen Operationen basiert das thermodynamische Computing auf physikalischen Prozessen und Fluktuationen auf molekularer Ebene. Es arbeitet mit Wahrscheinlichkeiten und nicht mit deterministischen Zuständen.
Diese Computerarchitektur hat einige Vorteile in Bezug auf die Energieeffizienz:
- Während Wärme für klassische Computer ein Problem darstellt, können thermodynamische Computer die Energie thermischer Fluktuationen für Berechnungen nutzen.
- Thermodynamische Systeme können von Natur aus parallel arbeiten, was bei bestimmten Aufgaben zu einer höheren Leistung führen kann. Die erforderliche Parallelität wird derzeit noch von den weit verbreiteten Grafikprozessoren (GPU) erzeugt, die ursprünglich für die Verarbeitung von Bildern und Videos entwickelt wurden.
- Thermodynamische Rechner sind besser geeignet, um mit unsicheren oder probabilistischen, d.h. auf Wahrscheinlichkeiten beruhenden Informationen umzugehen.
Prognose: Thermodynamisches Computing hat das Potenzial, die Energieeffizienz von Computersystemen, insbesondere für KI-Anwendungen, drastisch zu verbessern.
Neuromorphes Computing: Computer wie ein Gehirn bauen
Ein weiterer spannender Ansatz ist das Neuromorphic Computing. Im Gegensatz zum Thermodynamischen Computing ist hier nicht die Physik, sondern das menschliche Gehirn und Nervensystem die Inspirationsquelle. Das Grundprinzip
Neuromorphes Computing versucht, die Struktur und Funktionsweise des menschlichen Gehirns in Hardware nachzubilden. Ziel ist es, Computer zu entwickeln, die ähnlich effizient und anpassungsfähig arbeiten wie biologische neuronale Netze. Auch hier geht es um die Verschmelzung von Rechenprozessen und Informationsspeichern, um den energieintensiven Datentransfer herkömmlicher Rechnerarchitekturen zu überwinden.
Neuromorphe Chips mit künstlichen Synapsen haben in doppelter Hinsicht das menschliche Gehirn zum Vorbild. Zum einen ist das Gehirn ein biologischer Supercomputer mit unvorstellbarer Kapazität. Zum anderen benötigt das Gehirn dafür nur 20 Watt - eine kaum vorstellbare Energieeffizienz.
Prognose: Neuromorphes Computing wird bereits in experimentellen Chips eingesetzt und in einem Forschungsprojekt am Forschungszentrum Jülich intensiv weiterentwickelt.
Rechenzentren nachhaltig gestalten
Die nachhaltige Energieversorgung von Rechenzentren war bisher allenfalls ein untergeordnetes Thema. Mit steigendem Bedarf und gleichzeitig fortschreitender Energiewende ändert sich das Anforderungsprofil für neue Rechenzentren, die für KI-Systeme dringend benötigt werden.
In Mainz, ganz in der Nähe des wichtigen Internetknotens Frankfurt a.M. entsteht daher zur Zeit ein nachhaltiges Rechenzentrum. Betreiber ist mit Kraftwerke Mainz Wiesbaden (KMW) kein Internetunternehmen, sondern ein Energieversorger. Das Rechenzentrum wird zu 100 Prozent mit Ökostrom aus KMW-eigenen Windkraftanlagen versorgt. Zudem wird die Abwärme nicht wie üblich in die Umgebung abgegeben, sondern in das lokale Fernwärmenetz eingespeist.
Allein dieses eine Rechenzentrum wird bis zu 60 MW Abwärme produzieren, mit der zahlreiche Haushalte in der Umgebung beheizt werden können. Zum Vergleich: Im dänischen Esbjerg entsteht derzeit die größte Großwärmepumpe der Welt, die ebenfalls 60 MW Heizenergie erzeugen und damit bis zu 25.000 Haushalte versorgen soll.
Hier liegt eine große Chance für die Zukunft: Wenn alle Rechenzentren ihre Abwärme in Fernwärmenetze einspeisen, verbessert das auch die CO2-Bilanz von KI-Systemen. Gleichzeitig wird die Energiewende maßgeblich unterstützt. Eine intelligente Lösung, oder?
Text: Falk Hedemann