Neue Energie für den Megatrend KI


Thermodynamic Computing & Co

Digitalisierung & Technologie, 01.08.2024

Künstliche Intelligenz (KI) hat sich bereits in kurzer Zeit zu einem neuen technologischen Eckpfeiler entwickelt. KI beschleunigt die Digitalisierung, verbessert und erweitert bestehende Technologien und eröffnet nahezu unbegrenzte Möglichkeiten für neue Entwicklungen. Der Haken: Auch der Energiebedarf ist nahezu unbegrenzt. Wie lässt sich der Energiehunger von KI in Zeiten der globalen Energiewende am klimafreundlichsten stillen?

Thermodynamic Computing & Co: Neue Energie für den Megatrend KI

Über den hohen Energiebedarf von KI-Modellen haben wir bereits berichtet. Seitdem hat sich einerseits viel, andererseits aber auch wenig getan: Während sich die KI-Modelle rasant weiterentwickeln und immer neue Möglichkeiten eröffnen, ist ihr Energiehunger nach wie vor sehr groß. Und da immer neue KI-Anwendungen auf den Markt kommen, wird sich das Energieproblem weiter verschärfen.

Wusstest du, dass die Erzeugung eines Bildes mit einem KI-Tool ungefähr so viel Strom verbraucht, wie in den Akku eines Smartphones passt?

Je höher die Rechenleistung, desto höher der Energiebedarf

Laut World Economic Forum verdoppelt sich die für den Betrieb von KI-Systemen benötigte Rechenleistung etwa alle 100 Tage. Rechenleistung bedeutet gleichzeitig Energiebedarf. Mittlerweile gibt es verschiedene Studien, die sich mit dem Energieverbrauch von KI beschäftigen. Die Schätzungen sind jedoch schwierig und variieren dementsprechend. So könnte der weltweite Energieverbrauch aktuell dem Jahresverbrauch der Schweiz entsprechen.

Entscheidender ist jedoch das Wachstum: Experten halten eine Verzehnfachung des Energiebedarfs bis 2030 für realistisch. Inwieweit sie dabei die fortschreitende Integration von KI-Funktionen in digitale Systeme wie Smartphones, Office-Anwendungen, Suchmaschinen oder Betriebssysteme bereits berücksichtigt haben, bleibt unklar. Die Experten fordern jedenfalls dringend die Entwicklung nachhaltiger Lösungen, um den erheblichen ökologischen Auswirkungen entgegenzuwirken.

Lösungsansätze gibt es einige. Sie reichen von Bioprozessoren über Unterwasser-Rechenzentren und integrierte Ökokraftwerke bis hin zum Thermodynamic Computing. Sie unterteilen sich in Maßnahmen, die sofort wirksam werden können, und langfristige Entwicklungen, die uns eine nachhaltige KI-Zukunft ermöglichen sollen.

Rechenzentren im Meer „versenken“

Die Zahl der Rechenzentren wächst seit Jahren. Das Borderstep Institut für Innovation und Nachhaltigkeit schätzt die Zahl in einer Analyse auf etwa 80 Millionen weltweit (PDF) . Durch die zunehmende Digitalisierung und den Hype um KI dürfte die Zahl in den kommenden Jahren weiter steigen. KI-Experte Ralf Herbrich vom Hasso-Plattner-Institut schätzt, dass der Anteil der Rechenzentren am weltweiten Energieverbrauch von heute vier bis fünf Prozent in den nächsten Jahren auf bis zu 30 Prozent hochschnellen könnte.

Angesichts dieser Zahlen wird schnell klar, dass die Verbesserung der Energieeffizienz von Rechenzentren ein starker Hebel wäre. Rechenzentren könnten schnell und direkt Energie einsparen, indem sie ihre Leistung reduzieren, was aber die Antwortgeschwindigkeit von KI-Anwendungen deutlich verlangsamen würde. Realistischer ist eine ganz andere Einsparmöglichkeit: Rechenzentren verbrauchen viel Energie für die Kühlung.

Die Kühlung erfolgt in der Regel über Umluftsysteme, die die entstehende Wärme aufnehmen und an ein Kühlmedium, meist Wasser, abgeben. Es gab daher bereits Versuche, Rechenzentren direkt unter Wasser zu bauen. Derzeit wird in China ein riesiges Unterwasser-Rechenzentrum geplant, das die Rechenleistung von 6 Millionen konventionellen Computern aufbringen soll. Es soll 2025 in Betrieb gehen und durch die natürliche Wasserkühlung jährlich bis zu 122 Megawattstunden Strom einsparen.

Prognose: Wie erfolgreich das Projekt sein wird, hängt sicherlich auch von den Bau- und Unterhaltskosten ab, die sich von denen konventioneller Rechenzentren an Land unterscheiden dürften. Eher ist zu erwarten, dass Unterwasser-Rechenzentren die Ausnahme bleiben und sich vor allem für küstennahe Ballungsräume eignen, in denen ohnehin Platzmangel herrscht.

Klassische Computersysteme stoßen an ihre Grenzen

Die technologische Basis heutiger Computersysteme ist erstaunlich alt. Die sogenannte „Von-Neumann-Architektur“ (VNA) geht auf die Arbeiten des Mathematikers John von Neumann zurück und wurde erstmals 1945 veröffentlicht. Bei dieser Computerarchitektur arbeiten die Grundelemente wie z.B. Prozessoren und Speicher getrennt voneinander, sie müssen also ständig Daten austauschen. Außerdem verarbeiten sie Informationen digital in Form von Bits (0 und 1), führen Berechnungen durch logische Operationen durch und arbeiten deterministisch.

Insbesondere für KI-Anwendungen, die große Datenmengen nutzen, ist der Energieverbrauch dieser klassischen Architektur extrem hoch.

Eine Alternative bietet das Thermodynamische Rechnen. Prozessoren und Speicher arbeiten hier als Einheit und nutzen die Prinzipien der Thermodynamik, also der Wärme- und Energielehre. Statt auf rein logischen Operationen basiert das thermodynamische Computing auf physikalischen Prozessen und Fluktuationen auf molekularer Ebene. Es arbeitet mit Wahrscheinlichkeiten und nicht mit deterministischen Zuständen.

Diese Computerarchitektur hat einige Vorteile in Bezug auf die Energieeffizienz:

Während Wärme für klassische Computer ein Problem darstellt, können thermodynamische Computer die Energie thermischer Fluktuationen für Berechnungen nutzen.

Thermodynamische Systeme können von Natur aus parallel arbeiten, was bei bestimmten Aufgaben zu einer höheren Leistung führen kann. Die erforderliche Parallelität wird derzeit noch von den weit verbreiteten Grafikprozessoren (GPU) erzeugt, die ursprünglich für die Verarbeitung von Bildern und Videos entwickelt wurden.

Thermodynamische Rechner sind besser geeignet, um mit unsicheren oder probabilistischen, d.h. auf Wahrscheinlichkeiten beruhenden Informationen umzugehen.

Prognose: Thermodynamisches Computing hat das Potenzial, die Energieeffizienz von Computersystemen, insbesondere für KI-Anwendungen, drastisch zu verbessern.

Neuromorphes Computing: Computer wie ein Gehirn bauen

Ein weiterer spannender Ansatz ist das Neuromorphic Computing. Im Gegensatz zum Thermodynamischen Computing ist hier nicht die Physik, sondern das menschliche Gehirn und Nervensystem die Inspirationsquelle. Das Grundprinzip:

Neuromorphes Computing versucht, die Struktur und Funktionsweise des menschlichen Gehirns in Hardware nachzubilden. Ziel ist es, Computer zu entwickeln, die ähnlich effizient und anpassungsfähig arbeiten wie biologische neuronale Netze. Auch hier geht es um die Verschmelzung von Rechenprozessen und Informationsspeichern, um den energieintensiven Datentransfer herkömmlicher Rechnerarchitekturen zu überwinden.

Neuromorphe Chips mit künstlichen Synapsen haben in doppelter Hinsicht das menschliche Gehirn zum Vorbild. Zum einen ist das Gehirn ein biologischer Supercomputer mit unvorstellbarer Kapazität. Zum anderen benötigt das Gehirn dafür nur 20 Watt - eine kaum vorstellbare Energieeffizienz.

Prognose: Neuromorphes Computing wird bereits in experimentellen Chips eingesetzt und in einem Forschungsprojekt am Forschungszentrum Jülich intensiv weiterentwickelt.

Rechenzentren nachhaltig gestalten

Die nachhaltige Energieversorgung von Rechenzentren war bisher allenfalls ein untergeordnetes Thema. Mit steigendem Bedarf und gleichzeitig fortschreitender Energiewende ändert sich das Anforderungsprofil für neue Rechenzentren, die für KI-Systeme dringend benötigt werden.

In Mainz, ganz in der Nähe des wichtigen Internetknotens Frankfurt a.M. entsteht daher zur Zeit ein nachhaltiges Rechenzentrum. Betreiber ist mit Kraftwerke Mainz Wiesbaden (KMW) kein Internetunternehmen, sondern ein Energieversorger. Das Rechenzentrum wird zu 100 Prozent mit Ökostrom aus KMW-eigenen Windkraftanlagen versorgt. Zudem wird die Abwärme nicht wie üblich in die Umgebung abgegeben, sondern in das lokale Fernwärmenetz eingespeist.

Allein dieses eine Rechenzentrum wird bis zu 60 MW Abwärme produzieren, mit der zahlreiche Haushalte in der Umgebung beheizt werden können. Zum Vergleich: Im dänischen Esbjerg entsteht derzeit die größte Großwärmepumpe der Welt, die ebenfalls 60 MW Heizenergie erzeugen und damit bis zu 25.000 Haushalte versorgen soll.

Hier liegt eine große Chance für die Zukunft: Wenn alle Rechenzentren ihre Abwärme in Fernwärmenetze einspeisen, verbessert das auch die CO2-Bilanz von KI-Systemen. Gleichzeitig wird die Energiewende maßgeblich unterstützt. Eine intelligente Lösung, oder?

Text: Falk Hedemann
Ihre Meinung

Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: next@ergo.de

Ähnliche Beiträge

Digitalisierung & Technologie 26.07.2024

Die Zukunft ist jetzt

ERGO setzt bekanntlich auf Software-Bots, doch auch humanoide Roboter, welche einst als Science Fiction galten, sind heute Realität und haben längst begonnen, unsere Lebens- und Arbeitswelt zu revolutionieren.

Digitalisierung & Technologie 09.04.2024

Deutscher Exzellenz-Preis

Erneute Anerkennung für die Innovationskraft von ERGO: Wie in den Vorjahren wurden unsere Digitalisierer mit dem Deutschen Exzellenz-Preis ausgezeichnet – und zwar sowohl für die VR-Beratungs-App und als auch für unser Process Mining.

Digitalisierung & Technologie 26.03.2024

Gen Z – die Generation Zukunft

Die Generation Z stellt Versicherer vor neue Herausforderungen, postuliert ERGO CDO Mark Klein: „Um den Ansprüchen dieser Generation gerecht zu werden, müssen Assekuranzen die gesamte Klaviatur an digitalen Möglichkeiten nutzen, die ihnen zur Verfügung steht. Das macht die Gen Z zu einem Treiber der digitalen Transformation.“