Google Cloud: KI-Energiebedarf erfordert dreiteilige Zukunftsstrategie

Google Cloud: KI-Energiebedarf erfordert dreiteilige Zukunftsstrategie

Aktualisiert:
3 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Der steigende Energiebedarf von KI-Anwendungen und Rechenzentren wird zunehmend als kritischer Engpass identifiziert. Google Cloud, ein wichtiger Akteur in der KI-Infrastruktur, hat frühzeitig die Notwendigkeit erkannt, die Energieversorgung und -nutzung strategisch zu planen. Thomas Kurian, CEO von Google Cloud, stellte auf dem Fortune Brainstorm AI Event in San Francisco die Lösungsansätze seines Unternehmens vor.

Der immense Energiehunger der KI-Infrastruktur

Künstliche Intelligenz, insbesondere große Sprachmodelle, benötigt enorme Mengen an Elektrizität. Thomas Kurian betonte, dass Energie und Rechenzentren neben Chips zu einem Hauptengpass werden würden, weshalb Google Cloud seine Maschinen von Anfang an auf höchste Effizienz ausgelegt habe. Die Internationale Energieagentur (IEA) schätzt, dass einige KI-fokussierte Rechenzentren so viel Strom verbrauchen wie 100.000 Haushalte. Die größten im Bau befindlichen Anlagen könnten sogar das 20-fache dieser Menge benötigen.

Gleichzeitig prognostiziert die Immobilienberatung Knight Frank, dass die weltweite Rechenzentrumskapazität in den nächsten zwei Jahren um 46% steigen wird, was einem Zuwachs von fast 21.000 Megawatt entspricht. Diese Entwicklung unterstreicht den dringenden Bedarf an innovativen Energielösungen, um die wachsende Nachfrage zu decken.

Google Clouds dreigliedrige Energiestrategie

Um den steigenden Energiebedarf zu decken, präsentierte Thomas Kurian einen dreiteiligen Ansatz von Google Cloud:

  • **Diversifizierung der Energiequellen:** Das Unternehmen strebt eine möglichst breite Streuung der Energiearten an, die für KI-Berechnungen genutzt werden. Kurian erklärte, dass nicht jede Energieform für die hohen Spitzenlasten geeignet ist, die beim Start und Betrieb von Trainingsclustern auftreten. Diese Spitzen ziehen so viel Energie, dass bestimmte Produktionsformen damit nicht umgehen können.
  • Maximale Effizienz: Google Cloud konzentriert sich auf die effizienteste Nutzung und Wiederverwendung von Energie innerhalb der Rechenzentren. Hierbei kommt KI selbst zum Einsatz: Kontrollsysteme überwachen thermodynamische Austauschprozesse, um die bereits in die Rechenzentren eingebrachte Energie optimal zu nutzen.
  • Neue grundlegende Energietechnologien: Als dritten Pfeiler arbeitet Google Cloud an der Entwicklung "neuer fundamentaler Technologien, um Energie in neuen Formen zu erzeugen". Weitere Details zu diesen Innovationen wurden von Kurian nicht genannt.

Partnerschaften und Infrastruktur als Engpass

Die Sicherstellung der Energieversorgung ist ein gemeinschaftliches Unterfangen. Google Cloud hat seine Partnerschaft mit dem Energieversorger NextEra Energy ausgebaut. Gemeinsam sollen neue Rechenzentrums-Campus in den USA entwickelt werden, die auch neue Kraftwerke umfassen.

Technologieführer warnen, dass die Energieversorgung neben Innovationen bei Chips und verbesserten Sprachmodellen entscheidend für die KI-Entwicklung ist. Auch der Bau von Rechenzentren selbst stellt einen potenziellen Engpass dar. Jensen Huang, CEO von Nvidia, wies Ende November darauf hin, dass der Bau eines KI-Supercomputers in den USA von der Grundsteinlegung bis zur Fertigstellung etwa drei Jahre dauern kann, während China in der Lage sei, ein Krankenhaus an einem Wochenende zu errichten. Dies verdeutlicht die Herausforderungen bei der schnellen Skalierung der notwendigen Infrastruktur.

Erwähnte Persönlichkeiten