KI-Boom fordert Rechenzentren: Von Daten-Spas bis Server im All

KI-Boom fordert Rechenzentren: Von Daten-Spas bis Server im All

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Der rasante Fortschritt der Künstlichen Intelligenz (KI) stellt die digitale Infrastruktur vor enorme Herausforderungen. Die dahinterstehenden, energiehungrigen Server zwingen zu einem Umdenken, wie Rechenzentren mit der Umwelt koexistieren und weniger Ressourcen verbrauchen können. Tech-Giganten und Infrastrukturentwickler suchen daher nach nachhaltigen und unkonventionellen Lösungen für eine drohende digitale Infrastrukturkrise.

Herausforderungen der digitalen Infrastruktur

Rechenzentren bilden das Rückgrat des Internets und untermauern nahezu jeden digitalen Dienst. Doch diese Einrichtungen benötigen enorme Mengen an Energie und Wasser und werden oft als Schandfleck und Belastung für die Gemeinden angesehen, die sie beherbergen. Mit der Skalierung weiterer KI-Workloads in diese Einrichtungen wird der Druck auf die Stromversorgungsketten weiter zunehmen. Simone Larsson, Leiterin für Enterprise AI bei Lenovo, äußerte gegenüber CNBC, dass ein "Wendepunkt" erreicht werden wird, an dem die Architektur der Rechenzentren nicht mehr zweckmäßig sein wird.

Eine im November von Lenovo in Zusammenarbeit mit Opinium durchgeführte Studie zum "Rechenzentrum der Zukunft" ergab, dass traditionelle Rechenzentren KI-Workloads nicht effizient mit Energie versorgen und Nachhaltigkeitsziele sowie Compliance-Anforderungen nicht erfüllen können. Die Studie zeigte, dass die Mehrheit der IT-Entscheidungsträger Technologiepartner priorisiert, die den Energieverbrauch reduzieren, aber nur 46 % der Befragten angaben, dass ihre aktuellen Rechenzentrumsdesigns Nachhaltigkeitsziele unterstützen.

Innovative Konzepte am Boden: Daten-Spas und -Dörfer

Angesichts dieser Herausforderungen hat Lenovo mit Architekten von Mamou-Mani und Ingenieuren von AKT II zusammengearbeitet, um Rechenzentren zu entwerfen, die sich besser in die Umwelt integrieren und Energiebeschränkungen adressieren können. Die Entwürfe sehen vor, Rechenzentren unterirdisch in stillgelegten Tunneln oder Bunkern zu platzieren oder sie in der Luft aufzuhängen, um die 24/7-Energie aus Solarkraft zu nutzen. James Cheung, Partner bei Mamou-Mani, erklärte, dass ein Ziel sei, die Einrichtungen optisch ansprechender zu gestalten, damit sie nicht als "gesichtslose Megariesen von Kisten" wahrgenommen werden.

In sogenannten Daten-Dörfern werden Server modular in der Nähe von Stadtgebieten gestapelt, wodurch überschüssige Wärme der Rechenzentren zur Versorgung lokaler Einrichtungen wie Schulen oder Haushalte genutzt werden kann. Ähnlich verhält es sich mit Daten-Spas, bei denen überschüssige Wärme aus Rechenzentren in einem Wellness-Umfeld eingesetzt wird. Die vom Spa erzeugte Wärme könnte wiederum zur Stromversorgung der Kühltechnologie des Rechenzentrums wiederverwendet werden.

Es gibt jedoch einen Haken: Selbst Lenovo räumt ein, dass seine Entwürfe wahrscheinlich erst ab 2055 oder später realisierbar sein werden. Das Unternehmen erklärte, dass seine Studie darauf abzielte, Diskussionen anzustoßen, und räumte ein, dass erhebliche regulatorische Änderungen erforderlich wären, bevor solche Entwürfe umgesetzt werden könnten. Auch die Kosten und die technische Komplexität einiger Konzepte sowie rechtliche und Skalierbarkeitsbeschränkungen stellen Herausforderungen dar. Die Akzeptanz würde regional stark variieren. Die USA beispielsweise werden aufgrund der hohen Nachfrage, mehr verfügbarer Flächen und eines relativ flexiblen regulatorischen Umfelds eher große, ultra-hochdichte Campusse einführen, so Perkins Liu, Senior Research Analyst bei S&P Global's 451 Research. Europa hingegen habe ein stärker eingeschränktes Netz und strengere Vorschriften.

Neuartige Rechenzentrumsdesigns sind kein völlig neues Konzept. Bereits 2018 setzte Microsoft ein u-bootähnliches Rechenzentrum 117 Fuß unter dem Meeresspiegel ein, um die Kühlvorteile von Meerwasser und Gezeitenkraft zu nutzen und das Projekt vollständig mit erneuerbarer Energie zu betreiben. Es gibt auch viele Beispiele, bei denen Betreiber überschüssige Wärme aus den Einrichtungen zur Beheizung nahegelegener Wohnhäuser umverteilen. Im vergangenen Sommer wurde überschüssige Wärme aus einem Equinix-Rechenzentrum zur Beheizung der olympischen Schwimmbecken in Paris genutzt.

Der Sprung ins All: Rechenzentren im Orbit

Von Googles "Moonshot"-Projekt Suncatcher über die Initiative "Three-Body Computing Constellation" von Alibaba und Zhejiang Lab bis hin zu Nvidias Starcloud – das Rennen um orbitale Rechenzentren nimmt Fahrt auf. Auch kleinere Akteure wie Edge Aerospace und Loft Orbital erforschen die Technologie. Obwohl es nach Science-Fiction klingen mag – Google nennt eine Kurzgeschichte des Science-Fiction-Autors Isaac Asimov als Inspiration für seine Idee, die Sonne direkt als Energiequelle zu nutzen – werden diese Vorschläge von Tech-Giganten immer konkreter erforscht.

Die von der EU finanzierte ASCEND-Studie, in Partnerschaft mit Thales Alenia Space, untersuchte die Machbarkeit des Starts von Rechenzentren in den Orbit mittels Robotertechnologien. Thales Alenia Space entwickelt nun die dafür benötigte Technologie mit dem Ziel, 2028 eine erste In-Orbit-Demonstrationsmission durchzuführen. Im November schickte Starcloud, das von Nvidia unterstützte Startup, einen Chip ins All, der 100-mal leistungsfähiger ist als jede zuvor im Weltraum befindliche GPU-Rechenleistung. Laut einem Bericht des European Space Policy Institute (ESPI) wurden seit 2020 rund 70 Millionen Euro (82 Millionen US-Dollar) an privatem Kapital in weltraumgestützte Rechenzentrumsprojekte investiert.

Hürden und Ausblick

Kurzfristig bleiben orbitale Rechenzentren jedoch unerreichbar, da die Kosten für den Transport solcher Ausrüstung ins All ein erhebliches Hindernis darstellen. "Strahlungsgehärtete Hardware, Kühlung im Vakuum des Weltraums und die extrem hohen Kosten für den Start großer, leistungsdichter Rechensysteme in den Orbit sind große Hürden", so S&P Globals Liu. Herausforderungen umfassen auch zuverlässige Hochgeschwindigkeitskommunikation, Weltraummüll und die Schwierigkeiten der Wartung. Das Kostenmodell des ESPI für Rechenzentren hängt vom Erfolg eines Starship-Starts zu einem Preis von nur 10 Millionen US-Dollar ab. "Wenn Sie mich jetzt fragen, ist das kurzfristig unrealistisch", sagte Jermaine Gutierrez, Forschungsstipendiat am ESPI. "Langfristig stellt sich jedoch die Frage, ob die terrestrischen Entwicklungen und die daraus resultierenden Kosteneinsparungen die Kosteneinsparungen durch den Einsatz im Weltraum übertreffen."

Lenovos Larsson betonte, dass die futuristischen Rechenzentrumspläne des Unternehmens Koexistenz und "Symbiose" in ihrem Kern haben. Dies beinhaltet die Nutzung eines Teils der Wärme aus den Rechenzentren für die Gemeinschaft und andere beteiligte Interessengruppen. James Cheung von Mamou-Mani erklärte, dass die Architekten Techniken wie Biomimikry nutzten, um zu erforschen, wie natürliche Algorithmen die effizientesten Wege zur Wärmeableitung aufzeigen können. Er merkte an: "Wir interagieren jeden Tag mit [Rechenzentren], mit unseren Computern und mit unseren Telefonen. Aber dieser sanfte Riese im Hintergrund übt massiven Druck auf Wasser und unsere Ressourcen aus."

Damit viele dieser Innovationen stattfinden können, so Experten gegenüber CNBC, müssen Vorschriften geändert und neue Richtlinien implementiert werden, um den wachsenden Energiebedarf von KI und Rechenzentren zu adressieren. "Rechenzentrumsbetreiber könnten grüne Technologien nach Belieben einführen, aber es muss finanziell gerechtfertigt sein", sagte S&P Globals Liu. Er fügte hinzu, dass das Stromnetz aufgerüstet und erneuerbare Energien schnell ausgebaut werden müssen, damit dies geschehen kann.