Amazon beschleunigt Rechenzentren mit "Project Houdini" für KI-Boom

Amazon beschleunigt Rechenzentren mit "Project Houdini" für KI-Boom

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Amazon unternimmt erhebliche Anstrengungen, um die Bauzeit für Rechenzentren, die den aktuellen KI-Boom antreiben, drastisch zu verkürzen. Eine interne Initiative namens "Project Houdini" zielt darauf ab, große Teile des Bauprozesses in Fabriken zu verlagern und so die Kernserverräume in vorgefertigte Module umzuwandeln. Dies soll die Bereitstellung neuer Rechenkapazitäten beschleunigen, da die Nachfrage nach KI-Diensten stark ansteigt und Engpässe die Verfügbarkeit limitieren.

Projekt Houdini: Amazons Antwort auf den KI-Boom

Amazon erwartet, dass der Houdini-Ansatz die Bauzeiten für Rechenzentren um Monate verkürzen und zehntausende Arbeitsstunden vor Ort einsparen wird. Interne Dokumente von Anfang des Jahres betonen die Notwendigkeit einer beschleunigten Rechenzentrums-Lieferung und die Erforschung von Lösungen, um verschiedene Bauumfänge in eine Fabrikumgebung zu verlagern. Dieser Vorstoß spiegelt eine wachsende Herausforderung in der gesamten Cloud-Branche wider, da der KI-Boom Cloud-Anbieter dazu zwingt, ihre Infrastruktur in einem beispiellosen Tempo zu erweitern. Amazon plant, in diesem Jahr 200 Milliarden US-Dollar für Investitionen auszugeben, wovon ein Großteil in AWS-Rechenzentren fließt. Amazon CEO Andy Jassy bestätigte in seinem jährlichen Aktionärsbrief, dass das Unternehmen weiterhin "Kapazitätsengpässe hat, die zu ungedeckter Nachfrage führen."

Modulare Bauweise revolutioniert Rechenzentren

Der Bau eines Datenraums, des Hauptserverbereichs in einem Rechenzentrum, ist derzeit größtenteils ein "Stick-Built"-Prozess vor Ort. Arbeiter installieren Racks, verkabeln Stromsysteme und verlegen Kabel nacheinander. Dieser Prozess kann 60.000 bis 80.000 Arbeitsstunden erfordern und etwa 15 Wochen dauern, bevor Server installiert werden können.

Houdini kehrt dieses Modell um. Anstatt alles vor Ort zu montieren, werden große Abschnitte des Datenraums, sogenannte "Skids", in Fabriken vorgefertigt. Jedes Skid wird mit bereits installierten Racks, Stromverteilung, Verkabelung, Beleuchtung sowie Brand- und Sicherheitssystemen geliefert. Diese Module, die etwa die Größe eines Sattelaufliegers haben (ca. 13,7 Meter lang und etwa 9.000 Kilogramm schwer), werden auf Tiefladern transportiert, positioniert und miteinander verbunden.

Der Gewinn ist Geschwindigkeit. Interne Schätzungen zeigen, dass AWS Server innerhalb von zwei bis drei Wochen nach Baubeginn installieren kann, gegenüber etwa 15 Wochen bei herkömmlichen Methoden. Dieser Ansatz kann auch bis zu 50.000 Elektrikerstunden vor Ort einsparen. Amazon erwartet, dass Houdini bis August einsatzbereit ist und für eine breitere Ausbaupipeline konzipiert ist, die schließlich mehr als 100 Rechenzentren pro Jahr umfassen könnte.

Die Vorteile der Fabrikfertigung

Durch die Verlagerung von mehr Arbeit in kontrollierte Fabrikumgebungen kann Amazon Builds standardisieren, Fehler reduzieren und weniger auf lokale Arbeitsmärkte angewiesen sein. Dieser Ansatz könnte die Art und Weise, wie AWS Rechenzentren entwickelt, langfristig verändern, indem ein Großteil der Kernbauarbeiten ausgelagert wird. Ein AWS-Sprecher erklärte gegenüber Business Insider: "Unsere Innovationen im Rechenzentrums-Bau ermöglichen es uns, KI-Infrastruktur schneller und kostengünstiger bereitzustellen, weshalb Kunden AWS für ihre anspruchsvollsten Workloads wählen."

Die modulare Bauweise macht den Bau auch vorhersehbarer und weniger riskant. Durch die Vorintegration von Strom und Verkabelung in Fabriken kann AWS die Abhängigkeit von lokalen Arbeitskräften reduzieren und frühere Systemtests ermöglichen. AWS arbeitet mit Cupertino Electric Inc. zusammen, um Houdini zu prototypisieren und zu skalieren, wobei die anfängliche Modulproduktion in Topeka (Kansas), Houston und Salt Lake City geplant ist. Amazon führt auch Gespräche mit mindestens zwei weiteren externen Montageanbietern. Shaolei Ren, außerordentlicher Professor für Elektrotechnik und Computertechnik an der University of California, Riverside, bezeichnete Houdini als die "neueste Evolution" modularer Rechenzentren. Er merkte an, dass das Niveau der Integration, die Einbeziehung von KI-Servern und der Maßstab, in dem Hyperscaler dies anwenden, neu sein könnten.

Herausforderungen bleiben: Das Problem der Energieversorgung

"Project Houdini" adressiert jedoch nicht das, was viele in der Branche als größten Engpass ansehen: die Energieversorgung. Die Sicherung der Energieversorgung, der Aufbau von Netzanschlüssen und der Bau von Umspannwerken können Jahre dauern – weitaus länger als die Monate, die für den Bau eines Rechenzentrums benötigt werden. Dies hat Hyperscaler dazu veranlasst, stark in Energiestrategien zu investieren, einschließlich eigener Stromerzeugung, Erdgasturbinen und Kernkraft.

Dimitrios Nikolopoulos, Professor für Informatik an Virginia Tech, betonte, dass der Zugang zu Strom die primäre Einschränkung bleibt. "Während die Optimierung des Bauprozesses auf Wochen von Vorteil ist, hat sie keinen signifikanten Einfluss auf die Gesamtzeit bis zur Inbetriebnahme, wenn die Netzstromversorgung jahrelang verzögert wird", so Nikolopoulos. Dennoch wird der Bau, sobald die Stromversorgung vorhanden ist, zum nächsten Engpass, der bestimmt, wie schnell Kapazität in umsatzgenerierende Rechenleistung umgewandelt werden kann. Houdini ist Amazons Versuch, diese Lücke zu schließen und "beschleunigte Baupläne zu erreichen, während Qualität und Kostenkonsistenz gewahrt bleiben", wie es in einem Dokument heißt.

Ein Blick in die Zukunft der Infrastruktur

Die Bemühungen von Amazon spiegeln einen breiteren Trend in der Technologiebranche wider, die Effizienz und Automatisierung in der Infrastrukturentwicklung voranzutreiben. Auch andere Unternehmen setzen auf fortschrittliche Technologien, um die Bereitstellung und den Betrieb von Rechenzentren zu optimieren. So kündigte beispielsweise Agile Robots eine Partnerschaft mit Google DeepMind an, um Robotertechnologie durch fortschrittliche künstliche Intelligenz zu verbessern. Diese Zusammenarbeit zielt darauf ab, Gemini Robotics-Grundlagenmodelle in Robotersysteme zu integrieren und Daten zur Verfeinerung der KI-Modelle zu nutzen, um intelligente Automatisierung in verschiedenen Industriesektoren, einschließlich Rechenzentren, voranzutreiben. Solche Partnerschaften unterstreichen die wachsende Bedeutung der Kombination von Hardware, Software und KI, um autonome und effiziente Lösungen für die steigenden Anforderungen der digitalen Welt zu entwickeln.

Erwähnte Persönlichkeiten