OpenAI vor IPO: Strategiewechsel bei Datenzentren und Investorenskepsis

OpenAI vor IPO: Strategiewechsel bei Datenzentren und Investorenskepsis

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

OpenAI, das KI-Powerhouse hinter ChatGPT, vollzieht vor seinem potenziellen Börsengang einen strategischen Schwenk: Statt massiver Investitionen in eigene Datenzentren konzentriert sich das Unternehmen nun auf das Leasing von Cloud-Kapazitäten. Dieser Kurswechsel spiegelt den wachsenden Druck der Wall Street wider, fiskalische Verantwortung zu zeigen und den Weg zur Rentabilität klarer aufzuzeigen.

Herausforderungen im Datenzentrum-Bau und der Stargate-Projekt-Pivot

Sam Altman, CEO von OpenAI, räumte auf dem BlackRock U.S. Infrastructure Summit am 11. März 2026 ein, dass der Bau und Betrieb von Datenzentren in großem Maßstab komplex ist. Er nannte ein Beispiel eines schweren Wetterereignisses in einem Datenzentrum-Campus in Abilene, Texas, das den Betrieb vorübergehend unterbrach. Diese Anlage dient als Flaggschiff des 500 Milliarden US-Dollar schweren "Stargate"-Projekts von OpenAI, Oracle und SoftBank. Altman betonte zudem Lieferkettenprobleme und den Druck, enge Fristen einzuhalten.

Ursprünglich war OpenAI bereit, große Teile des Stargate-Projekts selbst zu entwickeln und Datenzentrum-Campus direkt zu leasen oder zu besitzen. Doch nach praktischen Bauproblemen und Schwierigkeiten bei der Finanzierung durch Kreditgeber erfolgte ein Strategiewechsel. Oracle least nun den Stargate-Datenzentrum-Campus in Abilene und finanziert den Ausbau mit Schulden in Milliardenhöhe.

Vom ambitionierten Ausgabenplan zur fiskalischen Verantwortung

OpenAI, das im letzten Monat in einer Rekord-Finanzierungsrunde mit 730 Milliarden US-Dollar bewertet wurde, strebt an, von einem Liebling des Privatmarktes zu einem investierbaren Vermögenswert für öffentliche Fondsmanager zu werden. Dies bedeutet, sich von einigen ehrgeizigen Ausgabenplänen zurückzuziehen und bestimmte Projekte auf Eis zu legen. Daniel Newman, CEO der Futurum Group, kommentierte gegenüber CNBC: "OpenAI hat erkannt, dass der Markt den rücksichtslosen Ansatz bei Wachstum und Ausgaben nicht unbedingt schätzt." Er fügte hinzu: "Der Markt möchte sehen, dass die Einnahmen von OpenAI in einem Tempo steigen, in dem die Ausgaben gerechtfertigt werden können. Der Schwenk, meiner Meinung nach, zielt darauf ab, etwas mehr fiskalische Verantwortung zu zeigen."

Im November schrieb Altman auf X, dass OpenAI und andere Unternehmen ihre Produkte "ratenbegrenzen und keine neuen Funktionen und Modelle anbieten müssen, weil wir mit einer so schwerwiegenden Rechenleistungsbeschränkung konfrontiert sind." Bis dahin hatte OpenAI im vergangenen Jahr extreme Anstrengungen unternommen, um Kapazitäten zu sichern, und milliardenschwere Infrastrukturverträge mit Unternehmen wie Nvidia, Advanced Micro Devices und Broadcom abgeschlossen. Altman sprach im November von Verpflichtungen in Höhe von rund 1,4 Billionen US-Dollar über die nächsten acht Jahre. Diese Deals hatten die öffentlichen Märkte beunruhigt und Ängste vor einer potenziellen KI-Blase geschürt, da viele Investoren angesichts eines Jahresumsatzes von 13,1 Milliarden US-Dollar die Finanzierbarkeit solcher Zusagen in Frage stellten.

Skalierte Nvidia-Partnerschaft und neue Finanzierungsrunden

Die bemerkenswerteste Ankündigung war eine Partnerschaft mit Nvidia im September, bei der der Chiphersteller bis zu 100 Milliarden US-Dollar über mehrere Jahre in OpenAI investieren sollte, gekoppelt an den Ausbau und die Nutzung von Nvidias Technologie. OpenAI plante, mindestens 10 Gigawatt an Nvidia-Systemen einzusetzen, wobei die ersten 10 Milliarden US-Dollar der Investition mit der Fertigstellung des ersten Gigawatts verbunden waren. Analysten verglichen dies damals mit der Lieferantenfinanzierung, die die Dotcom-Blase Ende der 1990er Jahre befeuerte.

In den letzten Monaten, während sich das Unternehmen auf einen möglichen Börsengang vorbereitet, hat OpenAI die Erwartungen gedämpft und eine gemäßigtere Strategie skizziert. Im Februar teilte OpenAI den Investoren mit, dass es nun bis 2030 Ausgaben für Rechenleistung von rund 600 Milliarden US-Dollar anstrebt, eine Zahl, die direkter an das erwartete Umsatzwachstum gekoppelt ist.

Im Rahmen einer 110 Milliarden US-Dollar schweren Finanzierungsankündigung im letzten Monat vereinbarte OpenAI, rund 2 Gigawatt Trainium-Kapazität über die Amazon Web Services (AWS)-Infrastruktur zu nutzen. Trainium ist Amazons eigener KI-Chip. Nvidia beteiligte sich ebenfalls mit 30 Milliarden US-Dollar an dieser Finanzierungsrunde. OpenAI erweiterte seine Zusammenarbeit mit Nvidia und stimmte der Nutzung von 3 Gigawatt dedizierter Inferenzkapazität und 2 Gigawatt Trainingskapazität auf Nvidias zukünftigen Vera Rubin-Systemen zu.

Nvidia-CEO Jensen Huang äußerte sich Anfang des Monats zu den Erwartungen und sagte, dass die Möglichkeit, 100 Milliarden US-Dollar in OpenAI zu investieren, wahrscheinlich "nicht in den Karten" sei. Die jüngste Investition ist nicht an Bereitstellungsmeilensteine gebunden und unterscheidet sich von der vor sechs Monaten angekündigten Deal-Struktur. Huang merkte an, dass dies "möglicherweise das letzte Mal" sei, dass Nvidia vor dem Börsengang in OpenAI investiert.

Fokus auf Cloud-Partner und Wettbewerb

OpenAI besitzt derzeit keine eigenen Datenzentren und wird dies auf absehbare Zeit möglicherweise auch nicht tun. Stattdessen setzt das Unternehmen stark auf Partner wie Oracle, Microsoft und Amazon, um so viel Kapazität wie möglich zu bündeln. Walid Saad, Ingenieurprofessor an der Virginia Tech, schätzt, dass der Bau eines 1-Gigawatt-Datenzentrums von Grund auf drei bis zehn Jahre dauern kann, bedingt durch Standortsuche, Genehmigungen, Stromzugang, Bau und Hardwarelieferung. Arun Chandrasekaran, KI-Analyst bei Gartner, erklärte gegenüber CNBC: "Sie fangen an zu sagen: 'Wisst ihr was, lasst uns versuchen, die Kapazität zu sichern, die wir jetzt von den Anbietern bekommen können, die bereit sind, uns diese Kapazität zu geben.'"

Dieser strategische Wandel bedeutet, dass OpenAI möglicherweise weniger tun muss, während es gleichzeitig versucht, mit Anthropic, Google und einer Vielzahl anderer Unternehmen zu konkurrieren, die KI-Modelle, -Anwendungen und -Funktionen entwickeln. Daniel Newman von der Futurum Group kommentierte: "OpenAI tut, was es tun muss, nämlich Zugang zu Rechenleistung in großem Maßstab zu erhalten. Das ist das Rennen."

Interne Neuausrichtung und Rentabilität im Blick

OpenAI betont Disziplin in allen Geschäftsbereichen. Im Dezember rief das Unternehmen einen "Code Red" aus, um sich auf die Verbesserung seines ChatGPT-Chatbots angesichts des wachsenden Wettbewerbs von Google und Anthropic zu konzentrieren. Fidji Simo, CEO der Anwendungen bei OpenAI, hielt Anfang des Monats ein All-Hands-Meeting mit Mitarbeitern über das Unternehmensgeschäft ab und sagte, das Unternehmen richte sich "aggressiv" auf Anwendungsfälle mit hoher Produktivität aus. Simo betonte: "Was für uns im Moment wirklich zählt, ist, konzentriert zu bleiben und extrem gut zu arbeiten."

Newman fasste die Situation zusammen: "Man muss ihnen zugutehalten, dass sie eine unglaubliche Wachstumsgeschichte aufgebaut haben. Es ist nur so – der Rest der Fahrt wird nicht kostenlos sein. Und weil ihre Kostenstruktur so hoch ist, wird ihr Weg zur Rentabilität bei jedem Schritt genauestens geprüft werden."

Erwähnte Persönlichkeiten