
OpenAI sichert sich Milliarden-Deal mit KI-Chip-Rivalen Cerebras
ℹKeine Anlageberatung • Nur zu Informationszwecken
OpenAI, der Entwickler des populären Chatbots ChatGPT, hat eine umfassende Vereinbarung mit dem KI-Chiphersteller Cerebras Systems getroffen. Der Deal sichert OpenAI bis 2028 eine Rechenleistung von 750 Megawatt und wird auf einen Wert von über 10 Milliarden US-Dollar geschätzt, was die strategische Bedeutung von KI-Infrastruktur im aktuellen Wettbewerb unterstreicht. Diese Partnerschaft zielt darauf ab, die Inferenzkapazität von OpenAI erheblich zu erweitern und die Reaktionszeiten seiner KI-Modelle zu beschleunigen.
Milliarden-Deal für KI-Infrastruktur
Die Kooperation zwischen OpenAI und Cerebras Systems baut auf einer früheren Zusammenarbeit auf, die die Bereitstellung von OpenAIs gpt-oss Open-Weight-Modellen auf Cerebras-Hardware unterstützte, ergänzend zu Chips von Nvidia Corp und Advanced Micro Devices (AMD). Obwohl die genauen finanziellen Details der aktuellen Vereinbarung nicht offengelegt wurden, wird der Wert des Deals laut CNBC und weiteren Berichten auf über 10 Milliarden US-Dollar geschätzt. Die Kapazität wird schrittweise bis 2028 in Betrieb genommen.
Diese Vereinbarung ist nicht als direkter Hardware-Kauf konzipiert, sondern als ein Cloud-Services-Deal. Cerebras wird Datenzentren mit seinen Systemen bauen oder leasen, während OpenAI für die Nutzung dieser Cloud-basierten Rechenleistungen zur Ausführung seiner KI-Produkte bezahlt. Sachin Katti von OpenAI betonte, dass diese Strategie darauf abzielt, ein widerstandsfähiges Portfolio aufzubauen, das die richtigen Systeme den richtigen Arbeitslasten zuordnet und Cerebras als dedizierte Lösung für latenzarme Inferenz positioniert.
Cerebras: Ein Herausforderer im KI-Chip-Markt
Cerebras Systems, 2015 gegründet, ist bekannt für seine Wafer-Scale Engine, einen Prozessor, der auf einer gesamten Siliziumwafer gebaut ist. Im Gegensatz zu herkömmlichen GPUs, die auf Clustern kleinerer Chips basieren, nutzt Cerebras einen einzigen massiven Chip. Dieser Ansatz ermöglicht laut Cerebras eine geringere Latenz, reduzierte Datenbewegung, höhere Energieeffizienz und eine einfachere Skalierung für große Modelle.
Andrew Feldman, Mitbegründer und CEO von Cerebras, erklärte, dass die Gespräche mit OpenAI im August begannen, nachdem Cerebras demonstrieren konnte, dass OpenAIs Open-Source-Modelle auf Cerebras-Chips effizienter liefen als auf traditionellen GPUs. Feldman sieht in der Partnerschaft einen Weg, die weltweit führenden KI-Modelle auf den schnellsten KI-Prozessor zu bringen und die KI durch Echtzeit-Inferenz zu transformieren.
Die Bedeutung von Inference im KI-Wettrennen
Der Deal unterstreicht einen Paradigmenwechsel im KI-Wettrennen: Während in den Anfangstagen der generativen KI der Fokus auf dem Training immer größerer Modelle lag, verschiebt sich der Druck nun auf die Inferenz. Inference ist der Prozess, bei dem KI-Modelle in Echtzeit auf Benutzeranfragen reagieren. Diese Arbeitslasten laufen kontinuierlich, erfordern geringe Latenz, verbrauchen enorme Mengen an Energie und skalieren direkt mit dem Nutzerwachstum.
OpenAI plant, die Cerebras-Kapazität zu nutzen, um die Echtzeit-Performance seiner Produkte zu verbessern, indem die Anfrage-Antwort-Schleife bei komplexen Aufgaben wie der Beantwortung schwieriger Fragen, der Codegenerierung oder der Bilderstellung verkürzt wird. Schnellere, natürlichere Reaktionszeiten sollen die Nutzerbindung erhöhen und höherwertige Arbeitslasten unterstützen.
Strategische Expansion und IPO-Ambitionen
Für Cerebras ist diese Partnerschaft von entscheidender Bedeutung, da sie die Einnahmebasis des Unternehmens diversifiziert. Bisher war Cerebras stark vom G42 aus den VAE abhängig, der im ersten Halbjahr 2024 87 % der Unternehmenseinnahmen ausmachte. Der Deal mit OpenAI stärkt zudem die IPO-Ambitionen von Cerebras. Das Unternehmen hatte seine IPO-Pläne im Oktober 2024 trotz einer Bewertung von 8 Milliarden US-Dollar vorerst auf Eis gelegt.
Laut einem Bloomberg-Bericht strebt Cerebras nun eine Finanzierungsrunde von rund 1 Milliarde US-Dollar an, die den KI-Chiphersteller vor der Investition auf 22 Milliarden US-Dollar bewerten würde. Kalshi-Händler sehen hohe Chancen für einen Börsengang vor dem nächsten Jahr, und Reuters berichtete, dass Cerebras sich auf einen IPO im zweiten Quartal dieses Jahres vorbereitet. Sam Altman, CEO von OpenAI, ist übrigens ein früher Investor in Cerebras.
OpenAIs breitere Strategie und Marktbeobachtungen
OpenAI selbst unternimmt strategische Schritte, um seine KI-Fähigkeiten zu stärken. Dazu gehören die jüngste Übernahme des Gesundheitstechnologie-Startups Torch und die Partnerschaft mit SB Energy, einem Teil der SoftBank Group, zur Entwicklung und Umsetzung von Rechenzentrums-Campussen. Sam Altman hatte im vergangenen Jahr angekündigt, dass OpenAI 1,4 Billionen US-Dollar investieren will, um 30 Gigawatt an Rechenressourcen zu entwickeln.
Während Unternehmen erhebliche Summen in die boomende Technologie investieren und Bewertungen in die Höhe schnellen, äußern Investoren und Experten Bedenken, dass die Branche in eine Blase geraten könnte, die an den Dotcom-Boom und -Bust erinnert. Die massiven Investitionen in Rechenleistung und Infrastruktur zeigen jedoch, wie zentral der Zugang zu Compute im KI-Wettlauf geworden ist.