
Cerebras profitiert von Oracle-Deal: KI-Chip-Markt im Umbruch durch US-Exportkontrollen
ℹKeine Anlageberatung • Nur zu Informationszwecken
Der KI-Chip-Hersteller Cerebras Systems rückt mit einer potenziellen Partnerschaft mit Oracle in den Fokus, was seine IPO-Ambitionen stärken könnte. Dies geschieht in einem dynamischen Markt für KI-Beschleuniger, der von intensiver Nachfrage und starkem Wettbewerb geprägt ist, während gleichzeitig neue, weitreichende US-Exportkontrollen die globale Entwicklung der KI-Infrastruktur beeinflussen.
Cerebras im Fokus: Oracle als strategischer Partner
Der KI-Chip-Hersteller Cerebras Systems strebt weiterhin einen Börsengang an, nachdem das Unternehmen im Jahr 2024 entsprechende Unterlagen eingereicht, diese jedoch im Oktober desselben Jahres zurückgezogen hatte. Tage später kündigte Cerebras eine Finanzierungsrunde von 1,1 Milliarden US-Dollar bei einer Bewertung von 8,1 Milliarden US-Dollar an, und CEO Andrew Feldman bekräftigte die Absicht, an die Börse zu gehen.
Ein potenzieller Meilenstein für Cerebras ist die Zusammenarbeit mit dem Cloud-Computing-Anbieter Oracle. Clay Magouyrk, einer der beiden CEOs von Oracle, deutete in einer Telefonkonferenz mit Analysten an, dass die Infrastruktur seines Unternehmens Cerebras-Chips neben Grafikprozessoren (GPUs) von Marktführer Nvidia und dem Konkurrenten Advanced Micro Devices (AMD) umfasst. Magouyrk erklärte: "Wir bieten kontinuierlich die neuesten Beschleuniger an, von den aktuellsten Nvidia- und AMD-Optionen bis hin zu neuen Designs von Unternehmen wie Cerebras und Positron."
Cerebras bietet Cloud-Dienste an, die seine großformatigen WSE-3-Chips nutzen. Eine Stärkung des Kundenstamms mit einem Namen wie Oracle könnte für Cerebras von großem Vorteil sein, insbesondere da der ursprüngliche Prospekt eine starke Abhängigkeit von einem einzigen Kunden im Nahen Osten, G42 aus Abu Dhabi, aufwies, der im ersten Halbjahr 2024 87 % des Umsatzes ausmachte.
Diese Entwicklung folgt auf eine weitere wichtige Ankündigung im Januar, als Cerebras eine Zusage von 10 Milliarden US-Dollar von OpenAI erhielt, einem Unternehmen, das selbst Oracle für Cloud-Dienste nutzt. Im Folgemonat kündigte OpenAI eine Zusammenarbeit mit Cerebras an einer Forschungsvorschau von Codex-Spark an, einem schnellen KI-Modell für die Softwareentwicklung, das für ChatGPT Pro-Kunden bestimmt ist.
Der hart umkämpfte Markt für KI-Beschleuniger
Der Markt für KI-Chips ist von einer "unstillbaren Nachfrage" nach Rechenleistung geprägt, da Entwickler von KI-Modellen ihre Systeme schnell skalieren müssen. Nvidia dominiert diesen Sektor mit einem Marktanteil von etwa 92 % am diskreten GPU-Markt im ersten Halbjahr 2025. Das Unternehmen expandiert aggressiv und erwarb im Dezember 2025 wichtige Vermögenswerte des KI-Chip-Startups Groq für rund 20 Milliarden US-Dollar.
Neben Cerebras drängen weitere spezialisierte Anbieter wie SambaNova, Tenstorrent, FuriosaAI, Positron und d-Matrix auf den Markt, um Nvidias GPUs zu ergänzen oder herauszufordern. Große Cloud-Anbieter (Hyperscaler) entwickeln zudem eigene KI-Chips: Microsoft mit dem Maia 200, Google mit dem Ironwood TPU und Meta mit der Akquisition des RISC-V-Startups Rivos für rund 2 Milliarden US-Dollar. Broadcom entwickelt Chips für OpenAI.
Oracle CEO Clay Magouyrk betonte die Notwendigkeit innovativer Hardware, um Latenz zu reduzieren und Kosten für das Inferencing zu senken. Er merkte an: "Es ist die Art von Hardware, die eingesetzt wird, und deshalb sehen Sie so viel Innovation rund um diese KI-Beschleuniger." Der globale Markt für KI-Inferenz wird bis 2030 voraussichtlich 255 Milliarden US-Dollar erreichen.
Unternehmen suchen zunehmend On-Premises-Lösungen für LLM Inference, um Datenhoheit, geringere Latenz und kalkulierbare Kosten zu gewährleisten, da traditionelle Cloud-Lösungen oft teuer oder als unsicher empfunden werden. Ein wachsender Fokus liegt auch auf der Energieeffizienz, da KI bis 2028 6,7 bis 12 % des US-Stromverbrauchs ausmachen könnte.
US-Exportkontrollen: Ein neues Regelwerk für KI-Hardware
Die US-Regierung unter der Trump-Administration bereitet weitreichende neue Exportvorschriften vor, die ihr die Befugnis geben würden, nahezu alle globalen Lieferungen fortschrittlicher KI-Beschleuniger von US-Unternehmen, einschließlich AMD und Nvidia, zu genehmigen. Diese Regeln würden bestehende länderspezifische Beschränkungen zu einem weltweiten Lizenzsystem ausweiten und der Regierung umfassende Befugnisse zur Genehmigung oder Ablehnung großer KI-Infrastrukturprojekte geben. Sie sind deutlich strenger als die "AI Diffusion Rule" der Biden-Ära.
Das vorgeschlagene System sieht eine gestaffelte Lizenzierung nach Rechenleistung vor:
- Kleinere Lieferungen (bis zu 1.000 Nvidia GB300 GPUs oder Äquivalente): Ein vereinfachtes Prüfverfahren mit begrenzten Ausnahmen.
- Mittlere Bereitstellungen (über 1.000 bis unter 200.000 GB300-Äquivalente): Erfordern eine "Vorabgenehmigung" des US-Handelsministeriums und eine Exportlizenz, inklusive Transparenzpflichten, Offenlegung von Geschäftsaktivitäten und potenziellen Vor-Ort-Inspektionen durch US-Behörden.
- Große KI-Cluster (über 200.000 GB300-Äquivalente): Erfordern direkte Verhandlungen der Gastländer mit der US-Regierung, nationale Sicherheitszusagen und Verpflichtungen zu Investitionen in die amerikanische KI-Infrastruktur. Dies betrifft große Akteure wie AWS, Microsoft, Oracle, OpenAI und xAI.
Derzeit sind Lieferungen von Hochleistungs-KI-Prozessoren an ausgewählte Länder wie China, Iran, Nordkorea und Russland verboten. Die neuen Regeln würden intergouvernementale Vereinbarungen, wie sie bereits für große Lieferungen in den Nahen Osten gelten, auch für verbündete Nationen in Europa üblicher machen. Diese Politik ist kein totales Exportverbot, sondern ein mächtiges Instrument, um die Entwicklung der globalen KI-Infrastruktur zu beeinflussen. Für Unternehmen wie AMD, Nvidia und Cerebras hängen die globalen Geschäfte von der Schnelligkeit der Lizenzerteilung und den damit verbundenen Bedingungen ab.