
Elon Musks xAI wird zum Cloud-Anbieter: Rechenleistung für Coding-Startup Cursor
ℹKeine Anlageberatung • Nur zu Informationszwecken
Elon Musks KI-Unternehmen xAI plant, seine umfangreiche Rechenleistung dem Coding-Startup Cursor zur Verfügung zu stellen. Cursor wird Zehntausende von xAIs Graphic Processing Units (GPUs) nutzen, um sein neuestes KI-Codierungsmodell, Composer 2.5, auf der xAI-Infrastruktur zu trainieren. Diese Vereinbarung könnte xAI helfen, Einnahmen aus seiner massiven Infrastruktur zu generieren und gleichzeitig die Kosten für den Bau und Betrieb von Datenzentren zu decken.
xAI wird zum Cloud-Anbieter für KI-Rechenleistung
Durch die Vermietung eines Teils seiner GPUs an andere Unternehmen könnte xAI eine neue Einnahmequelle erschließen, während es weiterhin eigene KI-Modelle entwickelt. Dieser Schritt positioniert xAI effektiv als eine Art Cloud-Anbieter im Bereich der KI-Rechenleistung. Die Vereinbarung vertieft zudem die Beziehungen zu einem Startup, das Zugang zu wertvollen Codierungsdaten besitzt.
Der Markt für KI-Rechenleistung ist hart umkämpft. Etablierte Cloud-Anbieter wie Amazon, Microsoft und Google besitzen Millionen von Chips und vermieten Rechenleistung an Tausende von Unternehmen. Neuere Akteure wie CoreWeave und Lambda haben sich ebenfalls auf die Bereitstellung von GPUs für KI-Modellentwickler spezialisiert.
Strategische Partnerschaft und personelle Überschneidungen
Die Zusammenarbeit zwischen Cursor und xAI ist nicht die erste Überschneidung der beiden Unternehmen. Bereits im März stellte xAI zwei ehemalige Produktentwicklungsleiter von Cursor ein: Andrew Milich und Jason Ginsburg. Diese beiden leiten nun das Produktteam von xAI und berichten direkt an Elon Musk und xAI-Präsident Michael Nicolls.
Vertreter von xAI und Cursor haben auf Anfragen nach Kommentaren nicht reagiert.
xAIs ehrgeizige Infrastrukturpläne
xAI ist eines von vielen Unternehmen, die im Rennen um die Entwicklung der besten KI-Modelle sind und verfügt über eine der größten Rechenzentrumsflächen. Elon Musk erklärte im Dezember in einer Mitarbeiterversammlung, dass xAI Konkurrenten wie OpenAI und Anthropic übertreffen werde, da es Zugang zu mehr Leistung für das Training seiner Modelle haben würde.
In den letzten zwei Jahren hat xAI die Fläche seiner Datenzentren, ein Projekt namens "Colossus", rasch erweitert. Letztes Jahr gab das Unternehmen an, rund 200.000 Nvidia GPUs zu besitzen, und Musk hat Pläne geäußert, auf 1 Million GPUs zu expandieren.
Herausforderungen und Effizienzziele bei xAI
Das Infrastrukturteam von xAI hat kürzlich einen Führungswechsel erlebt. Heinrich Küttler, der bisherige Infrastrukturleiter, verließ das Unternehmen. Jake Palmer übernahm eine Führungsrolle im Team für die physische Infrastruktur, während Daniel Dueri von SpaceX eine Führungsposition im Team für die Compute-Infrastruktur einnahm.
In einem internen Memo bemängelte xAI-Präsident Michael Nicolls die "peinlich niedrige" MFU (Model FLOPs Utilization) des Unternehmens, die bei etwa 11% lag. Die MFU misst, wie effizient eine GPU während des KI-Trainings genutzt wird. Nicolls strebt an, dass das Team diesen Wert in den nächsten Monaten auf 50% steigert. Zum Vergleich: Laut dem KI-Infrastrukturunternehmen Lambda AI liegt die MFU bei den meisten groß angelegten KI-Trainings zwischen 35% und 45%.
Cursor im Wettbewerbsumfeld der KI-Codierungsassistenten
Cursor befindet sich Berichten zufolge in Gesprächen über eine Bewertung von rund 50 Milliarden US-Dollar, wie Bloomberg letzten Monat meldete. Gleichzeitig steht das Unternehmen unter Druck, da große KI-Startups wie Anthropic und OpenAI aggressiv in die Entwicklung von Codierungsassistenten vordringen.
Im März veröffentlichte Cursor Composer 2, ein Codierungsmodell, das darauf ausgelegt ist, Code über große Projekte hinweg zu generieren und zu bearbeiten. Cursor baute das Modell auf einem Open-Source-KI-Modell des chinesischen Startups Moonshot AI auf und verfeinerte es mithilfe eigener Daten aus seiner Entwickler-Nutzerbasis.