
Claude überholt ChatGPT im App Store nach Pentagon-Streit um KI-Ethik
ℹKeine Anlageberatung • Nur zu Informationszwecken
Anthropic's KI-Modell Claude hat einen bemerkenswerten Aufstieg im Apple App Store erlebt und ChatGPT in den Download-Charts überholt. Dieser Erfolg folgt auf eine öffentliche Auseinandersetzung zwischen Anthropic und dem US-Verteidigungsministerium über den Einsatz von Künstlicher Intelligenz im militärischen Kontext, die eine Welle von Nutzerwechseln von ChatGPT zu Claude ausgelöst hat.
Nutzerwanderung und App Store-Erfolg
Claude erreichte am Samstag um 18:38 Uhr ET Platz eins der meistgeladenen Produktivitäts-Apps im Apple App Store. In den allgemeinen kostenlosen App-Rankings kletterte es auf Platz zwei, hinter ChatGPT, nachdem es am 30. Januar noch auf Platz 131 lag. Dieser Aufstieg ist eng mit einer spürbaren Nutzerwanderung verbunden.
Zahlreiche ehemalige ChatGPT-Nutzer haben in sozialen Medien wie X und Reddit ihren Wechsel zu Claude dokumentiert und Screenshots geteilt. Prominente wie Popmusikerin Katy Perry posteten ein Bild von Claudes Preismodell mit einem Herz um den 20-Dollar-Pro-Plan und dem Kommentar "done". Auch Adam Lyttle teilte eine Bestätigung seiner Anthropic-Registrierung und OpenAI-Kündigung.
Der Kern des Konflikts: Ethik und Militär
Der Nutzerzustrom zu Claude erfolgte inmitten eines hochkarätigen Konflikts zwischen Anthropic und der US-Regierung. Präsident Donald Trump ordnete an, dass Bundesbehörden die Technologie von Anthropic innerhalb von sechs Monaten auslaufen lassen sollen, nachdem das Unternehmen sich geweigert hatte, seine KI-Modelle für "jeden rechtmäßigen Zweck" zur Verfügung zu stellen.
Anthropic lehnte es ab, seine ethischen Leitplanken bezüglich Massenüberwachung im Inland und des Einsatzes in vollständig autonomen Waffensystemen aufzuheben. CEO Dario Amodei erklärte, das Unternehmen könne diesen Forderungen "nicht guten Gewissens" nachkommen. Verteidigungsminister Pete Hegseth beantragte daraufhin, Anthropic als "Lieferkettenrisiko für die nationale Sicherheit" einzustufen. Anthropic kündigte an, eine solche Einstufung gerichtlich anzufechten, da sie rechtlich unbegründet sei und einen gefährlichen Präzedenzfall schaffen würde.
OpenAI's Position und Sicherheitsprinzipien
Während Anthropic in Washington ins Abseits geriet, sicherte sich OpenAI neue Positionen. CEO Sam Altman gab am Freitagabend auf X bekannt, dass OpenAI eine Vereinbarung mit dem Kriegsministerium getroffen habe, um KI-Modelle in dessen klassifiziertem Netzwerk einzusetzen. Altman betonte, dass das Kriegsministerium zwei wichtige Sicherheitsprinzipien von OpenAI teile: das Verbot der Massenüberwachung im Inland und die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme.
OpenAI veröffentlichte später detaillierte Vertragsbeschreibungen. Demnach soll das KI-System nicht zur unabhängigen Steuerung autonomer Waffen eingesetzt werden, wo menschliche Kontrolle gesetzlich oder politisch vorgeschrieben ist, noch für uneingeschränkte Überwachung privater Informationen von US-Bürgern.
Die Reaktion der Nutzergemeinschaft
Die Vereinbarung von OpenAI mit dem Kriegsministerium löste bei einigen loyalen ChatGPT-Nutzern Unbehagen aus und entfachte Online-Debatten über ethische Implikationen. Viele sahen Altmans Schritt als "Grenzüberschreitung". Auf Reddit wurde "Cancel ChatGPT" zu einem häufigen Aufruf, und Dutzende Nutzer berichteten von der Löschung ihrer Konten.
Einige Kommentatoren argumentierten jedoch, dass die Nachrichten ihre Wahl des KI-Modells nicht beeinflussten, da Anthropic selbst mit Palantir zusammenarbeitet, um US-Geheimdienst- und Verteidigungsbehörden Zugang zu Claude-Modellen zu ermöglichen (Vereinbarung vom November 2024). Der Aufstieg von Claude wird als "Headline-Effekt" interpretiert, bei dem politische Konfrontation und die Positionierung zu KI-Ethik – insbesondere gegen autonome Waffen und Überwachung – bei Nutzern Anklang finden. Ein X-Nutzer, Tae Kim, scherzte, dass Hegseth vielleicht einen neuen Titel brauche: "Secretary Hegseth Chief of Claude Marketing."
Markt-Bifurkation und zukünftige Implikationen
Die jüngsten Entwicklungen deuten auf eine Bifurkation des KI-Marktes hin. Während die Regierung OpenAI bevorzugt, scheinen die Konsumenten Anthropic zu wählen, was eine Spaltung in unterschiedliche Ökosysteme mit verschiedenen Auswahlkriterien signalisiert. Die Ablehnung von Anthropic durch das Pentagon, die zunächst als geschäftliche Belastung angesehen wurde, könnte sich als unerwarteter Marketing-Katalysator erwiesen haben. Sie differenziert Claude von Wettbewerbern, die auf Regierungsaufträge abzielen.
Für Anthropic sind die Einnahmen aus Verteidigungsaufträgen, die Berichten zufolge Hunderte Millionen betragen, zwar bedeutsam. Doch die aktuelle Entwicklung im App Store könnte die Bewertung des Unternehmens im Konsumentenbereich beschleunigen und seine strategische Ausrichtung neu definieren.