Anthropic lehnt Pentagon-Deal ab: Bannon sieht Gefahr in KI-Waffenentwicklung

Anthropic lehnt Pentagon-Deal ab: Bannon sieht Gefahr in KI-Waffenentwicklung

Aktualisiert:
3 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Das KI-Unternehmen Anthropic hat im Februar ein geplantes Abkommen mit dem US-Verteidigungsministerium abgelehnt, was zu einer weitreichenden Kontroverse führte. Die Entscheidung, die Nutzung ihres Frontier-Modells Claude durch das Pentagon zu verweigern, stieß auf heftigen Widerstand seitens des Militärs, erhielt jedoch unerwartete Unterstützung von Steve Bannon, dem ehemaligen Chefstrategen des Weißen Hauses.

Anthropic lehnt Pentagon-Deal ab

Der Konflikt zwischen Anthropic und dem Pentagon begann im Februar 2026, als Verhandlungen über die militärische Nutzung von Claude stattfanden. Verteidigungsminister Pete Hegseth drängte das Unternehmen, die Nutzungsbedingungen des Pentagons zu akzeptieren, andernfalls drohe der Verlust des Vertrags.

Anthropic-CEO Dario Amodei erklärte in einem Blogbeitrag, das Unternehmen könne den Forderungen des Pentagons "nicht guten Gewissens zustimmen". Hauptbedenken waren die potenzielle Nutzung der Technologie für Massenüberwachung im Inland und die Entwicklung vollständig autonomer Waffensysteme.

Die Ablehnung führte zu einer schnellen Reaktion des Pentagons, das Anthropic effektiv auf eine schwarze Liste setzte. Das Unternehmen wurde als "Lieferkettenrisiko" eingestuft und Bundesbehörden die Nutzung seiner Technologie untersagt. Im März reichte Anthropic eine Klage gegen Hegseth, das Pentagon, das Executive Office of the President und andere Bundesbehörden ein.

Steve Bannon unterstützt Anthropic

Die Entscheidung von Anthropic fand überraschende Unterstützung in politischen Kreisen. Steve Bannon, ehemaliger Chefstratege des Weißen Hauses, äußerte sich während des Semafor World Economy Summit in Washington, D.C., am Donnerstag positiv. "Ich denke, Anthropic hatte Recht", sagte Bannon.

Bannon begründete seine Haltung damit, dass die Nutzung von Anthropic's Frontier-Modell Claude durch das Pentagon mit "wenigen Schutzmaßnahmen zu gefährlich" sei. Er kritisierte die Entwicklung superintelligenter KI und forderte mehr Transparenz darüber, wie Waffenhersteller KI einsetzen werden. "Das zentrale Thema ist, was in den Waffenlaboren mit KI passiert", so Bannon. "Wir haben keine Ahnung."

Öffentliche Meinung und neue Entwicklungen

Trotz der rechtlichen und geschäftlichen Konsequenzen gewann Anthropic in der öffentlichen Meinung erheblich an Zuspruch. Claude überholte vorübergehend ChatGPT im App Store, und das Unternehmen wurde für seine prinzipielle Haltung gelobt.

Das Pentagon reagierte auf die Ablehnung von Anthropic, indem es schnell einen Deal mit Sam Altmans OpenAI abschloss. Dies unterstreicht die wachsende Bedeutung von KI-Technologien für militärische Anwendungen und die damit verbundenen ethischen Debatten.

In jüngster Zeit machte Anthropic erneut Schlagzeilen mit der Ankündigung seines neuen Modells Mythos. Das Unternehmen gab jedoch bekannt, die allgemeine Veröffentlichung des Modells aufgrund von Cybersicherheitsbedenken pausiert zu haben. "Die große Zunahme der Fähigkeiten von Claude Mythos Preview hat uns dazu bewogen, es nicht allgemein verfügbar zu machen", schrieb das Unternehmen in der Systemkarte der Vorschau. Stattdessen wird Mythos nun als Teil eines defensiven Cybersicherheitsprogramms mit einer begrenzten Anzahl von Partnern eingesetzt.

Erwähnte Persönlichkeiten