
Anthropic und Pentagon: KI-Ethik im Militäreinsatz eskaliert
ℹKeine Anlageberatung • Nur zu Informationszwecken
Der 200-Millionen-Dollar-Vertrag des KI-Unternehmens Anthropic mit dem US-Verteidigungsministerium (DOD) steht auf der Kippe. Berichten zufolge äußerte Anthropic Bedenken hinsichtlich des Einsatzes seines Claude-KI-Modells während eines Militäreinsatzes im Januar, was nun zu einer Eskalation der Spannungen zwischen dem Tech-Sektor und dem Pentagon führt.
Kontroverse um Claude-Einsatz in Venezuela
Der Kern der aktuellen Auseinandersetzung ist der mutmaßliche Einsatz von Anthropic’s Claude-KI-Modell während eines US-Militäreinsatzes am 3. Januar 2026 in Caracas, Venezuela, bei dem Nicolás Maduro gefasst wurde. Die Wall Street Journal berichtete am 13. Februar erstmals über die operative Rolle von Claude. Präsident Trump erwähnte bei dieser Operation den Einsatz einer „Discombobulator“-Waffe, die feindliche Ausrüstung „nicht funktionieren“ ließ.
Anthropic soll sich daraufhin an einen leitenden Palantir-Manager gewandt haben, um die Verwendung von Claude im Einsatz zu hinterfragen. Dies wurde von Palantir als Missbilligung interpretiert und an das Pentagon weitergeleitet. Ein Anthropic-Sprecher erklärte jedoch gegenüber Fortune, das Unternehmen habe die Nutzung von Claude für spezifische Operationen nicht mit dem Verteidigungsministerium besprochen und auch keine Bedenken gegenüber Industriepartnern außerhalb routinemäßiger technischer Diskussionen geäußert.
Die genauen Details der Claude-Nutzung bleiben unklar. Es gibt keine öffentlichen Dokumente, die bestätigen, ob das Modell die Operation plante, analysierte oder lediglich Informationen zusammenfasste. Lokale Verteidigungsministerien sprachen von 83 Opfern, eine Zahl, die von internationalen Beobachtern bestritten wird. Experten warnen, dass dies die erste mutmaßliche Anwendung kommerzieller Militär-KI auf dem Schlachtfeld ist.
Anthropic's ethische Leitplanken für KI-Nutzung
Im Zentrum des Konflikts stehen die vertraglichen Schutzbestimmungen, die die Nutzung von KI-Modellen in Verteidigungsoperationen regeln. Anthropic-CEO Dario Amodei hat sich konsequent für strenge Grenzen und Regulierungen beim KI-Einsatz eingesetzt und dabei eingeräumt, dass es schwierig ist, Sicherheit und Profit in Einklang zu bringen. Im November äußerte er: „Ich fühle mich zutiefst unwohl dabei, dass diese Entscheidungen von einigen wenigen Unternehmen getroffen werden.“
Gemäß dem Vertrag mit dem Verteidigungsministerium untersagt Anthropic dem Pentagon die Nutzung seiner KI-Modelle für die Massenüberwachung von Amerikanern oder den Einsatz seiner Technologie in vollständig autonomen Waffen. Das Unternehmen hat auch die Verwendung seiner Technologie in „tödlichen“ oder „kinetischen“ militärischen Anwendungen untersagt. Eine direkte Beteiligung an aktivem Feuergefecht während des Maduro-Einsatzes würde diese Bedingungen wahrscheinlich verletzen.
Anthropic betonte in einer Erklärung gegenüber Fortune, dass Claude für eine Vielzahl nachrichtendienstlicher Anwendungsfälle innerhalb der Regierung, einschließlich des Verteidigungsministeriums, gemäß der Nutzungsrichtlinie eingesetzt wird. Das Unternehmen sei bestrebt, „Frontier AI zur Unterstützung der nationalen Sicherheit der USA einzusetzen.“ Es führe „produktive Gespräche, in gutem Glauben, mit dem DoW, wie diese Arbeit fortgesetzt und diese komplexen Probleme richtig gelöst werden können.“
Pentagon droht mit "Lieferkettenrisiko"-Einstufung
Die Spannungen haben in den letzten Wochen zugenommen. Sean Parnell, Sprecher des Pentagons, erklärte, die Beziehung des Verteidigungsministeriums zu Anthropic werde überprüft. Er betonte: „Unsere Nation verlangt, dass unsere Partner bereit sind, unsere Soldaten in jedem Kampf zum Sieg zu führen. Letztendlich geht es hier um unsere Truppen und die Sicherheit des amerikanischen Volkes.“
Verteidigungsminister Pete Hegseth steht laut einem hochrangigen Pentagon-Beamten kurz davor, die Geschäftsbeziehungen zu Anthropic abzubrechen und das Unternehmen als „Lieferkettenrisiko“ einzustufen. Diese Maßnahme würde nicht nur Anthropic, sondern auch alle Auftragnehmer bestrafen, die auf dessen Technologie angewiesen sind. Ein solcher Schritt ist in der Regel ausländischen Gegnern vorbehalten, wie dem Huawei-Verbot von 2019 aufgrund nationaler Sicherheitsbedenken.
Der Beamte äußerte sich drastisch gegenüber Axios: „Es wird ein enormer Aufwand sein, die Verbindungen zu lösen, und wir werden sicherstellen, dass sie einen Preis dafür zahlen, dass sie uns dazu zwingen.“ Das Pentagon argumentiert, dass ethische Grenzen, die von Unternehmen gesetzt werden, unnötig restriktiv seien und die Grauzonen die Technologien unbrauchbar machen würden.
Claude's strategische Bedeutung und der breitere Konflikt
Anthropic nimmt eine lukrative Position ein, da Claude das einzige große Sprachmodell ist, das auf den klassifizierten Netzwerken des Pentagons zugelassen ist – im Gegensatz zu anderen KI-Unternehmen wie OpenAI, Google und xAI. Pentagon-Beamte beschreiben Claude privat als „außergewöhnlich effektiv“ in spezialisierten Regierungsabläufen.
Während das DOD die Integration von KI in seine Operationen beschleunigt, hat nur xAI dem Pentagon die Nutzung seiner Modelle für „alle rechtmäßigen Zwecke“ gestattet. Andere Unternehmen wie OpenAI und Google behalten Nutzungsbeschränkungen bei. Dies verstärkt den Wettbewerbsdruck, da rivalisierende Anbieter Berichten zufolge breitere Nutzungsbedingungen akzeptieren.
Der öffentliche Streit wird zu einem Stellvertreterkrieg darüber, wer die Nutzung von KI diktieren wird: private Unternehmen mit ihren ethischen Richtlinien oder die Regierung mit ihren militärischen Standards. Die Trump-Administration will sicherstellen, dass KI-Systeme für das Militär ohne restriktive Bedingungen verfügbar sind, und sendet damit ein klares Signal an den gesamten Technologiesektor.