Anthropic vs. Pentagon: KI-Sicherheitsstreit eskaliert vor Gericht

Anthropic vs. Pentagon: KI-Sicherheitsstreit eskaliert vor Gericht

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

In einem beispiellosen Rechtsstreit stehen sich das KI-Unternehmen Anthropic und das US-Verteidigungsministerium, umbenannt in Department of War (DOW), vor einem kalifornischen Bundesgericht gegenüber. Im Kern geht es um die Einstufung Anthropic's als "Lieferkettenrisiko" für die nationale Sicherheit und ein damit verbundenes Verbot für alle Regierungsauftragnehmer, die umfassenden KI-Tools des Unternehmens zu nutzen. Dieser Fall markiert das erste Mal, dass ein US-amerikanisches Unternehmen vom Pentagon als solches Risiko eingestuft wird.

Der Ursprung des Konflikts: KI-Einsatz und Sicherheitsbedenken

Der Streit entzündet sich an Vertragsverhandlungen, bei denen das DOW eine pauschale "alle rechtmäßigen Nutzungen"-Klausel für Anthropic's KI-Tool Claude forderte. Dies hätte dem Militär erlaubt, Claude für jeden legalen Zweck einzusetzen. Anthropic, unter der Führung von Gründer Dario Amodei, lehnte dies ab, insbesondere im Hinblick auf den Einsatz von Claude für tödliche autonome Kriegsführung und die Massenüberwachung von US-Bürgern. Das Unternehmen argumentierte, diese Anwendungen seien nicht ausreichend getestet und nicht sicher. Das DOW hingegen bezeichnete diese Schutzmaßnahmen als inakzeptabel und betonte die Notwendigkeit der Entscheidungsfreiheit für Militärkommandeure.

Politische Eskalation und die "Lieferkettenrisiko"-Einstufung

Am 27. Februar wies Präsident Trump auf Truth Social "JEDE" Bundesbehörde an, die Nutzung von Anthropic's Tools "SOFORT EINZUSTELLEN". Am selben Tag bezeichnete Kriegsminister Pete Hegseth Anthropic auf X als "Lieferkettenrisiko" und erklärte, dass "kein Auftragnehmer, Lieferant oder Partner, der Geschäfte mit dem US-Militär macht, kommerzielle Aktivitäten mit Anthropic durchführen darf". Eine solche Risikoeinstufung ist üblicherweise Nationalstaaten, ausländischen Gegnern und anderen Bedrohungen vorbehalten. Hegseth nannte Amodei einen "Lügner" mit einem "Gott-Komplex", und Trump bezeichnete Anthropic als "RADIKAL LINKS, WOKE UNTERNEHMEN" voller "Linksradikaler Spinner".

Anthropic's Klage: Verfassungsrechtliche Bedenken

Anthropic reagierte am 9. März mit einer Klage, in der es der Regierung "Vergeltung" für die Äußerung ihrer Ansichten zu Sicherheitsvorkehrungen vorwarf und eine Verletzung des Ersten Verfassungszusatzes geltend machte. Das Unternehmen behauptete zudem, die Regierung habe das im Administrative Procedure Act festgelegte Verfahren und das Recht auf ein ordnungsgemäßes Verfahren gemäß dem Fünften Verfassungszusatz verletzt. Die Regierung entgegnete, ihre Maßnahmen seien eine Reaktion auf Anthropic's Weigerung gewesen, die Vertragsbedingungen umzusetzen, und argumentierte, dass die Meinungsfreiheit in diesem Fall nicht zur Debatte stehe. Der stellvertretende stellvertretende Generalstaatsanwalt Eric Hamilton betonte, die Regierung habe uneingeschränkte Befugnis zu entscheiden, mit welchen Unternehmen sie Verträge abschließt. Hamilton äußerte Bedenken, dass zukünftige Software-Updates von Anthropic als "Kill Switch" in militärischen Operationen genutzt werden könnten.

Richterliche Skepsis und die Frage der Verhältnismäßigkeit

Bezirksrichterin Rita F. Lin zeigte sich skeptisch und beschrieb den Fall in ihren Eröffnungserklärungen als eine "faszinierende öffentliche Debatte" über Anthropic's Position versus die militärischen Bedürfnisse der Regierung. Sie betonte jedoch, dass ihre Rolle nicht darin bestehe, zu "entscheiden, wer in dieser Debatte Recht hat". Vielmehr sei die entscheidende Frage für das Gericht, ob die Regierung "das Gesetz verletzt" habe, indem sie über die bloße Nichtnutzung von Anthropic's KI-Diensten hinausging und einen zulässigeren KI-Anbieter suchte.

Lin äußerte sich besorgt über die Reaktionen der Regierung: "Nachdem Anthropic mit diesem Vertragsstreit an die Öffentlichkeit gegangen war, schienen die Beklagten eine ziemlich große Reaktion darauf zu haben." Diese Reaktionen umfassten das Verbot für Anthropic, jemals einen Regierungsvertrag zu erhalten, Hegseth's Anweisung, dass jeder, der Geschäfte mit dem US-Militär machen möchte, seine Geschäftsbeziehung zu Anthropic beenden müsse, und die Einstufung als Lieferkettenrisiko.

"Was mich an diesen Reaktionen beunruhigt, ist, dass sie nicht wirklich auf das genannte nationale Sicherheitsanliegen zugeschnitten zu sein scheinen", sagte Lin. Wenn es um die Befehlskette gehe, könnte das DOW einfach aufhören, Claude zu nutzen.

"Versuchter Unternehmensmord" und weitreichende Implikationen

Ein Amicus Curiae, ein "Freund des Gerichts"-Schriftsatz, verwendete den Begriff "versuchter Unternehmensmord". Lin kommentierte: "Ich weiß nicht, ob es Mord ist, aber es sieht aus wie ein Versuch, Anthropic zu lähmen. Und insbesondere meine Sorge ist, ob Anthropic dafür bestraft wird, dass es die Vertragsposition der Regierung in der Presse kritisiert hat."

Der von Investoren und der "Freedom Economy Business Association" eingereichte Schriftsatz zitierte einen X-Post von Dean Ball, Trumps ehemaligem Senior Policy Advisor für KI und neue Technologien: "Nvidia, Amazon, Google werden sich von Anthropic trennen müssen, wenn Hegseth seinen Willen bekommt. Das ist einfach versuchter Unternehmensmord. Ich könnte keinem Investor empfehlen, in amerikanische KI zu investieren; ich könnte keinem empfehlen, ein KI-Unternehmen in den Vereinigten Staaten zu gründen."

Weitere Amicus-Schriftsätze kamen von:

  • Microsoft, das argumentierte, ein Verbot von Anthropic würde sein eigenes Geschäft schädigen und zukünftige Investitionen und Engagements der Verteidigungsindustrie in KI abschrecken.
  • Die American Federation of Government Employees, eine Gewerkschaft von 800.000 Bundesbediensteten, die ein Muster der Trump-Administration sah, nationale Sicherheitsbedenken als Vorwand für Vergeltung gegen die Meinungsfreiheit zu nutzen.
  • Die Human Rights and Technology Justice Organization, die sich allgemein gegen militarisierte KI aussprach und vor katastrophalen Menschenrechtsrisiken warnte.

Regierung rudert teilweise zurück

Während der Anhörung räumte Eric Hamilton vom Justizministerium ein, dass die Einstufung als Lieferkettenrisiko Unternehmen, die mit dem Militär Verträge haben, nicht daran hindert, Anthropic's Modell für nicht-militärische Arbeiten zu nutzen. Dies widersprach Hegseth's ursprünglicher Aussage auf Social Media. Auf Nachfrage von Richterin Lin bestätigte Hamilton, dass das Verteidigungsministerium keine Bundesauftragnehmer kündigen werde, weil sie Beziehungen zu Anthropic haben, die von ihrer Arbeit mit dem Pentagon getrennt sind. Er sagte auch, ihm sei kein Gesetz bekannt, das dem Ministerium diese Art von Macht verleihe. Anthropic's Anwalt, Michael Mongan, argumentierte jedoch, dass Hegseth's Post dennoch "tiefe Unsicherheit" geschaffen und dem Geschäft geschadet habe, da er millionenfach angesehen wurde.

Richterin Lin wird diese Woche eine Entscheidung bekannt geben. Der Fall wirft wichtige Fragen über die Grenzen staatlicher Macht, die Meinungsfreiheit von Unternehmen und die Zukunft der KI-Entwicklung im Kontext nationaler Sicherheit auf.

Erwähnte Persönlichkeiten