
Anthropic vs. Pentagon: KI-Gigant klagt gegen US-Regierung
ℹKeine Anlageberatung • Nur zu Informationszwecken
Der KI-Entwickler Anthropic steht vor einem entscheidenden Gerichtstermin in San Francisco, um eine einstweilige Verfügung gegen das Pentagon-Verbot seiner Claude-Modelle zu erwirken. Die US-Regierung hat die Technologie des Unternehmens als "Lieferkettenrisiko" eingestuft und die Nutzung durch Bundesbehörden untersagt, was Anthropic potenziell Milliarden an Geschäftseinbußen kosten könnte. Der Fall wirft wichtige Fragen über nationale Sicherheit, KI-Ethik und die Beziehung zwischen dem Silicon Valley und der Regierung auf.
Anthropic klagt gegen Pentagon-Verbot von Claude AI
Anthropic, das San Franciscoer Startup hinter dem Chatbot Claude, hat am Dienstag, den 24. März 2026, vor einem Bundesgericht in San Francisco eine einstweilige Verfügung beantragt. Ziel ist es, die Schwarze Liste des Pentagons für seine Künstliche Intelligenz-Modelle und eine entsprechende Anweisung von Präsident Donald Trump, die Bundesbehörden die Nutzung dieser Technologie untersagt, vorübergehend auszusetzen. Sollte die einstweilige Verfügung erteilt werden, könnte Anthropic weiterhin Geschäfte mit Regierungsauftragnehmern und Bundesbehörden tätigen, während die Klage gegen die Trump-Administration vor Gericht verhandelt wird. Das Unternehmen befürchtet andernfalls Verluste in Milliardenhöhe.
Der Kern des Konflikts: Nationale Sicherheit vs. KI-Ethik
Anfang März 2026 stufte das US-Verteidigungsministerium Anthropic als sogenanntes "Lieferkettenrisiko" ein. Dies bedeutet, dass die Nutzung der Technologie des Unternehmens angeblich die nationale Sicherheit der USA bedroht. Es war das erste Mal, dass ein amerikanisches Unternehmen mit dieser Bezeichnung belegt wurde. Anthropic argumentiert, dass es keine Grundlage für die Einstufung als Lieferkettenrisiko gibt und dass das Unternehmen unfairerweise Vergeltungsmaßnahmen ausgesetzt ist. Dies sei geschehen, weil es vom Verteidigungsministerium verlangt hatte, Claude nicht für voll autonome Waffen oder die Massenüberwachung von Amerikanern einzusetzen. Das Pentagon besteht darauf, die KI-Modelle nicht für solche Zwecke zu verwenden.
Die rechtlichen Argumente im Detail
Anthropic stützt seine Klage auf mehrere rechtliche Argumente. Das Unternehmen behauptet, dass seine Weigerung, Claude für autonome Waffen und Massenüberwachung zuzulassen, durch den Ersten Zusatzartikel der Verfassung (Redefreiheit) geschützt ist. Zudem seien die Schutzrechte des Fünften Zusatzartikels (Due Process) verletzt worden, da die Schwarze Liste ohne angemessene Ankündigung oder ein ordnungsgemäßes Verfahren erfolgte. Anthropic argumentiert ferner, dass Verteidigungsminister Pete Hegseth seine gesetzlichen Befugnisse überschritten hat, indem er ein Gesetz, das für ausländische Gegner reserviert ist, missbräuchlich und willkürlich anwandte. Auch die regierungsweite Anweisung von Präsident Trump gehe über seine Befugnisse hinaus.
Die Regierung hingegen wird argumentieren, dass Anthropic's Weigerung, eine Vertragsklausel zu unterzeichnen, kommerzielles Verhalten und keine geschützte Rede ist. Die Anwälte des Justizministeriums werden zudem geltend machen, dass die Regierung weitreichende Befugnisse hat, ihre Anbieter auszuwählen und Vertragsbedingungen festzulegen. Sie müssen auch zeigen, dass Anthropic's privilegierter Zugang zu Claude ein echtes nationales Sicherheitsrisiko darstellt, einschließlich der Möglichkeit, das Verhalten des Modells während aktiver Militäroperationen zu ändern.
Auswirkungen auf den Tech-Sektor und öffentliche Partnerschaften
Der Rechtsstreit zwischen Anthropic und dem Pentagon hat im Silicon Valley eine Debatte ausgelöst, die das komplexe Verhältnis des Technologiesektors zu Krieg und Weißem Haus neu gestalten könnte. Tech-Führungskräfte haben Anthropic stillschweigend unterstützt und argumentiert, dass KI noch nicht für bestimmte Waffensysteme bereit sei und dass die Nötigung von Unternehmen kontraproduktiv und antidemokratisch sei. Präsident Trump bezeichnete Anthropic als "linksgerichtete Spinner".
Alan Rozenshtein, außerordentlicher Professor an der University of Minnesota Law School, kommentierte, dass der Ausgang dieses Showdowns nicht nur Anthropic's florierendes Geschäft beeinflussen wird. Er könnte auch die Art und Weise prägen, wie Tech-Titanen und andere Unternehmen mit einer Regierung zusammenarbeiten, die dafür bekannt ist, gegen Widerständler vorzugehen. Es könnte dazu führen, dass andere Silicon Valley-Zulieferer der Regierung gefügiger werden oder aber Geschäfte mit der Regierung ganz vermeiden, um ähnliche Risiken zu umgehen.
Zahlreiche Amicus Curiae Schriftsätze, eingereicht von fast zwei Dutzend hochrangigen ehemaligen US-Militärangehörigen sowie fast 50 Mitarbeitern von Google und OpenAI (in persönlicher Kapazität), unterstützen Anthropic. Sie warnen vor einer Schwächung der militärischen Bereitschaft und der operativen Sicherheit durch die Beschädigung kritischer öffentlich-privater Partnerschaften.
Das bevorstehende Urteil und seine Tragweite
Die Anhörung zu Anthropic's Antrag auf einstweilige Verfügung wird von US-Bezirksrichterin Rita Lin geleitet und beginnt am Dienstag, den 24. März 2026, um 16:30 Uhr ET. Richterin Lin könnte noch am selben Tag eine mündliche Entscheidung über den Antrag von Anthropic fällen oder ein schriftliches Urteil zu einem späteren Zeitpunkt erlassen.
Die Standards für den Erhalt einer einstweiligen Verfügung sind sehr hoch. Die antragstellende Partei muss unter anderem eine erhebliche Wahrscheinlichkeit aufzeigen, den Fall letztendlich zu gewinnen, und in der Zwischenzeit einen irreparablen Schaden erleiden, wenn das Gericht nicht eingreift. Anthropic schätzt potenzielle Verluste auf Hunderte Millionen bis Milliarden Dollar. Während der Rechtsstreit läuft, verwendet Palantir, ein Verteidigungsauftragnehmer, Claude weiterhin in seiner Arbeit mit dem Verteidigungsministerium, wie CEO Alex Karp am 12. März mitteilte. Claude wird auch im Krieg mit dem Iran eingesetzt.
Der Ausgang dieses Falls wird nicht nur Anthropic's Zukunft maßgeblich beeinflussen, sondern auch die Dynamik zwischen dem aufstrebenden KI-Sektor und den Anforderungen der nationalen Sicherheit in den Vereinigten Staaten neu definieren.