
US-Richterin stoppt Pentagon-Verbot für KI-Firma Anthropic vorläufig
ℹKeine Anlageberatung • Nur zu Informationszwecken
Eine US-Bundesrichterin hat eine vorläufige einstweilige Verfügung erlassen, die das Pentagon daran hindert, das Künstliche-Intelligenz-Unternehmen Anthropic als Lieferkettenrisiko einzustufen. Die Entscheidung blockiert auch eine Anweisung von Präsident Donald Trump, die alle Bundesbehörden angewiesen hätte, die Nutzung von Anthropic und seinem Chatbot Claude einzustellen.
Richterliche Anordnung stoppt Pentagon-Verbot
U.S. District Judge Rita Lin urteilte am Donnerstag, dem 26. März 2026, zugunsten von Anthropic. Sie bezeichnete die "breiten Strafmaßnahmen" der Trump-Administration und von Verteidigungsminister Pete Hegseth als willkürlich und potenziell geschäftsschädigend für Anthropic. Insbesondere Hegseths Einsatz einer seltenen militärischen Befugnis, die typischerweise gegen ausländische Gegner gerichtet ist, wurde kritisiert.
Lin schrieb in ihrer Entscheidung: "Nichts im geltenden Gesetz unterstützt die Orwellsche Vorstellung, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, weil es seine Meinungsverschiedenheit mit der Regierung zum Ausdruck bringt." Die Anordnung der Richterin tritt mit einer Verzögerung von einer Woche in Kraft. Sie verpflichtet das Pentagon nicht, Produkte von Anthropic zu nutzen oder hindert es daran, zu anderen KI-Anbietern zu wechseln.
Streit um KI-Einsatz und "Orwellsche" Maßnahmen
Die Entscheidung folgte einer 90-minütigen Anhörung am Dienstag vor dem Bundesgericht in San Francisco. Richterin Lin hinterfragte, warum die Trump-Administration den außergewöhnlichen Schritt unternahm, Anthropic zu bestrafen, nachdem Verhandlungen über einen Verteidigungsauftrag gescheitert waren. Der Streit entstand, weil Anthropic verhindern wollte, dass seine KI-Technologie in vollständig autonomen Waffen oder zur Überwachung von Amerikanern eingesetzt wird.
Anthropic hatte eine Notverfügung beantragt, um ein Stigma zu beseitigen, das dem Unternehmen zufolge ungerechtfertigt im Rahmen einer "rechtswidrigen Vergeltungskampagne" angewendet wurde. Dies veranlasste das in San Francisco ansässige Unternehmen, Anfang des Monats Klage gegen die Trump-Administration einzureichen. Das Pentagon argumentierte, es solle Claude in jeder rechtlich zulässigen Weise nutzen dürfen.
Die Hintergründe des Konflikts
Richterin Lin betonte, dass ihre Entscheidung nicht die öffentliche Politikdebatte betrifft, sondern die Handlungen der Regierung als Reaktion darauf. "Wenn die Sorge die Integrität der operativen Befehlskette ist, könnte das Kriegsministerium einfach aufhören, Claude zu nutzen. Stattdessen scheinen diese Maßnahmen darauf abzuzielen, Anthropic zu bestrafen", schrieb Lin. Sie bezeichnete das Vorgehen des Pentagons als "beunruhigend" und warf der Trump-Administration vor, die Meinungsfreiheit des KI-Unternehmens zu verletzen.
Anthropic wurde im Februar von Präsident Donald Trump und Verteidigungsminister Pete Hegseth auf eine schwarze Liste gesetzt, nachdem es sich geweigert hatte, dem Pentagon die Nutzung seines Claude AI-Modells für autonome tödliche Kriegsführung und die Massenüberwachung von Amerikanern zu gestatten. Das Unternehmen führte Sicherheits- und Verantwortlichkeitsbedenken an. Die Einstufung als Lieferkettenrisiko hätte das Pentagon und seine Auftragnehmer dazu verpflichtet, die Nutzung der kommerziellen KI-Dienste von Anthropic in allen verteidigungsbezogenen Operationen einzustellen.
Auswirkungen und nächste Schritte
Anthropic, das fortschrittliche KI-Modelle für kommerzielle und staatliche Zwecke entwickelt, wehrte sich gegen das Verbot. Das Unternehmen argumentierte, es sei willkürlich und würde den Wettbewerb in einem sich schnell entwickelnden Sektor unfair einschränken. Es warnte auch, dass der Ausschluss von Bundesaufträgen Innovationen verlangsamen und den Zugang der Regierung zu Spitzentechnologie reduzieren könnte.
Ein Sprecher von Anthropic äußerte sich nach dem Urteil: "Wir sind dem Gericht dankbar für das schnelle Handeln und erfreut, dass es uns in der Sache wahrscheinlich Recht gibt. Obwohl dieser Fall notwendig war, um Anthropic, unsere Kunden und unsere Partner zu schützen, konzentrieren wir uns weiterhin auf eine produktive Zusammenarbeit mit der Regierung, um sicherzustellen, dass alle Amerikaner von sicherer, zuverlässiger KI profitieren." Anthropic hat zudem einen separaten, enger gefassten Fall eingereicht, der noch vor dem Bundesberufungsgericht in Washington, D.C. anhängig ist.