
Anthropic vs. Pentagon: Richter, Microsoft und Militärführer unterstützen KI-Firma
ℹKeine Anlageberatung • Nur zu Informationszwecken
Der US-amerikanische KI-Entwickler Anthropic, bekannt für sein großes Sprachmodell Claude, befindet sich in einem intensiven Rechtsstreit mit dem US-Verteidigungsministerium, das kürzlich in Department of War umbenannt wurde. Das Ministerium hat Anthropic als "Lieferkettenrisiko für die nationale Sicherheit" eingestuft, eine Entscheidung, die nun auf breiten Widerstand stößt. Eine wachsende Zahl einflussreicher Akteure, darunter fast 150 pensionierte Richter, der Tech-Gigant Microsoft und eine Gruppe ehemaliger hochrangiger Militärführer, haben sich öffentlich auf die Seite von Anthropic gestellt.
Hintergrund des Konflikts: Anthropic und das Pentagon
Der Konflikt eskalierte, nachdem Anthropic sich geweigert hatte, eine uneingeschränkte militärische Nutzung seines KI-Modells Claude zuzulassen. Am 27. Februar ordnete Präsident Donald Trump an, dass Bundesbehörden die Technologie von Anthropic nicht mehr nutzen sollten, und bezeichnete das Unternehmen als "radikale linke KI-Firma". Verteidigungsminister Pete Hegseth folgte dieser Anweisung und erklärte auf X, dass kein Auftragnehmer, Lieferant oder Partner des US-Militärs kommerzielle Aktivitäten mit Anthropic unterhalten dürfe, da es ein "Lieferkettenrisiko für die nationale Sicherheit" darstelle.
Anthropic reagierte am selben Tag mit einer Erklärung, in der es sich "zutiefst betrübt" zeigte. Das Unternehmen betonte, dass diese Einstufung "rechtlich unbegründet" sei und einen "gefährlichen Präzedenzfall für jedes amerikanische Unternehmen schaffen würde, das mit der Regierung verhandelt". Ein Anwalt von Anthropic äußerte am 10. März, dass das Ministerium Kunden des Unternehmens unter Druck setze, zu konkurrierenden KI-Anbietern zu wechseln, was dem Unternehmen "realen und irreparablen Schaden" zufüge.
Juristischer Rückhalt: Richter und Militärführer stellen sich hinter Anthropic
In einem am Dienstag eingereichten Schriftsatz haben sich 149 pensionierte Bundes- und Landesrichter der Unterstützung für Anthropic angeschlossen. Sie erklärten, die Einstufung des KI-Unternehmens als "Lieferkettenrisiko" sei unbegründet. Die Richter argumentierten, das Ministerium habe "das Gesetz falsch interpretiert und die notwendigen Verfahren ignoriert" und seien daher verpflichtet, die Einstufung als rechtswidrig zu bezeichnen.
Die Richter betonten, dass niemand versuche, das Ministerium zu zwingen, einen Vertrag mit Anthropic abzuschließen. Vielmehr hätten Anthropic und das Ministerium bereits vereinbart, dass das Ministerium an den Dienstleistungen von Anthropic in der angebotenen Form nicht interessiert sei. Anthropic bitte lediglich darum, "nicht auf dem Weg nach draußen bestraft zu werden". Das Ministerium sei zwar frei in der Wahl seiner Auftragnehmer, könne das Gesetz aber nicht nutzen, um "Anthropic in seinen Geschäften mit dem Rest der Welt – einschließlich anderer Regierungsbehörden, deren Funktionen nicht mit der nationalen Verteidigung zusammenhängen, und privaten Unternehmen – zu bestrafen."
Auch eine Gruppe von 22 ehemaligen hochrangigen US-Militärs, darunter ehemalige Sekretäre der Air Force, Army und Navy sowie ein ehemaliger Leiter der Küstenwache, reichte einen eigenen Schriftsatz ein. Sie werfen Hegseths Handlungen einen Missbrauch der Regierungsautorität zur "Vergeltung gegen ein privates Unternehmen, das die Führung verärgert hat", vor. Zu dieser Gruppe gehören auch der ehemalige CIA-Direktor Michael Hayden, ein pensionierter Air Force General, und der pensionierte Küstenwache-Admiral Thad Allen.
Microsofts Einspruch: Wirtschaftliche Folgen und ethische Grenzen
Der Technologiekonzern Microsoft, ein wichtiger Regierungspartner, hat sich ebenfalls in einem Rechtsdokument hinter Anthropic gestellt. Microsoft fordert ein Bundesgericht auf, die Einstufung von Anthropic als Lieferkettenrisiko durch die Trump-Regierung zu blockieren. Das Unternehmen argumentiert, dass die Verwendung einer Lieferkettenrisiko-Einstufung zur Beilegung eines Vertragsstreits "schwere wirtschaftliche Auswirkungen haben kann, die nicht im öffentlichen Interesse liegen".
Microsofts Schriftsatz kritisiert zudem, dass die Maßnahme des Pentagons "Regierungsauftragnehmer dazu zwingt, vagen und schlecht definierten Anweisungen zu folgen, die noch nie zuvor öffentlich gegen ein US-Unternehmen eingesetzt wurden". Das Unternehmen fordert einen Richter auf, die Einstufung vorübergehend aufzuheben, um eine "vernünftigere Diskussion" zwischen Anthropic und der Trump-Regierung zu ermöglichen.
Darüber hinaus äußerte Microsoft Unterstützung für Anthropic's "ethische rote Linien", die ein Knackpunkt in den Vertragsverhandlungen waren, nachdem das Pentagon auf "alle rechtmäßigen" Nutzungen seiner KI bestanden hatte. Microsoft erklärte: "Microsoft ist auch der Meinung, dass amerikanische KI nicht zur Durchführung von Massenüberwachung im Inland oder zum Beginn eines Krieges ohne menschliche Kontrolle eingesetzt werden sollte." Diese Position sei "im Einklang mit dem Gesetz und wird von der amerikanischen Gesellschaft weithin unterstützt, wie die Regierung anerkennt."
Breite Unterstützung und offene Fragen
Die Unterstützung für Anthropic ist breit gefächert. Neben den Richtern, Microsoft und den ehemaligen Militärführern haben auch KI-Entwickler von Google und OpenAI sowie Organisationen wie das Cato Institute und die Electronic Frontier Foundation Schriftsätze zur Unterstützung eingereicht.
Der Rechtsstreit wird vor einem Bundesgericht in San Francisco ausgetragen, wo Anthropic die Trump-Regierung verklagt hat. Vertreter von Anthropic und dem Department of War haben auf Anfragen von Business Insider keine Kommentare abgegeben. Das Pentagon lehnte es ebenfalls ab, sich zu laufenden Gerichtsverfahren zu äußern. Die Auseinandersetzung wirft wichtige Fragen über die Grenzen staatlicher Macht, die Rolle ethischer Richtlinien in der KI-Entwicklung und die potenziellen Auswirkungen auf die Innovationslandschaft in den USA auf.