
Pentagon stuft Anthropic als Lieferkettenrisiko ein: KI-Streit eskaliert
ℹKeine Anlageberatung • Nur zu Informationszwecken
Das US-Verteidigungsministerium hat den KI-Entwickler Anthropic, bekannt für seine Claude-Modelle, als Lieferkettenrisiko eingestuft. Dies ist ein außergewöhnlicher Schritt, der historisch ausländischen Gegnern vorbehalten war und nun erstmals ein amerikanisches Unternehmen betrifft. Die Entscheidung könnte andere Regierungsauftragnehmer dazu zwingen, die Nutzung des KI-Chatbots Claude einzustellen.
Die Einstufung als Lieferkettenrisiko
Emil Michael, Technologiechef des Verteidigungsministeriums, erklärte am Donnerstag, Anthropic's Claude-Modelle würden die Lieferkette der Behörde "verunreinigen", da sie "eine andere politische Präferenz" in sich trügen. Michael betonte gegenüber CNBC's "Squawk Box": "Wir können kein Unternehmen haben, das eine andere politische Präferenz hat, die durch seine Verfassung, seine Seele, seine politischen Präferenzen in das Modell eingebettet ist, die Lieferkette verunreinigen, sodass unsere Soldaten ineffektive Waffen, ineffektive Körperpanzerung, ineffektiven Schutz erhalten." Diese Einschätzung sei der Ursprung der Lieferkettenrisiko-Einstufung.
Die Einstufung bedeutet, dass Verteidigungsauftragnehmer und -lieferanten zertifizieren müssen, dass sie Claude in ihrer Arbeit für das Pentagon nicht verwenden. Das Pentagon teilte am Donnerstag in einer Erklärung mit, es habe die Führung von Anthropic "offiziell darüber informiert, dass das Unternehmen und seine Produkte ab sofort als Lieferkettenrisiko eingestuft werden."
Der Kern des Konflikts: Nutzungsbeschränkungen
Der Konflikt entzündete sich an Anthropic's Weigerung, die Nutzung seiner KI-Modelle für die massenhafte Überwachung von US-Bürgern und für voll autonome Waffen ohne Einschränkungen zu erlauben. Anthropic hatte zwei Ausnahmen für die rechtmäßige Nutzung seines KI-Modells Claude gefordert. Das Unternehmen argumentierte, dass die Technologie noch nicht ausgereift genug sei, um diese Anwendungen sicher und zuverlässig zu unterstützen.
US-Präsident Donald Trump und Verteidigungsminister Pete Hegseth hatten Anthropic vorgeworfen, die nationale Sicherheit zu gefährden. Hegseth erklärte am 27. Februar, dass "kein Auftragnehmer, Lieferant oder Partner, der Geschäfte mit dem US-Militär macht, kommerzielle Aktivitäten mit Anthropic durchführen darf." Trump ordnete am selben Tag an, dass alle Bundesbehörden die Nutzung von Anthropic-Technologie "SOFORT EINSTELLEN" sollten, wenn auch mit einer sechsmonatigen Übergangsfrist.
Das Pentagon hingegen vertritt den Standpunkt, dass das Militär Technologie für alle rechtmäßigen Zwecke nutzen können muss. Ein Memorandum des Pentagons vom letzten Monat besagt, dass das Ministerium "Modelle nutzen muss, die frei von Nutzungsrichtlinienbeschränkungen sind, die rechtmäßige militärische Anwendungen einschränken könnten."
Anthropic's Reaktion und rechtliche Schritte
Anthropic wurde am Montag von der Trump-Regierung verklagt und bezeichnete die Maßnahmen der Regierung als "beispiellos und unrechtmäßig". Das Unternehmen erklärte in einer Einreichung, es werde "irreparabel geschädigt", und Verträge im Wert von Hunderten Millionen Dollar seien in Gefahr. Anthropic-CEO Dario Amodei sagte am Donnerstag in einer Erklärung: "Wir glauben nicht, dass diese Maßnahme rechtlich fundiert ist, und wir sehen keine andere Wahl, als sie vor Gericht anzufechten."
Amodei betonte, dass die von Anthropic angestrebten engen Ausnahmen zur Begrenzung von Überwachung und autonomen Waffen "sich auf hochrangige Nutzungsbereiche beziehen und nicht auf operative Entscheidungsfindung." Er fügte hinzu, dass es in den letzten Tagen "produktive Gespräche" mit dem Pentagon gegeben habe.
Auswirkungen auf Auftragnehmer und die Branche
Die tatsächlichen Bedingungen der Einstufung vom 4. März waren laut Amodei jedoch wesentlich enger gefasst als ursprünglich befürchtet. Er schrieb am Donnerstag auf der Unternehmenswebsite: "Die überwiegende Mehrheit unserer Kunden ist von einer Lieferkettenrisiko-Einstufung nicht betroffen." Die Einstufung gelte "eindeutig nur für die Nutzung von Claude durch Kunden als direkter Bestandteil von Verträgen mit dem Kriegsministerium, nicht für jede Nutzung von Claude durch Kunden, die solche Verträge haben."
Microsoft, das Anthropic's Claude in seiner Software-Suite verwendet, bestätigte dies. Ein Unternehmenssprecher teilte CNBC mit, dass Anthropic-Produkte, einschließlich Claude, für Kunden – außer dem Kriegsministerium – über Plattformen wie M365, GitHub und Microsoft’s AI Foundry weiterhin verfügbar bleiben können. Microsoft kann auch weiterhin mit Anthropic an nicht-verteidigungsbezogenen Projekten zusammenarbeiten.
Einige Militärunternehmen haben jedoch bereits begonnen, die Beziehungen zu Anthropic zu kappen. Lockheed Martin erklärte, man werde "den Anweisungen des Präsidenten und des Kriegsministeriums folgen" und sich nach anderen Anbietern von großen Sprachmodellen umsehen. Das Unternehmen erwartet "minimale Auswirkungen, da Lockheed Martin für keinen Teil unserer Arbeit von einem einzigen LLM-Anbieter abhängig ist."
Unterschiedliche Interpretationen und die Zukunft
Trotz der milderen Strafen als befürchtet, beabsichtigt Amodei weiterhin, die Regierung zu verklagen, um die Einstufung aufzuheben. Emil Michael vom Pentagon hingegen teilte am Donnerstag in einem X-Post mit, dass es "keine aktiven Verhandlungen des Kriegsministeriums mit AnthropicAI" gebe.
Anthropic wurde 2021 von einer Gruppe von Forschern und Führungskräften gegründet, die von OpenAI abgewandert waren. Das Unternehmen ist bekannt für seine Claude-Modelle und hatte frühzeitig Erfolg beim Verkauf an große Unternehmen, einschließlich des Verteidigungsministeriums. Michael betonte, dass Anthropic ein "riesiges kommerzielles Geschäft" habe und nur ein "winziger Bruchteil" von der US-Regierung stamme.