
Pentagon stuft Anthropic als Lieferkettenrisiko ein: KI-Streit eskaliert
ℹKeine Anlageberatung • Nur zu Informationszwecken
Das US-Verteidigungsministerium (DOD) hat das KI-Unternehmen Anthropic und seine Produkte offiziell als Lieferkettenrisiko eingestuft. Diese Entscheidung, die sofort wirksam wird, markiert eine beispiellose Eskalation im anhaltenden Konflikt zwischen dem Pentagon und dem Entwickler der Claude-KI-Modelle über deren militärische Nutzung. Trotz dieser Sanktionen wird die Technologie von Anthropic weiterhin für kritische Operationen im Iran-Konflikt eingesetzt.
Eskalation im Streit um KI-Nutzung
Die offizielle Einstufung als Lieferkettenrisiko wurde der Führung von Anthropic mitgeteilt. Ein hochrangiger Beamter des Verteidigungsministeriums erklärte gegenüber CNBC, dass es von Anfang an um das grundlegende Prinzip gegangen sei, dass das Militär Technologie für alle rechtmäßigen Zwecke nutzen können müsse. Das Militär werde es keinem Anbieter erlauben, sich in die Befehlskette einzuschalten, indem er die rechtmäßige Nutzung einer kritischen Fähigkeit einschränke und die Soldaten gefährde.
Anthropic ist das einzige amerikanische Unternehmen, das jemals öffentlich als Lieferkettenrisiko benannt wurde; diese Bezeichnung wurde traditionell gegen ausländische Gegner verwendet. Die Einstufung verpflichtet Verteidigungsanbieter und -auftragnehmer, zu zertifizieren, dass sie die Modelle von Anthropic in ihrer Arbeit mit dem Pentagon nicht verwenden. Anthropic selbst kommentierte die Entwicklung nicht direkt, kündigte jedoch bereits letzte Woche an, "jede Lieferkettenrisiko-Einstufung vor Gericht anzufechten".
Die Kernpunkte des Konflikts
Der Schritt des Pentagons folgt auf monatelange Verhandlungen, die in einer Sackgasse endeten. Anthropic hatte zwei Ausnahmen für die rechtmäßige Nutzung seines KI-Modells Claude gefordert: die Massenüberwachung von Amerikanern im Inland und den Einsatz vollständig autonomer Waffen. Das Unternehmen betonte, dass "kein Maß an Einschüchterung oder Bestrafung durch das Kriegsministerium unsere Position zur Massenüberwachung im Inland oder zu vollständig autonomen Waffen ändern wird".
Das Kriegsministerium (DoW) vertritt hingegen die Position, nur mit KI-Unternehmen zusammenzuarbeiten, die "jede rechtmäßige Nutzung" der Technologie ohne Einschränkungen zulassen. Ein Memorandum des Pentagons vom letzten Monat besagt, dass das Ministerium KI-Modelle nutzen müsse, die frei von ideologischer "Abstimmung" und Nutzungsrichtlinien sind, die rechtmäßige militärische Anwendungen einschränken könnten. Anthropic bezeichnete die Einstufung als "rechtlich unhaltbar" und als gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.
Claude im Einsatz: Zielauswahl im Iran-Konflikt
Trotz der offiziellen Einstufung als Lieferkettenrisiko wird Anthropic's Claude-KI-System aktiv vom US-Militär eingesetzt. Es ist in Palantirs Maven Smart System auf klassifizierten Militärnetzwerken eingebettet und dient der Identifizierung und Priorisierung von Zielen im Krieg gegen den Iran, der am 28. Februar von den Vereinigten Staaten und Israel begonnen wurde. Die Washington Post berichtete, dass Claude allein am ersten Einsatztag etwa 1.000 priorisierte Ziele generierte.
Die KI synthetisiert Satellitenbilder, Signalaufklärung und Überwachungsdaten in Echtzeit, um Ziellisten mit präzisen GPS-Koordinaten, Waffenempfehlungen und automatisierten rechtlichen Begründungen für Angriffe zu erstellen. Dies stellt den ersten groß angelegten Einsatz generativer KI in aktiven US-Kriegsoperationen dar. Der Konflikt hat laut Amnesty International bereits 787 Iraner getötet, darunter schätzungsweise 150 Schulkinder bei einem Raketenangriff auf eine Schule in Minab am 1. März.
Trumps Anordnung und die "bedeutungslose" Schwarze Liste
US-Präsident Donald Trump ordnete auf Truth Social an, dass alle Bundesbehörden die Nutzung von Anthropic-Technologie innerhalb der nächsten sechs Monate einstellen sollen. Gleichzeitig verfügte US-Verteidigungsminister Pete Hegseth auf X, dass alle Auftragnehmer, Lieferanten und Partner, die mit dem US-Militär Geschäfte machen, jegliche "kommerzielle Aktivität mit Anthropic" mit sofortiger Wirkung einstellen müssen. Hegseth begründete dies mit der Anweisung des Präsidenten und der Notwendigkeit, Anthropic als Lieferkettenrisiko für die nationale Sicherheit einzustufen.
Diese Maßnahmen erscheinen in einem paradoxen Licht, da die Trump-Administration Anthropic öffentlich bestraft, während sie gleichzeitig dessen Technologie für die Auswahl von Zielen in einem aktiven Krieg einsetzt. Ein Militärquelle erklärte gegenüber der Washington Post: "Wir werden nicht zulassen, dass [Amodeis] Entscheidungen ein einziges amerikanisches Leben kosten." Anthropic-CEO Dario Amodei hat sich öffentlich nicht gegen den Einsatz von Claude im Iran-Krieg ausgesprochen. Seine erklärten "roten Linien" gegen inländische Massenüberwachung und autonome Waffen umfassen nicht die Funktionen, die Claude derzeit im Iran erfüllt, wie Zielidentifikation, Geheimdienstbewertung, Waffenauswahl und Kampfsimulation. Amodei hatte bereits letzte Woche in einer öffentlichen Erklärung bestätigt: "Wir haben niemals Einwände gegen bestimmte Militäroperationen erhoben."