
Pentagon-Anthropic: KI-Streit um Militäreinsatz und nationale Sicherheit
ℹKeine Anlageberatung • Nur zu Informationszwecken
Die Partnerschaft zwischen dem US-Militär und dem Künstliche-Intelligenz-Giganten Anthropic steht kurz vor dem Scheitern. Das Pentagon hat dem Unternehmen ein Ultimatum gestellt, um die Nutzung seines KI-Modells für "alle rechtmäßigen Zwecke" zu ermöglichen, andernfalls droht der Verlust eines lukrativen Vertrags. Dieser Konflikt beleuchtet die tiefgreifenden Meinungsverschiedenheiten über die Risiken und den Einsatz von KI-Technologien im militärischen Kontext.
Ultimatum und Kern des Konflikts
Das US-Verteidigungsministerium hat Anthropic eine Frist bis Freitag um 17:01 Uhr gesetzt. Bis dahin muss das Unternehmen dem Militär die Nutzung seines leistungsstarken KI-Modells Claude für "alle rechtmäßigen Zwecke" gestatten. Andernfalls riskiert Anthropic, einen wichtigen Vertrag mit dem Pentagon zu verlieren und als Lieferkettenrisiko eingestuft zu werden.
Im Zentrum des Streits steht die Frage, wer die Kontrolle über den Einsatz von KI-Modellen hat – das Pentagon oder die Entwicklerfirma. Anthropic, bekannt für seinen Fokus auf Sicherheit und Transparenz, fordert explizite Schutzmaßnahmen, die den Einsatz von Claude für die Massenüberwachung von Amerikanern oder für eigenständige Militäroperationen untersagen.
Anthropic's Bedenken und Forderungen
Anthropic-CEO Dario Amodei hat sich wiederholt besorgt über die potenziellen Gefahren unkontrollierter KI geäußert. Das Unternehmen möchte sicherstellen, dass sein Claude-Modell nicht für finale Zielentscheidungen bei Militäroperationen ohne menschliches Eingreifen verwendet wird. Claude sei nicht immun gegen "Halluzinationen" und nicht zuverlässig genug, um potenziell tödliche Fehler wie unbeabsichtigte Eskalation oder Missionsversagen ohne menschliches Urteilsvermögen zu vermeiden.
Amodei betonte, dass menschliche Soldaten verfassungswidrigen Befehlen widersprechen könnten, diese Schutzmechanismen bei vollautonomen Waffen jedoch fehlten. Er äußerte zudem Bedenken, dass KI der Regierung helfen könnte, Demonstranten und politische Gegner zu verfolgen und damit den Vierten Zusatzartikel der Verfassung zu untergraben. Ein Sprecher von Anthropic bestätigte, dass die Gespräche mit dem Verteidigungsministerium sich auf "harte Grenzen" bei vollautonomen Waffen und Massenüberwachung konzentrierten.
Die Position des Pentagons
Emil Michael, der Top-Technologiebeauftragte des Pentagons, erklärte gegenüber CBS News, das Militär habe "sehr gute Zugeständnisse" gemacht. Das Verteidigungsministerium sei bereit, schriftlich zu bestätigen, dass es die Bundesgesetze zur Einschränkung der Überwachung von Amerikanern durch das Militär anerkennt. Auch die seit Jahren bestehenden Pentagon-Richtlinien zu autonomen Waffen würden schriftlich anerkannt. Anthropic wurde zudem eingeladen, am Ethikbeirat für KI des Militärs teilzunehmen.
Michael argumentierte, dass die von Anthropic geforderten Einschränkungen bereits durch bestehende Gesetze und Richtlinien des Pentagons abgedeckt seien. "Auf einer gewissen Ebene muss man seinem Militär vertrauen, das Richtige zu tun", so Michael. Er betonte die Notwendigkeit, auf die Zukunft vorbereitet zu sein und sich gegen die KI-Entwicklungen von Gegnern wie China zu wappnen. Das Militär könne sich nicht schriftlich gegenüber einem Unternehmen verpflichten, sich nicht verteidigen zu können.
Drohende Konsequenzen und Alternativen
Sollte bis zur Frist keine Einigung erzielt werden, plant das Militär, die Partnerschaft mit Anthropic zu beenden und das Unternehmen als Lieferkettenrisiko einzustufen. Dies könnte Anthropic's Geschäfte mit anderen Unternehmen, die mit der US-Regierung zusammenarbeiten, erheblich beeinträchtigen. Quellen zufolge erwägen Beamte auch, den Defense Production Act zu aktivieren, um Anthropic zur Einhaltung der militärischen Forderungen zu zwingen.
Emil Michael bestätigte die mögliche Anwendung des Defense Production Act nicht direkt, stellte aber klar: "Kein Unternehmen wird Software entfernen, die in dieser Abteilung verwendet wird, bis wir eine Alternative haben." Er arbeite bereits an Partnerschaften mit alternativen KI-Firmen. Anthropic ist derzeit das einzige KI-Unternehmen, dessen Modell über eine Partnerschaft mit Palantir in den klassifizierten Netzwerken des Pentagons eingesetzt wird.
Ein breiterer ideologischer Graben
Der Konflikt zwischen dem Pentagon und Anthropic spiegelt eine breitere ideologische Meinungsverschiedenheit zwischen Politikern und Technologieunternehmen über den Umgang mit den potenziellen Risiken von Künstlicher Intelligenz wider. Emil Michael beschrieb die Haltung von Anthropic als eine "Angst vor der Macht der KI". Das Militär sei lediglich daran interessiert, KI gesetzeskonform zu nutzen und sie "wie jede andere Technologie" zu behandeln.
Verteidigungsminister Pete Hegseth der Trump-Administration warnte davor, dass strenge KI-Regulierungen Innovationen ersticken und die Wettbewerbsfähigkeit der amerikanischen KI-Industrie beeinträchtigen könnten. Er versprach: "Wir werden keine KI-Modelle einsetzen, die es uns nicht erlauben, Kriege zu führen." Michael betonte, dass die Regeln und Richtlinien des US-Militärs und der Regierung nicht in die Hände eines privaten Unternehmens gelegt werden könnten.
Finanzielle Dimension und Wettbewerb
Anthropic erhielt im vergangenen Sommer einen 200-Millionen-Dollar-Vertrag vom Verteidigungsministerium, um seine KI-Fähigkeiten zur Förderung der nationalen Sicherheit einzusetzen. Auch Konkurrenten wie OpenAI, Google und xAI erhielten im letzten Jahr 200-Millionen-Dollar-Verträge vom Pentagon.
Das Pentagon strebt eine Beschleunigung des KI-Einsatzes an, um Geheimdienstdaten schnell zu konvertieren und die Effizienz und Schlagkraft der Streitkräfte zu erhöhen. Während Anthropic bisher der einzige LLM-Anbieter in klassifizierten Netzwerken war, hat das Pentagon kürzlich eine Vereinbarung mit xAI, dem Unternehmen von Elon Musk, zur Bereitstellung in klassifizierten Netzwerken bekannt gegeben. Das Pentagon plant, alle KI-Unternehmen in klassifizierte Netzwerke zu integrieren.