
Anthropic CEO trifft Weißes Haus: Entspannung im KI-Konflikt um Mythos
ℹKeine Anlageberatung • Nur zu Informationszwecken
Der CEO von Anthropic, Dario Amodei, trifft sich am Freitag mit Susie Wiles, der Stabschefin des Weißen Hauses, um das neue, leistungsstarke KI-Modell Mythos des Unternehmens zu erörtern. Dieses Treffen, das von CNBC bestätigt wurde, deutet auf eine mögliche Entspannung in der Auseinandersetzung zwischen der Regierung und dem führenden KI-Unternehmen hin. Wochen zuvor hatte Präsident Donald Trump Anthropic noch als nationales Sicherheitsrisiko eingestuft.
Mythos: Ein neues KI-Modell für Cybersicherheit
Das KI-Modell Mythos wurde Anfang des Monats von Anthropic vorgestellt und zeichnet sich laut dem Unternehmen durch seine Fähigkeit aus, Schwachstellen und Sicherheitslücken in Software zu identifizieren. Anthropic führt das Modell derzeit bei einer ausgewählten Gruppe von Unternehmen im Rahmen einer neuen Cybersicherheitsinitiative ein. Eine öffentliche Veröffentlichung ist nicht geplant. Das Unternehmen befindet sich nach eigenen Angaben in "laufenden Gesprächen" mit US-Regierungsvertretern über die Fähigkeiten von Mythos.
Entspannung nach angespannter Phase
Das Treffen zwischen Amodei und Wiles markiert eine bemerkenswerte Entwicklung, nachdem Anthropic und die Trump-Administration noch vor wenigen Wochen in einem festgefahrenen Konflikt standen. Präsident Trump hatte das Unternehmen auf eine schwarze Liste gesetzt und erklärt, seine Regierung werde "keine Geschäfte mehr mit ihnen machen". Anthropic hatte daraufhin Klagen in San Francisco und Washington, D.C. eingereicht, um die Streichung von der schwarzen Liste zu erwirken; diese Verfahren sind noch anhängig. Die Nachricht über das Treffen wurde zuerst von Axios gemeldet. Anthropic selbst lehnte eine Stellungnahme ab.
Der Kern des Konflikts: Zugang und Nutzung
Dem Rechtsstreit gingen wochenlange intensive Verhandlungen zwischen dem Verteidigungsministerium (DOD) und Anthropic voraus. Die Parteien gerieten über die Nutzungsbedingungen der KI-Modelle von Anthropic aneinander. Das DOD forderte uneingeschränkten Zugang zu den Modellen für alle rechtmäßigen Zwecke. Anthropic hingegen wollte die Zusicherung, dass seine Technologie nicht für voll autonome Waffen oder zur Massenüberwachung im Inland eingesetzt wird.
Auswirkungen der "Supply Chain Risk"-Einstufung
Die Gespräche zwischen Anthropic und dem DOD scheiterten, woraufhin das Verteidigungsministerium Anthropic Anfang März als "Supply Chain Risk" einstufte. Diese Bezeichnung bedeutet, dass die Nutzung der Technologie des Unternehmens angeblich die nationale Sicherheit der USA bedroht. Infolgedessen müssen Verteidigungsunternehmen nun bestätigen, dass sie die Claude AI-Modelle von Anthropic nicht in ihrer Arbeit mit dem Militär verwenden. Das aktuelle Treffen im Weißen Haus könnte nun einen Weg zur Überwindung dieser Spannungen ebnen.