Anthropic verliert Berufung gegen Pentagon-Blacklisting bei KI-Verträgen

Anthropic verliert Berufung gegen Pentagon-Blacklisting bei KI-Verträgen

Aktualisiert:
3 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Ein Bundesberufungsgericht in Washington, D.C., hat am Mittwoch den Antrag des KI-Unternehmens Anthropic abgelehnt, die Blacklisting durch das Verteidigungsministerium (DOD) vorläufig zu blockieren. Diese Entscheidung bedeutet, dass Anthropic weiterhin von DOD-Verträgen ausgeschlossen bleibt, während die Klage gegen die Sanktionen weitergeführt wird. Das Urteil unterstreicht die Komplexität der Balance zwischen Unternehmensinteressen und nationaler Sicherheit im Bereich der Künstlichen Intelligenz.

Gericht lehnt Antrag von Anthropic ab

Das Berufungsgericht lehnte Anthropic's Antrag ab, die Einstufung als Lieferkettenrisiko durch das Pentagon vorübergehend auszusetzen. Die Richter begründeten ihre Entscheidung damit, dass das "gerechte Gleichgewicht hier zugunsten der Regierung ausfällt". Dies stellt einen Rückschlag für das KI-Unternehmen dar, das versucht hatte, die Sanktionen während des laufenden Rechtsstreits aufzuheben.

Mit dieser Entscheidung ist Anthropic von Verträgen mit dem Verteidigungsministerium ausgeschlossen. Das Unternehmen kann jedoch weiterhin mit anderen Regierungsbehörden zusammenarbeiten, solange die rechtlichen Auseinandersetzungen andauern.

Hintergrund der Pentagon-Sanktionen

Das DOD hatte Anthropic Anfang März als Lieferkettenrisiko eingestuft. Dies bedeutet, dass die Nutzung der Technologie des Unternehmens angeblich die nationale Sicherheit der USA bedroht. Infolgedessen müssen Verteidigungsunternehmen, die mit dem Militär zusammenarbeiten, zertifizieren, dass sie die Claude KI-Modelle von Anthropic nicht verwenden.

Anthropic hatte das Berufungsgericht aufgefordert, die Entscheidung des Pentagons zu überprüfen. Das Unternehmen argumentierte, die Einstufung sei eine Form der Vergeltung, verfassungswidrig, willkürlich, unberechenbar und nicht im Einklang mit den gesetzlich vorgeschriebenen Verfahren.

Anthropic's Argumentation und früheres Urteil

In seiner Klage behauptete Anthropic, die DOD-Maßnahme stehe seinem Recht auf freie Meinungsäußerung entgegen. Das Gericht stellte jedoch fest, dass Anthropic nicht nachweisen konnte, dass seine Meinungsäußerung während des Rechtsstreits eingeschränkt wurde. Trotzdem erkannte das Gericht an, dass Anthropic "wahrscheinlich einen gewissen Grad an irreparablen Schaden erleiden wird, wenn keine Aussetzung erfolgt", die Interessen des Unternehmens jedoch "primär finanzieller Natur" seien.

Diese Entscheidung steht im Kontrast zu einem separaten, aber verwandten Fall Ende letzten Monats. Dort hatte ein Richter in San Francisco Anthropic eine einstweilige Verfügung erteilt, die der Trump-Administration die Durchsetzung eines Verbots der Nutzung von Claude untersagt.

Die Begründung des Berufungsgerichts

Das Berufungsgericht wog die Interessen ab: Auf der einen Seite stehe ein "relativ begrenztes Risiko finanziellen Schadens für ein einzelnes privates Unternehmen". Auf der anderen Seite stehe die "gerichtliche Verwaltung, wie und durch wen das Kriegsministerium während eines aktiven militärischen Konflikts wichtige KI-Technologie sichert". Diese Abwägung führte zur Ablehnung des Antrags von Anthropic.

Aufgrund des wahrscheinlichen Schadens für Anthropic erklärte das Berufungsgericht jedoch, dass eine "erhebliche Beschleunigung" des Verfahrens gerechtfertigt sei. Dies deutet darauf hin, dass die Gerichte die Angelegenheit zügig klären wollen.

Anthropic reagiert auf die Entscheidung

Ein Sprecher von Anthropic äußerte sich nach dem Urteil dankbar, dass das Gericht die Notwendigkeit einer schnellen Lösung dieser Probleme erkannt habe. Das Unternehmen sei "zuversichtlich, dass die Gerichte letztendlich zustimmen werden, dass diese Lieferkettenbezeichnungen unrechtmäßig waren".

Anthropic betonte, dass der Fokus des Unternehmens weiterhin darauf liege, "produktiv mit der Regierung zusammenzuarbeiten, um sicherzustellen, dass alle Amerikaner von sicherer, zuverlässiger KI profitieren". Die Klage sei notwendig gewesen, um Anthropic, seine Kunden und Partner zu schützen.