
OpenAI-Vertrag mit US-Regierung: KI-Sicherheitsklauseln und Anthropic-Konflikt
ℹKeine Anlageberatung • Nur zu Informationszwecken
OpenAI hat in einem Blogbeitrag Details seines Vertrags mit der US-Regierung offengelegt, der den Einsatz seiner Technologie für Massenüberwachung im Inland oder autonome Waffensysteme untersagt. Das Unternehmen betont, dass dieser Vertrag mehr Sicherheitsvorkehrungen enthalte als frühere Vereinbarungen für den Einsatz von KI in klassifizierten Bereichen. Diese Veröffentlichung erfolgt inmitten einer Debatte über die Nutzung von Künstlicher Intelligenz durch staatliche Stellen.
OpenAI und die Sicherheitsklauseln
Laut OpenAI verbietet der Vertrag mit dem Department of War (Verteidigungsministerium) explizit die Nutzung der KI-Technologie für Massenüberwachung im Inland sowie für autonome Waffen. Auch der Einsatz in hochriskanten Entscheidungssystemen wie "Social Credit"-Scores ist ausgeschlossen. OpenAI erklärte, dass man die "roten Linien" durch einen umfassenden, mehrschichtigen Ansatz schütze.
Das Unternehmen behält die volle Kontrolle über seinen Sicherheits-Stack und setzt die Technologie über die Cloud ein. Zudem sind freigegebene OpenAI-Mitarbeiter in den Prozess eingebunden, und es gibt starke vertragliche Schutzmechanismen, die über bestehende US-Gesetze hinausgehen. Sollte die Regierung die Vertragsbedingungen verletzen, könnte OpenAI den Vertrag kündigen, erwartet dies jedoch nicht.
Der Konflikt mit Anthropic
Die Vereinbarung von OpenAI kommt kurz nachdem der KI-Konkurrent Anthropic als Lieferkettenrisiko eingestuft und auf eine schwarze Liste gesetzt wurde. Anthropic hatte sich geweigert, den Nutzungsbedingungen des Militärs für sein Modell Claude zuzustimmen. In einer Erklärung vom Freitag bekräftigte Anthropic, dass "keine Einschüchterung oder Bestrafung durch das Department of War unsere Position zur Massenüberwachung im Inland oder zu vollständig autonomen Waffen ändern wird".
Anthropic kündigte an, jede Einstufung als Lieferkettenrisiko gerichtlich anzufechten. OpenAI äußerte in seinem Blogbeitrag die Meinung, dass Anthropic nicht als Lieferkettenrisiko eingestuft werden sollte, und habe diese Position der Regierung gegenüber klargestellt.
OpenAIs Position und Forderungen
OpenAI erklärte, dass die eigene Vereinbarung mit dem Department of War teilweise aus dem Wunsch resultiere, die Spannungen zwischen dem Ministerium und den US-amerikanischen KI-Laboren zu deeskalieren. Eine gute Zukunft erfordere eine echte und tiefe Zusammenarbeit zwischen Regierung und KI-Laboren. Als Teil des Deals habe OpenAI gefordert, dass die gleichen Bedingungen allen KI-Laboren zugänglich gemacht werden.
Insbesondere habe OpenAI die Regierung gebeten, die Angelegenheit mit Anthropic zu klären, da der aktuelle Zustand ein sehr schlechter Start für die nächste Phase der Zusammenarbeit sei. Es war zunächst unklar, ob Anthropic oder andere führende KI-Unternehmen ähnliche Vertragsbedingungen angeboten wurden.
Kritik und öffentliche Reaktion
Der Streit zwischen der Regierung und den KI-Giganten hat weitreichende Kritik ausgelöst. Kritiker äußern Bedenken hinsichtlich der ethischen Implikationen der Nutzung von KI durch das Department of War und OpenAIs Zustimmung, der Regierung Zugang zu seiner Technologie zu gewähren. OpenAI argumentiert, dass KI neue Risiken mit sich bringen werde und durch die Bereitstellung seiner Modelle den Verteidigern der nationalen Sicherheit die besten Werkzeuge an die Hand gegeben würden.
Nach der Bekanntgabe der Vereinbarung von OpenAI mit der Regierung stieg Anthropic's Modell Claude laut Business Insider am Samstag an die Spitze der App-Store-Charts. Viele Nutzer in sozialen Medien, darunter Prominente wie Katy Perry, haben öffentlich angekündigt, ihre ChatGPT-Abonnements zu kündigen.