OpenAI im Fokus: Super Bowl-Werbehoax und chinesische KI-Einflussnahme

OpenAI im Fokus: Super Bowl-Werbehoax und chinesische KI-Einflussnahme

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Die Welt der Künstlichen Intelligenz (KI) ist dynamisch und birgt sowohl faszinierende Innovationen als auch komplexe Herausforderungen. Aktuell steht OpenAI, ein führendes Unternehmen in der KI-Entwicklung, im Mittelpunkt zweier unterschiedlicher, aber gleichermaßen aufschlussreicher Ereignisse: ein ausgeklügelter Marketing-Hoax rund um eine angebliche Super Bowl-Werbung und die Nutzung seiner ChatGPT-Modelle für weltweite Einflusskampagnen durch chinesische Akteure. Diese Vorfälle beleuchten die Macht von Desinformation und die potenziellen Missbräuche von KI-Technologien.

Das Mysterium um die angebliche OpenAI Super Bowl-Werbung

Ein komplexes Rätsel um eine angebliche OpenAI Super Bowl-Werbung hat sich in den letzten Wochen entfaltet. Alles begann, als ein Reddit-Nutzer behauptete, ein verärgerter OpenAI-Mitarbeiter zu sein und dass das Unternehmen einen Super Bowl-Werbespot für ein kommendes Jony Ive-Hardwaregerät gestrichen habe. Stattdessen sei ein anderer Spot ausgestrahlt worden.

Kurz darauf kursierte ein Video auf X und YouTube, das angeblich die zurückgezogene Werbung zeigte. Darin war Alexander Skarsgård, bekannt aus "Big Little Lies", zu sehen, wie er Ohrhörer trug und ein glänzendes, kugelförmiges Objekt berührte. Das Video gewann schnell an Zugkraft, nachdem mehrere hochkarätige, verifizierte Accounts, darunter Reddit-Mitbegründer Alexis Ohanian, es teilten. Tausende X-Posts bezogen sich auf die vermeintliche Werbung, einige generierten über 100.000 Aufrufe, wie das Medienanalyseunternehmen PeakMetrics berichtete.

OpenAI-Führungskräfte, darunter CMO Kate Rouch, Präsident Greg Brockman und Sprecherin Lindsay McCallum Rémy, dementierten das Video umgehend als "Fake News" und betonten, dass es nichts mit dem Unternehmen zu tun habe. Sie bestätigten, dass weder eine solche Werbung noch ein Hardwaregerät existieren.

Skarsgård-Video: Mehr als nur ein Deepfake?

Was zunächst wie ein typischer KI-Deepfake-Hoax aussah, nahm eine unerwartete Wendung. Skarsgårds Vertreter bestätigten, dass der Schauspieler tatsächlich in dem Video mitgewirkt hatte, und sandten einen kurzen Blick hinter die Kulissen der Produktion. Weitere Details wurden jedoch nicht preisgegeben.

Die Geschichte wurde noch seltsamer, als drei auf Technologie spezialisierte Content-Ersteller berichteten, Anfang Februar von einer Marketingagentur namens BrandWorks kontaktiert worden zu sein. Die Agentur bot ihnen Geld an, um über eine "Super Bowl-Kampagne in Partnerschaft mit OpenAI" zu posten, bei der "ein neues Hardwaregerät angeteasert" werden sollte. BrandWorks bewirbt sich selbst als Agentur, die "virale Launch-Kampagnen für Technologieunternehmen auf X und LinkedIn" erstellt.

Zusätzlich tauchte ein Video von Zachary Dive auf X auf, das Joe Gebbia, den Airbnb-Mitbegründer und von Trump ernannten US Chief Design Officer, in einem Café in San Francisco zeigte. Er trug dabei Ohrhörer, die denen von Skarsgård ähnelten. Ohanian retweetete auch dieses Video. Gebbia postete später auf X und enthüllte ein "Gerät", mit dem er im Video spielte – allerdings handelte es sich um einen 3,40 Dollar teuren Muji Gel Ink Stift.

ChatGPT im Fokus: Chinesische Einflussnahme und Cyber-Operationen

Parallel zu den Marketing-Mysterien hat OpenAI in einem neuen Bedrohungsbericht Details über die Nutzung von ChatGPT für eine weltweite Belästigungs- und Zensurkampagne gegen Kritiker Chinas aufgedeckt. Ein chinesischer Strafverfolgungsbeamter versuchte, ChatGPT zu nutzen, um Berichte über "Cyber-Spezialoperationen" zu überprüfen und zu bearbeiten.

Derselbe Account versuchte auch, ChatGPT zur Planung einer Propagandakampagne gegen die japanische Premierministerin Sanae Takaichi zu verwenden. Als das Modell dies ablehnte, kehrte der Akteur Wochen später mit Prompts zurück, die darauf hindeuteten, dass die Operation dennoch durchgeführt worden war. Die hochgeladenen Berichte deuteten darauf hin, dass die Bedrohungsakteure viele andere, frühere Operationen durchgeführt hatten, um Dissens zu unterdrücken und Kritiker im In- und Ausland zum Schweigen zu bringen.

Umfang und Taktiken der Kampagnen

Obwohl es nur Beweise für einen einzigen Account gibt, der von der Agentur genutzt wurde, schätzte OpenAI die beschriebenen Operationen als "groß angelegt, ressourcenintensiv und nachhaltig" ein. Sie umfassten Hunderte von menschlichen Mitarbeitern, Tausende von Fake Accounts auf verschiedenen Social-Media-Plattformen und den Einsatz lokaler chinesischer KI-Modelle.

Zu den Taktiken gehörten:

  • Massenhaftes Posten und Generieren von Inhalten.
  • Überfluten von Social-Media-Unternehmen mit gefälschten Beschwerden über Accounts von Dissidenten.
  • Fälschen von Dokumenten.
  • In einigen Fällen sogar die Nachahmung von US-Beamten zur Einschüchterung.

Die Kampagne gegen Sanae Takaichi, die die Kommunistische Partei Chinas wegen Menschenrechtsverletzungen in der Inneren Mongolei kritisiert hatte, umfasste den Versuch, negative Kommentare in sozialen Medien zu verbreiten und gefälschte E-Mails von angeblichen ausländischen Bewohnern an japanische Politiker zu senden. Obwohl ChatGPT sich weigerte, fanden sich später Hinweise auf die Verbreitung von Hashtags wie #右翼共生者 (was "rechtsgerichteter Symbiont" bedeutet) in "geringen Mengen" auf X, der japanischen Online-Community Pixiv und Blogspot ab Ende Oktober 2025. Die meisten dieser Posts erzielten jedoch kaum Reichweite.

Gezielte Informationsbeschaffung und Kommunikation

Eine separate Kampagne, die von einer Gruppe von Accounts ausging, die "wahrscheinlich" vom chinesischen Festland stammten, forderte ChatGPT auf, Informationen über "US-Personen, Foren und Standorte von Bundesgebäuden" bereitzustellen. Die Accounts generierten auch E-Mail-Entwürfe, angeblich von einem Unternehmen namens Nimbus Hub Consulting mit Sitz in Hongkong. OpenAI bemerkte jedoch, dass die Accounts VPNs verwendeten und das Modell mit vereinfachten chinesischen Schriftzeichen anforderten, was eher mit dem chinesischen Festland assoziiert wird.

Diese englischsprachigen E-Mails wurden an US-Staatsbeamte sowie an Wirtschafts- und Finanzanalysten gesendet, um sie zu bezahlten Beratungen einzuladen und strategische Ratschläge für die Kunden der Akteure anzubieten. Häufig wurde versucht, die Konversation auf andere Videokonferenzplattformen wie WhatsApp, Zoom oder Teams zu verlagern. Ein Account lud sogar Hardware-Spezifikationen hoch und bat um schrittweise, nicht-technische Anweisungen zur Installation der Echtzeit-Gesichtstauschsoftware FaceFusion, wobei das Modell Informationen von der öffentlich zugänglichen Website von FaceFusion bereitstellte. Es gab jedoch keine Hinweise auf automatisierte Cyberangriffe.

Erwähnte Persönlichkeiten