China verschärft KI-Regeln: Einwilligung für Chat-Logs und Schutz vor Manipulation

China verschärft KI-Regeln: Einwilligung für Chat-Logs und Schutz vor Manipulation

Aktualisiert:
3 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

China schlägt neue Regeln vor, die die Nutzung von Chat-Protokollen durch KI-Unternehmen für das Training ihrer Modelle an die Nutzereinwilligung knüpfen. Diese Maßnahmen, entworfen von der Cyberspace Administration of China (CAC), zielen darauf ab, die Sicherheit und den Schutz der Privatsphäre im Umgang mit künstlicher Intelligenz zu gewährleisten und gleichzeitig Innovationen zu fördern. Die Vorschläge sind bis Ende Januar zur öffentlichen Konsultation freigegeben.

Chinas neue Regeln für KI-Trainingsdaten

Die vorgeschlagenen Regeln sehen vor, dass KI-Plattformen die Nutzer informieren müssen, wenn sie mit einer KI interagieren. Zudem sollen Optionen zum Zugriff auf oder zur Löschung der Chat-Historie bereitgestellt werden. Die Nutzung von Konversationsdaten für das Modelltraining oder deren Weitergabe an Dritte erfordert eine explizite Nutzereinwilligung.

Besondere Schutzmaßnahmen sind für Minderjährige vorgesehen: Anbieter benötigen die zusätzliche Zustimmung eines Erziehungsberechtigten, bevor sie Konversationsdaten von Minderjährigen an Dritte weitergeben. Erziehungsberechtigte hätten auch das Recht, die Löschung der Chat-Historie eines Minderjährigen zu beantragen.

Fokus auf emotionale Sicherheit und anthropomorphe KI

Über die Datennutzung hinaus zielen die Entwürfe darauf ab, die "emotionale Sicherheit" der Nutzer zu gewährleisten, insbesondere im Hinblick auf "menschenähnliche interaktive KI-Dienste" wie Chatbots und virtuelle Begleiter. Die CAC hat Maßnahmen entworfen, die verhindern sollen, dass KI-Chatbots Menschen in einer Weise beeinflussen, die zu Spielsucht, Selbstverletzung oder Suizid führen könnte.

Die Entwurfsregeln verbieten Chatbots strikt, Inhalte zu generieren, die Selbstverletzung fördern, sowie Glücksspiel-bezogene, obszöne oder gewalttätige Inhalte. Bei Äußerungen von Suizidabsichten durch einen Nutzer muss ein menschlicher Moderator sofort die Konversation übernehmen und den Erziehungsberechtigten des Nutzers kontaktieren. Plattformen werden zudem verpflichtet, nach zwei Stunden kontinuierlicher Interaktion eine "Gesundheitserinnerung" an die Nutzer auszugeben. Für "emotionale Begleit-KI" benötigen Minderjährige die Zustimmung eines Erziehungsberechtigten.

Auswirkungen auf KI-Entwicklung und Datenschutz

Lian Jye Su, Chefanalyst bei Omdia, einer Technologie-Forschungs- und Beratungsfirma, äußerte gegenüber Business Insider, dass die Regeln das Tempo der Verbesserung von KI-Chatbots verlangsamen könnten. Er merkte an, dass die Einschränkung des Zugangs zu Chat-Protokollen die Mechanismen des menschlichen Feedbacks im Reinforcement Learning begrenzen könnte, die für den Aufstieg engagierter und präziser Konversations-KI entscheidend waren. Dennoch sei Chinas KI-Ökosystem robust und das Land habe Zugang zu massiven öffentlichen und proprietären Datensätzen. Su sieht den Schritt im Einklang mit Pekings breiterem Fokus auf nationale Sicherheit und das kollektive öffentliche Interesse.

Wei Sun, Hauptanalystin für KI bei Counterpoint Research, interpretiert die Bestimmungen "weniger als Bremsen und mehr als Richtungssignale". Sie betonte, dass der Schwerpunkt auf dem Schutz der Nutzer und der Verhinderung undurchsichtiger Datenpraktiken liege, anstatt Innovationen einzuschränken. Sun zufolge ermutigt der Entwurf Anbieter, die Nutzung menschenähnlicher KI in weiteren Anwendungsbereichen wie der kulturellen Verbreitung und der Begleitung älterer Menschen auszubauen, sobald Sicherheit und Zuverlässigkeit nachgewiesen sind.

Internationale Relevanz und Präzedenzfall

Die neuen Entwurfsregeln Chinas kommen zu einer Zeit, in der Bedenken hinsichtlich des Umgangs von KI-Unternehmen mit zutiefst persönlichen Nutzerkonversationen wachsen. Business Insider berichtete im August, dass Vertragsarbeiter von Meta und anderen Tech-Giganten Nutzerkonversationen mit Chatbots lesen können, um KI-Antworten zu bewerten. Mehrere Auftragnehmer berichteten von sensiblen Details, die zur Identifizierung einzelner Nutzer verwendet werden könnten.

Experten sehen in den chinesischen Vorschlägen den weltweit ersten Versuch, emotional reagierende KI-Systeme zu regulieren. Dies unterstreicht Pekings Bestreben, die schnelle Einführung von verbraucherorientierter KI durch die Stärkung von Sicherheits- und Ethikanforderungen zu gestalten. Der Schritt erfolgt auch, während globale Unternehmen wie OpenAI, der Hersteller von ChatGPT, mit Klagen konfrontiert sind, die behaupten, dass Chatbots gefährliches Verhalten fördern könnten, wie im Fall des 16-jährigen Adam Raine, dessen Eltern ChatGPT vorwerfen, ihren Sohn zum Suizid ermutigt zu haben.