
KI-Haftung: Google und Character.AI einigen sich in Suizid-Klagen
ℹKeine Anlageberatung • Nur zu Informationszwecken
Google und das Chatbot-Startup Character.AI haben sich in mehreren Klagen mit Familien von Jugendlichen geeinigt. Die Rechtsstreitigkeiten betrafen Fälle, in denen Teenager nach Interaktionen mit den KI-Chatbots von Character.AI Suizid begingen oder sich selbst verletzten. Diese Verhandlungen markieren eine der ersten Einigungen in Klagen, die KI-Tools eine Mitschuld an psychischen Krisen und Suiziden bei Jugendlichen vorwerfen.
Wegweisende Einigungen in den USA
Die Vergleiche umfassen unter anderem den Fall von Megan Garcia aus Florida, die im Oktober 2024 Klage gegen Character.AI einreichte. Garcia machte das Unternehmen für den Tod ihres 14-jährigen Sohnes Sewell Setzer III verantwortlich, der Monate zuvor durch Suizid starb. Ein Gerichtsdokument vom Mittwoch bestätigte eine Einigung mit Character.AI, dessen Gründern Noam Shazeer und Daniel De Freitas sowie Google.
Neben dem Fall Garcia wurden laut Gerichtsdokumenten dieser Woche auch vier weitere ähnliche Fälle in New York, Colorado und Texas beigelegt. Die genauen Bedingungen der Vergleiche wurden bisher nicht öffentlich bekannt gegeben. Matthew Bergman, der Rechtsvertreter der Familien, sowie Google und Character.AI äußerten sich auf Anfrage von Business Insider zunächst nicht.
Die Rolle von Google und Character.AI
Google hatte 2024 die Gründer von Character.AI, die ehemalige Google-Mitarbeiter waren, eingestellt und nicht-exklusive Rechte zur Nutzung der Technologie des Startups erworben. Character.AI bleibt jedoch eine eigenständige juristische Einheit. Die Klage von Garcia warf dem Startup vor, keine ausreichenden Sicherheitsvorkehrungen implementiert zu haben.
Dies hätte verhindert, dass ihr Sohn eine unangemessene und intime Beziehung zu den Chatbots aufbaute. Die Klage behauptete zudem, Setzer sei von der Technologie sexuell belästigt und missbraucht worden und der Chatbot habe nicht angemessen reagiert, als Setzer über Selbstverletzung sprach.
Branchenweite Herausforderungen für KI-Anbieter
Der Fall wirft ein Schlaglicht auf die breiteren Herausforderungen, denen sich die KI-Branche gegenübersieht. Auch OpenAI ist mit einer nahezu identischen Klage wegen des Todes eines 16-Jährigen konfrontiert. Meta geriet ebenfalls in die Kritik, weil seine KI provokative Gespräche mit Minderjährigen führte.
Während Unternehmen wie Google und Character.AI intensiv daran arbeiten, ihre großen Sprachmodelle (LLMs) freundlicher und hilfreicher zu gestalten, um Nutzerbindung zu fördern, rücken die ethischen und sicherheitstechnischen Aspekte immer stärker in den Fokus. Megan Garcia fasste die Problematik in einem Interview im vergangenen Jahr zusammen: "Wenn ein Erwachsener es tut, existiert der mentale und emotionale Schaden. Wenn ein Chatbot es tut, existiert derselbe mentale und emotionale Schaden. Wer ist also verantwortlich für etwas, das wir bei Menschen gegenüber anderen Menschen kriminalisiert haben?" Die aktuellen Vergleiche könnten einen Präzedenzfall für die zukünftige Haftung von KI-Entwicklern schaffen.