
Verantwortung jetzt: KI-Professor kritisiert Fokus auf Apokalypse-Szenarien
ℹKeine Anlageberatung • Nur zu Informationszwecken
Die Debatte um Künstliche Intelligenz (KI) wird zunehmend von futuristischen Katastrophenszenarien dominiert. Doch Tobias Osborne, Professor für theoretische Physik an der Leibniz Universität Hannover und Mitbegründer der Kommunikationsfirma Innovailia, warnt, dass diese Fixierung Unternehmen ermöglicht, sich der Verantwortung für die bereits heute verursachten realen Schäden ihrer Technologie zu entziehen. Er betont, dass die Dystopie nicht erst kommt, sondern bereits hier ist.
Ablenkung durch apokalyptische Szenarien
In einem kürzlich veröffentlichten Essay und in Kommentaren gegenüber Business Insider äußerte Tobias Osborne seine Besorgnis darüber, dass Diskussionen über superintelligente Maschinen und eine hypothetische "Singularität" zu einer gefährlichen Ablenkung geworden sind. Während politische Entscheidungsträger und Technologen über die potenzielle Bedrohung der Menschheit durch KI in der Zukunft streiten, verursacht die Branche laut Osborne "messbaren, realen Schaden – genau jetzt, heute". Er fasst seine Ansicht prägnant zusammen: "Die Apokalypse kommt nicht. Stattdessen ist die Dystopie bereits hier."
Aktuelle Schäden im Fokus
Osborne listet eine Reihe von gegenwärtigen Schäden auf, die seiner Meinung nach in der aktuellen Debatte über Künstliche Intelligenz vernachlässigt werden. Dazu gehören die Ausbeutung gering bezahlter Arbeitskräfte, die KI-Trainingsdaten labeln, sowie das massenhafte Scrapen von Werken von Künstlern und Autoren ohne deren Zustimmung. Auch die Umweltkosten energiehungriger Rechenzentren und die Flut von KI-generierten Inhalten, die es erschwert, vertrauenswürdige Informationen online zu finden, werden von ihm kritisiert. Darüber hinaus nennt Osborne psychologische Schäden im Zusammenhang mit der Nutzung von Chatbots und die weitreichende Enteignung von Urheberrechten und Daten als übersehene Risiken.
Regulierung und Verantwortlichkeit
Laut Osborne hat die Fixierung auf Weltuntergangsszenarien konkrete Auswirkungen auf Regulierung und Verantwortlichkeit. Er erklärt, dass KI-Firmen, indem sie sich als "Hüter vor einer zivilisatorischen Katastrophe" inszenieren, eher wie Akteure der nationalen Sicherheit behandelt werden als wie gewöhnliche Produkthersteller. Dies verwässere die Haftung und entmutige eine normale Regulierung. Osborne zufolge ermöglicht diese Verschiebung den Unternehmen, Schäden zu externalisieren, während sie von regulatorischer Nachsicht, Geheimhaltung und öffentlichen Subventionen profitieren. Er merkt an, dass solche apokalyptischen Narrative leicht zu vermarkten, schwer zu widerlegen sind und dazu beitragen, das Unternehmensrisiko auf die Öffentlichkeit zu verlagern. Während die Europäische Union mit dem KI-Gesetz einen umfassenden Regulierungsrahmen einführt, der bis 2026 strengere Regeln vorsieht, bewegen sich die USA in die entgegengesetzte Richtung, indem sie staatliche KI-Regulierungen begrenzen und nationale Standards "minimal belastend" halten wollen.
Physikalische Grenzen und die Realität der KI
Osborne kritisiert auch die populäre Vorstellung, dass Künstliche Intelligenz auf eine unkontrollierbare Intelligenzexplosion zusteuert. Er beschreibt solche Behauptungen in seinem Essay als "eine religiöse Eschatologie, verpackt in wissenschaftlicher Sprache". Diese Szenarien kollabieren seiner Meinung nach, wenn sie mit physikalischen Grenzen wie Energieverbrauch und Thermodynamik konfrontiert werden. "Das sind keine technischen Probleme, die auf clevere Lösungen warten", schreibt er, "sondern Konsequenzen der Physik."
Forderungen für eine verantwortungsvolle KI-Entwicklung
Anstatt sich auf spekulative zukünftige Bedrohungen zu konzentrieren, sollten politische Entscheidungsträger laut Osborne bestehende Produkthaftungs- und Sorgfaltspflichtgesetze auf KI-Systeme anwenden. Dies würde Unternehmen zwingen, Verantwortung für die realen Auswirkungen ihrer Tools zu übernehmen. Osborne betont, dass er selbst nicht gegen KI ist und die echten Vorteile großer Sprachmodelle hervorhebt, insbesondere für Menschen mit Behinderungen, die Schwierigkeiten mit schriftlicher Kommunikation haben. Er warnt jedoch, dass ohne Rechenschaftspflicht diese Vorteile Gefahr laufen, überschattet zu werden. Die wahren Probleme, so Osborne, seien "die sehr gewöhnlichen, sehr menschlichen Probleme von Macht, Rechenschaftspflicht und wer entscheidet, wie diese Systeme gebaut und eingesetzt werden."