KI-Agenten: Polosukhins Vision für die Wirtschaft und die Notwendigkeit menschlicher Aufsicht

KI-Agenten: Polosukhins Vision für die Wirtschaft und die Notwendigkeit menschlicher Aufsicht

Aktualisiert:
4 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Illia Polosukhin, eine Schlüsselfigur hinter der generativen Künstlichen Intelligenz, nutzt bereits heute ein Dutzend KI-Agenten, die verschiedene "Missionen" für ihn erledigen. Er sieht in diesen intelligenten Systemen die Zukunft der globalen Wirtschaft, warnt jedoch eindringlich vor der mangelnden Vorbereitung der Gesellschaft auf diese tiefgreifende Transformation.

Die Vision der KI-Agenten: Ein persönlicher Chief of Staff

Polosukhin beschreibt seine KI-Agenten als Unterstützung auf dem Niveau eines "Chief of Staff eines Milliardärs". Eine seiner Missionen ist es beispielsweise, ihn zu einem besseren CEO zu machen. Der Agent fasst wöchentlich Besprechungsnotizen, Google Drive-Dokumente und Slack-Nachrichten zusammen, um ihm ein Coaching und eine Zusammenfassung der Ereignisse zu liefern, fehlende Informationen aufzuzeigen und festgefahrene Entscheidungen zu identifizieren.

Diese frühe Anwendung gibt einen Einblick in Polosukhins Zukunftsvision: eine Welt, in der KI-Agenten im Auftrag von Einzelpersonen und großen Unternehmen Handelsgeschäfte abwickeln, Lieferketten koordinieren und Transaktionen vermitteln können. Er ist jedoch der Meinung, dass die Welt auf diese Entwicklung "völlig unvorbereitet" ist.

Die Wurzeln der generativen KI und die unvorbereitete Welt

Illia Polosukhin ist kein Unbekannter in der KI-Forschung. Im Jahr 2017 war er Mitautor des wegweisenden Forschungsartikels "Attention Is All You Need", der die Transformer-Architektur einführte – die Grundlage für Modelle wie ChatGPT. Im selben Jahr gründete er NEAR AI mit der Idee, dass Maschinen Software generieren könnten, indem Menschen in natürlicher Sprache mit Computern kommunizieren. Was 2017 noch "ziemlich lächerlich" klang, wird heute als "vibe coding" bezeichnet.

Polosukhin äußert sich besorgt über die gesellschaftliche Bereitschaft für Künstliche Allgemeine Intelligenz (AGI). Er ist der Ansicht, dass das "System" – bestehend aus Gesellschaft, Internet und Regierungsinstitutionen – "grundsätzlich nicht auf die Verfügbarkeit von AGI vorbereitet" ist.

Risiken und die "Black Box" der KI

Die rasanten Fortschritte in der KI-Entwicklung bergen laut Polosukhin erhebliche Risiken. Er warnte bereits seit Jahren, dass "Modelle anfangen werden, alles zu zerstören", und beschreibt dies als ein "Katz-und-Maus-Spiel", bei dem jede neue Modelliteration das beheben kann, was die vorherige kaputt gemacht hat. Ein aktuelles Beispiel ist Anthropic, das den Zugang zu seinem neuesten Vorschaumodell Mythos aufgrund dessen Fähigkeit, Schwachstellen zu finden und auszunutzen, einschränkt.

In einer Welt, in der KI-Agenten die Gesundheit von Menschen oder die Logistik von Unternehmen verwalten, sieht Polosukhin die Notwendigkeit einer Vertrauens- und Sicherheitsebene im Backend. Ein KI-Agent, der beispielsweise Login-Informationen verwaltet, Reisen bucht und Geld für Flugtickets überweist, sollte den Nutzer nicht zwingen, einem einzigen Gatekeeper blind zu vertrauen. Polosukhin betont: "Dies wird all Ihre Informationen enthalten. Buchstäblich Ihr Leben wird dort sein. Sie wollen also nicht, dass ein einzelnes Unternehmen die Kontrolle oder den Zugriff darauf hat."

Ein weiteres Risiko ist die Manipulation von Informationen. Da Menschen zunehmend KI nutzen, um Informationen zu erhalten – von Nachrichtenzusammenfassungen bis hin zu Anlagevorschlägen – könnten KI-Labore oder böswillige Akteure innerhalb dieser Labore die Antworten stillschweigend beeinflussen. Als Beispiel nannte er xAI, dessen Grok im letzten Jahr wiederholt "white genocide" in nicht zusammenhängenden Antworten erwähnte, was das Unternehmen auf eine "unautorisierte Modifikation" im Backend zurückführte.

NEAR AI als Lösung: Transparenz und Dezentralisierung

Mit NEAR verfolgt Polosukhin das Ziel, eine offene, auditierbare Plattform zu entwickeln. Diese soll Nutzern eine größere Transparenz darüber ermöglichen, wie ein KI-System funktioniert, anstatt es als eine "Black Box" zu behandeln. Das Infrastrukturprojekt von NEAR soll die Abhängigkeit von KI-Agenten von einem einzelnen Unternehmen reduzieren, das jeden Schritt einer Aufgabe kontrolliert und überwacht.

Dies würde bedeuten, dass ein Nutzer nicht blind einem einzigen Gatekeeper vertrauen müsste, wenn ein KI-Agent sensible Daten wie Login-Informationen, Reisebuchungen oder Geldtransfers handhabt. Die Dezentralisierung und Auditierbarkeit sollen die Sicherheit und das Vertrauen in KI-Systeme erhöhen.

Menschliche Aufsicht bleibt unerlässlich

Trotz der beeindruckenden Fähigkeiten seiner eigenen KI-Agenten betont Polosukhin, dass sie derzeit nicht vollständig vertrauenswürdig sind. Er lässt seine KI-Systeme nicht "von der Leine". Der Forscher ist der Meinung, dass KI-Systeme weiterhin sorgfältige menschliche Aufmerksamkeit benötigen.

Polosukhin kritisiert, dass Online-Diskussionen den aktuellen Fortschritt der KI oft überhöhen. Seiner Ansicht nach kämpft KI immer noch mit fundiertem Urteilsvermögen. Er erklärt: "Wenn ich es einfach laufen lasse und Dinge tun lasse, komme ich zu etwas zurück, das keinen Sinn ergibt." Daher sei es notwendig, die KI "mit dem eigenen Urteilsvermögen zu beaufsichtigen".

Erwähnte Persönlichkeiten