
KI-Automatisierung: CEOs dämpfen Erwartungen – Realität komplexer als gedacht
ℹKeine Anlageberatung • Nur zu Informationszwecken
Die Automatisierung von Arbeitsabläufen mittels Künstlicher Intelligenz (KI) erweist sich als komplexer als oft angenommen. Führende Köpfe der KI-Branche, darunter die CEOs von Databricks und Glean, mahnen zur Mäßigung der Erwartungen und betonen die Notwendigkeit menschlicher Aufsicht. Auch Salesforce musste seine Strategie aufgrund von Zuverlässigkeitsproblemen anpassen.
Hohe Erwartungen, harte Realität: KI-Automatisierung komplexer als gedacht
Die CEOs von zwei milliardenschweren KI-Unternehmen, Ali Ghodsi von Databricks und Arvind Jain von Glean, haben in einer Folge des "Bg2 Pod" erklärt, dass KI-Automatisierung nicht so einfach ist, wie viele Führungskräfte annehmen. Sie betonen, dass Unternehmen ihre Erwartungen hinsichtlich der Geschwindigkeit und Einfachheit des KI-Einsatzes dämpfen sollten. Jain berichtete von internen Versuchen bei Glean, Workflows zu automatisieren, etwa die automatische Identifizierung und Dokumentation von Mitarbeiterprioritäten mittels KI. Obwohl die Idee einfach schien und "alle Kontexte innerhalb des Unternehmens" vorhanden waren, funktionierte die Umsetzung nicht wie erwartet.
Ein weiterer Versuch, ein kundenspezifisches Modell für einen spezifischen Anwendungsfall innerhalb von Gleans Produkt zu entwickeln und zu optimieren, scheiterte ebenfalls. Dies führte das Unternehmen zurück zu bestehenden Foundation Models, die einfacher zu implementieren waren. Jain fasste zusammen: "Es dauert tatsächlich viel länger, als man denkt, um wirklich Erfolg zu generieren." Ghodsi, dessen Unternehmen eine Daten- und KI-Plattform anbietet, ergänzte: "Man kann die Agenten nicht einfach loslassen, und es funktioniert." Die nutzbringende Implementierung von KI in einer Organisation sei eine "Ingenieurskunst", die sorgfältige Evaluierung, Produktionsarbeit und starke Support-Teams erfordere. Glean wurde im September mit 7,2 Milliarden US-Dollar bewertet, nachdem es 150 Millionen US-Dollar eingesammelt hatte, während Databricks kürzlich über 4 Milliarden US-Dollar in einer Finanzierungsrunde erhielt und auf 134 Milliarden US-Dollar geschätzt wird.
Gescheiterte Projekte als Lernchance
Beide CEOs sind sich einig, dass gescheiterte KI-Projekte keine Seltenheit sind und nicht unbedingt ein Zeichen für ein Fehlverhalten darstellen. Jain merkte an: "Man hört, dass 95 % der Projekte scheitern. Das ist tatsächlich das, was man will." Er fügte hinzu: "Wenn man mit neuer Technologie experimentiert und alle Projekte scheitern, bedeutet das, dass man nicht genug versucht." Diese Einschätzung wird durch eine Studie von MIT-Forschern untermauert, die feststellte, dass 95 % der generativen KI-Pilotprojekte keinen messbaren Geschäftswert lieferten.
Salesforce zieht die Reißleine: Zuverlässigkeitsprobleme bei LLMs
Ein prominentes Beispiel für die Herausforderungen bei der KI-Automatisierung liefert Salesforce. Das Unternehmen reduziert seine Abhängigkeit von Large Language Models (LLMs) aufgrund von Zuverlässigkeitsproblemen und verlagert den Fokus auf deterministische Automatisierung in seinem Produkt Agentforce. Sanjna Parulekar, Senior Vice President of Product Marketing bei Salesforce, räumte ein, dass das Vertrauen in KI-Modelle im letzten Jahr gesunken sei: "Wir alle waren vor einem Jahr zuversichtlicher in Bezug auf Large Language Models."
Dieser strategische Kurswechsel folgt auf eine erhebliche Reduzierung des Support-Personals bei Salesforce um etwa 4.000 Stellen, von 9.000 auf 5.000 Mitarbeiter, die CEO Marc Benioff der Implementierung von KI-Agenten zuschrieb. Technische Herausforderungen traten auf, als Modelle bei mehr als acht Anweisungen begannen, Direktiven auszulassen, was für präzisionsabhängige Geschäftsaufgaben ein gravierender Fehler ist. Auch das Home-Security-Unternehmen Vivint, das Agentforce für den Kundensupport nutzt, erlebte Zuverlässigkeitsprobleme, da Umfragen nach Kundeninteraktionen unerklärlicherweise nicht versendet wurden. Zudem wurde das Problem des "AI-Drifts" festgestellt, bei dem KI-Agenten den Fokus auf ihre primären Ziele verlieren, wenn Benutzer irrelevante Fragen stellen.
Die Tücken der KI-Strategie: Fokus auf Augmentierung statt Substitution
Die Investitionen in KI sind enorm: Meta, Microsoft, Amazon und Alphabet haben in diesem Jahr 320 Milliarden US-Dollar für KI zugesagt. Gleichzeitig warnen Persönlichkeiten wie Jeff Bezos, Goldman Sachs CEO David Solomon und Sam Altman vor einer möglichen Blase in der KI-Branche, während die Bank of England die Aktienbewertungen als "überzogen" und vergleichbar mit dem Höhepunkt der Dotcom-Blase bezeichnet.
Das Problem liegt oft nicht in der Technologie selbst, sondern in der Strategie dahinter. Viele Unternehmen konzentrieren sich darauf, Menschen durch KI zu ersetzen, anstatt sie zu unterstützen und ihre Fähigkeiten zu erweitern. Vier kritische Fehler tragen zur hohen Misserfolgsquote bei:
- Überschätzung der Fähigkeiten ohne klare Ziele: Projekte starten ohne messbare Ziele oder definierte Geschäftsergebnisse.
- Ignorieren des menschlichen Faktors: Die Angst vor Arbeitsplatzverlust wird bei der Implementierung von KI nicht adressiert.
- Mangelhafte Datengrundlage: Unternehmen vernachlässigen die Datenqualität und -governance, was zu unzuverlässigen Ergebnissen führt.
- "Build-it-yourself"-Hochmut: Die Komplexität der Integration wird unterschätzt, und der Versuch, proprietäre Systeme intern zu entwickeln, scheitert.
Laut McKinsey betrachten sich nur 1 % der Unternehmen als KI-reif. Der größte Engpass für die Skalierung ist die Abstimmung der Führungsebene. Eine effektivere Strategie ist die "Support-driven AI", die menschliche Stärken ergänzt: KI übernimmt Datenaggregation, Mustererkennung und Routineverarbeitung, während Menschen Urteilsvermögen, emotionale Intelligenz und komplexe Problemlösung einbringen.
Menschliche Aufsicht bleibt unverzichtbar
Ali Ghodsi betonte bereits im Juni auf einer Konferenz in San Francisco, dass menschliche Aufsicht in KI-Systemen unerlässlich bleiben wird. Er prognostizierte: "Ich denke, in ein paar Jahren werden wir Agenten an vielen, vielen Orten haben, aber es wird einen Menschen geben, der jeden Schritt überwacht und genehmigt, und man ist verantwortlich, wenn man zustimmt, wenn man auf 'OK' klickt." Wir alle würden zu "Supervisoren".
Diese Ansicht wird von anderen Tech-Führungskräften geteilt. Der Forschungsleiter Yoshua Bengio, einer der "Godfathers of AI", erklärte in einem Podcast, dass menschliche Qualitäten an Bedeutung gewinnen werden, wenn Maschinen Aufgaben übernehmen. "Arbeiten Sie an dem schönen Menschen, der Sie werden können. Ich denke, dieser Teil von uns wird bestehen bleiben, auch wenn Maschinen die meisten Aufgaben erledigen können", sagte Bengio. Er fügte hinzu: "Der menschliche Faktor wird, denke ich, immer mehr an Wert gewinnen, da die anderen Fähigkeiten immer stärker automatisiert werden."