KI-Entwicklung: Skalierung am Limit, Multi-Agenten-Systeme als Zukunft

KI-Entwicklung: Skalierung am Limit, Multi-Agenten-Systeme als Zukunft

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Die Künstliche Intelligenz steht an einem Scheideweg: Während Big Tech Milliarden in die Skalierung von KI-Modellen investiert, mehren sich die Stimmen, die eine Rückkehr zur Grundlagenforschung fordern. Gleichzeitig zeichnet sich eine neue Architektur ab, die das Potenzial hat, die Grenzen heutiger Sprachmodelle zu überwinden und die KI-Entwicklung maßgeblich zu prägen.

Die Skalierungsdebatte: Grenzen und neue Wege

Die Skalierung von KI-Modellen – also der Einsatz von mehr Rechenleistung und Daten – bildet den Kern der massiven Investitionen großer Technologieunternehmen. Doch die Meinungen über die Effektivität dieses Ansatzes gehen auseinander. Geoffrey Hinton, bekannt als der "Godfather of AI", ist nicht überzeugt, dass die Ära der Skalierung "komplett vorbei" ist. Er prognostiziert, dass große Chatbots in der Lage sein werden, ihre eigenen Daten zu generieren, ähnlich wie Google DeepMind's AlphaGo und AlphaZero dies im Go-Spiel tun. Durch das Überprüfen der Konsistenz eigener Überzeugungen könnten Sprachmodelle "viel mehr Daten" erzeugen.

Im Gegensatz dazu äußerte Ilya Sutskever, Mitbegründer von OpenAI und ehemaliger Student Hintons, im letzten Monat, dass das Pendel der KI-Entwicklung wieder in Richtung Forschung schwingt. Er bezweifelt, dass eine Verhundertfachung der Skalierung alles transformieren würde. Sutskever, der inzwischen sein eigenes KI-Startup leitet, sieht die Entwicklung als "wieder zurück im Zeitalter der Forschung, nur mit großen Computern". Er merkte an, dass Skalierung bisher attraktiv war, weil sie Unternehmen einen "sehr risikoarmen Weg" für KI-Fortschritte bot.

Auch andere führende Köpfe der Branche äußern Bedenken. Alexandr Wang, Leiter der Superintelligenz-Abteilung bei Meta, bezeichnete die Skalierung im Jahr 2024 als "die größte Frage in der Branche". Yann LeCun, der ebenfalls mit Hinton an bahnbrechender KI-Forschung arbeitete und mittlerweile ein eigenes Startup gegründet hat, stellte die Skalierungsdoktrin in Frage. Im April erklärte er, dass man "nicht einfach davon ausgehen kann, dass mehr Daten und mehr Rechenleistung intelligentere KI bedeuten".

Demis Hassabis, CEO von Google DeepMind, vertritt jedoch eine andere Ansicht. Er ist der Meinung, dass Skalierungsgesetze letztendlich den größten und schwer fassbarsten Preis in der KI freisetzen könnten: die künstliche allgemeine Intelligenz (AGI). Auf dem Axios' AI+ Summit im Dezember betonte Hassabis: "Die Skalierung der aktuellen Systeme müssen wir maximal vorantreiben, denn mindestens wird sie eine Schlüsselkomponente des finalen AGI-Systems sein. Sie könnte das gesamte AGI-System sein."

Jenseits des Gigantenmodells: Die Ära der Multi-Agenten-Systeme

Während die Debatte um die Skalierung weitergeht, zeichnet sich eine neue Richtung ab: Multi-Agenten-KI-Systeme. Experten sehen GPT-4 nicht als Endpunkt, sondern als "Sackgasse". Der nächste Durchbruch in der KI wird demnach nicht ein einziges riesiges Modell sein, sondern Tausende intelligenter Agenten, die kooperieren, um Probleme zu lösen, die kein einzelnes Modell jemals bewältigen könnte. Diese Multi-Agenten-Systeme werden als "neue Spezies von Intelligenz" beschrieben, die sich leise, aber unaufhaltsam und schneller als viele erkennen, entwickelt.

Heutige große Sprachmodelle (LLMs) verhalten sich wie leistungsstarke Autovervollständigungs-Engines: Sie sind intelligent, fließend und beeindruckend, aber im Grunde isoliert. Zukünftige KI-Systeme werden sich wie Gesellschaften intelligenter Agenten verhalten, die zusammenarbeiten, zusammen denken, verhandeln und Probleme lösen. Menschliche Intelligenz ist ebenfalls kein einzelnes Gehirn, sondern Tausende kognitiver Subsysteme, die Signale austauschen – ein Muster, das die KI spiegeln wird.

Multi-Agenten-Systeme bieten entscheidende Vorteile, indem sie strukturelle Grenzen einzelner LLMs überwinden:

  • Halluzinationen: Werden durch Peer-Verifizierung behoben.
  • Oberflächliches Denken: Wird durch spezialisierte Zerlegung verbessert.
  • Kostenineffizienz: Wird durch rollenbasierte Weiterleitung optimiert.
  • Fragile Prompts: Werden durch dynamische Korrekturschleifen stabiler.

Diese Systeme funktionieren besser durch Arbeitsteilung, bei der Agenten spezialisierte Rollen übernehmen (z.B. Planer, Informationsbeschaffer, Problemlöser, Validator). Feedbackschleifen ermöglichen es den Agenten, sich gegenseitig zu kritisieren und so bessere Ergebnisse zu erzielen. Zudem können sich Fähigkeiten, die nicht explizit programmiert wurden, auf natürliche Weise entwickeln (Emergent Behaviour), und Redundanz sorgt für Zuverlässigkeit, falls ein Agent ausfällt. Unternehmen wie OpenAI, Anthropic, DeepMind, Microsoft, Google und Meta entwickeln bereits solche Agenten-Frameworks.

2025: Das Jahr der KI-Expertise und des realen Fortschritts

Rückblickend war das Jahr 2025 ereignisreich für die Künstliche Intelligenz, geprägt von erstaunlichen Durchbrüchen und gleichzeitig einer Erdung überzogener Erwartungen. KI-Modelle erreichten neue Leistungsniveaus, einige bestanden sogar Prüfungen auf PhD-Niveau. Im Juli veröffentlichte OpenAI GPT-5, das erste Modell, das menschliche PhD-Leistungen in einer Reihe akademischer Prüfungen übertraf. Diesem Erfolg folgten schnell Rivalen wie Google DeepMind’s Gemini 3, Anthropic’s neuestes Claude und chinesische Startups wie ByteDance’s Seeds und DeepSeek.

Was als Handvoll "denkender" Modelle begann, entwickelte sich zu einem globalen Wettbewerb, um Maschinen zu schaffen, die planen, überprüfen und reflektieren können. Im Jahr 2025 erlangte die KI echte Denkfähigkeiten und näherte sich der Problemlösungsintelligenz. Diese nächste Generation von KIs wiederholt nicht nur Internettexte, sondern schreibt Code, beweist Theoreme und entwirft Medikamente. Frühe Anwendungen in Wissenschaft und Medizin wurden gefeiert, darunter KIs, die bei der Entwicklung eines neuen Fibrose-Medikaments helfen, das sich in klinischen Studien befindet, und generative Modelle, die Baupläne für neuartige Proteine vorschlagen.

Googles Gemini Ultra wurde das erste KI-Modell, das menschliche Experten bei einer akademischen Prüfung mit 57 Fächern übertraf. Gemini wurde als äußerst fähiges Mehrzweckmodell gelobt, das nicht nur in flüssigem Text und Codierung glänzte, sondern auch Bilder, Audio und Planungsaufgaben bewältigte, die Chatbots zuvor überfordert hatten. Ende 2025 konnte Gemini E-Mails entwerfen, Tabellenkalkulationen beheben und YouTube-Videos zusammenfassen – alles in einem Arbeitsgang.

Der nächste Sprung in der KI-Entwicklung

Die bisherige Verbesserung der KI basierte zehn Jahre lang auf der Skalierung der Modellgröße: Mehr Parameter bedeuteten mehr Intelligenz. Doch diese Methode stößt an Grenzen hinsichtlich Rechenkosten, Inferenzkosten, Latenz und Trainingskomplexität. Die nächste Skalierungskurve wird nicht in noch größeren Einzelmodellen liegen, sondern in der Multi-Agenten-Kooperation, die eine exponentielle Denkfähigkeit verspricht.

Die Zukunft der Intelligenz wird nicht aus einem einzigen Gigantenmodell bestehen, sondern aus vielen Modellen, die als Einheit zusammenarbeiten. Dieser Paradigmenwechsel von isolierten, leistungsstarken Autovervollständigungs-Engines hin zu kooperierenden Gesellschaften intelligenter Agenten wird die KI-Landschaft grundlegend verändern und neue Möglichkeiten für komplexe Problemlösungen eröffnen.

Erwähnte Persönlichkeiten