
Agentic AI: Warum Arm Holdings der nächste große Gewinner sein könnte
ℹKeine Anlageberatung • Nur zu Informationszwecken
Die Welt der Künstlichen Intelligenz (KI) erlebt einen tiefgreifenden Wandel. Während Nvidia als Archetyp des aktuellen Booms gilt, positioniert sich Arm Holdings (NASDAQ: ARM) laut einer aktuellen Analyse als potenzieller Hauptgewinner der aufkommenden Agentic AI-Welle. Bei dieser Technologie geht es nicht darum, welches Unternehmen heute die meisten Chips verkauft, sondern darum, wo Intelligenz morgen tatsächlich leben und operieren wird. Arms Infrastruktur bietet dem Unternehmen einen strukturellen Vorteil, den der Markt bisher noch nicht vollständig eingepreist hat.
Der Aufstieg der Agentic AI: Von Chatbots zu autonomen Systemen
Agentic AI stellt eine Weiterentwicklung von passiven Chatbot-Antwortsystemen zu Systemen dar, die proaktiv Aufgaben erledigen. Während generative Modelle einfach auf eingegebene Prompts antworten, sind Agentic-Systeme in der Lage:
- Planung und Argumentation über mehrere Schritte hinweg
- Nutzung von Tools zur Anpassung an neue Dateninputs
- Ausführung von Aufgaben ohne ständige Aufsicht durch den Endbenutzer
Agentic Workflows verlagern die KI von gelegentlichen Interaktionen zu einer konstanten Zusammenarbeit. Wissensarbeiter, Geschäftsprozesse und Konsumgeräte erhalten ein digitales Gegenstück, das rund um die Uhr arbeitet. Das Potenzial zur Steigerung der Produktivität ist enorm, da Agenten neue Verhaltensweisen und Effizienzen schaffen und implementieren können.
Nvidias Rolle bei der KI-Modellschulung
Nvidias GPUs sind unübertroffen für die parallele Verarbeitung, die zum Training von KI-Modellen erforderlich ist. Ergänzt durch Hochgeschwindigkeits-Inferenzlösungen wie Groq, ermöglichen Nvidias Chipsätze komplexe Denkprozesse in Rechenzentren mit hoher Geschwindigkeit. Sie sind das Rückgrat für das "schwere Heben" beim Training von KI-Modellen.
Wo Agentic AI an ihre Grenzen stößt: Die Herausforderung der dezentralen Intelligenz
Die Agentic AI-Revolution benötigt jedoch mehr als nur Cloud-Power. Sie erfordert dezentrale Intelligenz über Milliarden von Endpunkten mit geringer Latenz – genau dort, wo zentralisierte Rechenleistung an ihre Grenzen stößt. Routinemäßige Entscheidungen, Speicherabfragen und Ausführungsschritte, die den Großteil der Agentic Workflows ausmachen, erfordern eine kostengünstige, immer verfügbare Rechenleistung mit geringer Latenz. Zentralisierte GPU-Cluster werden hier überlastet, was zu hohen Energiekosten und Datenschutzbedenken führt, wenn triviale Aufgaben an die Cloud ausgelagert werden.
Arms Wettbewerbsvorteil: Effizienz und Geräteintegration
Der größte Wertbeitrag der Agentic AI liegt in ihrer Fähigkeit, auf Geräten, am Edge oder in der Infrastruktur zu operieren, die Menschen und Unternehmen bereits besitzen. Arms CPU-Designs treiben einen großen und wachsenden Anteil von Unterhaltungselektronik, Netzwerkausrüstung und Internet-of-Things (IoT)-Geräten an. Wenn Agentic AI von Nischenpiloten zu einer allgegenwärtigen Bereitstellung auf Smartphones, Tablets, autonomen Fahrzeugen und Robotersensoren übergeht, wird das Volumen der Arm-betriebenen Endpunkte voraussichtlich explosionsartig ansteigen. Dies bietet Arm einen entscheidenden Vorteil durch Kundenbindung und Produkteffizienz.
Forschung und Entwicklung im Bereich Agentic AI
Die Entwicklung im Bereich der Künstlichen Intelligenz ist dynamisch, wie auch die Forschung von GEMESYS zeigt. Das Unternehmen arbeitet an einem selbst entwickelten neuronalen Netzwerk, das ausschließlich auf Python/NumPy basiert. Bei einem Trainingslauf von 7000 Epochen auf einem Wirtschaftsdatensatz wurde ein Genauigkeitskoeffizient von 50,8 % erzielt, der laut den Forschern nicht zufällig ist und noch verbessert werden soll.
Interessanterweise stellte GEMESYS fest, dass TensorFlow Version 1.4 gut mit ihren Daten trainiert, während Versionen 2.6 und höher dies nicht tun. Dies führte zur Entwicklung eines eigenen Produkts, das TensorFlow nicht benötigt und sich leicht in ihre Datenmanagement-Tools integrieren lässt. Die Forschung repliziert frühere Arbeiten mit dem University of Toronto Neural-Network Simulator (Xerion UTS) und nutzt nun TensorFlow/Python/Keras auf einer Linux-Plattform. Ein Beispiel zeigte das Training eines einschichtigen Perzeptron-Netzwerks über 700 Epochen, bei dem die Verlustfunktion stetig abnahm und die binäre Genauigkeit zunahm.
Aktuelle Forschungen von GEMESYS konzentrieren sich auch auf die Verbesserung von Agentic AI Large Language Models (LLMs) durch Retrieval Augmented Generation (RAG). Ein praktisches Beispiel hierfür war die Entwicklung von SDR-Radio-Software mit Google AI, wobei die KI wertvolle Vorschläge zur Behebung komplexer Fehler lieferte. Dies umfasste auch technische Herausforderungen wie Compilerfehler, die durch den Einsatz der Software Collections Library (SCL) zur Nutzung modernerer gcc/g++-Compiler gelöst werden konnten, um C++-17-Funktionen zu unterstützen.