Anthropic Claude Opus 4.7: Nutzer beklagen Rückschritt und hohe Kosten

Anthropic Claude Opus 4.7: Nutzer beklagen Rückschritt und hohe Kosten

Aktualisiert:
4 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Anthropic, bekannt für seine KI-Modelle Claude Code und Claude Cowork, sieht sich nach der Einführung des neuesten Modells Opus 4.7 mit wachsender Kritik konfrontiert. Obwohl das Unternehmen eine verbesserte Intelligenz und Präzision verspricht, äußern zahlreiche Nutzer in sozialen Medien und Foren Bedenken hinsichtlich der Leistungsfähigkeit und des erhöhten Token-Verbrauchs. Diese Reaktionen deuten auf eine mögliche Kehrtwende in der bisherigen Erfolgsgeschichte des KI-Pioniers hin.

Nutzerreaktionen auf Claude Opus 4.7

Die Einführung von Anthropic's neuem KI-Modell, Opus 4.7, sollte laut Unternehmensangaben ein "intelligenteres, handlungsfähigeres und präziseres" Erlebnis bieten. Doch die anfänglichen Reaktionen der Nutzer zeichnen ein anderes Bild. In sozialen Medien und auf Plattformen wie Reddit und X (ehemals Twitter) hat sich eine Welle der Kritik formiert, die das Modell als Rückschritt statt als Upgrade empfindet.

Ein Reddit-Beitrag mit dem Titel "Claude Opus 4.7 is a serious regression, not an upgrade" erhielt 2.300 Upvotes. Ein X-Nutzer, der die Verbesserung von Opus 4.7 gegenüber Opus 4.6 infrage stellte, sammelte 14.000 Likes. Diese breite Resonanz deutet auf eine signifikante Unzufriedenheit in der Nutzergemeinschaft hin.

Angezweifelte Intelligenz und technische Mängel

Nutzerberichte listen eine Reihe von Fehlern auf, die die Intelligenz des Modells infrage stellen. In einem informellen, aber populären Test der KI-Intelligenz soll Opus 4.7 beispielsweise behauptet haben, das Wort "strawberry" enthalte zwei "P". Ein anderer Screenshot zeigt das Modell, wie es angibt, eine Querverweisprüfung aus "Faulheit" nicht durchgeführt zu haben.

Besonders besorgniserregend sind Berichte, wonach Opus 4.7 Lebensläufe mit neuen Schulen und Nachnamen umschrieb. Mehrere X-Nutzer äußerten die Vermutung, das Modell sei schlichtweg "dümmer" geworden. Diese Beobachtungen stehen im Widerspruch zu Anthropic's Versprechen einer gesteigerten Präzision.

Adaptive Reasoning und Performance-Einbußen

Einige X-Nutzer vermuten, dass die Ursache der Probleme in den Denkzeiten des KI-Modells liegt. Anthropic hat eine neue Funktion namens "adaptive reasoning" eingeführt, die es dem Modell ermöglichen soll, selbst zu entscheiden, wann es für längere oder kürzere Zeiträume nachdenkt. Ein Nutzer schrieb jedoch, er könne "Opus 4.7 nicht zum Denken bringen", während ein anderer meinte, es "nerft die Performance".

Boris Cherny, der Schöpfer von Claude Code bei Anthropic, widersprach dieser Einschätzung und erklärte, dass adaptives Denken dem Modell erlaube zu entscheiden, wann es denken soll, was zu einer besseren Leistung führe. Dennoch räumte ein Anthropic Produktmanager ein, dass das Team "intern intensiv an der Feinabstimmung" dieser Funktion arbeite und bald Updates bereitstellen werde.

Erhöhter Token-Verbrauch und Kosten

Ein weiterer Kritikpunkt ist der deutlich höhere Token-Verbrauch von Opus 4.7. Das Modell verfügt über einen neuen Tokenizer, was bedeutet, dass eine Eingabe etwa 1,0- bis 1,35-mal so viele Tokens kosten kann wie bei einem Vorgängermodell. Dies hat direkte Auswirkungen auf die Nutzungskosten und -limits.

Nach der Veröffentlichung berichtete ein X-Nutzer, dass Claude Pro-Abonnenten nach nur drei Fragen ihr Limit erreichten. Ein anderer Nutzer bemerkte, dass Opus 4.7 in GitHub Copilot bis Ende April einen 7,5-fachen Premium-Preis hatte. Boris Cherny kündigte daraufhin an, dass Anthropic die Rate Limits für Abonnenten erhöhen werde, um dies auszugleichen.

Abschied von älteren Modellen und Nutzerfrust

Die Unzufriedenheit mit Opus 4.7 wird durch das Fehlen älterer, beliebter Modelle wie Opus 4.5 verstärkt. Ein Reddit-Thread ist voll von Nutzern, die sich als "herzgebrochen" und "trauernd" um Opus 4.5 bezeichnen. Dies erinnert an ähnliche Reaktionen, als OpenAI sein beliebtes GPT-4o-Modell einstellte.

Nutzer versuchen, mit Anthropic zu verhandeln, um die Unterstützung für Opus 4.5 wiederherzustellen. Ein Redditor schrieb unter einem Anthropic-Beitrag: "Bitte öffnen Sie die Unterstützung für Opus 4.5 wieder. 4.6 ist unbrauchbar und 4.7 verbraucht die Nutzung wie ein Kernreaktor." Anthropic reagierte nicht auf eine Anfrage von Business Insider zu diesem Thema.

Gemischte Meinungen und Befürworter

Trotz der breiten Kritik gibt es auch positive Stimmen zu Opus 4.7. Ein X-Nutzer schrieb: "Opus 4.7 verbrennt Tokens wie verrückt, aber es ist gooooooooood." Anthropic selbst betont, dass 4.7 eine "bemerkenswerte Verbesserung gegenüber Opus 4.6 im fortgeschrittenen Software-Engineering" darstelle, insbesondere bei den schwierigsten Aufgaben.

Das Unternehmen berichtet, dass Nutzer ihre anspruchsvollsten Programmieraufgaben, die zuvor eine enge Überwachung erforderten, nun mit Zuversicht an Opus 4.7 übergeben könnten. Jeremy Howard, Gründer eines Startups, beschrieb es als "das erste Modell, das 'versteht', was ich tue, wenn ich arbeite." Garry Tan, CEO von Y Combinator, nutzt es für sein OpenClaw, und Cursor-Designer Ryo Lu verwendet es für die Planung.

Anthropic reagiert auf Feedback

Anthropic scheint auf das Nutzerfeedback zu reagieren. Alex Albert, ein Mitarbeiter von Anthropic, schrieb am Freitag: "Viele Fehler, auf die Nutzer gestern beim ersten Ausprobieren von Opus 4.7 gestoßen sein könnten, sind jetzt behoben." Dies deutet darauf hin, dass das Unternehmen aktiv an der Behebung der gemeldeten Probleme arbeitet, um die Leistung und Nutzerzufriedenheit des KI-Modells zu verbessern.