KI-Code-Leak bei Anthropic: Claude-Geheimnisse enthüllt und Branchenwandel

KI-Code-Leak bei Anthropic: Claude-Geheimnisse enthüllt und Branchenwandel

Aktualisiert:
5 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Ein umfangreiches Datenleck bei Anthropic hat den Quellcode des beliebten KI-Agenten Claude Code offengelegt und die Tech-Welt in Aufruhr versetzt. Innerhalb weniger Stunden gelang es Entwicklern, den Code zu reproduzieren, was eine Debatte über die Sicherheit von KI-Systemen und die Demokratisierung von Coding-Tools entfacht hat. Dieser Vorfall bietet nicht nur tiefe Einblicke in die interne Funktionsweise eines führenden KI-Unternehmens, sondern wirft auch Fragen zur zukünftigen Entwicklung und zum Wettbewerb in der schnelllebigen KI-Branche auf.

Der Leak und seine unmittelbaren Folgen

Am Dienstag um 1:23 Uhr postete Chaofan Shou, CTO von Fuzzland und ehemaliger UC Berkeley Ph.D.-Student, auf X einen Zip-File mit 512.000 Zeilen des Quellcodes für Claude Code. Dieser enthielt detaillierte Informationen über die Funktionsweise des Tools und Tests für neue Features. Anthropic reagierte umgehend, und der ursprüngliche Link führt mittlerweile zu einem 404-Fehler.

Nur eine Stunde später lud der X-Nutzer @nichxbt den geleakten Code auf GitHub hoch, was Tausende von Kopien hervorbrachte. Die schnelle Verbreitung des proprietären Codes stellte Anthropic vor eine große Herausforderung, da die Kontrolle über die einmal veröffentlichten Informationen kaum noch möglich war.

Die Reproduktion: "Claw Code"

Sigrid Jin, ein 25-jähriger Student an der University of British Columbia, wurde um 4 Uhr morgens von der Nachricht des Claude Code Leaks geweckt. Zusammen mit Yeachan Heo aus Seoul reproduzierte er innerhalb weniger Stunden den Quellcode in Python. Für diese Nachbildung, die sie "Claw Code" nannten, benötigten sie zwei Menschen, zehn OpenClaws und einen MacBook Pro Laptop.

"Überraschenderweise hat uns niemand von Anthropic oder GitHub kontaktiert", schrieb Jin an Business Insider. Er bereitet sich jedoch auf mögliche rechtliche Schritte vor, da sein Ziel ist, "völlig legitim" zu handeln. Jins "Claw Code" hat auf GitHub bereits 105.000 Sterne und 95.000 Forks gesammelt, und sein Discord-Server, eine koreanische Open-Source LLM Community, gewann an einem Tag 5.000 Mitglieder.

Anthropic reagiert: Urheberrechtsansprüche und Stellungnahme

Anthropic reichte eine umfassende Urheberrechtsklage ein, woraufhin GitHub zunächst über 8.000 Versionen des geleakten Codes entfernte. Dabei wurden auch einige unbeteiligte Repositories erfasst. Am Mittwochmorgen zog Anthropic seine Takedown-Anfrage jedoch zurück, mit Ausnahme des ursprünglichen Repositories von @nichxbt, und GitHub stellte den Zugriff auf die betroffenen Forks wieder her.

Ein Sprecher von Anthropic erklärte, das Leck sei auf menschliches Versagen zurückzuführen und nicht auf eine Sicherheitslücke. "Wir führen Maßnahmen ein, um dies in Zukunft zu verhindern", hieß es in der Stellungnahme. Trotz der Bemühungen von Anthropic zirkuliert der Code weiterhin in privaten Nachrichten und archivierten Links im Internet.

Einblicke in den geleakten Code: Zukünftige KI-Funktionen

Gabriel Bernadett-Shapiro, KI-Forschungswissenschaftler bei SentinelOne, bezeichnete den Leak als einen "ungewöhnlich klaren Einblick" in die zukünftige Entwicklung von KI-Coding-Agenten bei Anthropic. Konkurrenten könnten diese Informationen nutzen, um ihre eigenen Ansätze, beispielsweise im Bereich des Agenten-Speichers, zu vergleichen und anzupassen.

Entwickler, die den Code durchforsteten, entdeckten Referenzen zu unveröffentlichten Modellen wie Opus 4.7 und Sonnet 4.8 sowie Codenamen wie "Capybara" und "Tengu". Ein Reddit-Nutzer berichtete von einem Tamagotchi-ähnlichen "Coding Pet", das neben dem Eingabefeld sitzt und auf den Code reagiert. Eine weitere Entdeckung war "KAIROS", ein 24/7-Agent, der tägliche Protokolle erstellt und als "allwissender Teamkollege" beschrieben wird. Boris Cherny, der Schöpfer von Claude Code, kommentierte, dass Anthropic "immer experimentiert" und 90 % der Tests nicht veröffentlicht werden.

Weitere Features, die für Begeisterung sorgten, waren die "Spinner Verbs" wie "scurrying", "recombobulating" und "topsy-turvying". Auch die "Fucks-Diagramm"-Funktion wurde entdeckt: Claude protokolliert Schimpfwörter als "is_negative", um die Nutzererfahrung zu bewerten. Cherny bestätigte, dass diese Signale dazu dienen, festzustellen, ob der Nutzer eine gute Erfahrung macht.

Die "Workflow Revelation" und Branchenauswirkungen

Sigrid Jin bezeichnete das gesamte Geschehen als eine "Workflow Revelation". Es habe gezeigt, dass er KI nutzen kann, um ein komplettes Tool in einer neuen Sprache wie Python zu reproduzieren. "Die Tatsache, dass dies möglich ist, kombiniert mit der schieren Geschwindigkeit, mit der es geschehen kann, ist das, was die Leute wirklich umhaut", so Jin.

Er sieht darin eine größere Demokratisierung von Coding-Tools. "Nicht-technische Personen nutzen diese Agenten, um reale Dinge zu bauen", erklärte er. Als Beispiele nannte er Kardiologen, die Apps für die Patientenversorgung entwickeln, und Anwälte, die Genehmigungsprozesse automatisieren. Jin sprach von einer "massiven Sharing-Party". Sogar xAI, Elon Musks KI-Firma, schickte Jin Grok-Credits, und Umesh Khanna von xAI zeigte sich begeistert von Jins Arbeit.

Die Ursache des Lecks: Menschliches Versagen oder KI-Beteiligung?

Delip Rao, ein KI-Forscher an der University of Pennsylvania, zeigte sich überrascht über die Ursache des "Anfängerfehlers", da Anthropic "wirklich kluge Leute" einstelle. Er spekulierte, dass ein KI-Agent beteiligt gewesen sein könnte, und zog Parallelen zu einem Amazon-Ausfall, der mit dem KI-Coding-Assistenten Q in Verbindung gebracht wurde. Online-Nutzer teilten ähnliche Theorien, basierend auf einem Tweet von Cherny, in dem er schrieb: "100 % meiner Beiträge zu Claude Code wurden von Claude Code geschrieben."

Boris Cherny wies diese Gerüchte jedoch zurück und bestätigte: "Es war menschliches Versagen." Er erklärte, dass der Bereitstellungsprozess einige manuelle Schritte umfasse und einer davon nicht korrekt ausgeführt wurde. Cherny schlägt als Lösung "mehr Automatisierung & Claude, der die Ergebnisse überprüft" vor. David Borish, KI-Stratege bei Trace3, sah die Ursache in Anthropic's schneller Arbeitsweise, dem "move fast and break things"-Ethos. Er argumentierte, dass man bei solch hoher Geschwindigkeit keine sicheren Kontrollen und Gleichgewichte aufrechterhalten könne. Der Mitarbeiter, der für das Leck verantwortlich war, wurde übrigens nicht gefeuert. Cherny dazu: "Es war ein ehrlicher Fehler. Das passiert."

Erwähnte Persönlichkeiten