
Anthropic enthüllt "Mythos" KI-Modell nach Datenleck: Neue Ära und Cyberrisiken
ℹKeine Anlageberatung • Nur zu Informationszwecken
Das KI-Unternehmen Anthropic entwickelt und testet ein neues, leistungsfähigeres KI-Modell, dessen Existenz und Details durch ein Datenleck bekannt wurden. Das Unternehmen spricht von einem "step change" in der KI-Leistung und dem "leistungsfähigsten Modell, das wir bisher gebaut haben", warnt jedoch gleichzeitig vor erheblichen Cybersicherheitsrisiken. Die Enthüllung erfolgte durch versehentlich öffentlich zugängliche Dokumente.
Ein neues Zeitalter der KI: Anthropic's "Mythos"
Anthropic hat mit "Mythos" ein neues KI-Modell in der Entwicklung, das bereits von "early access customers" getestet wird. Ein Sprecher des Unternehmens bestätigte, dass dieses Modell einen "step change" in der KI-Leistung darstellt und das bisher leistungsfähigste ist. Ein Entwurf eines Blogbeitrags, der durch das Datenleck zugänglich wurde, bezeichnete das Modell als "Claude Mythos".
Das Unternehmen äußerte in diesem Entwurf die Ansicht, dass "Mythos" beispiellose Cybersicherheitsrisiken birgt. Es wird als ein "Allzweckmodell mit bedeutsamen Fortschritten in den Bereichen Argumentation, Codierung und Cybersicherheit" beschrieben.
Das Datenleck: Wie die Informationen ans Licht kamen
Die Existenz und Details des neuen KI-Modells wurden bekannt, nachdem Beschreibungen versehentlich in einem öffentlich zugänglichen Datencache gespeichert wurden. Fortune überprüfte diese Informationen, die auch von Roy Paz, einem leitenden KI-Sicherheitsforscher bei LayerX Security, und Alexandre Pauwels, einem Cybersicherheitsforscher an der University of Cambridge, entdeckt wurden. Insgesamt waren fast 3.000 unveröffentlichte Assets aus Anthropic's Blog öffentlich zugänglich.
Nachdem Fortune das Unternehmen über das Datenleck informiert hatte, entfernte Anthropic den öffentlichen Zugriff auf den Datenspeicher. Anthropic bestätigte in einer Erklärung gegenüber Fortune, dass ein "menschliches Versagen" bei der Konfiguration ihres Content-Management-Systems (CMS) dazu führte, dass Entwürfe von Inhalten zugänglich waren.
"Capybara": Ein neuer Leistungsstandard
Der geleakte Entwurf des Blogbeitrags sprach auch von einer neuen Stufe von KI-Modellen namens "Capybara". Anthropic beschreibt "Capybara" als eine neue Modellkategorie, die größer und intelligenter ist als die bisher leistungsstärksten Opus-Modelle. Es scheint, dass "Capybara" und "Mythos" dasselbe zugrunde liegende Modell bezeichnen.
Aktuell vermarktet Anthropic seine Modelle in drei Größen: Opus (größte und fähigste), Sonnet (schneller und günstiger) und Haiku (kleinste, günstigste und schnellste). "Capybara" soll diese Hierarchie übertreffen, indem es noch größer, fähiger und auch teurer ist. Laut dem Dokument erzielt "Capybara" im Vergleich zum Vorgängermodell Claude Opus 4.6 "dramatisch höhere Werte bei Tests in Software-Codierung, akademischem Denken und Cybersicherheit". Das Modell ist derzeit teuer im Betrieb und noch nicht für die allgemeine Veröffentlichung bereit.
Erhebliche Cybersicherheitsrisiken
Das neue KI-Modell birgt laut dem geleakten Dokument "erhebliche Cybersicherheitsrisiken". Anthropic plant, "mit besonderer Vorsicht zu handeln" und die potenziellen Risiken zu verstehen, insbesondere im Bereich der Cybersicherheit. Das System wird als "derzeit jedem anderen KI-Modell in Cyber-Fähigkeiten weit voraus" beschrieben.
Das Unternehmen befürchtet, dass es "eine kommende Welle von Modellen einläutet, die Schwachstellen auf Weisen ausnutzen können, die die Bemühungen der Verteidiger weit übertreffen". Dies deutet auf die Sorge hin, dass Hacker das Modell für groß angelegte Cyberangriffe nutzen könnten. Aus diesem Grund soll die frühe Veröffentlichung des Modells an Organisationen erfolgen, die als Cyber-Verteidiger agieren, um ihnen einen Vorsprung bei der Verbesserung ihrer Codebasen zu verschaffen.
Bereits frühere Modelle wie OpenAI's GPT-5.3-Codex und Anthropic's Opus 4.6 zeigten Fähigkeiten zur Identifizierung von Software-Schwachstellen, was als Dual-Use-Fähigkeit sowohl Angreifern als auch Verteidigern dienen kann. Anthropic berichtete zudem, dass Hacking-Gruppen, darunter solche mit Verbindungen zur chinesischen Regierung, versucht haben, Claude für reale Cyberangriffe zu nutzen. In einem Fall nutzte eine chinesische staatlich gesponserte Gruppe Claude Code, um etwa 30 Organisationen, darunter Tech-Firmen, Finanzinstitute und Regierungsbehörden, zu infiltrieren.
Exklusiver CEO-Gipfel in Europa
Das Datenleck enthüllte auch Details eines geplanten, nur auf Einladung zugänglichen CEO-Gipfels in Europa. Dieses zweitägige "intime Treffen" soll in einem Herrenhaus aus dem 18. Jahrhundert in der englischen Landschaft stattfinden. Anthropic CEO Dario Amodei wird anwesend sein, um mit Europas einflussreichsten Wirtschaftsführern über die Zukunft der KI zu diskutieren.
Die Teilnehmer sollen von Gesetzgebern und politischen Entscheidungsträgern erfahren, wie Unternehmen KI adaptieren, und unveröffentlichte Claude-Fähigkeiten erleben. Ein Anthropic-Sprecher erklärte, die Veranstaltung sei Teil einer laufenden Reihe von Events, die das Unternehmen im letzten Jahr veranstaltet hat.
Menschliches Versagen als Ursache
Die undichten Informationen stammen offenbar aus einem Fehler bei der Konfiguration des Content-Management-Systems (CMS) von Anthropic. Digitale Assets, die über dieses System erstellt wurden, sind standardmäßig öffentlich zugänglich, es sei denn, der Benutzer ändert explizit eine Einstellung. Dies führte dazu, dass eine große Menge an Bildern, PDF-Dateien und Audio-Dateien versehentlich über eine ungesicherte und öffentlich zugängliche URL veröffentlicht wurde.
Anthropic bestätigte, dass ein "Problem mit einem unserer externen CMS-Tools" zu der Zugänglichkeit von Entwurfsinhalten führte und führte dies auf "menschliches Versagen" zurück. Unter den geleakten Dokumenten befanden sich neben Entwürfen für Blogbeiträge auch interne Dokumente, wie beispielsweise eines, das den "Elternurlaub" eines Mitarbeiters beschrieb.