
Anthropic AI: US-Banken vor Cyberrisiken durch Claude Mythos gewarnt
ℹKeine Anlageberatung • Nur zu Informationszwecken
US-Behörden haben führende Banken vor einem neuen, leistungsstarken System künstlicher Intelligenz von Anthropic gewarnt, das kritische Cybersicherheitslücken aufdecken könnte. Die Warnung erfolgte während eines vertraulichen Treffens in Washington, D.C., an dem hochrangige Regulierungsbehörden und Bankmanager teilnahmen, und unterstreicht wachsende Bedenken hinsichtlich KI-gesteuerter Bedrohungen im Finanzsektor.
Warnung vor KI-gestützten Cyberrisiken
Das Treffen, das von Finanzminister Scott Bessent einberufen wurde, umfasste CEOs von Banken wie Bank of America, Citi, Wells Fargo, Goldman Sachs und Morgan Stanley. Auch Federal Reserve Chair Jerome H. Powell, der sich öffentlich zu Cyberbedrohungen geäußert hat, war anwesend. Die Behörden warnten, dass neue KI-Modelle Software-Schwachstellen schneller als traditionelle Sicherheitsmethoden aufdecken könnten, was böswilligen Akteuren neue Möglichkeiten eröffnen würde.
Die Dringlichkeit des Themas wurde durch die kurzfristige Anberaumung des Treffens unterstrichen, während die Bankmanager bereits für eine andere Veranstaltung in Washington waren. Finanzminister Bessent betonte, dass das Treffen den Start eines Prozesses zur Planung und Koordination des Umgangs mit den schnellen Entwicklungen im Bereich der KI markiere.
Claude Mythos Preview: Eine neue Dimension der Schwachstellenerkennung
Im Mittelpunkt der Warnungen stand ein neues Modell von Anthropic namens Claude Mythos Preview. Das Unternehmen selbst gab an, dass dieses System versteckte Softwarefehler jenseits menschlicher Fähigkeiten erkennen kann. Beamte äußerten die Besorgnis, dass solche Tools gefährlich werden könnten, wenn Hacker Zugang dazu erhielten, und betonten das erhöhte Risiko für sensible Finanzdaten.
Experten wie TJ Marlin, Gründer und CEO von Guardrail Technologies, wiesen darauf hin, dass Mythos Schwachstellen aufgedeckt hat, die bereits in Systemen existierten, die alle bisherigen Sicherheitsscanner passiert hatten. Das Modell kann sogar bis zu 30 Jahre alte Schwachstellen finden, die zuvor unentdeckt blieben. Diese Fähigkeit, die "Discovery-to-Exploit-Timelines" zu verkürzen, verändert die Cyberrisikoökonomie erheblich.
"Project Glasswing" und kontrollierte Tests
Anthropic hat die Risiken des Modells anerkannt und den Zugang zu Claude Mythos Preview stark eingeschränkt. Das Unternehmen hat eine Initiative namens "Project Glasswing" ins Leben gerufen, an der rund 40 Organisationen beteiligt sind, um das Modell unter kontrollierten Bedingungen zu testen. Zu dieser Gruppe gehören neben JP Morgan Chase auch Technologiegiganten wie Amazon, Apple und Microsoft sowie Netzwerkanbieter wie Cisco und Broadcom und die Linux Foundation.
JP Morgan Chase & Co. (NYSE:JPM) hat sich dieser Initiative angeschlossen, um das Modell zu testen und KI-Tools für defensive Cybersicherheitsanwendungen zu evaluieren. CEO Jamie Dimon, der aufgrund anderer Verpflichtungen nicht am Treffen teilnehmen konnte, warnte in seinem jährlichen Aktionärsbrief, dass Cybersicherheit "eines unserer größten Risiken bleibt" und "KI dieses Risiko mit ziemlicher Sicherheit verschlimmern wird".
Die Dringlichkeit der Bedrohung aus Expertensicht
Kevin A. Hassett betonte die Notwendigkeit, alle Schritte zu unternehmen, um die Sicherheit zu gewährleisten, und verwies auf die Vereinbarung von Anthropic, die öffentliche Freigabe des Modells zurückzuhalten. Analyst Jaret Seiberg von TD Securities kommentierte, dass unentdeckte Fehler zu Betriebsunterbrechungen, Reputationsschäden und regulatorischen Eingriffen führen könnten. Er warnte, dass ein Vertrauensverlust in die Fähigkeit, Vermögenswerte sicher zu verwahren, schnell zu einer systemischen Bedrohung werden könnte.
Die Fähigkeit von Mythos, Schwachstellen schneller zu finden, als Banken sie beheben können, könnte ein großes Finanzinstitut destabilisieren, wenn Kunden den Zugang zu Geldern verlieren oder das Vertrauen in die Sicherheit ihrer Vermögenswerte schwindet.
Politische Spannungen im Hintergrund
Die Situation wird durch einen Rechtsstreit zwischen der US-Regierung und Anthropic zusätzlich verkompliziert. Das Verteidigungsministerium hat das Unternehmen als "Lieferkettenrisiko" eingestuft. Diese Bezeichnung folgte auf Meinungsverschiedenheiten über Beschränkungen der militärischen Nutzung von KI-Technologie und verdeutlicht die wachsenden Spannungen zwischen Innovationsdrang und nationalen Sicherheitsinteressen.