Anthropic Mythos: KI-Revolution fordert Banken und Regulierer heraus

Anthropic Mythos: KI-Revolution fordert Banken und Regulierer heraus

Aktualisiert:
4 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Das neue KI-Modell Mythos von Anthropic, das Tausende von Software-Schwachstellen aufdecken kann, stellt den globalen Finanzseektor vor ein Dilemma: Es ist gleichzeitig ein mächtiges Werkzeug zur Verteidigung und eine potenzielle Waffe für Cyberangriffe. Während Jamie Dimon, CEO von JPMorgan Chase, vor anfänglich erhöhten Risiken warnt, verschiebt sich die Haltung der US-Regierung von anfänglicher Besorgnis hin zur Empfehlung, das System zur Stärkung der eigenen Abwehr einzusetzen.

Mythos: Ein zweischneidiges Schwert für die Cybersicherheit

Anthropic's neuestes KI-Modell, die Mythos-Vorschau, wurde von dem KI-Unternehmen letzte Woche vorgestellt und hat bereits Tausende von Schwachstellen in Unternehmenssoftware gefunden. Das Modell ist so leistungsfähig, dass es Zero-Day-Schwachstellen, von denen viele kritisch sind und einige seit Jahrzehnten unentdeckt blieben, in allen wichtigen Betriebssystemen und Webbrowsern identifizieren kann. Anthropic-Führungskräfte betonten, dass Mythos diese Schwachstellen erkennen und Exploits ohne menschliches Eingreifen erstellen kann, was seine "mächtigen Cyber-Fähigkeiten" unterstreicht.

Das Unternehmen warnte selbst, dass die Cyber-Fähigkeiten von Frontier-Modellen wie Mythos Preview ohne die notwendigen Schutzmaßnahmen dazu genutzt werden könnten, bestehende Schwachstellen in wichtiger Software auszunutzen. Dies könnte Cyberangriffe aller Art wesentlich häufiger und zerstörerischer machen und Gegner der Vereinigten Staaten und ihrer Verbündeten stärken. Anthropic hat sich daher den Ruf als "Safety-First"-KI-Unternehmen erworben und den Zugang zu Mythos zunächst stark eingeschränkt.

Jamie Dimon und die wachsende Bedrohung durch KI-Cyberangriffe

Jamie Dimon, CEO von JPMorgan Chase & Co., äußerte sich besorgt über die unmittelbaren Auswirkungen von KI auf die Cybersicherheit. Er erklärte am Dienstag in einer Telefonkonferenz zu den Geschäftszahlen der Bank, dass KI-Tools Unternehmen zunächst anfälliger für Cyberangriffe machen, bevor sie langfristig zur Verteidigung beitragen könnten. "KI hat es schlimmer gemacht, es hat es schwieriger gemacht", so Dimon.

JPMorgan Chase, die größte Bank der Welt nach Marktkapitalisierung, testet Anthropic's Mythos-Modell im Rahmen ihrer umfassenden Bemühungen, die Vorteile von KI zu nutzen und sich gleichzeitig vor böswilligen Akteuren zu schützen. Dimon betonte, dass seine Bank viel Geld investiert und Top-Experten beschäftigt, um den Bedrohungen immer einen Schritt voraus zu sein und in ständigem Kontakt mit Regierungsbehörden zu stehen. In seinem jährlichen Brief hatte Dimon bereits auf wachsende Cybersicherheitsbedrohungen hingewiesen und prognostiziert, dass "KI dieses Risiko mit ziemlicher Sicherheit verschlimmern wird", was erhöhte Ressourcen zur Sicherung von Systemen erfordere.

Wandel in der US-Regierung: Von der Warnung zur Empfehlung

Was als Alarm über Anthropic's leistungsstarkes neues KI-Modell Mythos begann, scheint sich in den USA zu einer vorsichtigen Akzeptanz zu wandeln. Zunächst hatten US-Beamte, darunter Finanzminister Scott Bessent und Federal Reserve Chair Jerome Powell, Bank-CEOs zu einem Treffen einberufen, um vor den Risiken zu warnen, die Mythos darstellen könnte, wenn es von staatlich unterstützten oder finanziell motivierten Akteuren eingesetzt wird. Bessent warnte, dass der Einsatz von Mythos Preview die sensiblen Daten der Kunden gefährden könnte.

Einem Bloomberg-Bericht zufolge bitten hochrangige US-Beamte die Wall-Street-Banken nun jedoch, das System intern einzusetzen, um ihre Abwehrkräfte gegen Cyberbedrohungen zu stärken. Dieses Umdenken folgte einer Anweisung von Finanzminister Scott Bessent und Federal Reserve Chair Jerome Powell, die Bankmanager letzte Woche nach Washington einbestellten, um die Bedeutung des Einsatzes von Mythos zur Erkennung von Schwachstellen zu betonen. JPMorgan Chase hat bereits mit dem Testen von Mythos begonnen, weitere große Kreditgeber wie Goldman Sachs, Citigroup, Bank of America und Morgan Stanley folgen diesem Beispiel.

Project Glasswing: Kontrollierte Nutzung für die Verteidigung

Anthropic hat Mythos Preview zur Grundlage von Project Glasswing gemacht, einer Initiative zur Verbesserung der Softwaresicherheit. Im Rahmen dieses Programms wird Mythos Preview einer kleinen Anzahl ausgewählter Partner zur Verfügung gestellt, darunter:

Das Ziel von Project Glasswing ist es, die Fähigkeiten von Mythos für defensive Zwecke in einer kontrollierten Umgebung zu nutzen. Anthropic betonte, dass die Folgen einer unkontrollierten Freigabe für Wirtschaft, öffentliche Sicherheit und nationale Sicherheit schwerwiegend sein könnten.

Internationale Reaktionen und Regulierungsbemühungen

Die rasante Entwicklung der Künstlichen Intelligenz und ihre Auswirkungen auf die Cybersicherheit fordern Regulierungsbehörden und Technologieunternehmen weltweit heraus.

  • Kanada: Die Canadian Financial Sector Resiliency Group (CFRG) traf sich mit Vertretern der größten kanadischen Banken und Regulierungsbehörden, um die Cybersicherheitsrisiken des Claude Mythos AI-Modells zu erörtern. Das Treffen wurde als "Situationsbewusstseinssitzung" bezeichnet.
  • Vereinigtes Königreich: Finanzregulierungsbehörden im Vereinigten Königreich prüfen ebenfalls die Cybersicherheitsauswirkungen von Mythos Preview, und die Bank of England wird das KI-Modell mit Banken des Landes diskutieren.
  • **Europäische Union:** Die Europäische Kommission hat die Sicherheitsimplikationen von Anthropic's Tool ebenfalls hervorgehoben und begrüßte die Entscheidung des Unternehmens, die Einführung über die Partner-Vorschau hinaus zu verlangsamen, um Sicherheitsrisiken zu bewerten. EU-Regulierungsbehörden arbeiten derzeit mit Anthropic zusammen, um die Freigabe des Tools vor potenziellem Missbrauch zu schützen.
  • USA: Ein US-Berufungsgericht lehnte Anthropic's Antrag ab, die Einstufung des Unternehmens als Lieferkettenrisiko durch das US-Verteidigungsministerium zu verhindern. Dies geschah aufgrund von Meinungsverschiedenheiten über den Einsatz von KI in bestimmten militärischen Entscheidungen.

Erwähnte Persönlichkeiten