
KI-Sicherheit: Warum traditionelle Cybersicherheit an ihre Grenzen stößt
ℹKeine Anlageberatung • Nur zu Informationszwecken
Künstliche Intelligenz (KI) revolutioniert viele Branchen, bringt aber auch neue, komplexe Sicherheitsrisiken mit sich. Ein KI-Sicherheitsforscher warnt, dass viele Unternehmen nicht ausreichend auf die spezifischen Ausfallmuster von KI-Systemen vorbereitet sind, da traditionelle Cybersicherheitsteams anders geschult sind. Dies schafft eine Lücke, die dringend geschlossen werden muss.
Die neue Herausforderung der KI-Sicherheit
Sander Schulhoff, ein KI-Sicherheitsforscher, der einen der frühesten Leitfäden zum Prompt Engineering verfasste und sich auf Schwachstellen von KI-Systemen konzentriert, äußerte sich kürzlich in "Lenny's Podcast" zu diesem Thema. Er stellte fest, dass vielen Organisationen das nötige Talent fehle, um KI-Sicherheitsrisiken zu verstehen und zu beheben. Traditionelle Cybersicherheitsteams seien darauf trainiert, Fehler zu beheben und bekannte Schwachstellen zu adressieren. KI verhalte sich jedoch anders.
Schulhoff beschreibt die Diskrepanz mit den Worten: "Man kann einen Fehler beheben, aber man kann kein Gehirn beheben." Er sieht eine Fehlpaarung zwischen der Denkweise von Sicherheitsteams und der Art und Weise, wie große Sprachmodelle (Large Language Models) versagen. "Es gibt diese Trennung, wie KI im Vergleich zur klassischen Cybersicherheit funktioniert", fügte er hinzu.
Der Unterschied zwischen traditioneller und KI-Sicherheit
Diese Lücke zeigt sich in der Praxis. Cybersicherheitsexperten könnten ein KI-System auf technische Mängel überprüfen, ohne die entscheidende Frage zu stellen: "Was, wenn jemand die KI dazu bringt, etwas zu tun, was sie nicht sollte?", so Schulhoff, der eine Prompt-Engineering-Plattform und einen KI-Red-Teaming-Hackathon betreibt. Im Gegensatz zu traditioneller Software können KI-Systeme durch Sprache und indirekte Anweisungen manipuliert werden.
Experten mit Erfahrung in beiden Bereichen – KI-Sicherheit und Cybersicherheit – wüssten beispielsweise, wie sie vorgehen müssten, wenn ein KI-Modell dazu gebracht wird, bösartigen Code zu generieren. Sie würden den Code in einem Container ausführen und sicherstellen, dass die Ausgabe der KI den Rest des Systems nicht beeinträchtigt. Schulhoff betont, dass die Schnittstelle von KI-Sicherheit und traditioneller Cybersicherheit "die Sicherheitsjobs der Zukunft" seien.
Der Markt für KI-Sicherheits-Startups
Schulhoff merkt an, dass viele KI-Sicherheits-Startups Schutzmechanismen anbieten, die keinen echten Schutz bieten. Da KI-Systeme auf unzählige Arten manipuliert werden können, seien Behauptungen, diese Tools könnten "alles abfangen", irreführend. "Das ist eine komplette Lüge", sagte er und prognostizierte eine Marktkorrektur, bei der "die Einnahmen für diese Guardrails und automatisierten Red-Teaming-Unternehmen komplett versiegen" würden.
Trotz dieser Skepsis reiten KI-Sicherheits-Startups auf einer Welle des Investoreninteresses. Große Technologieunternehmen und Risikokapitalfirmen investieren massiv in diesen Bereich, da Unternehmen ihre KI-Systeme absichern wollen.
Google und die wachsende Bedeutung
Ein prominentes Beispiel ist die Übernahme des Cybersicherheits-Startups Wiz durch Google im März für 32 Milliarden US-Dollar. Dieser Deal zielt darauf ab, Googles Cloud-Sicherheitsgeschäft zu stärken. Google-CEO Sundar Pichai erklärte, dass KI "neue Risiken" mit sich bringe, während Multi-Cloud- und Hybrid-Setups immer häufiger werden. "Vor diesem Hintergrund suchen Organisationen nach Cybersicherheitslösungen, die die Cloud-Sicherheit verbessern und mehrere Clouds umfassen", fügte er hinzu.
Bereits im vergangenen Jahr berichtete Business Insider, dass wachsende Sicherheitsbedenken rund um KI-Modelle eine Welle von Startups befeuert haben, die Tools zur Überwachung, Prüfung und Sicherung von KI-Systemen anbieten. Dies unterstreicht die Dringlichkeit und das Potenzial dieses aufstrebenden Sektors.