Anthropic KI „Claude Mythos“: Wie gefährlich ist die neue Hacker-KI?
Anthropics neues KI-Modell kann besser hacken. Ein Forscher gibt Entwarnung: KI ist für profitable Cyberkriminalität bisher nicht nötig.
Die KI-Firma Anthropic hat eine neue Modellversion, die so gut IT-Schwachstellen findet, dass öffentlicher Zugang zurückgehalten wird.
Foto: picture alliance / NurPhoto | Samuel Boivin
Das KI-Unternehmen Anthropic (USA) hat ein neues Sprachmodell angekündigt, das Laut den Entwicklern eine Gefahr für die öffentliche Cybersicherheit darstellen soll. Demnach fand das neue Modell „Claude Mythos Preview“ Schwachstellen in mehreren breit genutzten Computerprogrammen – darunter alle großen Betriebssysteme und Webbrowser. Das Modell soll verwundbare Software jedoch nicht nur erkennen, sondern selbst Laien in die Lage versetzen, gefundene Sicherheitslücken auch auszunutzen.
Inhaltsverzeichnis
„Das ist tatsächlich keine gute Neuigkeit für die IT-Sicherheit“, sagt Konrad Rieck, Leiter des Lehrstuhls für Maschinelles Lernen und Sicherheit der TU Berlin. Es sei aber wichtig, zwischen dem Finden und dem Ausnutzen von Schwachstellen zu unterschieden. „Das Finden ist eigentlich immer eine gute Sache, das Ausnutzen jedoch nur unter sehr bestimmten Umständen. Ohne detaillierte Veröffentlichungen kann man allerdings jetzt noch keine Schlüsse ziehen.“
Anthropic wird die KI daher vorerst nicht veröffentlichen sondern von einer Reihe namhafter Firmen prüfen lassen. Im „Project Glasswing“ werden unter anderem Google, Microsoft, Apple, Nvidia aber auch die Linux-Foundation Zugang zu dem Modell bekommen. Anthropics Ziel ist es, sich mit diesen im Rahmen des Projekts dann über die Beobachtungen auszutauschen.
„Die Leistungsfähigkeit von KI wird regelmäßig überschätzt“
Forscher Rieck moderiert die Befürchtungen hingegen. „Da weitere Modelle ähnliche Ergebnisse erzielen werden, wäre die Zurückhaltung eines einzelnen Unternehmens ohnehin nicht besonders hilfreich.“ Außerderdem würde die Leistungsfähigkeit von KI darin IT-Schwachstellen zu finden regelmäßig überschätzt. „Offenbar kann eine Reihe von Schwachstellen durch KI-Modelle besser gefunden werden als bisher“, sagt er. Warum, das sei bislang weitgehend unklar. Als mathematisch gesichtert gilt hingegen: „Dass KI-Modelle irgendwann alle Schwachstellen automatisch finden werden, ist allerdings ausgeschlossen: Eine perfekte Erkennung ist beweisbar unmöglich.“
Interessant ist aber, dass sich die Hacker-Fähigkeiten des Modells verbessert haben, obwohl es ein Allzweckmodell ist und kein spezialisiertes Sprachmodell für IT-Sicherheit. Die Anthropic-Entwickler sehen den Fortschritt der Hacking-Fähigkeiten als Resultat von Verbesserungen in den drei Bereichen Programmieren, Logischem Denken und dem eigenständigen Handeln.
Die KI generiert nun nicht mehr nur Code in einem Schritt, sondern geht in mehreren, kleineren Schritten voran. Sie analysiert zuerst eine Anforderung, Schreibt dann einen Teil des Codes, testet den Code und geht dann zur nächsten Anforderung. So kann Claude Mythos Preview eben nicht nur Schwachstellen finden, sondern im Anschluss ein Script erstellen, welches diese Sicherheitslücke ausnutzt.
Anthropic zeigt nur wenige der von KI entdeckten Schwachstellen
Einen Großteil der bisher angeblich gefundenen Sicherheitslücken hält Anthropic geheim, um Entwicklern der betroffenen Softwares Zeit zu geben diese zu beheben. Zwei Beispiele stellt das Unternehmen allerdings vor: eine 27 Jahre alte Schwachstelle in dem Open-Source-Betriebssystem OpenBSD und eine 16 Jahre alte Schwachstelle in dem Softwareprojekt FFmpeg, das zum Aufzeichnen, Senden und Konvertieren von Audio- und Videodateien genutzt wird.

IT-Wissenschaftler Rieck lobt einerseits, dass diese alten Fehler gefunden und behoben werden: „In FFmpeg wurden allerdings in den letzten Jahren über 250 Schwachstellen gefunden“, relativiert er die Berichte. „Eine weitere überrascht daher nicht besonders.“ Beim Betriebssystem OpenBSD ist der Fund aufregender, weil das System bereits auf Sicherheit optimiert wird: „Die gefundene Schwäche ermöglicht es, das System zu verlangsamen, nicht jedoch, es zu übernehmen“, sagt Rieck. Auch hier eine gewisse Entwarnung.
Schwachstellen werden früher entdeckt
KI erfindet die IT-Sicherheit nicht neu, und bestehende Schutzmaßnahmen wirken grundsätzlich auch gegen KI-gestützte Angriffe. Allerdings verkürzt KI die Reaktionszeiten, indem sie Schwachstellen in Programmen schneller finden und ausnutzbar machen. „Diesen Geschwindigkeitsvorteil haben aber auch Verteidiger. Sie können Schwachstellen nun früher entdecken und schließen“, sagt KI-Forscher Rieck. Die KI-Technologie zurückzuhalten ist aus seiner Erfahrung kein dauerhafter Weg. „In der Praxis werden leistungsfähige KI-Modelle für Angreifer ohnehin zugänglich sein.“
Warum Cyberkriminelle nicht auf KI angewiesen sind
Das neue Modell von Anthropic scheint zunächst für Angreifer einen Zeitvorteil zu schaffen. Doch die Arbeiten für eine bessere IT-Sicherheit laufen unter anderem mit dem Projekt Glasswing ebenfalls. Gegen den breiten Einsatz von neuester KI-Technologie von Hacker-Seite spricht, dass sie nur selten nötig ist: „Cyberkriminelle setzen bislang überwiegend auf einfache Techniken und nutzen mangelhaft gesicherte Systeme aus. Für ein profitables kriminelles Geschäftsmodell braucht es daher bisher keine KI“, resümiert Konrad Rieck.
Auf der anderen Seite unterstützt KI bereits Entwickler, denn nur bekannte Sicherheitslücken können aktiv geschlossen werden. „Sicherheit in IT-Systemen entsteht auch durch das Finden und Beheben von Fehlern in Software. Es wäre daher falsch, diese Entwicklung vollständig auszubremsen“, sagt er.
Ein Beitrag von: