Claude Mythos von Anthropic sorgt mit seinen Fähigkeiten im Bereich Cybersicherheit für Aufsehen.
Photo Credit: Unsplash/Mohamed Nohassi
Claude Mythos von Anthropic sorgt weltweit für Diskussionen über KI und Cybersicherheit.
Innerhalb von nur 48 Stunden hat Anthropic sein neues, auf Cybersicherheit ausgerichtetes KI-Modell Claude Mythos Preview vorgestellt und damit weltweit für Aufsehen in der Technologiebranche gesorgt. Das in San Francisco ansässige KI-Startup bezeichnete es als sein leistungsstärkstes Modell für Sicherheitsaufgaben, insbesondere zum Finden bislang unbekannter Schwachstellen in Codebasen. Das Unternehmen warnte zudem, dass das Modell tausende kritische Sicherheitslücken in „allen großen Betriebssystemen und Webbrowsern“ entdeckt habe. Sollte das zutreffen, wäre das ein ernstes Problem. Anthropic hat die Veröffentlichung stark eingeschränkt und begründet dies mit der Fähigkeit des Modells, sich in beliebige Systeme hacken zu können.
Seit der Ankündigung reagieren Experten weltweit mit Faszination und Sorge. Einige äußern Bedenken über die Existenz eines so mächtigen Modells, während andere die behaupteten Fähigkeiten infrage stellen. Doch was steckt wirklich hinter dem neuen Cybersicherheits-Modell von Anthropic?
In einem Beitrag erklärte Anthropic, dass Claude Mythos Preview ein allgemeines KI-Modell ist, das besonders gut im Programmieren und logischen Denken ist. Diese Kombination ermöglicht es, große Codebasen zu analysieren und Sicherheitslücken zu finden, die selbst Experten übersehen könnten. Das Unternehmen behauptet sogar, dass das Modell bereits Schwachstellen entdeckt hat, die jahrzehntelang unentdeckt geblieben sind.
Aktuell ist das Modell nur für Partner im Rahmen von Project Glasswing verfügbar. Die Liste der Partner ist umfangreich und umfasst Amazon Web Services (AWS), Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, die Linux Foundation, Microsoft, Nvidia und Palo Alto. Damit haben sich nahezu alle großen Technologieunternehmen mit Anthropic zusammengeschlossen, um Zugriff auf das Modell zu erhalten.
Der Zugriff ist jedoch auf Cybersicherheitsaufgaben beschränkt. Das bedeutet, dass die Unternehmen ihre eigenen Systeme absichern können, jedoch keine Angriffe auf andere Systeme starten dürfen. Zusätzlich stellt Anthropic etwa 40 Organisationen, die kritische Software-Infrastruktur betreiben, Zugang zur Verfügung. Diese erhalten zusammen 100 Millionen US-Dollar (etwa Rs. 923,6 Crore) an Nutzungsguthaben.
Anthropic hat auch eine sogenannte Systemkarte veröffentlicht, die interne Testergebnisse zeigt. Hier wird deutlich, wie leistungsfähig das Modell ist. Es übertrifft Claude Opus 4.6, das bisherige Spitzenmodell des Unternehmens, in allen wichtigen Tests. Besonders stark ist es im Bereich Cybersicherheit.
Claude Mythos erreicht Spitzenwerte in Benchmarks wie der USA Mathematical Olympiad, BrowseComp und SWE-bench. Besonders auffällig ist, dass es im Cybench-Benchmark eine Punktzahl von 100 Prozent erreicht hat. Dieser Test misst die Fähigkeit eines Modells, Cybersicherheitsaufgaben zu lösen. Es ist das erste KI-Modell, dem das gelingt. Einige Aufgaben in diesem Test beinhalten sogar das Finden und Ausnutzen von Schwachstellen in echter Software. Auch im CyberGym-Benchmark übertrifft das Modell alle anderen bekannten LLMs deutlich.
Die Systemkarte zeigt außerdem, dass Mythos zuvor unbekannte Schwachstellen im Firefox-Browser entdeckt hat. Anthropic hat diese verantwortungsvoll an das entsprechende Unternehmen gemeldet.
Logan Graham, Leiter des Frontier Red Teams bei Anthropic, erklärte gegenüber NBC News, dass das Modell nicht nur Schwachstellen finden, sondern diese auch für Angriffe nutzbar machen kann. Aufgrund seiner Fähigkeit, große Codebasen zu analysieren, kann das Modell komplexe Hacking-Angriffe durchführen.
Das bedeutet, dass das Modell in den falschen Händen großen Schaden anrichten könnte. Anthropic hat bestätigt, dass dies einer der Hauptgründe ist, warum das Modell nicht öffentlich veröffentlicht wird und auch nicht geplant ist, es allgemein zugänglich zu machen.
Dennoch stellt sich die Frage, ob allein die Existenz eines solchen Modells nicht bereits ein Risiko darstellt. Anthropic ist ein Unternehmen mit eigenen wirtschaftlichen Interessen. Kritiker fragen daher, was das Unternehmen davon abhält, ein solches System selbst zu missbrauchen. In den kommenden Monaten wird erwartet, dass Anthropic mehr Transparenz darüber schafft, wie das Modell kontrolliert und sicher eingesetzt wird.
Werbung
Werbung