Künstliche Intelligenz KI findet seit Jahren schlummernde Software-Schwachstellen
Das neue KI-Modell des OpenAI-Rivalen Anthropic fand unter anderem eine 27 Jahre alte Sicherheitslücke in einem viel genutzten Betriebssystem. Jetzt wollen auch andere Unternehmen davon profitieren.
Ein neues KI-Modell des OpenAI-Rivalen Anthropic soll nach schwer auffindbaren Sicherheitslücken in Software von Großkonzernen wie Apple, Amazon und Microsoft suchen. Das Modell mit dem Namen Mythos habe unter anderem eine 27 Jahre alte Schwachstelle im als besonders sicher geltenden Betriebssystem OpenBSD entdeckt, teilte Anthropic mit.
Insgesamt habe man mit Mythos bereits „tausende“ schwerwiegende Schwachstellen gefunden - darunter in jedem viel genutzten Betriebssystem und Webbrowser. Mit dem schnellen Fortschritt bei Künstlicher Intelligenz sei davon auszugehen, dass solche Fähigkeiten recht bald Zeit auch Online-Angreifern zur Verfügung stehen könnten, warnte Anthropic.
Mythos nicht öffentlich verfügbar
In einer Kooperation mit dem Namen „Project Glasswing“ sollen deshalb Unternehmen Zugang zu Mythos bekommen, um Sicherheitslücken in ihrer Software zu finden. Anthropic plane nicht, Mythos allgemein zugänglich zu machen. Unter den weiteren Kooperationspartnern sind die Linux-Stiftung, die IT-Sicherheitsfirmen Crowdstrike und Palo Alto Networks sowie der Netzwerk-Spezialist Cisco.
Anthropic ist vor allem bekannt für die KI-Software Claude, die mit ChatGPT von OpenAI konkurriert. Zuletzt geriet die Firma durch einen Streit mit dem Pentagon in die Schlagzeilen: Anthropic lehnte den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab.