Iranische Hacker missbrauchten ChatGPT für Cyberangriffe auf kritische Infrastrukturen

In einem bahnbrechenden Bericht enthüllte OpenAI, wie iranische Hacker ChatGPT ausnutzten, um Cyberangriffe auf industrielle Kontrollsysteme (ICS) zu verstärken. Der Bericht beleuchtet Cyberaktivitäten von Gruppen wie CyberAv3ngers, die mit dem Korps der Islamischen Revolutionsgarde (IRGC) des Iran in Verbindung stehen, und anderen von China gesponserten Gruppen.
Diese Bedrohungsakteure nutzten ChatGPT für Aufklärung, Ausnutzung von Schwachstellen und Aktionen nach einem Angriff. OpenAI betont zwar, dass die KI keine neuen Funktionen bot, aber sie half diesen Hackern, Angriffe mithilfe öffentlich verfügbarer Techniken effizienter durchzuführen.
Inhaltsverzeichnis
Iranische Gruppe „CyberAv3ngers“ und Angriffe auf Wasseranlagen
CyberAv3ngers erlangten dieses Jahr Bekanntheit, als sie Wasserversorgungsunternehmen in Irland und Pennsylvania angriffen und erhebliche Störungen verursachten. Die Gruppe nutzte schlecht gesicherte ICS-Systeme aus, die dem Internet ausgesetzt waren und Standardpasswörter verwendeten. Ihr Fokus lag auf speicherprogrammierbaren Steuerungen (SPS), kritischen Geräten, die industrielle Prozesse steuern.
Bei der Verwendung von ChatGPT fragten sie den Chatbot nach Informationen zu Industrieroutern, SPS und Standardkennwörtern für Geräte kritischer Infrastrukturen wie Tridium Niagara- und Hirschmann RS-Routern.
Missbrauch von KI für Cyberangriffe
Zusätzlich zu ICS-spezifischen Zielen suchte CyberAv3ngers die Unterstützung von ChatGPT, um bösartigen Code zu verschleiern und Netzwerke nach ausnutzbaren Schwachstellen zu scannen. Die Gruppe versuchte auch, Wege zu finden, um auf macOS-Passwörter zuzugreifen.
OpenAI stellte jedoch klar, dass diese Aktivitäten den Hackern keine neuen oder erweiterten Fähigkeiten verliehen, die über das hinausgehen, was mit nicht-KI-Tools möglich ist. Dies unterstreicht die Gefahren des KI-Missbrauchs, auch wenn die gewonnenen Informationen nicht revolutionär sind.
Weitere beteiligte Bedrohungsakteure
Neben CyberAv3ngers missbrauchte eine weitere iranische Gruppe namens Storm-0817 ChatGPT. Sie versuchten, Android-Malware zu entwickeln und Instagram-Daten abzugreifen, wobei sie die KI nutzten, um LinkedIn-Profile ins Persische zu übersetzen. Diese Aktivitäten richten zwar nicht so viel Schaden an wie ICS-Angriffe, spiegeln aber umfassendere Bemühungen wider, KI in Cyberoperationen als Waffe einzusetzen.
Auch die mit China verbundene Gruppe SweetSpectre wurde in dem Bericht erwähnt. Diese Gruppe nutzte ChatGPT zur Entwicklung von Malware und zur Erforschung von Schwachstellen. SweetSpectre versuchte insbesondere, mit Malware verseuchte E-Mails an OpenAI-Mitarbeiter zu senden, doch der Angriff wurde vereitelt, bevor er seine Ziele erreichte.
Das große Ganze
Der Bericht unterstreicht das wachsende Risiko des Missbrauchs von KI in der Cyberkriegsführung. Obwohl KI, einschließlich ChatGPT, Aufgaben für legitime Benutzer rationalisieren kann, kann sie auch als Werkzeug für böswillige Akteure dienen. Der proaktive Ansatz von OpenAI zur Erkennung und Neutralisierung dieser Bedrohungen ist von entscheidender Bedeutung, um ihre Auswirkungen einzudämmen.
Dies wirft Fragen für die Cybersicherheitsbranche auf: Wie kann KI vor Missbrauch geschützt werden? Welche Maßnahmen sind erforderlich, um zu verhindern, dass Bedrohungsakteure solche Tools verwenden, um ihre Fähigkeiten zu erweitern?
Diese Enthüllungen sollten Unternehmen und Regierungen dazu veranlassen, ihre Sicherheitsstrategien – insbesondere für kritische Infrastrukturen – zu überdenken und der Schließung der Lücken, die Hackern die Ausnutzung anfälliger Systeme ermöglichen, höchste Priorität einzuräumen.
KI hat ein enormes Potenzial, Branchen voranzubringen und die Effizienz zu verbessern. Doch wie der Bericht zeigt, ist sie auch ein zweischneidiges Schwert. Wird sie missbraucht, kann sie die Fähigkeiten von Cyberkriminellen und staatlichen Akteuren verstärken. Um diesen Bedrohungen immer einen Schritt voraus zu sein, sind ständige Wachsamkeit, stärkere Abwehrmaßnahmen und eine verantwortungsvolle Entwicklung von KI-Technologien erforderlich.
Die Rolle von ChatGPT bei diesen Vorfällen mag zwar begrenzt sein, doch dient es als Weckruf für die umfassenderen Auswirkungen von KI auf die Cybersicherheitslandschaft.