Computersicherheit KI-gestützte Malware droht mit der Erstellung von 10.000...

KI-gestützte Malware droht mit der Erstellung von 10.000 Varianten die Erkennungssysteme zu überfordern

Cybersicherheitsforscher schlagen Alarm wegen des möglichen Missbrauchs von Large Language Models (LLMs) zur Beschleunigung der Malware-Entwicklung. Eine neue Analyse von Unit 42 von Palo Alto Networks zeigt, dass LLMs zwar nicht in der Lage sind, Malware von Grund auf neu zu erstellen, aber vorhandenen Schadcode in großem Umfang umschreiben und verschleiern können, wodurch Varianten erstellt werden, die in bis zu 88 % der Fälle nicht erkannt werden.

Dies gibt Anlass zu kritischen Bedenken hinsichtlich der Art und Weise, wie Bedrohungsakteure generative KI ausnutzen könnten, um Erkennungssysteme zu umgehen, Modelle des maschinellen Lernens zu beeinträchtigen und ein immer größer werdendes Arsenal an Schadsoftware einzusetzen .

Die Mechanismen der KI-gestützten Malware-Erstellung

„Laut Unit 42 können Kriminelle LLMs dazu veranlassen, Transformationen an bösartigem JavaScript-Code durchzuführen, wodurch es für Erkennungssysteme schwieriger wird, die umgeschriebenen Skripte zu kennzeichnen . Im Gegensatz zu herkömmlichen Verschleierungstools, die weniger überzeugende Ergebnisse erzeugen, wirken LLM-gesteuerte Umschreibungen natürlicher und sind schwerer zu erkennen.

Zu den wichtigsten Transformationstechniken gehören:

  • Umbenennen von Variablen
  • Saitenaufteilung
  • Einfügen von Junk-Code
  • Leerzeichen entfernen
  • Vollständige Neuimplementierung des Codes

Jede Iteration generiert eine neue Malware-Variante, die die ursprüngliche Schadfunktionalität beibehält, die Wahrscheinlichkeit einer Erkennung jedoch erheblich verringert.

Unit 42 demonstrierte diesen Ansatz, indem es mithilfe von LLMs 10.000 JavaScript-Varianten aus vorhandenen Malware-Beispielen erstellte. Diese Varianten tricksten erfolgreich Malware-Klassifizierer aus, darunter weit verbreitete Modelle wie PhishingJS und Innocent Until Proven Guilty (IUPG). In vielen Fällen erkannte selbst die VirusTotal-Plattform die neu geschriebenen Skripte nicht als bösartig.

Die gefährliche Seite der KI-Verschleierung

Im Gegensatz zu älteren Tools wie obfuscator.io, die Muster erzeugen, die leichter erkannt und gefingert werden können, sind LLM-basierte Umschreibungen von Natur aus ausgefeilter. Sie ähneln eher legitimem Code und sind daher für Modelle des maschinellen Lernens (ML) und Antivirentools schwerer zu identifizieren.

Die Wirkung dieser Methode ist tiefgreifend:

  • Malware-Klassifizierer werden dazu verleitet, bösartige Skripte als harmlos einzustufen.
  • Die Leistung von ML-Modellen nimmt ab und sie haben Mühe, mit der ständigen Weiterentwicklung der Malware-Varianten Schritt zu halten.
  • Es besteht die Gefahr, dass Erkennungssysteme veralten, da Angreifer ständig neue, nicht erkennbare Schadsoftware generieren.

Nutzung von LLMs für umfassendere Cyberkriminalität

Dieser Trend ist nicht auf die Entwicklung von Malware beschränkt. Böswillige Akteure nutzen betrügerische Tools wie WormGPT, die generative KI verwenden, um Phishing-Kampagnen zu automatisieren und überzeugende, auf bestimmte Opfer zugeschnittene Social-Engineering-Angriffe zu entwickeln.

Zwar haben LLM-Anbieter Schutzmaßnahmen zur Einschränkung des Missbrauchs implementiert, wie etwa die jüngste Blockierung von 20 betrügerischen Operationen durch OpenAI im Oktober 2024, doch Bedrohungsakteure finden ständig Wege, diese Beschränkungen zu umgehen.

Der Silberstreif am Horizont: Mit Feuer gegen Feuer kämpfen

Trotz der Risiken können die gleichen LLM-basierten Techniken, die zur Verschleierung von Malware verwendet werden, auch Verteidigern helfen. Unit 42 schlägt vor, diese KI-Methoden zu verwenden, um Trainingsdaten zu generieren, die die Robustheit von Malware-Erkennungsmodellen verbessern. Indem sie Klassifizierern mehr Beispiele für verschleierten Code liefern, könnten Forscher möglicherweise ihre Fähigkeit verbessern, selbst die fortschrittlichsten Varianten zu erkennen.

Neue KI-Schwachstellen: TPUXtract-Angriff

Der Aufstieg von LLM-basierter Malware ist nicht die einzige KI-bezogene Bedrohung, die Schlagzeilen macht. Forscher der North Carolina State University haben einen Seitenkanalangriff namens TPUXtract enthüllt, der in der Lage ist, KI-Modellarchitekturen von Googles Edge Tensor Processing Units (TPUs) zu stehlen.

Durch das Aufzeichnen elektromagnetischer Signale, die während der Inferenz neuronaler Netzwerke ausgesendet werden, können Angreifer Details wie Schichttypen, Knotennummern, Filtergrößen und Aktivierungsfunktionen mit einer Genauigkeit von 99,91 % extrahieren. Obwohl dieser Angriff physischen Zugriff auf das Gerät und teure Ausrüstung erfordert, stellt er ein ernstes Risiko für geistiges Eigentum dar und könnte nachfolgende Cyberangriffe erleichtern.

Was das für die Cybersicherheit bedeutet

Die rasante Entwicklung der generativen KI ist für die Cybersicherheit ein zweischneidiges Schwert . Sie öffnet zwar neue Türen für Innovationen, bietet Cyberkriminellen aber auch beispiellose Werkzeuge.

  • Organisationen müssen proaktiv handeln und in fortschrittliche Erkennungssysteme investieren, die sich an KI-gesteuerte Verschleierungstechniken anpassen können.
  • Die politischen Entscheidungsträger sollten klare Richtlinien für den ethischen Einsatz von KI festlegen und gleichzeitig strengere Kontrollen durchsetzen, um Missbrauch zu verhindern.
  • Sicherheitsforscher müssen KI nutzen, um ihren Gegnern einen Schritt voraus zu sein , und widerstandsfähige Systeme entwickeln, die neuen Bedrohungen begegnen können.

Die Zukunft der KI-Malware

Die Fähigkeit von LLMs, 10.000 Malware-Varianten zu erstellen und in 88 % der Fälle unentdeckt zu bleiben, ist ein deutliches Beispiel für die zunehmende Raffinesse von Cyberbedrohungen. Mit der Weiterentwicklung der Technologie müssen auch unsere Abwehrmaßnahmen verbessert werden. Unternehmen, Regierungen und Cybersicherheitsexperten müssen innovative Strategien entwickeln, um böswilligen Akteuren immer einen Schritt voraus zu sein und die digitale Welt vor KI-gestützten Angriffen zu schützen.

Wird geladen...