OpenAI blockiert 20 bösartige Cyber-Operationen und wehrt sich gegen globale Cybercrime-Kampagnen

Überraschenderweise hat sich OpenAI als beeindruckende Kraft im Kampf gegen digitale Bedrohungen erwiesen. Seit Jahresbeginn hat das Unternehmen erfolgreich mehr als 20 bösartige Kampagnen vereitelt, die versuchten, seine KI-Plattform für schädliche Aktivitäten auszunutzen , und damit gezeigt, dass die Zukunft der Cybersicherheit bereits da ist.
Diese Operationen reichten vom Debuggen von Malware und der Erstellung von Desinformationen bis hin zur Erstellung gefälschter Social-Media-Personas. Bedrohungsakteure versuchten, die Plattform von OpenAI zu nutzen, um bösartige Aktivitäten wie das Erstellen von Biografien für gefälschte Konten oder das Erstellen von KI-generierten Profilbildern für gefälschte Social-Media-Identitäten auf X (früher Twitter) zu unterstützen.
Trotz dieser Bemühungen versicherte OpenAI der Öffentlichkeit, dass keine dieser Kampagnen zu bahnbrechenden Fortschritten bei der Erstellung von Malware oder der viralen Verbreitung von Desinformation geführt habe. Mit anderen Worten: Obwohl böswillige Akteure mit KI experimentieren, haben sie bisher keine bedeutenden Durchbrüche erzielt.
Inhaltsverzeichnis
Wie Cyberkriminelle KI ausnutzten
Die böswilligen Akteure kamen aus allen Teilen der Welt, von China bis Iran, und setzten unterschiedliche Taktiken ein. Ein prominentes Beispiel war SweetSpecter, eine in China ansässige Gruppe, die KI zur Aufklärung und Schwachstellenforschung einsetzte und sogar (erfolglos) versuchte, Mitarbeiter von OpenAI per Spear-Phishing anzugreifen.
Auch iranische Gruppen spielten eine nennenswerte Rolle. Die Cyber Av3ngers, die mit dem Korps der iranischen Revolutionsgarde (IRGC) in Verbindung stehen, erforschten speicherprogrammierbare Steuerungen mithilfe künstlicher Intelligenz, während eine andere iranische Organisation, Storm-0817, KI verwendete, um Android-Malware zu debuggen und Social-Media-Profile zu durchsuchen.
Zusätzlich zu diesen gezielten Kampagnen blockierte OpenAI mehrere groß angelegte Einflussoperationen. Eine davon, A2Z, generierte englische und französische Inhalte für weit verbreitete Social-Media-Posts, während Stop News KI-generierte Bilder, oft im Cartoon- oder Drama-Stil, nutzte, um ihre Artikel und Tweets aufzuwerten.
Unterbrechung globaler Desinformationskampagnen
Ein weiterer Grund zur Sorge waren Desinformationskampagnen, die sich gegen politische Systeme richteten. OpenAI berichtete, dass die Organisation in Wahlmanipulationsversuche in den USA, Ruanda, Indien und der Europäischen Union eingegriffen habe. Keiner dieser Versuche erreichte viralen Anklang, aber die Tatsache, dass Bedrohungsakteure versuchten, Wahlen zu manipulieren, unterstreicht die zunehmenden Risiken, die von KI-gesteuerter Desinformation ausgehen.
STOIC, ein israelisches Unternehmen, das auch unter dem Namen Zero Zeno bekannt ist, war einer der Hauptakteure in diesem Bereich und verfasste in den sozialen Medien Kommentare zu den indischen Wahlen. Diese Aktivität wurde bereits Anfang des Jahres von Meta und OpenAI offengelegt.
Die anhaltende Wachsamkeit von OpenAI führte auch zur Entdeckung zweier weiterer Netzwerke, Bet Bot und Corrupt Comment, die die API nutzten, um Gespräche über X zu generieren und Benutzer mit Glücksspielseiten zu verbinden oder soziale Medien mit erfundenen Kommentaren zu überfluten.
Die Rolle der KI bei mikrozielgerichteter Desinformation
Generative KI kann nicht nur für massenhafte Desinformation, sondern auch für Mikrotargeting als Waffe eingesetzt werden. Laut einem aktuellen Bericht des Cybersicherheitsunternehmens Sophos kann KI manipuliert werden, um hochgradig personalisierte politische Falschinformationen über E-Mails, Websites und falsche Identitäten zu verbreiten. Indem sie Nachrichten sorgfältig auf bestimmte Wahlkampfthemen zuschneiden, können Bedrohungsakteure Wähler auf einer neuen Ebene täuschen und möglicherweise Wahlergebnisse manipulieren oder Meinungen mit falschen Informationen beeinflussen.
Forscher warnen davor, dass es beunruhigend einfach sei, eine politische Persönlichkeit oder Bewegung mit einer politischen Haltung in Verbindung zu bringen, die diese in Wirklichkeit gar nicht unterstützt. Dies führe zu Verwirrung bei den Wählern und schädige den demokratischen Prozess.
OpenAIs Engagement für Cybersicherheit
Während KI beispiellose Möglichkeiten für Fortschritte bietet, bringt sie auch ernsthafte Sicherheitsherausforderungen mit sich. OpenAI hat bewiesen, dass es der Aufgabe gewachsen ist, böswilligen Versuchen, seine Technologie auszunutzen, entgegenzuwirken. Das Katz-und-Maus-Spiel zwischen Cybersicherheitsexperten und Cyberkriminellen wird jedoch wahrscheinlich weitergehen.
Die Bemühungen von OpenAI, in diesem Jahr über 20 globale Kampagnen zu unterbinden, sind ein bedeutender Erfolg, aber der Kampf ist noch lange nicht vorbei. Mit der Weiterentwicklung der KI werden sich auch die Taktiken der Bedrohungsakteure weiterentwickeln. Ständige Wachsamkeit und Innovation werden der Schlüssel sein, um sicherzustellen, dass die KI eine Kraft des Guten bleibt und nicht nur ein Werkzeug für digitale Täuschung ist.