Künstliche IntelligenzNewsSecurity

Google veröffentlicht „AI Threat Tracker“ zur Analyse von KI-gestützten Bedrohungen

Zur Münchner Sicherheitskonferenz hat die Google Threat Intelligence Group (GTIG) den Bericht „AI Threat Tracker“ veröffentlicht, der die Debatte um KI-Bedrohungen auf eine operative Ebene bringt. Zentrale Erkenntnis: Staatliche Akteure setzen generative KI bereits systematisch für Cyberaufklärung, Social Engineering und wirtschaftlich relevante Spionage ein. Neu ist dabei weniger die Technik, sondern die Zielrichtung: Mit Model-Extraction-Angriffen („Distillation Attacks“) geraten erstmals KI-Modelle selbst ins Visier und werden zu Zielen von Diebstahl geistigen Eigentums. Gleichzeitig erschwert KI-gestütztes „Rapport-Building Phishing“ klassische Erkennungsmethoden. Der Bericht zeigt, dass KI Angriffe beschleunigt, Kosten senkt und die Erkennung erschwert – eine Ergänzung zur sicherheitspolitischen Debatte in München.

Wichtige Inhalte des Berichts:

Zunahme von Model-Extraction-Angriffen: GTIG und Google DeepMind beobachteten 2025 Akteure, die KI-Modelle gezielt angreifen, um deren Logik zu replizieren. Typische Ziele sind Gemini-Modelle, deren Fähigkeit zum logischen Denken ausgenutzt werden soll.

KI im gesamten Angriffszyklus: Bedrohungsakteure, darunter vom Staat unterstützte Gruppen, nutzen KI für Aufklärung, Social Engineering und Exploit-Recherche. Beispiele:

  • APT42 (Iran): Setzt GenAI für Social Engineering und OSINT ein, um glaubwürdige Vorwände für Angriffe zu schaffen.
  • UNC2970 (Nordkorea): Greift Verteidigungsunternehmen an, nutzt Gemini für Zielprofilierung und Kampagnenplanung.

Wachstum KI-integrierter Malware: Neue Malware-Familien, wie HONESTCUE, nutzen KI-Funktionen, um Netzwerkerkennung und statische Analysen zu umgehen.

KI-generierte Phishing-Kits: COINBAIT-Phishing-Kits demonstrieren, wie KI-Codegenerierung die Erstellung und Skalierung bösartiger Kampagnen erleichtert.

Markt für bösartige KI-Dienste: Untergrundforen zeigen eine steigende Nachfrage nach KI-gestützten Tools und gehackten API-Schlüsseln. Das Toolkit „Xanthorox“ kombiniert kommerzielle KI-Modelle zur autonomen Codegenerierung und Entwicklung von Phishing-Kampagnen.


Direkter Link: GTIG AI Threat Tracker: Distillation, Experimentation, and (Continued) Integration of AI for Adversarial Use | Google Cloud Blog

Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir Ihnen die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in Ihrem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von Ihnen, wenn Sie auf unsere Website zurückkehren, und hilft unserem Team zu verstehen, welche Abschnitte der Website für Sie am interessantesten und nützlichsten sind.