Google veröffentlicht „AI Threat Tracker“ zur Analyse von KI-gestützten Bedrohungen
Zur Münchner Sicherheitskonferenz hat die Google Threat Intelligence Group (GTIG) den Bericht „AI Threat Tracker“ veröffentlicht, der die Debatte um KI-Bedrohungen auf eine operative Ebene bringt. Zentrale Erkenntnis: Staatliche Akteure setzen generative KI bereits systematisch für Cyberaufklärung, Social Engineering und wirtschaftlich relevante Spionage ein. Neu ist dabei weniger die Technik, sondern die Zielrichtung: Mit Model-Extraction-Angriffen („Distillation Attacks“) geraten erstmals KI-Modelle selbst ins Visier und werden zu Zielen von Diebstahl geistigen Eigentums. Gleichzeitig erschwert KI-gestütztes „Rapport-Building Phishing“ klassische Erkennungsmethoden. Der Bericht zeigt, dass KI Angriffe beschleunigt, Kosten senkt und die Erkennung erschwert – eine Ergänzung zur sicherheitspolitischen Debatte in München.
Wichtige Inhalte des Berichts:
• Zunahme von Model-Extraction-Angriffen: GTIG und Google DeepMind beobachteten 2025 Akteure, die KI-Modelle gezielt angreifen, um deren Logik zu replizieren. Typische Ziele sind Gemini-Modelle, deren Fähigkeit zum logischen Denken ausgenutzt werden soll.
• KI im gesamten Angriffszyklus: Bedrohungsakteure, darunter vom Staat unterstützte Gruppen, nutzen KI für Aufklärung, Social Engineering und Exploit-Recherche. Beispiele:
- APT42 (Iran): Setzt GenAI für Social Engineering und OSINT ein, um glaubwürdige Vorwände für Angriffe zu schaffen.
- UNC2970 (Nordkorea): Greift Verteidigungsunternehmen an, nutzt Gemini für Zielprofilierung und Kampagnenplanung.
• Wachstum KI-integrierter Malware: Neue Malware-Familien, wie HONESTCUE, nutzen KI-Funktionen, um Netzwerkerkennung und statische Analysen zu umgehen.
• KI-generierte Phishing-Kits: COINBAIT-Phishing-Kits demonstrieren, wie KI-Codegenerierung die Erstellung und Skalierung bösartiger Kampagnen erleichtert.
• Markt für bösartige KI-Dienste: Untergrundforen zeigen eine steigende Nachfrage nach KI-gestützten Tools und gehackten API-Schlüsseln. Das Toolkit „Xanthorox“ kombiniert kommerzielle KI-Modelle zur autonomen Codegenerierung und Entwicklung von Phishing-Kampagnen.
Direkter Link: GTIG AI Threat Tracker: Distillation, Experimentation, and (Continued) Integration of AI for Adversarial Use | Google Cloud Blog
