Zur Münchner Sicherheitskonferenz hat die Google Threat Intelligence Group (GTIG) den Bericht „AI Threat Tracker“ veröffentlicht, der die Debatte um KI-Bedrohungen auf eine operative Ebene bringt. Zentrale Erkenntnis: Staatliche Akteure setzen generative KI bereits systematisch für Cyberaufklärung, Social Engineering und wirtschaftlich relevante Spionage ein. Neu ist dabei weniger die Technik, sondern die Zielrichtung: Mit Model-Extraction-Angriffen („Distillation Attacks“) geraten erstmals KI-Modelle selbst ins Visier und werden zu Zielen von Diebstahl geistigen Eigentums. Gleichzeitig erschwert KI-gestütztes „Rapport-Building Phishing“ klassische Erkennungsmethoden. Der Bericht zeigt, dass KI Angriffe beschleunigt, Kosten senkt und die Erkennung erschwert – eine Ergänzung zur sicherheitspolitischen Debatte in München.