ArtikelSecurity

Kampf gegen Deepfake-Phishing kombiniert menschlichen Einfallsreichtum mit der Schlagkraft Künstlicher Intelligenz

Autorin/Redakteur: Christina Langfus, AVP Sales DACH bei SailPoint/gg

Mittels Deepfake-Technologie angefertigte Audio- oder Videoinhalte erfreuen sich immer größerer Beliebtheit und werden speziell auf sozialen Medien oft und gerne verbreitet. Verschiedenste Applikationen ermöglichen es dem Otto Normalverbraucher, Aufnahmen ohne technische Vorkenntnisse und mit Hilfe von Künstlicher Intelligenz täuschend echt zu verfälschen und diese mit der Community zu teilen. Zumeist handelt es sich dabei um unproblematische Inhalte, die lediglich zur Belustigung von Freunden und Familie dienen sollen. Deepfake birgt jedoch auch eine dunklere Seite und gibt Grund zur Sorge. So wird die Technologie zunehmend von Individuen mit kriminellen oder manipulativen Absichten genutzt, um ein ahnungsloses Publikum zu täuschen.

Quelle: Markus Spiske on Unsplash

Der Einsatz von Deepfake-Technologie kann auf vielen Ebenen problematisch sein. Cyberkriminelle nutzen sie zum Beispiel für Finanzbetrug, zur Erstellung pornografischer Inhalte, für persönliche Rachefeldzüge, Belästigung, Rufschädigung, Verleumdung oder politischen Manipulation beziehungsweise Desinformation – wie auch jüngst im Falle von Wirtschaftsminister Robert Habeck. So setzte ein YouTuber kürzlich KI ein, um die Stimme des Grünen-Politikers nachzubilden und ein Interview in der ARD-Talkshow „Maischberger“ zu verfälschen. Im Gespräch über die mögliche Insolvenz von Betrieben wurden Habeck verschiedene Aussagen in den Mund gelegt, unter anderem, dass es „sekundär sei, ob paar Bäcker oder Ramschverkäufer“ pleitegingen. Das gefälschte Video machte innerhalb kürzester Zeit die Runde und das Bundeswirtschaftsministerium musste reagieren.

An anderer Stelle hat die Stimmnachbildung mittels KI die ethische Fragwürdigkeit längst überschritten und ist schlicht als betrügerische beziehungsweise kriminelle Handlung anzusehen. So ist sprachbasiertes Phishing oder “Vishing” nun Teil immer raffinierterer Taktiken, mit denen Cyberkriminelle ihre Ziele zu erreichen versuchen. Phishing mittels Social-Engineering-Techniken, mit denen Opfer zur Preisgabe von Informationen oder zur Durchführung von Transaktionen zu verleitet werden sollen, ist nicht neu. Der Einsatz von Deep Learning (DL) und Künstlicher Intelligenz, um täuschend echt Identitäten vorzutäuschen, ist jedoch Deepfake-Phishing auf einem ganz neuen Level und längst nicht mehr die Ausnahme. Eine Umfrage unter Cybersecurity-Experten zeigt, dass bei rund zwei Dritteln der Cyber-Attacken auf deren Unternehmen Deepfakes zum Einsatz kamen – ein Anstieg von zirka 13 Prozent innerhalb eines Jahres.

Dabei nutzen Cyberkriminelle KI und Deepfake-Technologie mittlerweile für verschiedenste Angriffsvektoren – auch in unserer täglichen Kommunikation. Sprach- und Videonachrichten sind Teil unseres kommunikativen Alltags: Nach Angaben von WhatsApp verschicken die Nutzer jeden Tag durchschnittlich sieben Milliarden Sprachnachrichten, wodurch den Angreifern auch hier ein immer größeres Einfallstor geboten wird. Kommen dann noch KI-gestütztes Vishing und Deepfake-Videos hinzu, wird es für die Opfer immer schwieriger, den Betrugsversuch zu erkennen.

Dark Web dient als Bibliothek für Deepfake-Technologien

Zeitgleich wird es für Cyberkriminelle immer leichter, auf verschiedenste Deepfake-Applikationen zuzugreifen. So wird auf Dark-Web-Marktplätzen KI-as-a-Service angeboten und Deepfake-Dienste lassen sich spielend einfach erwerben. Wie ein jüngster Bericht von Kaspersky zeigt, gibt es umfassende Bibliotheken, auf denen Tools zur digitalen Nachbildung der Stimmen potenzieller Opfer (und mehr) verfügbar sind. Ein Eldorado für Cyberkriminelle.

Quelle: Kyle Glenn on Unsplash

Um den Kampf gegen die Bedrohung und nicht zuletzt gegen Deepfakes zu gewinnen, ist die Aufklärung der Mitarbeitenden und auch der Bevölkerung von entscheidender Bedeutung. Ein guter Startpunkt hierbei ist eine adäquate Identitätsprüfung. Unternehmen spielen eine wichtige Rolle bei der Schulung und Sensibilisierung ihrer Beschäftigten, um verdächtige beziehungsweise ungewöhnliche Anfragen von Kollegen, Kunden und dergleichen zu erkennen – sei es per E-Mail, Telefon oder über soziale Plattformen. In diesem Zusammenhang muss auch die Sensibilisierung für Deepfake-Kriminalität eine Priorität sein, ebenso wie die kontinuierliche Aufklärung über die zahlreichen Möglichkeiten, die den Mitarbeitenden zur Verfügung stehen, um sich und das Unternehmen gegen einen Cyberangriff zu schützen.

Trotz aller Fortbildungs- und Aufklärungsmaßnahmen sind menschliche Fehler jedoch zuweilen nicht zu vermeiden. Um sich gegen die immer fortschrittlicheren Attacken zur Wehr zu setzen, gilt es vermehrt, Feuer mit Feuer zu bekämpfen. Heute und zukünftig sind KI-gestützte Verteidigungs- und Sicherheitsmechanismen von entscheidender Bedeutung, um auf die zunehmende Bedrohung zu reagieren. Die beginnt bereits bei der Ausbildung der Beschäftigten. Unternehmen könnten in diesem Zusammenhang auf KI-gesteuerte Sicherheitsschulungen am Arbeitsplatz zurückgreifen, die spezifische Warnungen oder Handlungsempfehlungen in Echtzeit und auf Grundlage der Handlungen des Users geben. Dies würde die Notwendigkeit von regelmäßigen Schulungen zur Steigerung des eigenen Sicherheitsbewusstseins reduzieren, die sich in der Regel nur auf hypothetische Szenarien konzentrieren.

Auf Unternehmensebene wiederum reduzieren innovative Technologien wie KI-gestützte Identitätssicherheit das Risiko von Cyberangriffen und Datenschutzverletzungen, indem sie unregelmäßiges Verhalten von Nutzern erkennen. Laut einer Studie der Identity Defined Security Alliance waren im vergangenen Jahr 84 Prozent aller IT-Sicherheitsvorfälle auf kompromittierte Identitäten zurückzuführen. Dennoch hat fast die Hälfte der Unternehmen (45 Prozent) gerade erst begonnen, sich auf identitätsbasierte Angriffe vorzubereiten. KI als Grundlage eines Identitätsprogramms verschafft Unternehmen einen besseren Über- und Einblick in spezifische Risiken, die mit Nutzerzugängen und Identitäten verbunden sind.

Durch die Automatisierung und Rationalisierung von Identitätsprozessen und -entscheidungen durch KI können Cybersicherheitsexperten ihren Fokus auf umfassendere Verteidigungsstrategien richten. KI kann wertvolles menschliches Fachwissen niemals ersetzen. Sie kann es aber ergänzen, indem sie Algorithmen als Multiplikator zur Unterstützung von Sicherheitsanalysten, Identitätsmanagement-Experten und Incident-Respondern einsetzt. Kriminelle machen sich bereits die rasanten Fortschritte im KI-Bereich zunutze. Unternehmen sind mehr denn je gefragt, nicht ins Hintertreffen zu gelangen. Ob gegen Phisher, Deepfaker oder eine der vielen Iterationen dazwischen – auf der richtigen Seite eingesetzt, kann KI den menschlichen Einfallsreichtum im Kampf gegen die Cyberkriminalität unterstützen und die Lücken in der vordersten Verteidigungslinie schließen.

Weitere Informationen zu diesem Thema finden sich auch hier: Deepfakes: Fake News durch KI generiert – Anwalt.org