{"id":24560,"date":"2023-07-07T11:24:44","date_gmt":"2023-07-07T09:24:44","guid":{"rendered":"https:\/\/www.sysbus.eu\/?p=24560"},"modified":"2023-10-26T08:59:58","modified_gmt":"2023-10-26T06:59:58","slug":"kampf-gegen-deepfake-phishing-kombiniert-menschlichen-einfallsreichtum-mit-der-schlagkraft-kuenstlicher-intelligenz","status":"publish","type":"post","link":"https:\/\/www.sysbus.eu\/?p=24560","title":{"rendered":"Kampf gegen Deepfake-Phishing kombiniert menschlichen Einfallsreichtum mit der Schlagkraft K\u00fcnstlicher Intelligenz"},"content":{"rendered":"\n<p>Autorin\/Redakteur: <a href=\"https:\/\/www.sailpoint.com\/de\/\">Christina Langfus, AVP Sales DACH bei SailPoint<\/a>\/gg<\/p>\n\n\n\n<p>Mittels Deepfake-Technologie angefertigte Audio- oder Videoinhalte erfreuen sich immer gr\u00f6\u00dferer Beliebtheit und werden speziell auf sozialen Medien oft und gerne verbreitet. Verschiedenste Applikationen erm\u00f6glichen es dem Otto Normalverbraucher, Aufnahmen ohne technische Vorkenntnisse und mit Hilfe von K\u00fcnstlicher Intelligenz t\u00e4uschend echt zu verf\u00e4lschen und diese mit der Community zu teilen. Zumeist handelt es sich dabei um unproblematische Inhalte, die lediglich zur Belustigung von Freunden und Familie dienen sollen. Deepfake birgt jedoch auch eine dunklere Seite und gibt Grund zur Sorge. So wird die Technologie zunehmend von Individuen mit kriminellen oder manipulativen Absichten genutzt, um ein ahnungsloses Publikum zu t\u00e4uschen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-scaled.webp\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"679\" src=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-1024x679.webp\" alt=\"\" class=\"wp-image-24562\" srcset=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-1024x679.webp 1024w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-300x199.webp 300w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-768x509.webp 768w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-1536x1019.webp 1536w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/markus-spiske-3rFq-RHSNLg-unsplash-2048x1358.webp 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\">Quelle: Markus Spiske on&nbsp;<a href=\"https:\/\/unsplash.com\/s\/photos\/it-security?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText\">Unsplash<\/a><\/figcaption><\/figure>\n\n\n\n<!--more-->\n\n\n\n<p>Der Einsatz von Deepfake-Technologie kann auf vielen Ebenen problematisch sein. Cyberkriminelle nutzen sie zum Beispiel f\u00fcr Finanzbetrug, zur Erstellung pornografischer Inhalte, f\u00fcr pers\u00f6nliche Rachefeldz\u00fcge, Bel\u00e4stigung, Rufsch\u00e4digung, Verleumdung oder politischen Manipulation beziehungsweise Desinformation \u2013 wie auch j\u00fcngst im Falle von Wirtschaftsminister Robert Habeck. So setzte ein YouTuber k\u00fcrzlich KI ein, um die Stimme des Gr\u00fcnen-Politikers nachzubilden und ein Interview in der ARD-Talkshow \u201eMaischberger\u201c zu verf\u00e4lschen. Im Gespr\u00e4ch \u00fcber die m\u00f6gliche Insolvenz von Betrieben wurden Habeck verschiedene Aussagen in den Mund gelegt, unter anderem, dass es \u201esekund\u00e4r sei, ob paar B\u00e4cker oder Ramschverk\u00e4ufer\u201c pleitegingen. Das gef\u00e4lschte Video machte innerhalb k\u00fcrzester Zeit die Runde und das <a href=\"https:\/\/twitter.com\/BMWK\/status\/1655265035147522053?s=20\">Bundeswirtschaftsministerium musste reagieren<\/a>.<\/p>\n\n\n\n<p>An anderer Stelle hat die Stimmnachbildung mittels KI die ethische Fragw\u00fcrdigkeit l\u00e4ngst \u00fcberschritten und ist schlicht als betr\u00fcgerische beziehungsweise kriminelle Handlung anzusehen. So ist sprachbasiertes Phishing oder &#8222;Vishing&#8220; nun Teil immer raffinierterer Taktiken, mit denen Cyberkriminelle ihre Ziele zu erreichen versuchen. Phishing mittels Social-Engineering-Techniken, mit denen Opfer zur Preisgabe von Informationen oder zur Durchf\u00fchrung von Transaktionen zu verleitet werden sollen, ist nicht neu. Der Einsatz von Deep Learning (DL) und K\u00fcnstlicher Intelligenz, um t\u00e4uschend echt Identit\u00e4ten vorzut\u00e4uschen, ist jedoch Deepfake-Phishing auf einem ganz neuen Level und l\u00e4ngst nicht mehr die Ausnahme. Eine Umfrage unter Cybersecurity-Experten zeigt, dass bei rund zwei Dritteln der Cyber-Attacken auf deren Unternehmen Deepfakes zum Einsatz kamen \u2013 ein Anstieg von zirka 13 Prozent innerhalb eines Jahres.<\/p>\n\n\n\n<p>Dabei nutzen Cyberkriminelle KI und Deepfake-Technologie mittlerweile f\u00fcr verschiedenste Angriffsvektoren \u2013 auch in unserer t\u00e4glichen Kommunikation. Sprach- und Videonachrichten sind Teil unseres kommunikativen Alltags: Nach Angaben von WhatsApp verschicken die Nutzer jeden Tag durchschnittlich <a href=\"https:\/\/blog.whatsapp.com\/making-voice-messages-better\">sieben Milliarden Sprachnachrichten<\/a>, wodurch den Angreifern auch hier ein immer gr\u00f6\u00dferes Einfallstor geboten wird. Kommen dann noch KI-gest\u00fctztes Vishing und Deepfake-Videos hinzu, wird es f\u00fcr die Opfer immer schwieriger, den Betrugsversuch zu erkennen.<\/p>\n\n\n\n<p><strong>Dark Web dient als Bibliothek f\u00fcr Deepfake-Technologien<\/strong><strong><\/strong><\/p>\n\n\n\n<p>Zeitgleich wird es f\u00fcr Cyberkriminelle immer leichter, auf verschiedenste Deepfake-Applikationen zuzugreifen. So wird auf Dark-Web-Marktpl\u00e4tzen KI-as-a-Service angeboten und Deepfake-Dienste lassen sich spielend einfach erwerben. <a href=\"https:\/\/me-en.kaspersky.com\/blog\/deepfake-darknet-market\/21081\/\">Wie ein j\u00fcngster Bericht von Kaspersky zeigt<\/a>, gibt es umfassende Bibliotheken, auf denen Tools zur digitalen Nachbildung der Stimmen potenzieller Opfer (und mehr) verf\u00fcgbar sind. Ein Eldorado f\u00fcr Cyberkriminelle.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-scaled.webp\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"683\" src=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-1024x683.webp\" alt=\"\" class=\"wp-image-24563\" srcset=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-1024x683.webp 1024w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-300x200.webp 300w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-768x512.webp 768w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-1536x1024.webp 1536w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/06\/kyle-glenn-dGk-qYBk4OA-unsplash-2048x1365.webp 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\">Quelle: Kyle Glenn on&nbsp;<a href=\"https:\/\/unsplash.com\/s\/photos\/it-security?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText\">Unsplash<\/a><\/figcaption><\/figure>\n\n\n\n<p>Um den Kampf gegen die Bedrohung und nicht zuletzt gegen Deepfakes zu gewinnen, ist die Aufkl\u00e4rung der Mitarbeitenden und auch der Bev\u00f6lkerung von entscheidender Bedeutung. Ein guter Startpunkt hierbei ist eine ad\u00e4quate Identit\u00e4tspr\u00fcfung. Unternehmen spielen eine wichtige Rolle bei der Schulung und Sensibilisierung ihrer Besch\u00e4ftigten, um verd\u00e4chtige beziehungsweise ungew\u00f6hnliche Anfragen von Kollegen, Kunden und dergleichen zu erkennen \u2013 sei es per E-Mail, Telefon oder \u00fcber soziale Plattformen. In diesem Zusammenhang muss auch die Sensibilisierung f\u00fcr Deepfake-Kriminalit\u00e4t eine Priorit\u00e4t sein, ebenso wie die kontinuierliche Aufkl\u00e4rung \u00fcber die zahlreichen M\u00f6glichkeiten, die den Mitarbeitenden zur Verf\u00fcgung stehen, um sich und das Unternehmen gegen einen Cyberangriff zu sch\u00fctzen.<\/p>\n\n\n\n<p>Trotz aller Fortbildungs- und Aufkl\u00e4rungsma\u00dfnahmen sind menschliche Fehler jedoch zuweilen nicht zu vermeiden. Um sich gegen die immer fortschrittlicheren Attacken zur Wehr zu setzen, gilt es vermehrt, Feuer mit Feuer zu bek\u00e4mpfen. Heute und zuk\u00fcnftig sind KI-gest\u00fctzte Verteidigungs- und Sicherheitsmechanismen von entscheidender Bedeutung, um auf die zunehmende Bedrohung zu reagieren. Die beginnt bereits bei der Ausbildung der Besch\u00e4ftigten. Unternehmen k\u00f6nnten in diesem Zusammenhang auf KI-gesteuerte Sicherheitsschulungen am Arbeitsplatz zur\u00fcckgreifen, die spezifische Warnungen oder Handlungsempfehlungen in Echtzeit und auf Grundlage der Handlungen des Users geben. Dies w\u00fcrde die Notwendigkeit von regelm\u00e4\u00dfigen Schulungen zur Steigerung des eigenen Sicherheitsbewusstseins reduzieren, die sich in der Regel nur auf hypothetische Szenarien konzentrieren.<\/p>\n\n\n\n<p>Auf Unternehmensebene wiederum reduzieren innovative Technologien wie KI-gest\u00fctzte Identit\u00e4tssicherheit das Risiko von Cyberangriffen und Datenschutzverletzungen, indem sie unregelm\u00e4\u00dfiges Verhalten von Nutzern erkennen. <a href=\"https:\/\/www.idsalliance.org\/infographic\/2022-trends-in-securing-digital-identities\/\">Laut einer Studie der Identity Defined Security Alliance<\/a> waren im vergangenen Jahr 84 Prozent aller IT-Sicherheitsvorf\u00e4lle auf kompromittierte Identit\u00e4ten zur\u00fcckzuf\u00fchren. Dennoch hat <a href=\"https:\/\/www.sailpoint.com\/blog\/the-horizons-of-identity-security\/\">fast die H\u00e4lfte der Unternehmen (45 Prozent)<\/a> gerade erst begonnen, sich auf identit\u00e4tsbasierte Angriffe vorzubereiten. KI als Grundlage eines Identit\u00e4tsprogramms verschafft Unternehmen einen besseren \u00dcber- und Einblick in spezifische Risiken, die mit Nutzerzug\u00e4ngen und Identit\u00e4ten verbunden sind.<\/p>\n\n\n\n<p>Durch die Automatisierung und Rationalisierung von Identit\u00e4tsprozessen und -entscheidungen durch KI k\u00f6nnen Cybersicherheitsexperten ihren Fokus auf umfassendere Verteidigungsstrategien richten. KI kann wertvolles menschliches Fachwissen niemals ersetzen. Sie kann es aber erg\u00e4nzen, indem sie Algorithmen als Multiplikator zur Unterst\u00fctzung von Sicherheitsanalysten, Identit\u00e4tsmanagement-Experten und Incident-Respondern einsetzt. Kriminelle machen sich bereits die rasanten Fortschritte im KI-Bereich zunutze. Unternehmen sind mehr denn je gefragt, nicht ins Hintertreffen zu gelangen. Ob gegen Phisher, Deepfaker oder eine der vielen Iterationen dazwischen \u2013 auf der richtigen Seite eingesetzt, kann KI den menschlichen Einfallsreichtum im Kampf gegen die Cyberkriminalit\u00e4t unterst\u00fctzen und die L\u00fccken in der vordersten Verteidigungslinie schlie\u00dfen.<\/p>\n\n\n\n<p>Weitere Informationen zu diesem Thema finden sich auch hier: <a href=\"https:\/\/www.anwalt.org\/deepfakes\/\">Deepfakes: Fake News durch KI generiert &#8211; Anwalt.org<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Mittels Deepfake-Technologie angefertigte Audio- oder Videoinhalte erfreuen sich immer gr\u00f6\u00dferer Beliebtheit und werden speziell auf sozialen Medien oft und gerne verbreitet. Verschiedenste Applikationen erm\u00f6glichen es dem Otto Normalverbraucher, Aufnahmen ohne technische Vorkenntnisse und mit Hilfe von K\u00fcnstlicher Intelligenz t\u00e4uschend echt zu verf\u00e4lschen und diese mit der Community zu teilen. Zumeist handelt es sich dabei um unproblematische Inhalte, die lediglich zur Belustigung von Freunden und Familie dienen sollen. Deepfake birgt jedoch auch eine dunklere Seite und gibt Grund zur Sorge. So wird die Technologie zunehmend von Individuen mit kriminellen oder manipulativen Absichten genutzt, um ein ahnungsloses Publikum zu t\u00e4uschen.<\/p>\n","protected":false},"author":81,"featured_media":24562,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"colormag_page_container_layout":"default_layout","colormag_page_sidebar_layout":"default_layout","footnotes":""},"categories":[8,37],"tags":[17399,8220,9717,3392,13821],"class_list":["post-24560","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artikel","category-security","tag-deepfake","tag-ki","tag-nutzerverhalten","tag-phishing","tag-sailpoint"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/24560","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/users\/81"}],"replies":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=24560"}],"version-history":[{"count":2,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/24560\/revisions"}],"predecessor-version":[{"id":25289,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/24560\/revisions\/25289"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/media\/24562"}],"wp:attachment":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=24560"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=24560"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=24560"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}