Multimodaler Datenschutz benötigt künstliche Intelligenz
Autor/Redakteur: Sam Curry, VP & CISO von Zscaler/gg
Das Risiko der Cyber-Sicherheit unterscheidet sich von anderen IT-Gefahren dadurch, dass es Unternehmen mit einem anpassungsfähigen und menschlichen Gegner zu tun haben. Im Allgemeinen muss sich die IT mit Risiken erster Ordnung auseinandersetzen, die mit Chaos einhergehen, vergleichbar mit Wirbelstürmen in der Meteorologie oder Viren in der Biologie. Bei Risiken erster Ordnung handelt es sich um komplexe und gefährliche Bedrohungen, wie fehlgeschlagene Prozesse, defekte Teile und andere natürliche und kontrollierbare Ausfälle – die nicht mit einem denkenden Element verbunden sind. Im Gegensatz dazu müssen sich Unternehmen bei der Cybersicherheit mit Risiken zweiter Ordnung auseinandersetzen. Bei diesen Risiken handelt es sich um chaotische Systeme mit Bedrohungen, die sich intelligent an Abwehr- und Gegenmaßnahmen anpassen, und damit mit ähnlichen Vorgehensweisen wie in einem Vertriebsprozess oder einem Rechtsstreit einhergehen. Auf einen Schritt folgt eine Reaktion, auf die sich die gegnerische Partei einstellen muss.
Schon heute müssen es IT-Sicherheitsteams allerdings im Bereich der Cybersicherheit mit einem weiteren Gegenspieler aufnehmen: mit der künstlichen Intelligenz. Dann reicht das herkömmliche Muster von Cyber-Angriff und Incident-Response der Verteidigung nicht mehr aus, den es sind vielschichtigere Auswirkungen von Datenverlusten und Datenschutz mit zu berücksichtigen. Diese Folgen erfordern eine multimodale Verteidigungsmethodik, bei denen die künstliche Intelligenz ebenfalls einen entscheidenden Einfluss auf den Ausgang des Konflikts nehmen kann.
Die Intelligenz des Siliziums
Nehmen wir das Beispiel eines Hackathon, bei dem Mitarbeitende aufgefordert werden, eine einzigartige Datenzeichenfolge aus einem Unternehmen zu extrahieren und sich dafür in die Vorgehensweise von Angreifern hineinversetzen müssen. Im Rahmen eines solchen Planspiels werden einerseits Punkte für die Fähigkeit vergeben, diese Zeichenfolge zu stehlen, aber auch für die Originalität der Methode an die Daten zu gelangen. Wird eine Methode dabei nur von einer Person eingesetzt, werden mehr Punkte vergeben, als wenn zwei oder drei Mitspielende auf den gleichen Pfad setzen. Bei einem solchen „Durchlässigkeitstest“ schlüpfen gewöhnliche Mitarbeitende in die Rolle von Insidern und es ist zu erwarten, dass sich die Teilnehmenden an Kreativität zu übertrumpfen suchen. Der Nebeneffekt dieses Bewertungsmodells mit dem Bonus für Originalität liegt in der Zusammenarbeit bei der Bewältigung der Aufgabenstellung und kann weitere positive Auswirkungen hinsichtlich eines Innovationsschubs haben.
Eine solche Übung verdeutlicht darüber hinaus zwei wichtige Aspekte:
Es hilft, sich in das Mindset eines böswilligen Angreifers beim Pläneschmiden einzudenken, um eine bestimmte Nachricht so zu verändern, so dass sie unbemerkt exfiltriert werden kann. Die zu stehlende Nachricht ist dabei nicht notwendigerweise an ein bestimmtes Medium für den Vorgang des Exfiltrierens gebunden und gibt Spielraum für Kreativität: Wi-Fi, Mobiltelefon, Browser, Drucker, FTP, SSH, AirDrop, Steganographie, Screenshot, BlueTooth, PowerShell, versteckt in einer Datei, über eine Messaging-Anwendung, in einer Konferenzanwendung, über SaaS, in einem Speicherdienst sind nur ein paar der Möglichkeiten für das Abfließen der gesuchten Datei. Um erfolgreich zu sein und Punkte beim Hackathon zu erhalten, muss bewusst nach einer Methode gesucht werden, um die Nachricht in einem unerwarteten Medium zu transportieren und zeitgleich sollten die Gegenspieler und deren Toolkit im Auge behalten werden.
Zweitens wird ein helles Köpfchen benötigt, um die gesuchte Zeichenfolge in ihren verschiedenen Formen oder Modi überhaupt erst zu erkennen. Die klassische Data Loss Prevention (DLP) und der Datenschutz arbeiten dabei mit voneinander unabhängigen Vorgehensweisen: Es wird nach einem Datentyp mit eindeutigen Erkennungsmerkmalen und einem erwarteten Musterdatentyp und -format gesucht. Diese Merkmale können einfach sein und dem Schema von Kreditkartennummern oder Sozialversicherungsnummern in http folgen. Oder die Suche kann sich komplex gestalten, wenn nach einem bestimmten Datentyp in einem Email-Anhang geforscht wird, der einen Vertrag enthält. Hierbei ist es ungleich schwieriger, die verborgene Zeichenfolge im allgemeinen Datenfluss unter Berücksichtigung aller Kommunikationstypen aufzuspüren und das benötigt gegebenenfalls unendlich viel Zeit und Geduld für einen Einzelnen.
Hier kommen für die Erkennung bestimmter Daten oder Inhalte die Vorteile der künstlichen Intelligenz ins Spiel mit maschinellem Lernen (ML), Deep Learning (DL) und Large Language Models (LLMs). Um sensible Daten im Grundrauschen aller Datenströme zu erkennen und vor dem unbeabsichtigten Abfließen (nicht nur während eines Hackathons) zu schützen, bedarf es eines multimodalen Ansatzes. Ein solcher Ansatz spielt in Punkto Geschwindigkeit der Erkennung bestimmter Daten seine Vorteile aus, die den Fähigkeiten des einzelnen Menschen bei Weitem überlegen sind. Es ist an der Zeit, die menschliche Intelligenz um die Intelligenz des Siliziums zu ergänzen auf der Suche nach dem fehlgeleiteten Signal, das wiederum intelligente Angreifer über alle zur Verfügung stehenden Kanäle zu erbeuten versuchen.
Mit KI die Überwachung verbessern
Die Fortschritte des letzten Jahrzehnts haben zu einer Explosion von KI-Anwendungen in den Bereichen Text, Analyse, Grafik und zielgerichtete Anwendungen geführt. Durchbrüche in der Architektur, Modellen und Datenanalyse sowie Vorgehensweisen zum Training der Systeme sind von entscheidender Bedeutung und sehr langwierig. Obwohl das Thema der künstlichen Intelligenz nicht neu ist, wurden erst in den letzten fünf Jahren wirklich große Fortschritte gemacht, die die künstliche Intelligenz nachhaltig verändert hat. Die akademische und praktische Forschung findet nicht mehr in Silos statt, sondern Disziplin-übergreifend. In der Folge ist die KI-Forschung heute universeller aufgestellt und damit für ehemals getrennte Forschungsbereiche anwendbar, wie Text- oder Sprachverarbeitung oder Bildbearbeitung und so weiter.
Das bedeutet, dass multimodales Monitoring und damit angewandte künstliche Intelligenz, die medienübergreifend nach Basissignalen suchen kann, zur Realität für die Cybersicherheit wird. Es geht nicht mehr nur um BERT oder GPT-Anwendungen, sondern um Large Language Models, die für den ausdrücklichen Zweck entwickelt und trainiert wurden, Daten zu erkennen, die exfiltiert werden, auch wenn sie dazu verändert oder versteckt werden. Dabei lassen sich die Modelle auch performant für große Datenmengen unterschiedlichster Art anwenden und damit handelt es sich um fortschrittliche Data Loss Prevention, die sich von den Modellen der Vergangenheit deutlich abhebt.
Künstliche Intelligenz kann heute auch eingesetzt werden, um den Anwendungsverkehr zu erkennen und die Art der Interaktionen zu analysieren. Das bedeutet, dass nicht nur Daten, sondern auch bestimmte Arten von „Gesprächen“ erkannt werden können. Wenn beispielsweise eine Richtlinie besagt, dass LLMs nur auf eine bestimmte Art und unter bestimmten Umständen verwendet werden dürfen, kann der multimodale Datenschutz so eingesetzt werden, dass er alle LLM-ähnlichen Konversationen aufspürt und mit hoher Wahrscheinlichkeit auch solche erkennt, die über ungewöhnliche Kommunikationskanäle aktiv verschleiert werden. Zusätzlich sorgen klassische Filter mit Erlauben-Funktion dann für den letzten Schliff. Die Möglichkeiten sind also heute gegeben, die Angreifer mit ihren eigenen Waffen zu schlagen.