KI ist nicht nur ein Innovationsmotor, sondern vergrößert auch die Angriffsfläche
Autor: Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland/dcg
Künstliche Intelligenz durchzieht längst unseren Alltag und steckt in unzähligen Anwendungen und Systemen. Entsprechend verlockend ist es für Cyberkriminelle, KI-Modelle anzugreifen und so zu manipulieren, dass sie sensible Daten preisgeben oder falsche Ergebnisse liefern. Unter Umständen reicht es schon, die KI mit gezielt formulierten Anfragen zu füttern, um ein gefährliches Verhalten auszulösen, etwa die Ausgabe von schädlichem Code oder internen Daten. Solche Manipulationen bleiben meist lange unentdeckt – daher muss Sicherheit bereits bei der Entwicklung und beim Training der KI berücksichtigt werden. Hier reicht es auch nicht, die Verantwortung allein beim Security-Team belassen – vielmehr müssen Sicherheitsspezialisten, KI-Experten und Software-Entwickler von Anfang an eng zusammenarbeiten.

Im Grunde geht es dabei nicht ohne ein umfassendes Sicherheitskonzept, das weit über Security-Basics wie sichere Zugriffskontrollen, Verschlüsselung und Angriffserkennung hinausgeht. Notwendig ist eine sorgfältige Validierung und Bereinigung sämtlicher Trainingsdaten, ergänzt um sogenannte Guardrails, die alle Ein- und Ausgaben überprüfen. Darüber hinaus helfen spezialisierte Tools bei der Überwachung der Modelle auf Veränderungen bei der Leistung und Genauigkeit. Schließlich nutzen Cyberkriminelle ein äußerst umfangreiches Repertoire an Angriffstechniken, das stetig wächst: Sie manipulieren beispielsweise die Eingabedaten, damit die KI ungenaue Vorhersagen trifft oder ein bestimmtes Ereignis nicht korrekt erkennt. Mitunter genügt es bereits, Sensordaten, Bilder oder Texte wie eine E-Mail, die von der KI ausgewertet wird, geringfügig zu verändern. Oder sie nehmen die Trainingsdaten und das beim Training eingesetzte Belohnungssystem ins Visier. Dadurch kann sich die KI ein fehlerhaftes oder unerwünschtes Verhalten aneignen. Selbst Hintertüren lassen sich auf diese Weise einbauen: Bei einem bestimmten Trigger-Input liefert das Modell ein vom Angreifer gewünschtes Ergebnis.
Letztlich ist KI also nicht nur ein Innovationsmotor für Unternehmen, sondern vergrößert auch ihre Angriffsfläche. Nur wer dies berücksichtigt und die möglichen Angriffsarten kennt, kann KI verantwortungsvoll entwickeln und einsetzen – und das Missbrauchs- und Manipulationsrisiko minimieren.
Link zu Dell Technologies: Securing the AI Factory | Dell
