ArtikelKünstliche Intelligenz

KI, Datenschutz und Cybersicherheit: Eine Herausforderung für Regulierung und Innovation

Autor/Redakteur: Nermin Smajić, Lead Solution Strategist bei Immersive Labs/gg

Trotz des enormen Potenzials von generativer KI bergen ChatGPT und ähnliche Tools auch Risiken. Vor allem in puncto Datenschutz und Cybersicherheit werden aktuell zunehmend Bedenken laut. Dieser Beitrag zeigt, wie sich KI sicher einsetzen lässt, ohne den Wirtschaftsstandort Deutschland auszubremsen.

Nermin Smajić, Lead Solution Strategist bei Immersive Labs. (Bildquelle: Privat)

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht und ist in vielerlei Hinsicht zu einem integralen Bestandteil verschiedener Branchen geworden. Von Machine Learning über Deep Learning bis hin zu neuronalen Netzen finden sich Instanzen von KI im Gesundheitswesen, im Finanzsektor und im Bereich der Cybersicherheit. Eine der bemerkenswertesten Entwicklungen hat der Chatbot ChatGPT von OpenAI hingelegt, der innerhalb von nur zwei Monaten nach dem Start über 100 Millionen monatliche Nutzer verzeichnete und somit offiziell den Rekord als am schnellsten wachsende Webplattform der Geschichte hält.

Ungeachtet der mit ChatGPT und ähnlichen KI-Tools verbundenen Euphorie, drängen sich Fragen hinsichtlich des Datenschutzes und der Internetsicherheit auf, die die aktuell international geführte Debatte um KI-Regulierung befeuern. Doch wie können solche gesetzlichen Leitplanken aussehen und wer sollte für ihre Kontrolle verantwortlich sein?

KI-Regulierung: bis dato noch viel Stückwerk

Ein aktueller Ausläufer der Debatte um KI-Regulierung ist die vorübergehende Sperrung von ChatGPT durch die italienische Datenschutzbehörde GPDP Ende März 2023 aufgrund mangelnder Datenschutzkonformität. Die Europäische Kommission verhandelt seit April 2021 den sogenannten Artificial Intelligence Act (AI Act), der noch in diesem Jahr verabschiedet werden könnte. Das Gesetz zielt darauf ab, den Einsatz von künstlicher Intelligenz in Europa zu regulieren und allen voran die Datenqualität, Transparenz, menschliche Kontrolle und Rechenschaftspflicht im Bereich der künstlichen Intelligenz zu verbessern. Es stellt sich jedoch weiterhin die Frage, ob solche Regulierungen ausreichen, um den Wirtschaftsstandort Deutschland zu schützen, ohne zur Innovationsbremse zu werden.

Laut globalen Umfragen betrachten 81 Prozent der Befragten die Sicherheitsrisiken von ChatGPT und generativer KI mit Sorge, während nur sieben Prozent glauben, dass sie die Internetsicherheit verbessern werden. Auch für deutsche Unternehmen besteht das Hauptrisiko darin, dass generative KI falsche oder verzerrte Informationen generiert. Dies kann zu ernsthaften Problemen bei Entscheidungsprozessen führen, insbesondere bei der Erkennung und Reaktion auf Bedrohungen, wenn Unternehmen stark auf die Belastbarkeit dieser Daten angewiesen sind.

Aufklärung statt Verbote

Es besteht also zweifellos Handlungsbedarf. Doch anstatt Verbote zu fordern, sollte man auf Aufklärung setzen. Es ist wichtig, sich der potenziellen Sicherheitsrisiken bewusst zu sein, die der Einsatz generativer KI in Unternehmen mit sich bringt. Es gibt bekannte Schwachstellen bei der Implementierung, die sich auf die großen Sprachmodelle (LLMs) auswirken können, auf denen diese Anwendungen aufbauen. Böswillige Akteure könnten generative KI beziehungsweise LLMs im schlimmsten Fall sogar dazu missbrauchen, um Angriffe zu skalieren und zu intensivieren.

Gleichzeitig bietet generative KI auch Möglichkeiten zur Verbesserung der Cybersicherheit. Der Einsatz von generativer KI und LLMs zur Erkennung und Reaktion auf Sicherheitsbedrohungen entwickelt sich zu einem vielversprechenden Trend auf dem Markt. Anbieter arbeiten hart daran, ihre Produkte intelligenter, schneller und präziser zu machen, um Unternehmen dabei zu unterstützen, ihre Sicherheitsmaßnahmen zu stärken.

Um Potenziale und Risiken besser verstehen und abwägen und Mitarbeitenden eine produktive und zugleich sichere Nutzung ermöglichen zu können, braucht man kontinuierliches praxisbezogenes Training, das sowohl dem rasanten Entwicklungstempo als auch der dynamischen Bedrohungslandschaft im Bereich der künstlichen Intelligenz Rechnung trägt. Die möglichen Trainingsinhalte sind breit gefächert und reichen von grundlegenden Einführungen in die Welt der KI über Datenethik und verantwortungsvolle Nutzung bis hin zu spezifischerem Content, wie TensorFlow für Machine Learning, Bildklassifizierung, Prompt-Injection-Angriffe und KI für Incident Responder.

Fazit

Die Debatte um KI-Regulierung und Cybersicherheit ist komplex und erfordert einen ausgewogenen Ansatz, der einerseits Raum für Innovationen schafft, andererseits aber auch Sicherheit und Datenschutz gewährleistet. Mit Aufklärung anstatt Verboten sowie verantwortungsvoller und bewusster Nutzung als Ergebnis von kontinuierlicher Sensibilisierung und Weiterbildung, die den aktuellen Entwicklungsstand abbildet, können Unternehmen das volle Potenzial von KI-Technologien ausschöpfen, ohne dabei Kompromisse bei der Sicherheit einzugehen.