{"id":30230,"date":"2025-11-14T06:59:00","date_gmt":"2025-11-14T05:59:00","guid":{"rendered":"https:\/\/www.sysbus.eu\/?p=30230"},"modified":"2025-11-07T10:51:41","modified_gmt":"2025-11-07T09:51:41","slug":"zugriffskontrollen-fuer-agentische-ki-sicherheit-in-autonomen-systemen","status":"publish","type":"post","link":"https:\/\/www.sysbus.eu\/?p=30230","title":{"rendered":"Zugriffskontrollen f\u00fcr agentische KI: Sicherheit in autonomen Systemen"},"content":{"rendered":"\n<p><br>Autor:<em> Jeremy London, Director of Engineering, AI and Threat Analytics, Keeper Security<\/em>\/dcg<\/p>\n\n\n\n<p>KI-Agenten haben sich inzwischen weit \u00fcber ihre urspr\u00fcngliche Rolle als digitale Assistenten f\u00fcr die Buchung von Besprechungen oder die Beantwortung einfacher Kundenanfragen hinaus entwickelt. Heute verarbeiten sie sensible Daten, initialisieren Arbeitsabl\u00e4ufe und tauschen sich in Echtzeit mit externen Systemen aus. Diese wachsenden F\u00e4higkeiten bieten erhebliche Effizienzsteigerungen, bringen aber auch neue Risiken mit sich.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/11\/Keeper_Jeremy-London-Director-Engineering-AI-Threat-Analytics-bei-Keeper-Security-1024x576.webp\" alt=\"\" class=\"wp-image-30238\" srcset=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/11\/Keeper_Jeremy-London-Director-Engineering-AI-Threat-Analytics-bei-Keeper-Security-1024x576.webp 1024w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/11\/Keeper_Jeremy-London-Director-Engineering-AI-Threat-Analytics-bei-Keeper-Security-300x169.webp 300w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/11\/Keeper_Jeremy-London-Director-Engineering-AI-Threat-Analytics-bei-Keeper-Security-768x432.webp 768w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/11\/Keeper_Jeremy-London-Director-Engineering-AI-Threat-Analytics-bei-Keeper-Security.webp 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Jeremy London, Director of Engineering, AI and Threat Analytics, Keeper Security &#8211; Quelle: Keeper<\/figcaption><\/figure>\n\n\n\n<p>Gartner prognostiziert, dass KI-Agenten in den n\u00e4chsten zwei Jahren bis zu 50 Prozent der Gesch\u00e4ftsentscheidungen erg\u00e4nzen oder automatisieren werden, von denen viele den Zugriff auf privilegierte Systeme und sensible Daten beinhalten. Dies stellt eine grundlegende Ver\u00e4nderung in der Arbeitsweise von Unternehmen dar und ist ein klares Signal daf\u00fcr, dass Autonomie die Zukunft ist. Die Chancen liegen auf der Hand, doch die Risiken sind m\u00f6glicherweise weniger offensichtlich. Ein KI-Agent, der vertrauliche Daten weitergibt oder unbefugten Zugriff gew\u00e4hrt, kann echte Sch\u00e4den anrichten. Die entscheidende Frage ist daher nicht nur, was diese Systeme leisten, sondern auch, wie sie sicher verwaltet werden k\u00f6nnen.<\/p>\n\n\n\n<p><strong>Wenn KI-Autonomie auf Zugriffsrisiken trifft<\/strong><\/p>\n\n\n\n<p>Agentische KI unterliegt nicht denselben Limitationen wie menschliche Anwender. Eine Person kann \u00fcber rollenbasierte Zugriffsrechte verf\u00fcgen, die an bestimmte Systeme gebunden sind. Ein KI-Agent hingegen kann mehrere Umgebungen mit hoher Geschwindigkeit durchlaufen und dabei Datenbanken, Schnittstellen (APIs), Cloud-Dienste und Plattformen von Drittanbietern in einem einzigen Vorgang miteinander verbinden.<\/p>\n\n\n\n<p>Herk\u00f6mmliche, perimeterbasierte Sicherheitsmodelle k\u00f6nnen unter solchen Umst\u00e4nden versagen. Im Gegensatz zu menschlichen Anwendern, die in der Regel \u00fcber verwaltete Endpunkte und festgelegte Sitzungsgrenzen auf Systeme zugreifen, k\u00f6nnen sich KI-Agenten innerhalb von Millisekunden gleichzeitig bei Dutzenden von APIs, Datenbanken und Cloud-Diensten authentifizieren. Das Problem: Firewalls und Netzwerkgrenzen k\u00f6nnen derartig autonome Einheiten, die \u00fcber mehrere Dom\u00e4nen hinweg operieren, nicht eind\u00e4mmen. Deshalb sollten Unternehmen eine identit\u00e4tsorientierte Sicherheit einf\u00fchren, die auf einer Zero-Trust-Architektur basiert. Jede Aktion eines KI-Agenten sollte authentifiziert, autorisiert sowie \u00fcberpr\u00fcfbar sein.<\/p>\n\n\n\n<p><strong>Schwachstellen in der Praxis<\/strong><\/p>\n\n\n\n<p>Zu den offensichtlichsten Risiken agentenbasierter KI z\u00e4hlen die Manipulation von Eingabeaufforderungen und unbeabsichtigte Autorisierungen. Angreifer haben bereits gezeigt, dass sie durch sorgf\u00e4ltig gestaltete Eingaben KI-Modelle dazu bringen k\u00f6nnen, Daten preiszugeben oder Aktionen au\u00dferhalb ihres vorgesehenen Anwendungsbereichs auszuf\u00fchren. In einigen F\u00e4llen \u00e4hnelt dies einer herk\u00f6mmlichen Attacke, bei der ein Angreifer Eingaben manipuliert, um das Systemverhalten zu ver\u00e4ndern. Im Unterschied dazu konzipiert die KI ihre Modelle so, dass sie sich anpassen und Anweisungen flexibel befolgen. Das macht es den Angreifern umso leichter, Systeme von au\u00dferhalb zu b\u00f6swilligen Aktionen zu verleiten.<\/p>\n\n\n\n<p>Es existieren F\u00e4lle, in denen KI-Agenten, denen ein Administratorzugriff auf Entwicklungsumgebungen gew\u00e4hrt wurde, durch sorgf\u00e4ltig gestaltete Eingabeaufforderungen manipuliert wurden, um Datenbankabfragen au\u00dferhalb ihres vorgesehenen Anwendungsbereichs auszuf\u00fchren. Ein weiteres Szenario betrifft den unbeabsichtigten Datenzugriff. Ein KI-Agent k\u00f6nnte mit einer internen Wissensdatenbank verbunden sein, um Mitarbeiter zu unterst\u00fctzen. Wenn die Grenzen nicht richtig definiert sind, k\u00f6nnte derselbe Agent bei einer Abfrage auch vertrauliche Personal- oder Finanzdaten offenlegen.<\/p>\n\n\n\n<p>Auch die Ausweitung von Berechtigungen ist ein besonderes Problem. Beispielsweise kann ein KI-Agent, der mit der Einarbeitung neuer Mitarbeiter beauftragt ist, zun\u00e4chst Zugriff auf grundlegende Workflow-Tools erhalten. Mit der Zeit kann er dann die Berechtigung anfordern, Benutzeranmeldedaten zu generieren, Passw\u00f6rter zur\u00fcckzusetzen oder Rollen zuzuweisen. Jede Zugriffserweiterung muss streng \u00fcberwacht werden, anderenfalls nehmen die Berechtigungen zu und schaffen neue Angriffsvektoren.<\/p>\n\n\n\n<p><strong>Wie sieht eine sinnvolle Kontrolle aus?<\/strong><\/p>\n\n\n\n<p>Um agentenbasierte KI zu sichern, muss man \u00fcber traditionelle Perimeter-Abwehrma\u00dfnahmen hinausgehen und bei jeder Interaktion eine identit\u00e4tsorientierte Zero-Trust-Sicherheit einbetten. Die folgenden Grunds\u00e4tze k\u00f6nnen helfen, praktische Grenzen zu setzen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sicherheit mit Zero-Trust-Architektur verankern<br><\/strong>Jede KI-Aktion muss ausdr\u00fccklich authentifiziert, autorisiert und \u00fcberpr\u00fcfbar sein. Der Zugriff sollte nur f\u00fcr die jeweilige Aufgabe gew\u00e4hrt werden, ohne dass implizites Vertrauen zwischen den Systemen \u00fcbertragen wird.<\/li>\n\n\n\n<li><strong>Berechtigungen definieren und durchsetzen<br><\/strong>Das Prinzip der geringsten Privilegien sollte rigoros und pr\u00e4zise angewendet werden. KI-Agenten sollten immer nur den minimalen Zugriff haben, der zur Ausf\u00fchrung eines Workflows erforderlich ist. Der dynamische Zugriff sollte zeitlich begrenzt, genehmigt und protokolliert sein. Ohne diese Schutzma\u00dfnahmen steigt die Wahrscheinlichkeit einer unbefugten Ausweitung von Privilegien.<\/li>\n\n\n\n<li><strong>Anomalien kontinuierlich \u00fcberwachen und erkennen<br><\/strong>Herk\u00f6mmliche Analysen des Benutzerverhaltens sind f\u00fcr autonome Systeme, die Daten in gro\u00dfem Umfang verarbeiten, unwirksam. Unternehmen m\u00fcssen KI-spezifische Verhaltensanalysen einsetzen, die anomale Muster wie unerwartete Anfragen zur Erweiterung von Berechtigungen, ungew\u00f6hnliche system\u00fcbergreifende Datenkorrelationen oder Abweichungen von festgelegten Agenten-Workflows erkennen \u2013 F\u00e4higkeiten, die eine Echtzeitanalyse sowohl der Aktionen des Agenten als auch der Kontextdaten, die diese Entscheidungen beeinflusst haben, erfordern.<\/li>\n\n\n\n<li><strong>Jede Sitzung pr\u00fcfen<br><\/strong>\u00dcberpr\u00fcfbarkeit ist unverzichtbar. Protokolle m\u00fcssen nicht nur die von KI-Agenten ausgef\u00fchrten Aktionen erfassen, sondern auch den vollst\u00e4ndigen Kontext: Eingabeaufforderungen, aufgerufene Datens\u00e4tze, abgerufene Kontexte, Zwischenargumente und externe API-Antworten, die jede Aktion beeinflusst haben. Sitzungsaufzeichnungen und detaillierte Pr\u00fcfpfade sind f\u00fcr die Einhaltung von Vorschriften und die Rechenschaftspflicht von entscheidender Bedeutung<strong>.<\/strong><\/li>\n\n\n\n<li><strong>Jeden Integrationspunkt sichern<br><\/strong>Jeder API-Endpunkt, jede SaaS-Integration und jeder Drittanbieter-Dienst stellt nicht nur eine potenzielle Schwachstelle dar, sondern auch einen Risikomultiplikator, wenn KI-Agenten diese Verbindungen autonom miteinander verkn\u00fcpfen k\u00f6nnen. Unternehmen m\u00fcssen jeden Integrationspunkt bewerten und sichern, strenge API-Sicherheitskontrollen anwenden und das zusammengesetzte Risiko verfolgen, das entsteht, wenn Agenten mehrere Systeme umfassen.<\/li>\n\n\n\n<li><strong>Automatisierung und menschliche Aufsicht in Einklang bringen<br><\/strong>Bei Aufgaben, die Compliance- oder Gesch\u00e4ftsrisiken beinhalten, sollten Unternehmen ein abgestuftes Autonomiemodell anwenden. KI kann bei Aufgaben mit geringem Risiko unabh\u00e4ngig agieren, aber bei risikoreichen Aktionen wie der Erstellung von Anmeldedaten oder der Zuweisung von privilegierten Zugriffsrechten sollte eine menschliche Aufsicht und Genehmigung obligatorisch sein.<\/li>\n<\/ul>\n\n\n\n<p><strong>Gleichgewicht zwischen Innovation und Sicherheit finden<\/strong><\/p>\n\n\n\n<p>Das transformative Potenzial von KI-Agenten ist unbestreitbar. Automatisierung kann Menschen entlasten, sodass sie sich auf h\u00f6herwertige Aufgaben konzentrieren k\u00f6nnen, birgt jedoch auch erhebliche neue Risiken.<\/p>\n\n\n\n<p>Die Herausforderung f\u00fcr Unternehmen besteht darin, Innovationen zu nutzen, ohne die Kontrolle aus der Hand zu geben. Das bedeutet, dass Sicherheit in jede KI-Implementierung integriert werden muss. Zugriffskontrolle, identit\u00e4tsorientierte Sicherheit und aussagekr\u00e4ftige Pr\u00fcfpfade sind keine b\u00fcrokratischen H\u00fcrden. Sie sind die Grundlage f\u00fcr eine sichere und nachhaltige Nutzung von KI.<\/p>\n\n\n\n<p>Folgen Sie Keeper auf <a href=\"https:\/\/www.facebook.com\/keeperplatform?utm_source=emea&amp;utm_medium=press_release&amp;utm_campaign=Communications\">Facebook<\/a> <a href=\"https:\/\/www.instagram.com\/keepersecurity\/?utm_source=emea&amp;utm_medium=press_release&amp;utm_campaign=Communications\">Instagram<\/a> <a href=\"https:\/\/www.linkedin.com\/company\/keeper-security-inc-\/?utm_source=emea&amp;utm_medium=press_release&amp;utm_campaign=Communications\">LinkedIn<\/a> <a href=\"https:\/\/twitter.com\/keepersecurity\/?utm_source=emea&amp;utm_medium=press_release&amp;utm_campaign=Communications\">X<\/a> <a href=\"https:\/\/www.youtube.com\/channel\/UCKBCmTYm0iTX-eRuCK_s6qg?utm_source=emea&amp;utm_medium=press_release&amp;utm_campaign=Communications\">YouTube<\/a> <a href=\"https:\/\/www.tiktok.com\/@keepersecurityinc\">TikTok<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jeremy London, Director of Engineering f\u00fcr AI und Threat Analytics bei Keeper Security, warnt vor neuen Sicherheitsrisiken durch agentische KI-Systeme. Diese autonom handelnden Systeme \u00fcbernehmen zunehmend komplexe Aufgaben und greifen auf sensible Daten zu, wodurch herk\u00f6mmliche Sicherheitsmodelle an ihre Grenzen sto\u00dfen. London betont die Notwendigkeit einer identit\u00e4tsorientierten Zero-Trust-Architektur, in der jede KI-Aktion authentifiziert, autorisiert und \u00fcberpr\u00fcfbar ist. Besonders wichtig seien minimale Berechtigungen, kontinuierliche Anomalieerkennung und die Sicherung aller Integrationspunkte. Nur durch strenge Zugriffskontrollen und klare Verantwortlichkeiten lasse sich das Potenzial von KI-Agenten sicher und nachhaltig nutzen.<\/p>\n","protected":false},"author":81,"featured_media":30238,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"colormag_page_container_layout":"default_layout","colormag_page_sidebar_layout":"default_layout","footnotes":""},"categories":[8,37],"tags":[1088,23400,23263,21654,21095,20279,5915],"class_list":["post-30230","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artikel","category-security","tag-cybersecurity","tag-jememylondon","tag-keepersecurity","tag-kiinnovation","tag-kuenstlicheintelligenz","tag-zerotrust","tag-zugriffskontrolle"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/30230","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/users\/81"}],"replies":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=30230"}],"version-history":[{"count":2,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/30230\/revisions"}],"predecessor-version":[{"id":30239,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/30230\/revisions\/30239"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/media\/30238"}],"wp:attachment":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=30230"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=30230"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=30230"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}