Ethische KI braucht Regulierungen

Autorin/Redakteur: Ade Adewunmi, Strategy and Advising Manager bei Cloudera/gg

Künstliche Intelligenz (KI) bietet für Unternehmen als Technologie der Zukunft neue Möglichkeiten, beispielsweise in der Kunden-Bedarfsanalyse, bei der Optimierung von Geschäftsprozessen und sogar bei der Personalsuche. Doch wenn KI-Systeme zur automatisierten Entscheidungsfindung verwendet werden, können sie potenziell diskriminierende Entscheidungen treffen. Das kann das Ergebnis von verzerrten Daten und Performance-Metriken sein, die sich nachteilig auf bestimmte demografische Gruppen auswirken. Zudem kann es sich um Probleme bei der Implementierung handeln, die es den Betroffenen erschwert, den verantwortlichen Algorithmus für diese Benachteiligung zu identifizieren. Genauso schwer ist es, die entstehenden Nachteile zu beheben.

Ade Adewunmi, Strategy and Advising Manager bei Cloudera (Quelle: Privat)

Die Problematik voreingenommener Systeme ist den Gesetzgebern bekannt. So wurden in den letzten Jahren zunehmend Gesetze und Verhaltenskodizes für mehr Transparenz bei der Nutzung von Algorithmen durch private, aber auch öffentliche Einrichtungen geprüft und verabschiedet – und das auf verschiedenen Gesetzesebenen. So hat beispielsweise die Europäische Union im vergangenen Jahr einen Entwurf für einen neuen europäischen Rechtsrahmen für KI vorgelegt. Darüber hinaus gibt es in der Öffentlichkeit viele Diskussionen über die Schaffung von Rahmenbedingungen zur Einstufung von KI-Algorithmen – abhängig davon, welches Risiko sie für den Einzelnen und die Gesellschaft im Allgemeinen darstellen.

Die Idee hinter diesen Regelungen ist es, den Regulierungsbehörden die Durchsetzung der neuen und bestehenden Maßnahmen zu erleichtern und für den Einzelnen die rechtliche Grundlage zu schaffen, sich bei Verstößen zu wehren. Es ist das Ergebnis jahrelanger zivilgesellschaftlicher Sensibilisierungs- sowie Lobbyarbeit und spiegelt die wachsende öffentliche Wahrnehmung wider, dass der Einsatz von KI auch Risiken mit sich bringt und daher einer Regulierung bedarf. In diesem Zusammenhang müssen Unternehmen die Auswirkungen von KI-Lösungen, die sie in ihre Systeme und Produkte einbauen, mit denen reale Menschen in Berührung kommen, kritischer bewerten.

Schäden werden oft zu spät erkannt

Wie bereits festgestellt, können KI-Anwendungen, sobald sie implementiert sind, sowohl positive als auch negative soziale und wirtschaftliche Auswirkungen auf Menschen haben. Das kann Menschen betreffen, die von den jeweiligen Entwicklern zunächst nicht als primäre Endnutzer ihrer Dienstleistungen angedacht waren. Leider sind viele Organisationen nicht in der Lage, die negativen Auswirkungen des maschinellen Lernens (ML) zu verhindern. Hierfür gibt es eine Reihe von Gründen. Der naheliegendste Grund ist, dass KI-Anwendungen für eine bestimmte Zielgruppe konzipiert sind, und während deren Bedürfnisse und Anliegen gut erforscht sind, ist dies bei anderen betroffenen Gruppen nicht immer der Fall. Schäden, die nicht primäre Interessensgruppen erfahren, werden von Ökonomen als „negative externe Effekte“ bezeichnet. Dieser Begriff beschreibt die indirekten Kosten, die Dritten durch das Verhalten eines Unternehmens entstehen. Ein Beispiel dafür ist die Luftverschmutzung oder Lärmbelästigung für Menschen, welche in der Nähe einer Fabrik leben, die Waren herstellt, welche in erster Linie für den Export bestimmt sind. Allerdings können nicht nur Personen außerhalb der primären Zielgruppe negativ betroffen sein. Manchmal erfahren auch kleinere oder marginalisierte Gruppen innerhalb einer Zielgruppe ungewollt negative Auswirkungen. So vermuten beispielsweise einige Nutzer der Apple Card in den USA, dass geschlechtsspezifische Vorurteile der Grund dafür seien, dass Frauen, die die Kreditkarte beantragen, geringere Kreditbeträge erhalten als Männer.