ArtikelKünstliche Intelligenz

Ethische KI braucht Regulierungen

Ein funktionsübergreifender Ansatz für stärker ethisch ausgerichtete Algorithmen

Während Daten eine Quelle für verzerrte Ergebnisse sein können, können die  Entscheidungen, die KI-Fachleute in den verschiedenen Phasen des KI-Lebenszyklus treffen, auch Auswirkungen auf die Fähigkeit des Unternehmens haben, ethische KI-Anwendungen zu entwickeln und zu betreiben. Dies gilt jedoch auch für die Entscheidungen in anderen Bereichen des Unternehmens. Glücklicherweise können einige der  Rahmenbedingungen und Prozesse, die ML-Ingenieure und Datenwissenschaftler bei der Entwicklung und dem Betrieb von ML-Anwendungen nutzen, dabei helfen, die Einführung von Verzerrungen innerhalb des ML-Entwickungsprozesses zu erkennen und anzugehen. Außerdem können diese Rahmenbedingungen die Ansichten und das Fachwissen von Kollegen aus anderen Unternehmensbereichen einbeziehen. Der Vorteil einer solchen funktionsübergreifenden, multidisziplinären Zusammenarbeit kann zu einer umfassenderen, soziotechnischen Bewertung der Schadensbegrenzung durch Algorithmen führen. Dieser Ansatz steht im Einklang mit einigen von Organisationen wie der Algorithmic Justice Leage (AJL) vorgeschlagenen bewährten Verfahren.

Zusammenfassend lässt sich sagen, dass ein funktionsübergreifender Ansatz Unternehmen ermutigt, ganzheitlicher und kritischer darüber nachzudenken, wie ihre Produkte und Dienstleistungen das Leben der Stakeholder beeinflussen. Dieser praktische Ansatz ist besonders vor dem Hintergrund nützlich, dass das ethische Engagement einer Organisation besser daran gemessen werden kann, wie gut ihre Werte (und die daraus resultierenden Ergebnisse) umgesetzt werden, als daran, was diese Werte sind.

Ein funktionsübergreifender, ganzheitlicher Ansatz hilft auch dabei zu identifizieren, wie gut die internen Systeme und Prozesse mit den festgelegten ethischen Zielen des Unternehmens übereinstimmen und diese unterstützen. Diese Einsicht kann helfen, Bereiche, die nicht zueinander passen, anzugehen. Zum Beispiel erheben viele Unternehmen keine Daten über geschützte Merkmale, wie beispielsweise das Geschlecht, die sexuelle Orientierung, Religion oder die Herkunft. In einigen Fällen ist dies sogar gesetzlich vorgeschrieben. Jedoch ist anzumerken, dass es dadurch erschwert werden kann, die Voreingenommenheit gegenüber Menschen mit eben diesen Merkmalen zu erkennen. Goldman Sachs, der Versicherer der Apple Card, bestand beispielsweise darauf, keine Daten über das Geschlecht zu erheben oder diese beim Training seines Algorithmus zu verwenden. Das wiederum impliziert, dass ihr Algorithmus nicht in dieser Weise voreingenommen sein kann, da dies kein Faktor bei seinem Training war. Das ist jedoch nicht der Fall – Machine-Learning-Modelle können auf der Grundlage von Proxy-Merkmalen voreingenommene Muster aufgreifen und tun dies auch. Manchmal schränkt das Fehlen dieser Art von Daten die Wirksamkeit einer nachfolgenden Prüfung ein. Solche Probleme müssen Unternehmen mit bedenken, wenn sie deren Rahmenbedingungen zur Erkennung von Schäden festlegen.

Prominente Negativbeispiele und wirksame Lobbyarbeit zivilgesellschaftlicher Gruppen haben einen Trend zu einer stärkeren behördlichen Kontrolle und Forderungen nach mehr Transparenz bei der Nutzung von Algorithmen ausgelöst. Dies wird sich kaum ändern. In diesem Kontext erkennen kluge Unternehmen, sowohl im öffentlichen als auch privaten Sektor, wie wichtig es ist, das Vertrauen der Öffentlichkeit in ihre KI-gestützten Produkte und Dienstleistungen zu gewinnen und zu erhalten. In wirksame Strategien zur Schadenserkennung und -behebung zu investieren ist ein Mittel, diesem Bedarf nachzukommen.