{"id":21402,"date":"2022-07-12T11:33:00","date_gmt":"2022-07-12T09:33:00","guid":{"rendered":"https:\/\/www.sysbus.eu\/?p=21402"},"modified":"2022-06-23T10:45:31","modified_gmt":"2022-06-23T08:45:31","slug":"ethische-ki-braucht-regulierungen","status":"publish","type":"post","link":"https:\/\/www.sysbus.eu\/?p=21402","title":{"rendered":"Ethische KI braucht Regulierungen"},"content":{"rendered":"\n<p>Autorin\/Redakteur: <a href=\"https:\/\/de.cloudera.com\/\">Ade Adewunmi, Strategy and Advising Manager bei Cloudera<\/a>\/gg<\/p>\n\n\n\n<p>K\u00fcnstliche Intelligenz (KI) bietet f\u00fcr Unternehmen als Technologie der Zukunft neue M\u00f6glichkeiten, beispielsweise in der Kunden-Bedarfsanalyse, bei der Optimierung von Gesch\u00e4ftsprozessen und sogar bei der Personalsuche. Doch wenn KI-Systeme zur automatisierten Entscheidungsfindung verwendet werden, k\u00f6nnen sie potenziell diskriminierende Entscheidungen treffen. Das kann das Ergebnis von verzerrten Daten und Performance-Metriken sein, die sich nachteilig auf bestimmte demografische Gruppen auswirken. Zudem kann es sich um Probleme bei der Implementierung handeln, die es den Betroffenen erschwert, den verantwortlichen Algorithmus f\u00fcr diese Benachteiligung zu identifizieren. Genauso schwer ist es, die entstehenden Nachteile zu beheben.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-scaled.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"729\" src=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-1024x729.jpg\" alt=\"\" class=\"wp-image-21404\" srcset=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-1024x729.jpg 1024w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-300x214.jpg 300w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-768x547.jpg 768w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-1536x1094.jpg 1536w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-2048x1459.jpg 2048w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2022\/06\/AdeAdewunmi_source-private_Querformat-1320x940.jpg 1320w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption>Ade Adewunmi, Strategy and Advising Manager bei Cloudera (Quelle: Privat)<\/figcaption><\/figure>\n\n\n\n<!--more-->\n\n\n\n<p>Die Problematik voreingenommener Systeme ist den Gesetzgebern bekannt. So wurden in den letzten Jahren zunehmend Gesetze und Verhaltenskodizes f\u00fcr mehr Transparenz bei der Nutzung von Algorithmen durch private, aber auch \u00f6ffentliche Einrichtungen gepr\u00fcft und verabschiedet \u2013 und das auf verschiedenen Gesetzesebenen. So hat beispielsweise die Europ\u00e4ische Union im vergangenen Jahr einen Entwurf f\u00fcr einen <a href=\"https:\/\/ec.europa.eu\/commission\/presscorner\/detail\/de\/QANDA_21_1683\">neuen europ\u00e4ischen Rechtsrahmen f\u00fcr KI<\/a> vorgelegt. Dar\u00fcber hinaus gibt es in der \u00d6ffentlichkeit viele Diskussionen \u00fcber die Schaffung von Rahmenbedingungen zur Einstufung von KI-Algorithmen \u2013 abh\u00e4ngig davon, welches Risiko sie f\u00fcr den Einzelnen und die Gesellschaft im Allgemeinen darstellen.<\/p>\n\n\n\n<p>Die Idee hinter diesen Regelungen ist es, den Regulierungsbeh\u00f6rden die Durchsetzung der neuen und bestehenden Ma\u00dfnahmen zu erleichtern und f\u00fcr den Einzelnen die rechtliche Grundlage zu schaffen, sich bei Verst\u00f6\u00dfen zu wehren. Es ist das Ergebnis jahrelanger zivilgesellschaftlicher Sensibilisierungs- sowie Lobbyarbeit und spiegelt die wachsende \u00f6ffentliche Wahrnehmung wider, dass der Einsatz von KI auch Risiken mit sich bringt und daher einer Regulierung bedarf. In diesem Zusammenhang m\u00fcssen Unternehmen die Auswirkungen von KI-L\u00f6sungen, die sie in ihre Systeme und Produkte einbauen, mit denen reale Menschen in Ber\u00fchrung kommen, kritischer bewerten.<\/p>\n\n\n\n<p><strong>Sch\u00e4den werden oft zu sp\u00e4t erkannt<\/strong><\/p>\n\n\n\n<p>Wie bereits festgestellt, k\u00f6nnen KI-Anwendungen, sobald sie implementiert sind, sowohl positive als auch negative soziale und wirtschaftliche Auswirkungen auf Menschen haben. Das kann Menschen betreffen, die von den jeweiligen Entwicklern zun\u00e4chst nicht als prim\u00e4re Endnutzer ihrer Dienstleistungen angedacht waren. Leider sind viele Organisationen nicht in der Lage, die negativen Auswirkungen des maschinellen Lernens (ML) zu verhindern. Hierf\u00fcr gibt es eine Reihe von Gr\u00fcnden. Der naheliegendste Grund ist, dass KI-Anwendungen f\u00fcr eine bestimmte Zielgruppe konzipiert sind, und w\u00e4hrend deren Bed\u00fcrfnisse und Anliegen gut erforscht sind, ist dies bei anderen betroffenen Gruppen nicht immer der Fall. Sch\u00e4den, die nicht prim\u00e4re Interessensgruppen erfahren, werden von \u00d6konomen als \u201enegative externe Effekte\u201c bezeichnet. Dieser Begriff beschreibt die indirekten Kosten, die Dritten durch das Verhalten eines Unternehmens entstehen. Ein Beispiel daf\u00fcr ist die Luftverschmutzung oder L\u00e4rmbel\u00e4stigung f\u00fcr Menschen, welche in der N\u00e4he einer Fabrik leben, die Waren herstellt, welche in erster Linie f\u00fcr den Export bestimmt sind. Allerdings k\u00f6nnen nicht nur Personen au\u00dferhalb der prim\u00e4ren Zielgruppe negativ betroffen sein. Manchmal erfahren auch kleinere oder marginalisierte Gruppen innerhalb einer Zielgruppe ungewollt negative Auswirkungen. <a href=\"https:\/\/edition.cnn.com\/2019\/11\/12\/business\/apple-card-gender-bias\/index.html\">So vermuten beispielsweise einige Nutzer der Apple Card in den USA, dass geschlechtsspezifische Vorurteile der Grund daf\u00fcr seien, dass Frauen, die die Kreditkarte beantragen, geringere Kreditbetr\u00e4ge erhalten als M\u00e4nner.<\/a><\/p>\n\n\n\n<!--nextpage-->\n\n\n\n<p><strong>Ein funktions\u00fcbergreifender Ansatz f\u00fcr st\u00e4rker ethisch ausgerichtete Algorithmen<\/strong><\/p>\n\n\n\n<p>W\u00e4hrend Daten eine Quelle f\u00fcr verzerrte Ergebnisse sein k\u00f6nnen, k\u00f6nnen die &nbsp;Entscheidungen, die KI-Fachleute in den verschiedenen Phasen des KI-Lebenszyklus treffen, auch Auswirkungen auf die F\u00e4higkeit des Unternehmens haben, ethische KI-Anwendungen zu entwickeln und zu betreiben. Dies gilt jedoch auch f\u00fcr die Entscheidungen in anderen Bereichen des Unternehmens. Gl\u00fccklicherweise k\u00f6nnen einige der &nbsp;Rahmenbedingungen und Prozesse, die ML-Ingenieure und Datenwissenschaftler bei der Entwicklung und dem Betrieb von ML-Anwendungen nutzen, dabei helfen, die Einf\u00fchrung von Verzerrungen innerhalb des ML-Entwickungsprozesses zu erkennen und anzugehen. Au\u00dferdem k\u00f6nnen diese Rahmenbedingungen die Ansichten und das Fachwissen von Kollegen aus anderen Unternehmensbereichen einbeziehen. Der Vorteil einer solchen funktions\u00fcbergreifenden, multidisziplin\u00e4ren Zusammenarbeit kann zu einer umfassenderen, soziotechnischen Bewertung der Schadensbegrenzung durch Algorithmen f\u00fchren. Dieser Ansatz steht im Einklang mit einigen von Organisationen wie der Algorithmic Justice Leage (AJL) vorgeschlagenen bew\u00e4hrten Verfahren.<\/p>\n\n\n\n<p>Zusammenfassend l\u00e4sst sich sagen, dass ein funktions\u00fcbergreifender Ansatz Unternehmen ermutigt, ganzheitlicher und kritischer dar\u00fcber nachzudenken, wie ihre Produkte und Dienstleistungen das Leben der Stakeholder beeinflussen. Dieser praktische Ansatz ist besonders vor dem Hintergrund n\u00fctzlich, dass das ethische Engagement einer Organisation besser daran gemessen werden kann, wie gut ihre Werte (und die daraus resultierenden Ergebnisse) umgesetzt werden, als daran, was diese Werte sind.<\/p>\n\n\n\n<p>Ein funktions\u00fcbergreifender, ganzheitlicher Ansatz hilft auch dabei zu identifizieren, wie gut die internen Systeme und Prozesse mit den festgelegten ethischen Zielen des Unternehmens \u00fcbereinstimmen und diese unterst\u00fctzen. Diese Einsicht kann helfen, Bereiche, die nicht zueinander passen, anzugehen. Zum Beispiel erheben viele Unternehmen keine Daten \u00fcber <a href=\"https:\/\/www.equalityhumanrights.com\/en\/equality-act\/protected-characteristics\">gesch\u00fctzte Merkmale<\/a>, wie beispielsweise das Geschlecht, die sexuelle Orientierung, Religion oder die Herkunft. In einigen F\u00e4llen ist dies sogar gesetzlich vorgeschrieben. Jedoch ist anzumerken, dass es dadurch erschwert werden kann, die Voreingenommenheit gegen\u00fcber Menschen mit eben diesen Merkmalen zu erkennen. Goldman Sachs, der Versicherer der Apple Card, bestand beispielsweise darauf, <a href=\"https:\/\/www.wired.com\/story\/the-apple-card-didnt-see-genderand-thats-the-problem\/\">keine Daten \u00fcber das Geschlecht zu erheben<\/a> oder diese beim Training seines Algorithmus zu verwenden. Das wiederum impliziert, dass ihr Algorithmus nicht in dieser Weise voreingenommen sein kann, da dies kein Faktor bei seinem Training war. Das ist jedoch nicht der Fall \u2013 Machine-Learning-Modelle k\u00f6nnen auf der Grundlage von Proxy-Merkmalen voreingenommene Muster aufgreifen und tun dies auch. Manchmal schr\u00e4nkt das Fehlen dieser Art von Daten die Wirksamkeit einer nachfolgenden Pr\u00fcfung ein. Solche Probleme m\u00fcssen Unternehmen mit bedenken, wenn sie deren Rahmenbedingungen zur Erkennung von Sch\u00e4den festlegen.<\/p>\n\n\n\n<p>Prominente Negativbeispiele und wirksame Lobbyarbeit zivilgesellschaftlicher Gruppen haben einen Trend zu einer st\u00e4rkeren beh\u00f6rdlichen Kontrolle und Forderungen nach mehr Transparenz bei der Nutzung von Algorithmen ausgel\u00f6st. Dies wird sich kaum \u00e4ndern. In diesem Kontext erkennen kluge Unternehmen, sowohl im \u00f6ffentlichen als auch privaten Sektor, wie wichtig es ist, das Vertrauen der \u00d6ffentlichkeit in ihre KI-gest\u00fctzten Produkte und Dienstleistungen zu gewinnen und zu erhalten. In wirksame Strategien zur Schadenserkennung und -behebung zu investieren ist ein Mittel, diesem Bedarf nachzukommen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>K\u00fcnstliche Intelligenz (KI) bietet f\u00fcr Unternehmen als Technologie der Zukunft neue M\u00f6glichkeiten, beispielsweise in der Kunden-Bedarfsanalyse, bei der Optimierung von Gesch\u00e4ftsprozessen und sogar bei der Personalsuche. Doch wenn KI-Systeme zur automatisierten Entscheidungsfindung verwendet werden, k\u00f6nnen sie potenziell diskriminierende Entscheidungen treffen. Das kann das Ergebnis von verzerrten Daten und Performance-Metriken sein, die sich nachteilig auf bestimmte demografische Gruppen auswirken. Zudem kann es sich um Probleme bei der Implementierung handeln, die es den Betroffenen erschwert, den verantwortlichen Algorithmus f\u00fcr diese Benachteiligung zu identifizieren. Genauso schwer ist es, die entstehenden Nachteile zu beheben.<\/p>\n","protected":false},"author":81,"featured_media":21404,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"colormag_page_container_layout":"default_layout","colormag_page_sidebar_layout":"default_layout","footnotes":""},"categories":[8,10036],"tags":[7951,16563,10986,19,16562,10939],"class_list":["post-21402","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artikel","category-kuenstliche-intelligenz","tag-algorithmus","tag-apple-card","tag-ml","tag-performance","tag-rechtsrahmen","tag-regulierung"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/21402","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/users\/81"}],"replies":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=21402"}],"version-history":[{"count":1,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/21402\/revisions"}],"predecessor-version":[{"id":21405,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/21402\/revisions\/21405"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/media\/21404"}],"wp:attachment":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=21402"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=21402"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=21402"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}