Mit KI gerechtere Kredite und Policen vergeben

„Explainable AI“ (XIA) ist die Lösung

Sind künstliche Intelligenz und Machine Learning nun doch nicht für die Finanz- und Versicherungsbranche geeignet? Doch, sind sie, wenn man sie richtig nutzt. Denn mit der richtigen Lösung kann auch eine KI Daten und Informationen hinterfragen. Eine „Explainable AI“ (XAI) öffnet die „Black Box“ und zeigt die Methodik hinter ihren Herleitungen.

Ein Beispiel dafür ist die Mphasis XAI: Das System nutzt Algorithmen, um seine eigene Datenbasis zu hinterfragen. Die KI sucht nach signifikanten Ausschlägen in der Datenbasis und markiert diese. Außerdem können Nutzer die Daten nach „was-wäre-wenn“-Szenarien filtern. Wenn Änderungen an Variablen wie Geschlecht, Ethnie oder Alter vorgenommen werden und sich dadurch die Ergebnisse ändern, kann das darauf hindeuten, dass im Datensatz einzelnen Variablen eine zu große Bedeutung zugeordnet wurde.

Entscheider im Finanz- und Versicherungssektor halten KI-Einsatz für sinnvoll, doch wichtig ist, dass die KI ohne Vorurteile Entscheidungen trifft, meint Anurag Bhatia von Mphasis (Quelle: Pixabay, ar130405)

Die KI kann auch entlang der zeitlichen Ebene filtern. Statistische Ausschläge zu bestimmten Zeitpunkten lassen sich so mit Ereignissen abgleichen, die möglicherweise zu dem Ausschlag geführt haben. Nutzer können außerdem Einzelfälle mit den Durchschnittswerten des Datensatzes abgleichen. Wenn eine Gruppe weit vom Durchschnitt entfernt ist, ist das ein Indiz für eine „voreingenommene Informationsbasis“.

Außerdem kann die KI vergleichen, welche Variable bei Entscheidungsprozessen besonders hoch gewichtet wurden: Ein überproportional hoher Anteil an Ablehnungen für Kredite weisen eine bestimmte Variable auf, unterscheiden sich allerdings in den anderen Variablen. Das deutet darauf hin, dass ein Wert in den der Analyse zugrunde liegenden Informationen zu stark repräsentiert wird.

All diese Betrachtungen sind ebenfalls ein Lernprozess für die KI. Es geht schließlich nicht nur darum, die verwendeten Datensätze auf Bias zu untersuchen, sondern auch darum, Voreingenommenheit in Zukunft zu vermeiden. Das aggregierte Wissen aus einem KI-Projekt kann bei einer weiteren Machine-Learning-Initiative erneut zu Rate gezogen werden.

Eine KI muss Objektivität auch lernen

Digitalisierte Prozesse sollen objektiver und zuverlässiger sein als analoge, von Menschen gesteuerte, Prozesse. Damit das funktioniert, müssten, die Menschen, die diese Prozesse automatisieren, ebenfalls streng objektiv denken. Das ist quasi unmöglich. Je stärker ein System auf historischen Daten basiert, desto anfälliger ist es für die Ungenauigkeiten in diesen Informationen. Genauso wie Analysten einer Investmentbank die Gründe ihrer Investitions-Strategien erklären und hinterfragen müssen, sollten auch künstliche Intelligenzen ihren „Gedankengang“ offenlegen.