Mit KI gerechtere Kredite und Policen vergeben

Autor/Redakteur: Anurag Bhatia, Head of Europe Business bei Mphasis/gg

Künstliche Intelligenz soll objektive und zuverlässige Entscheidungen treffen – so die Anforderung in der Theorie. Das kann sie jedoch nur, wenn die Datenbasis, die ihr zur Verfügung steht, frei von Bias, also Verzerrung durch Vorurteile jeder Art, ist. Da das selten zutrifft, benötigt man eine Alternativlösung: „Explainable AI“.

KI kann nur objektive Entscheidungen treffen, wenn die Datenbasis, die ihr zu Verfügung steht, frei von Bias ist, meint Anurag Bhatia von Mphasis (Quelle: Pixabay, geralt)

Ob Lebensversicherung oder Immobilienkredit, Banken und Versicherer müssen sich bei ihren Leistungen absichern. Bisher hat sich darum meist ein menschlicher Mitarbeiter gekümmert. Der durchforstete den Hintergrund und die persönlichen Daten des potenziellen Kreditnehmers oder des zu Versichernden und bezog die Marktentwicklung mit ein. Anhand vordefinierter Regularien oder Erfahrungswerten der Berater wurde festgemacht, welche Konditionen der Kunde erhält, oder ob er vielleicht sogar abgelehnt wird.

Nun haben es Menschen aber an sich, dass sie nicht vollkommen objektiv sein können. Selbst der professionellste und faktenorientierteste Mitarbeiter kann – bewusst oder unbewusst – voreingenommene Entscheidungen treffen. Gerade im Bereich Versicherungs- und Finanzwesen kann das für Betroffene schwerwiegende Folgen haben. Wird jemandem wegen Voreingenommenheit ein Kredit verwehrt oder ein höheres Risiko bei der Versicherung attestiert, wirkt sich das negativ auf wichtige Bereiche seines Lebens aus.

Was also tun? Künstliche Intelligenz ist die scheinbar richtige und auch zukunftsweisende Lösung. So halten 45 Prozent der Entscheider im Finanz- und Versicherungssektor diese laut Studie für eine wichtige Innovation. KI ist als Maschine scheinbar objektiv und nicht voreingenommen. Schließlich arbeitet sie mit Daten und hat dabei keine emotionalen Reaktionen, weder bewusst noch unbewusst. Ihre Beurteilungen sind gerecht. So die Theorie.

Was tun, wenn die KI voreingenommen ist

Allerdings ist eine KI immer nur so gut, wie die Daten mit der sie gefüttert wird. Ist in diesen bereits Bias, also eine Verzerrung durch Vorurteile, enthalten, wird die KI diese Ansichten annehmen und weiterführen: Ein männlicher Bankberater könnte beispielsweise unbewusst männliche Applikanten für Kredite bevorzugen, selbst wenn, rein datenbasiert, seine finanzielle Ausgangslage schlechter ist als die einer Kundin. Wird dieser Datensatz genutzt, um mit neuronalen Netzen den Vergabeprozess für Kredite zu automatisieren, wird die KI diese Voreingenommenheit bei ihren Analysen einbeziehen. Von außen betrachtet fällt das wahrscheinlich nicht auf. Wie eine KI arbeitet, ist häufig eine „Black Box“.

Bei Versicherungen kann dies ebenfalls geschehen, sogar noch indirekter. Ein Beispiel: Ein Vermieter möchte seine Wohnungen versichern. Die Versicherung seiner Wahl nutzt seit einiger Zeit KI für die Risikoanalyse, an der der Tarif festgemacht wird. Kürzlich kam es in der Stadt, in der sich die Wohnungen befinden zu mehreren Bränden durch einen Brandstifter, der in der Zwischenzeit gefasst wurde. Einige Versicherungsberater sahen die Meldungen über die Brände in den Nachrichten und assoziierten „Brandgefahr“ unterbewusst mit der besagten Stadt. Das wirkte sich auf Anfragen aus dieser Region aus. Sie wurden aufgrund dieser unterbewussten Assoziation höher eingestuft. Die KI wurde mit den Daten dieser Mitarbeiter gefüttert. Nun ist es gut möglich, dass die KI das Schadensrisiko für das Eigentum des Vermieters wegen der Brandstiftungen höher einstuft, obwohl das in der Realität keine Rolle spielt.