Im Banking gibt es Diskriminierungsproblem durch Künstliche Intelligenz. Ob nun Probleme in der biometrischen Datenanalyse von Minderheiten und People of Colour oder Probleme in der Spracherkennung aufgrund von Akzenten – KI hat ein Rassismusproblem. Im Bereich Banking kann das zu verheerenden Nachteilen für von der programmierten Norm abweichende Menschen führen. Zu diesen Ergebnissen kam jetzt das weltweit operierende Unternehmen Deloitte.
KI wird von Menschen programmiert und diese haben mit unter Vorurteile gegenüber verschiedenen Bevölkerungsgruppen. In der Programmierung kann es daher dazu kommen, dass bestehende menschliche Vorurteile verstärkt werden. Es ist wichtig, zu erkennen, dass die Stärke der Technologie stark vom Quellmaterial abhängt, das für das Training verwendet wird. Eine KI ist, zumindest zu Beginn ihrer Existenz, nur so gut, wie die Daten, mit denen sie gespeist wird. Im Programmierungsprozess kommt es zudem des Öfteren zur Nutzung unvollständiger oder nicht repräsentativer Datensätze, die die Objektivität der KI einschränken.
Laut der bekannten Politikwissenschaftlerin Rumman Chowdhury ist die Kreditvergabe ein Paradebeispiel für das Risiko, dass ein KI-System gegenüber marginalisierten Gemeinschaften voreingenommen ist. Sie sieht ein mögliches Problem bei der Verwendung von KI im Banking in der Kreditvergabe. Schon heute gäbe es erste Beispiele für die sogenannte „Algorithmische Diskriminierung“. In Chicago seien demnach vor allem in schwarzen Vierteln die Genehmigungen von Darlehen verweigert worden. Dass es ausgerechnet in Chicago dazu kommt, scheint kein Zufall. In dieser Gegend in den USA galten besonders strenge Rassengesetze und schwarze Viertel als No-Go-Areas. Diese Prägung überträgt sich Jahre später auf die Programmierung der KI – und das muss nicht mal bewusst geschehen.
Ein paar Jahrzehnte später werden Algorithmen entwickelt, um das Risiko verschiedener Bezirke und Einzelpersonen zu bestimmen. Und auch wenn Sie den Datenpunkt der ethnischen Herkunft einer Person möglicherweise nicht angeben, wird er implizit erfasst.
Es haben sich bereits Organisationen gebildet, die die sich zum Ziel gesetzt hat, People of Colour im KI-Sektor zu stärken, zum Beispiel die Black Women in Artificial Intelligence.
Dadurch, dass Einzelpersonen aus marginalisierten Gemeinschaften automatisch Kredite verweigert werden, würden Geschlechter- und Rassenunterschiede automatisch weiter verstärkt. Um Diskriminierung durch KI künftig zu umgehen, bedarf es einer ausgewählteren Vorbereitung der Daten, mit denen die KI gespeist wird.