Künstliche Intelligenz ist wunderbar und omnipräsent. Ihre Anwendung erstreckt sich über sehr sinnvolle, aber kaum wahrgenommene Bereiche wie intelligente Klimatechnik bis hin zu heiss debattierten Einsätzen im Kontext von Gesichtserkennung.
Gerade bei der Anwendung von KI auf Menschen, zeigt sich aber, dass KI oft nur scheinbar objektive Resultate erzeugt, wo sie in Tat und Wahrheit bestimmte Personen oder Personengruppen diskriminiert. Die Gründe dafür sind vielfältig. Oft stecken sogenannte «biases», also Voreingenommenheiten oder Verzerrungen bereits in den Datensätzen, mit denen KI-Anwendungen trainiert werden. Diese sind häufig nicht repräsentativ für die Menschen, auf welche KI angewendet wird. Und selbst wenn sie repräsentativ sind, so bilden sie bestenfalls gesellschaftliche Realitäten mitsamt all ihren Ungerechtigkeiten ab.
Ob es um die Diskriminierung von weiblichen Bewerbern durch KI-basierte Software auf dem Arbeitsmarkt geht oder um die Fehleinschätzung des Geschlechts durch eine Gesichtserkennungssoftware, die vor allem Dunkelhäutige trifft: täglich wird die Debatte darüber, ob KI «fair» ist, mit neuen Beispielen angereichert. Auch aus dem Finanzsektor.
20 Mal höhere Kreditlimite als Ehefrau
Vor gut zwei Jahren wurde beispielsweise Apple von einem Shitstorm erfasst. Ein einflussreicher Tech-Unternehmer wetterte auf Twitter gegen die Apple Card. Diese gibt Apple gemeinsam mit Goldman Sachs heraus. Die Grundlage, um die Kreditwürdigkeit von Antragsteller:innen zu beurteilen, ist ein Algorithmus. Der Unternehmer regte sich darüber auf, dass ihm Apple Card eine 20 Mal höhere Kreditlimite als seine Frau gab. Und dies obwohl seine Frau und er gemeinsame Steuererklärungen einreichen, eine Gütergemeinschaft haben und seit langem verheiratet sind. Warum um Himmels willen sollte er soviel kreditwürdiger sein als sie? Der Kundendienst konnte ihm den Grund dafür nicht erklären. Skandal! Umso mehr als andere User:innen ähnliche Erfahrungen schilderten. Schnell kam der Verdacht auf, dass es sich hier um einen Algorithmus handelt, der die Ungerechtigkeiten der Finanzwelt abbildet und Frauen diskriminiert.
Die zuständigen Behörden des Staates New York nahmen daraufhin den verdächtigen Algorithmus unter die Lupe. Resultat? Alles cool. Hier wird niemand diskriminiert. Goldman Sachs konnte die Kriterien, die für die Kreditvergabe entscheidend waren, dokumentieren. Das Geschlecht spielte dabei keine Rolle. Dieses darf in den USA schon von Gesetzes wegen nicht berücksichtigt werden bei der Kreditvergabe. Goldman hat das offensichtlich respektiert.
KI erkennt das Geschlecht
So weit so gut. Schön, dass Goldman keine «verbotenen Merkmale» ins Spiel bringt und der Algorithmus «geschlechterblind» entscheidet. Das Problem ist aber: Verbote, die Diskriminierung durch Menschen verhindern, reichen für Algorithmen nicht aus. Denn diese lassen sich nicht so einfach blenden. Längst ist bekannt, dass Algorithmen mit Hilfe von sogenannten Stellvertreter- oder Proxy-Variablen Rückschlüsse auf Merkmale ziehen können, die sie eigentlich gar nicht kennen dürfen. So kann KI beispielsweise aus den Hobbies in Lebensläufen, aus dem Vokabular in Motivationsschreiben, oder aus Einkaufsgewohnheiten in einem digitalen Profil das Geschlecht einer Person ableiten.
Kritiker:innen warfen den Behörden im Fall Apple Card denn auch vor, sie hätten ihre Arbeit schlampig gemacht. Unter anderem hätten sie genau die Möglichkeit von Diskriminierung durch Proxy-Variablen nicht gründlich genug überprüft. Die statistischen Tests, mit welchem die Behörden dem Algorithmus auf die Spur kommen wollten, seien schlicht zu «primitiv». Sie würden der Komplexität intelligenter algorithmischer Entscheidungsfindung nicht gerecht.
Alleinerziehende Mütter nicht vor Diskriminierung geschützt
Fazit der Kritiker:innen? Es sei nicht ausgeschlossen, dass die Apple Card nicht doch diskriminiert. Und zwar möglicherweise nicht ganz «trivial» zwischen Männern und Frauen, aber vielleicht zwischen Menschen mit einer bestimmten Kombinationen von Merkmalen (wie Ethnizität, Alter, Zivilstand und Geschlecht), die zusammen genommen Diskriminierung begünstigen.
Ihr Vorschlag lautet: «fairness through awareness». Sprich: Anstatt noch gründlicher in den Daten zu wühlen und sich in statistischen Tests zu verlieren, ist es am fairsten, wenn die geschützten Merkmale von Antragsteller:innen offengelegt werden. Der Algorithmus von Apple Card soll wissen, ob ein Antrag von einer Frau kommt. Er soll wissen, ob es sich um eine geschiedene Frau handelt, oder noch genauer, um eine geschiedene alleinerziehende Mutter, und womöglich sogar, welche Nationalität sie hat. Nur wenn man auch solche spezifischen «Subkulturen» von Menschen mit einer Kombination verschiedener Merkmale explizit kennt und die Kreditlimiten, die ihnen zugeteilt werden, miteinander vergleicht, kann man sicherstellen, dass wirklich keine Diskriminierung stattfindet.
Doch genau hier gibt es einen Haken: Nicht nur die Testmethoden der Prüfenden, sondern auch die Gesetze, an denen sie sich orientieren, entstammen dem letzten Jahrhundert. Und diese Gesetze verbieten das Sammeln von sensiblen Informationen über Antragsteller:innen. Warum? Eben genau darum, um Diskriminierung zu verhindern. Was in Zeiten menschlicher Intelligenz gut gemeint war und dem Schutz von Antragsteller:innen diente, wird in Zeiten Künstlicher Intelligenz zu einem Bumerang.
Was lernen wir daraus? Künstliche Intelligenz ist immer nur so gut wie die Gesellschaft, in der sie verwendet wird und wie die Gesetze, die ihren Einsatz regeln. Wir können Algorithmen frisieren wie wir wollen. Solange die Strukturen, in denen sie angewendet werden, gleich bleiben, stellt Künstliche Intelligenz keine Revolution dar, sondern nur eine Fortschreibung der Geschichte mit anderen Mitteln.