Eine Firma entwickelt eine Rekrutierungssoftware, die geeignete Talente entdeckt. Doch der Algorithmus hat einen Haken – er sortiert Frauen aus. Ausgerechnet einer der grössten Tech-Konzerne der Welt machte mit diesem Skandal 2018 Schlagzeilen. Die Software von Amazon wurde infolgedessen eingestampft, doch die Thematik bleibt brisant.
Facebook-Algorithmus hält LKW-Fahrerinnen fern
Frauen werden immer noch technologisch diskriminiert. Und zwar bereits vor der Bewerbung. Ein Experiment von AlgorithmWatch zeigt, dass es bereits bei Stellenanzeigen zu diskriminierendem “Gendertargeting” kommt. Die NGO schaltete auf Facebook unterschiedliche Werbeanzeigen auf, die unter anderem mit Jobinseraten für LKW-Fahrer und Erzieher verlinkt waren. Beide Stellenanzeigen wurden bewusst in maskuliner Form formuliert und die Zielgruppe für die Werbeanzeigen wurden einzig anhand geografischer Kriterien eingegrenzt. Doch Facebook bestimmte seine eigenen Zielgruppen für die Anzeigen, und zwar basierend auf geschlechtsspezifischen Stereotypen. Während die Werbung für das Jobinserat als LKW-Fahrer nur 7 Prozent Frauen angezeigt wurde, erhielten 96 Prozent der Frauen dasjenige als Erzieher.
Angela Müller leitet das Policy-Team bei AlgorithmWatch, das regelmässig solche Forschungsprojekte durchführt. Sie legen sich dadurch mit den Tech-Giganten an – AlgorithmWatch wurde schon vermehrt unter Druck gesetzt, Forschungsprojekte abzubrechen: “Ich frage mich dann, was es für eine Gesellschaft heisst, wenn ein grosser Teil von Rekrutierungsprozessen über solche Plattformen ablaufen und wir nicht mal wissen dürfen, wie sie genau funktionieren”, sagt Angela Müller.
Die Schwangerschaft wird zum K.O.-Kriterium
Die Automatisierung hat in den letzten Jahren fast jeden Schritt im Rekrutierungsprozess durchdrungen – sei es bei der Prüfung der Dokumente und Qualifikationen, bei der Vorauswahl der Bewerbenden oder der Analyse von Bewerbungsgesprächen. Eine neue Studie der Harvard Business School besagt, dass der weltweite Markt für Rekrutierungs- Technologie bis 2025 auf 3,1 Milliarden US-Dollar wachsen werde - also eine Verdoppelung gegenüber 2017. Treiber des explodierenden Angebots an digitalen Rekrutierungshilfen sind grosse Firmen und ihr Streben nach mehr Effizienz.
Diesem Bedürfnis kommt die HR-Software nur scheinbar nach. Die angebliche Effizienz hat ihren Preis. Die Rekrutierungshilfen ermöglichen es Arbeitgebern zwar, die Bewerbenden rasch anhand bestimmter Kriterien zu filtern und auszusortieren. Schätzungen der Harvard Business School zeigen aber, dass die Maschinen allein in den USA über 27 Millionen qualifizierte Arbeitskräfte aussortiert haben. Frauen sind davon besonders häufig betroffen. So sortiert ein Grossteil der befragten Unternehmen Lebensläufe aus, die Lücken von mehr als sechs Monaten aufweisen. Da sich Algorithmen nicht für den Grund dieser Lücken interessieren, werden längere Mutterschafts-Abwesenheiten oder Pausen aufgrund von Care-Arbeit zum K.O.-Kriterium. Frauen zählen deshalb zu einer der Gruppen, die besonders häufig als qualifizierte Arbeitskräfte von den Algorithmen übersehen werden.
Die gläserne Bewerberin
Auch in der Schweiz werden automatisierte Tools zunehmend eingesetzt, um Mitarbeiter:innen zu gewinnen. Allerdings sei dies den Bewerbenden oft nicht bekannt, sagt Angela Müller. Dadurch entstehe ein enormes Risiko, dass sich das Machtgefälle zwischen Arbeitgeber:innen und Arbeitnehmer:innen noch vergrössere. Wenn Jobsuchende nicht vom Einsatz solcher Tools wissen, können sie sich auch nicht dagegen wehren.
Die Expertin betont, dass sie nicht grundsätzlich von HR-Tech abrät: “Systeme schaffen keine Vorurteile, sondern übernehmen und reproduzieren jene unserer Gesellschaft und Daten.” Insofern sieht sie die Lösung des Problems auch nicht auf technologischer Ebene. Vielmehr gehe es als ersten Schritt darum, Transparenz zu schaffen. Sie fordert: “Unternehmen müssen ihre Systeme wirklich verstehen. Zudem liegt es in ihrer Verantwortung, offenzulegen, wo sie überall eingesetzt werden.” Dies bedeute auch, dass Unternehmen Leute mit der notwendigen Expertise einstellen oder bestehende Mitarbeitende entsprechend schulen müssen.
Mit diversen Teams zu inklusiven Technologien
“Vielfalt bringt Erfahrung und unterschiedliche Perspektiven mit sich”, sagt Nadia Fischer. Sie hat bereits für die unterschiedlichsten Tech-Firmen gearbeitet – die Teams waren jedoch alles andere als vielfältig. Die Mitarbeiter waren meist männlich, weiss und Anfang dreissig. “Solche Teams entwickeln digitale Lösungen, die fast unser ganzes Leben bestimmen. Das finde ich sehr problematisch”, sagt sie.
Wie problematisch homogene Entwicklungsteams in Tech-Firmen sein können, zeigt Nadia Fischer am Beispiel HireVue auf. Das Tool analysiert für Unternehmen wie Hilton und Unilever während Interviews die Mimik, Gestik und Sprache der Bewerbenden. Das Problem: Die Software kann die Ausdrucksweise von Frauen oder nicht weisser Menschen nicht richtig interpretieren und bewertet diese deshalb schlechter. Solche Voreingenommenheit, sogenannte Biases, könnten durch vielfältigere Entwicklerteams reduziert werden, davon ist die Tech-Expertin überzeugt.
Aus dieser Überzeugung heraus hat Nadja Fischer deshalb vor drei Jahren ihr eigenes Unternehmen “Witty Works” gegründet. Das Zürcher Startup unterstützt Firmen dabei, ihre Kommunikation inklusiver zu gestalten – insbesondere auch bei Stellenausschreibungen. Diese seien häufig unbewusst männlich ausgerichtet. “Unternehmen betonen oft ihr wettbewerbs- und leistungsorientiertes Umfeld”, sagt die Gründerin, “etwas, das Frauen überhaupt nicht anspricht, weil sie auf Kooperation sozialisiert wurden.” Das Tool von Witty Works erkennt solche unbewussten Stereotypen in der Sprache und zeigt neutrale Alternativen.
Schlechte Daten, dumme Tools
Die Software von Witty Works arbeitet mittlerweile auch mit Künstlicher Intelligenz. Aussergewöhnlich dabei ist, dass das Team von Witty Works die Datengrundlage selbst erarbeitet hat. Basierend auf Studien zum Thema inklusive Sprache haben sie Regeln für den Algorithmus definiert. Erst danach, als all diese Regeln erstellt und getestet wurden, konnte das Tool mit maschinellem Lernen verstärkt werden. Nadia Fischer betont: “Wenn der Algorithmus von sich selbst lernen soll, muss er auf einer Datenbasis ohne Vorurteile aufbauen.”
Das Beispiel Witty Works verdeutlicht, dass Algorithmen nicht per se diskriminieren. Vielmehr sind die Menschen sowie die Daten dahinter entscheidend. Sind Systeme falsch gefüttert, verstärken und vervielfachen sie Diskriminierung in der realen Welt.