Künstliche Intelligenz wird bildlich oft so dargestellt, als gäbe es keine Menschen dahinter: Humanoide Roboter laufen von allein. Codes leuchten bläulich-weiss auf einsamen Grossraum-Bildschirmen. Und auch ChatGPT simuliert ein Gespräch mit einem Gegenüber, ohne dass tatsächlich eine Bürokollegin anwesend ist.
Doch das Bild trügt: Künstliche Intelligenz entsteht nicht magisch in weit entfernten Clouds. Künstliche Intelligenz ist menschengemacht. Es ist daher weder neu noch bahnbrechend, dass das Weltbild, mit dem Software-Ingenieur:innen Codes schreiben und Datenwissenschaftler:innen Datensets sortieren und in ein Modell einspeisen, mitentscheidet, welches Weltbild eine künstliche Intelligenz widergibt. Höchste Zeit also, aus feministischer Perspektive zu verstehen, wo die technologischen Stellschrauben sind, mit denen diskriminierende Vorurteile – «biases» – verändert werden können.
Was mit künstlicher Intelligenz gemeint ist
Um künstliche Intelligenz zu verstehen, lohnt sich ein kurzer Überblick über die technologischen Fachbegriffe. Oliver Bendel ist Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz und hat sich auf Informationsethik und Maschinenethik spezialisiert. Er versteht sowohl die technologischen Prozesse als auch die ethischen Probleme hinter künstlicher Intelligenz. «Bei ‹künstlicher Intelligenz› geht es darum, das menschliche Denk-, Problemlösungs- und Entscheidungsverhalten computerbasiert ab- und nachzubilden.»
Seit den 1980er-Jahren hat sich daraus das sogenannte «Machine Learning» oder «Deep Learning» entwickelt. Das ist der Bereich, den eine breite Öffentlichkeit mit künstlicher Intelligenz oder Artificial Intelligence (AI) assoziiert: Durch diese Entwicklung können computerbasierte Maschinen selbstständig dazulernen. Sogenannte «Generative Pretrained Transformers»-Modelle (kurz GPTs) wie ChatGPT sind damit beispielsweise in der Lage, aus bereits vorhandenen Daten neue, noch nicht existierende Daten zu generieren. Oliver Bendel erklärt den technologischen Prozess dahinter so: «Maschinelles Lernen basiert auf neuronalen Netzwerken: Zwischen Input und Output sind verschiedene Schichten vorhanden. Dort findet der Lernvorgang statt. Wenn es viele Schichten und viele Daten gibt, spricht man von Deep Learning.»
KI beibringen, dass Katzen keine Hasen sind
So trainieren Informatiker:innen und Ingenieur:innen beispielsweise ein GPT-Modell, indem sie ihm Bilder von Katzen zeigen und beibringen, was eine Katze ist und wie sie sich von einem Hund, einem Hasen oder einem Hamster unterscheidet. Das geschieht über sogenanntes «Prompt Engineering» oder «Reinforcement Learning»: Wenn etwas inkorrekt dargestellt wird – sollte also eine Katze plötzlich Hasenohren bekommen – erhält das Modell das entsprechende Feedback und passt seine Schichten – die neuronalen Netzwerke – an. Vergleichen kann man diesen Prozess mit dem Telefonspiel: Wenn alle Personen das richtige Wort gesagt bekommen und es richtig weitergeben, kommt am Ende das richtige Ergebnis heraus. Im Fall von ChatGPT wurde das GPT nicht mit Bildern trainiert, sondern mit Milliarden von Text-Dateien.
KI und Feminismus
Und damit sind wir mitten in den heiklen Fragen: Wer wählt die Daten aus? Woher stammen sie? Wer verarbeitet sie? Und vor allem: Wie? Oliver Bendel erklärt: «Seit der Entstehung des World Wide Web haben wir Menschen Milliarden von Dokumenten ins Internet gebracht. Das sind Fachtexte, journalistische Texte, es sind aber auch Kommentare und dementsprechend Befindlichkeiten, Bewertungen und Gemeinheiten drin – Liebe genauso wie Hass. Das haben diese Systeme aufgesaugt.»
Das hat direkte Konsequenzen für den Output: Werden diese Daten einfach übernommen, ohne dass sie geprüft werden, lernt ein System, dass es okay ist, Menschen aufgrund ihres Geschlechts, ihrer Hautfarbe oder ihrer Herkunft ab- oder aufzuwerten – um nur einige diskriminierende Faktoren aufzuzählen. Ein berühmtes Beispiel ist das Experiment von Barbie-Hersteller Mattel. Zum Filmstart kreierte dieser mit dem Bildgenerator «Midjourney» KI-Bilder, die zeigen sollten, wie Barbie in jedem Land der Welt aussehen würde. Die südsudanesische Barbie trug eine Waffe und die Hautfarben lateinamerikanischer Barbies waren weisser als landestypisch. Zwei sinnbildliche Beispiele dafür, dass «weiss» als Schönheitsideal gilt und das World Wide Web nicht mehr zu Südsudan weiss, als dass es dort bewaffnete Konflikte gibt.
Die Sache mit den Daten
Neben dem Training der KI gibt es auch aus feministischer Sicht einige Herausforderungen. Das «Feminist AI Researchers Network» (fAIr) betont deshalb in einem Paper, wie grundlegend wichtig die Auswahl und das Sortieren, Gewichten und Labeln der Daten aus feministischer Sicht ist: Vielmehr als die Algorithmen bestimmen diese Vorgänge den Output einer KI. Daher ist ebenso entscheidend, wer diese Daten bewertet, bevor sie in ein GPT-Modell eingespiesen werden. Obwohl das Material anhand bestimmter Aspekte gesichtet und bewertet werden soll, «sitzen da trotzdem unterschiedliche Leute mit Geschmäckern und Vorlieben. Vermutlich sind es mehr Männer als Frauen, aber dafür kann ich nicht bürgen», so Bendel. Diese Menschen labeln zwangsläufig auch aufgrund ihrer Geschlechtlichkeit und aus ihrer Befindlichkeit: «Sinnvoll wäre natürlich, wenn diejenigen, die diese Daten labeln, einen Querschnitt der Bevölkerung darstellen, also dass KIs von Kindern, Jugendlichen, Erwachsenen, Jungen, Alten, Männern, Frauen, intersexuellen Menschen etc. trainiert würden», so Bendel. Leider findet dieser Prozess oft in Billiglohnländern statt, wo es ohnehin schwierig sei, Menschen für diese Arbeit zu bekommen.
Weitere Fragen und Grenzen
Neben den Trainings sind auch viele weitere Fragen unberührt: Etwa die rechtliche Frage nach dem Umgang mit den Daten – also wann es in Ordnung ist, Daten oder Bilder zu paraphrasieren oder zu adaptieren und wann Eigentumsrechte verletzt werden. Doch es geht auch um weit mehr als Daten an und für sich: So kritisiert KI-Forscherin Kate Crawford in ihrem Buch «Atlas of AI», dass viel zu wenig darüber nachgedacht wird, wie intensiv um planetarische Ressourcen – wie beispielsweise seltene Metalle – gekämpft wird, damit KI-Technologien überhaupt gebaut werden können. Auch die Energiebilanz dieser Hochleistungscomputer ist alles andere als umweltfreundlich.
Die südamerikanische KI-Forscherin Juliana Guerra kritisiert in ihrem Paper, dass viele KI-Tools in westlichen, industrialisierten Ländern wie Nordamerika entwickelt, aber in vielen verschiedenen kulturellen und sozialen Kontexten angewandt werden. Das hat verheerende Konsequenzen. Paz Peña und Joana Varon vom Kollektiv «Not my AI» schildern die problematische Situation, dass brasilianische oder argentinische Regierungsorganisationen eine in den USA entwickelte KI in südamerikanischen Favelas anwenden. Dies mit dem Ziel, vermeintliche Risikofaktoren von Teenager-Schwangerschaften zu erkennen und solche Schwangerschaften verhindern zu können. Dabei würde im Endeffekt aber das reale Leben junger Frauen stigmatisiert.
Sowohl Crawford als auch Guerra fordern deshalb, künstliche Intelligenz nicht nur als Technologie, sondern als politisches Mittel zu sehen. Denn Staaten setzen KI-Technologien ein, um Macht auszuüben: Sei es, indem sie Lithium-Minen bauen, Angestellte in Billiglohnländern ausbeuten, die Körper von Menschen kontrollieren oder Kriege führen. Auch Bendel betont, dass er alles ablehnt, was auf eine Überwachung von Menschen hinausläuft: «KI soll nicht dazu da sein, uns das Leben schwierig zu machen. KI muss dazu dienen, uns das Leben leicht zu machen.» Allerdings sind die Grenzen der KI für ihn deutlich gesteckt: «Maschinen bilden lediglich etwas ab. Sie sind wunderbar darin, Intelligenz, Moral oder Bewusstsein zu simulieren. Doch sie verfügen nicht wirklich über diese Eigenschaften.»
Und wie geht nun feministische KI?
Für transparente und gleichberechtigtere KI braucht es für Oliver Bendel mehrere Ansätze: Man kann der KI beibringen, was erwünschte und was unerwünschte Ergebnisse sind. Das geht sowohl über die angesprochenen Methoden «Reinforcement Learning from Human Feedback» und «Prompt Engineering», also dass man der KI sagt, was ein gutes Ergebnis ausmacht. Es geht aber auch, indem man den Chatbot mit vielen Dokumenten füttert, mit Richtlinien, Leitlinien, Etiketten oder der Erklärung der Menschenrechte. So gibt man den Maschinen vor, was erlaubt ist und was nicht. Dabei kann es sich um eine Form von Constitutional AI handeln, umgesetzt mit Finetuning. Doch damit ist es für Oliver Bendel nicht getan: «Wir brauchen gute Data Scientists, die wissen, was geeignete Datensätze sind, was man damit machen, wie man sie missbrauchen, aber auch so gestalten kann, dass sie ohne Verzerrungen und Vorurteile sind. Gleichzeitig braucht es Ethiker, um Probleme zu erkennen, sie zu beschreiben und gegebenenfalls aufzulösen.»
Ausserdem rät er zu Open-Source-Modellen. In diesen machen Firmen die Daten, Methoden und Codes transparent, mit denen KIs trainiert und entwickelt wurden. Das birgt natürlich die Gefahr, dass jede beliebige Person diese Codes verändern kann. Trotzdem befürwortet Bendel dies. Denn es gibt denjenigen, die KIs für sich entdecken und nutzen wollen, die Möglichkeit, selbst Regeln zu bestimmen. Missbräuche, wie etwa das Erstellen von Deepfakes wie Nacktbilder von Taylor Swift, sollten zudem juristisch geahndet werden.