Wake up to the Naked AI Truth – ein Weckruf

Wake up. Du spielst sonst in der Zukunft keine Rolle mehr.
Frauen gehören seit einem Jahrzehnt zu den vor Künstlicher Intelligenz. Obwohl Frauen nur gerade der Mitarbeitenden im KI-Sektor ausmachen, sind unter den wenigen, die es bis dahin geschafft haben, auch die grössten Kritikerinnen. Da ist beispielsweise Tech-Expertin Timnit Gebru, ehemalige Leiterin des Google AI Ethics Lab, die zu unbequem und gefeuert wurde. Selbst die ChatGPT Erfinderin Mina Murati - viele schreiben dessen Schöpfung nach wie vor Sam Altman zu - äusserte früh ethische Bedenken bevor sie OpenAI verliess, um sichere und ethische AI zu entwickeln. Nun wird immer klarer: Aus gutem Grunde.
In den letzten Wochen haben sich die Bad News zur künstlichen Intelligenz geradezu überschlagen:
- Elon Musks KI-Chatbot Gork Frauen und Mädchen.
- Sam Altmans generative AI schlägt Frauen auf Jobsuche und schlechtere Jobs vor.
- Chat GPT & Co machen Frauen krank, der Fragen zu Frauengesundheit hat die AI in einer Studie unzureichend beantwortet.
- Vielen Frauen ist auf Microsofts LinkedIn die Reichweite eingebrochen. In Tests haben sie ihr Geschlecht geändert und damit «als Männer» ihre Reichweite vervielfacht.
AI skaliert das Patriarchat
Kurzum, die von Männern entwickelte und finanzierte «schöne neue AI-Welt» sieht für Frauen bereits so aus, sie:
✖️✖️ verdrängt Frauen aus Jobs, Debatten und Sichtbarkeit
✖️✖️ macht Frauen kränker, weil ihre Körper nicht als Norm gelten
✖️✖️ macht Frauen ärmer, weil sie systematisch niedriger bewertet werden
Patrizia Laeri
Und das ist nicht einfach ein technischer Bug, der rasch korrigiert werden könnte. Das ist mittlerweile automatisierte strukturelle Ungleichheit. Sprich die bestehenden Missstände der realen Welt sind in der Online-Welt um ein Vielfaches multipliziert worden. Oder anders formuliert: AI skaliert das Patriarchat.
Wenn Frauen dagegen vorgehen, wird es politisch gefährlich
Wer die Macht der Algorithmen infrage stellt, wird aber nicht nur ignoriert oder entlassen – sondern gar sanktioniert.
Die beiden Co-Geschäftsführerinnen von , einer europäischen Organisation gegen digitale Gewalt, landeten auf einer US-Sanktionsliste. Der Vorwurf: Sie decken algorithmische Diskriminierung auf und gehen juristisch gegen grosse Tech-Konzerne vor. Dies gipfelte in einem Einreiseverbot in die USA.
Was also tun? Genau das habe ich die AI gefragt. Spoiler: Ich bin sehr zufrieden mit den Antworten.
💡 Was jetzt konkret zu tun ist – ein Massnahmenkatalog
1) Daten reparieren
- Verpflichtende Gender-Audits für Trainingsdaten
- Öffentliche Offenlegung, wessen Daten fehlen – und warum
- Massive Investitionen in Frauen- und Diversitätsdaten (Gesundheit, Arbeit, Care)
2) Algorithmen haftbar machen
- KI-Systeme müssen wie Produkte behandelt werden: mit Haftung bei Schaden
- Klare rechtliche Verantwortung für diskriminierende Outputs
- Klagerechte für Betroffene von algorithmischer Gewalt
3) Frauen in die Systeme holen – nicht nur in Panels
- Mindestquoten für Frauen in AI-Entwicklung, Forschung und Governance
- Öffentliche Fördergelder nur bei nachweislicher Diversität in Tech-Teams
- Bezahlung, nicht Ehrenamt, für Ethik- und Advisory-Arbeit
4) Plattformen zur Rechenschaft zwingen
- Transparenzpflichten für Reichweiten-Algorithmen
- Offenlegung von Shadowbanning-Mechanismen
- Unabhängige Kontrollinstanzen mit Sanktionsmacht
5) AI-Kompetenz für Frauen massiv ausbauen
- Kostenlose AI-Weiterbildungen für Frauen in allen Lebensphasen
- Förderung von Female-Led AI-Startups
- Zugang zu Kapital, Rechenleistung und Infrastruktur
6) Politischen Druck erhöhen
- AI-Regulierung nicht den Tech-Lobbyisten überlassen
- Zivilgesellschaftliche Organisationen schützen – nicht kriminalisieren
- Internationale Standards gegen algorithmische Diskriminierung etablieren
Dies zeigt, dass künstliche Intelligenz vor allem so gebaut ist, dass sie uns selbst gefällt. Das sagt wiederum alles über Männer, die AI dazu nutzen - oder missbrauchen -, um online Gewalt und Sexismus gegen Frauen auszuleben.
Hilf mit, den Gender AI Gap zu schliessen!
Wenn wir heute glauben, das Problem löse sich «von selbst», dann haben wir die Geschichte nicht verstanden.






