"Genderungerechte KI wird uns als Gesellschaft in die Vergangenheit katapultieren, wenn wir jetzt nicht handeln", sagt Swetlana Franken, Professorin für Betriebswirtschaftslehre an der Fachhochschule Bielefeld. Das Problem müsse durch vielfältige technische Maßnahmen und gesellschaftliches Bewusstsein angegangen werden. Das Problem: „Die durch KI und Algorithmen generierten Entscheidungen und Empfehlungen sind so gut, wie die zugrundliegende Datenbasis, an der sie trainiert wurden. Solange in der Gesellschaft und Wirtschaft (und damit auch in den Daten) Geschlechterrollen-Stereotype verbreitet sind, wird auch die KI diese Stereotype widerspiegeln.“
Im Hinblick auf Gendergerechtigkeit im digitalen Raum braucht es für Dr. Stefan Ullrich von der Gesellschaft für Informatik (GI) "eine soziotechnische Perspektive auf die Digitalisierung hinsichtlich Gestaltung, Nutzung und Zugang". Der Informatiker und Philosoph rät deshalb zu "kluger Gestaltung" der digitalen Transformation. Öffentliche Stellen hätten bereits Wege eröffnet, wie etwa die Umsetzungsstrategie „Digitalisierung gestalten“ und das Gutachten zum Dritten Gleichstellungsbericht der Bundesregierung zeigten. Als Richtschnur des Handelns diene dabei Artikel 3 Abs. 2 des Grundgesetzes. „Die Gesellschaft für Informatik gibt in ihrem Ethischen Kompass eine Orientierung.“
"Richtig gestaltet, erweitern KI-Systeme unsere Möglichkeiten, eine diskriminierungsfreie und geschlechtergerechtere Welt zu schaffen", sagt Prof. Dr. Nicola Marsden, Inhaberin der Forschungsprofessur für Sozioinformatik an der Hochschule Heilbronn und stellvertretende Vorsitzende des Kompetenzzentrums Technik-Diversity-Chancengleichheit. „Wir müssen sicherstellen, dass bei der Datenerfassung und -verarbeitung eine ausreichende Anzahl von Datenpunkten für alle Geschlechter vorhanden ist. Das heißt also paradoxerweise: Wenn wir wollen, dass Geschlecht keine Rolle mehr spielt, müssen wir ihm besondere Aufmerksamkeit widmen. Nur dann können wir existierende Ungerechtigkeiten korrigieren.“
Um Künstliche Intelligenz von vornherein gendergerecht aufzustellen, muss man zunächst einmal "ein Sensorium dafür haben, dass überhaupt eine Benachteiligung stattfinden kann", sagt Dr. Aljoscha Burchardt, Principal Researcher und stellvertretender Standortsprecher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. Idealer Weise sei man „Gender-neutral by Design“. Ein wichtiger Hebel seien die Trainingsdaten. „Die komplexen Antworten auf alle diese Fragen müssen wir in einem gesamtgesellschaftlichen Diskurs aushandeln.“
"Sprache ist nicht neutral. Wörter, die wir nutzen, um unsere Umwelt zu beschreiben, bestimmen, wie wir diese Welt sehen und empfinden", erklärt Nadia Fischer den Ausgangspunkt ihrer Unternehmung: Sie ist CEO & Co-founder des KI-basierten digitalen Schreibassistenten Witty, der in Wirtschaft und Gesellschaft für mehr Inklusivität sorgen soll. Sie bearbeitet das Problem vorranging in Bezug auf "Large Language Models" (LLM). Sie empfiehlt aktuell eine „Überprüfung der Resultate von Sprach-KI mit dafür gemachten Tools, die Voreingenommenheiten und Stereotypen in den LLM-Texten erkennen können. Diese Tools werden 'AI Whisperer' genannt. Sie flüstern den LLM-Texten gender-neutralere und unvoreingenommenere Lösungen ein“.
"Wir brauchen mehr Frauen und Minderheiten im KI-Bereich, aber wir brauchen genauso ein größeres Bewusstsein für Diskriminierungsvorgänge bei allen, die in diesem Bereich arbeiten und bei allen, die die Wirtschaft dieser Bereiche beeinflussen", macht Prof. Dr. Regina Ammicht Quinn die Komplexität der Thematik deutlich. Sie ist unter anderem Sprecherin und Leiterin des Bereichs Gesellschaft, Kultur und technischer Wandel des Wissenschaftlichen Rats des Internationalen Zentrums für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Einfache Lösungen gibt es nicht, zeigt sie detailliert in ihrem Beitrag auf.
Geschlechterstereotypen schlagen sich auch in algorithmischen Systemen nieder - was zur Perpetuierung von Stereotypen und Vorurteilen führt, ungerechtfertigter Diskriminierung und Fehlentscheidungen, erklärt Prof. Dr. Sabine T. Köszegi vom Institute of Management Science der Technischen Universität Wien. „Mit der Bezeichnung ‚Algorithmus‘ wird verschleiert, dass kulturelle, gesellschaftliche und politische Werte lediglich in eine mathematische Sprache übersetzt sind und es entsteht eine Illusion von Objektivität bei der Nutzung von KI-Systemen, die nicht gerechtfertigt ist.“ Ihr Fazit: „Die Potenziale von KI-Technologie können nur dann gehoben werden, wenn sie gendersensibel und inklusiv, die Menschenrechte achtend gestaltet ist. Das ist ausschließlich eine Frage unserer Werte und keine Frage der technischen Machbarkeit.“