Inwieweit ist eine gendergerechte KI, sind intelligent programmierte und gendersensitive Algorithmen für Sie ein praktisch relevantes Problem?
Die durch KI und Algorithmen generierten Entscheidungen und Empfehlungen sind so gut, wie die zugrundliegende Datenbasis, an der sie trainiert wurden. Solange in der Gesellschaft und Wirtschaft (und damit auch in den Daten) Geschlechterrollen-Stereotype verbreitet sind, wird auch die KI diese Stereotype widerspiegeln. Auch wenn ChatGPT – nach seiner Geschlechtergerechtigkeit gefragt – behauptet, geschlechtergerecht zu sein, stützt es seine Aussagen auf die Internetdaten aus der Vergangenheit, die Stereotype und Vorurteile beinhalten. Diese Problematik wird dadurch verstärkt, dass KI meistens von Männern programmiert und genutzt wird, sodass die Sensibilität für die Verzerrungen kaum vorliegt.
JETZT BESTELLEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
In welchen Bereichen sehen Sie eine besondere Dringlichkeit für entsprechende Lösungen?
Beim Trainieren von Algorithmen sollte man die Datensätze auf geschlechterspezifische (und allgemeiner auf jegliche) Diskriminierungen überprüfen und gegebenenfalls korrigieren bzw. vervollständigen. Die Daten müssen eine ausgewogene und repräsentative Stichprobe aller Geschlechter enthalten. Dies ist besonders dringend im Recruiting, wo Algorithmen mittlerweile selbstständig nach geeigneten Kandidat(inn)en im Netz suchen. Da Männer als Führungskräfte eher präsent und erfolgreich sind, sucht KI in erster Linie nach Männern.
Was ist zu tun, damit Algorithmen die Geschlechter unterscheiden und adäquat zuordnen können? Welche Herausforderungen sind dabei zu lösen?
Mangelnde Daten (speziell zu Frauen) erschweren diese Prozesse. Was hilft? Daten vervollständigen bzw. bereinigen, geschlechtergemischte Teams für programmieren und trainieren einsetzen, die Ergebnisse durch Frauen testen lassen. Gefragt ist auch eine KI-Ethik für Informatiker(innen), die mithilfe technischer Lösungen wie DADM (Discrimination-Aware Data-Mining) oder FATML (Fairness, Accountability and Transparency in Machine Learning) zu einer diskriminierungsfreien KI beitragen soll.
Allerdings können nicht alle Probleme nur durch eine Erhöhung des Frauenanteils an Programmierenden, Entwickelnden, Testenden gelöst werden (auch wenn das an sich schon schwer genug ist!). Die Wurzeln der Geschlechterungerechtigkeit liegen viel tiefer. Die Vorurteile gegenüber Frauen sind in den Köpfen von Männern und Frauen (!) und bleiben unbewusst. Ein bedeutender Schritt besteht darin, die Geschlechterrollenstereotype offenzulegen, bei sich selbst und den Anderen zu erkennen, zum relevanten Gesprächsthema in der Gesellschaft, im Unternehmen, in der Familie zu machen. Ein Meeting um 17 Uhr? Ein Zukunftsworkshop am Wochenende? Nein, danke! Die Unternehmenskultur sollte frauen- und familienfreundlicher werden.
Ist Gendergerechtigkeit vorrangig eine öffentliche Aufgabe oder auch privatwirtschaftlich relevant? Welche rechtlichen Vorgaben sollten diesbezügliche Algorithmen bekommen?
Die KI-Gendervorurteile beeinflussen automatisierte Entscheidungen und Empfehlungen sowohl in der Privatwirtschaft als auch im öffentlichen Sektor, insofern ist das eine Aufgabe für alle. Auch die Hochschulen, mit einem sehr geringen Anteil von hochdotierten Professorinnen, sollten sich mit dem Problem intensiver befassen. Auch die UNESCO (2022) formuliert eine KI-Ethik-Empfehlung und schlägt Maßnahmen vor wie diversere Zusammensetzung von KI-Teams, AI Ethics Officer in Betrieben etc.
Schon heute ist KI eine bedeutende Querschnittstechnologie in vielen Lebensbereichen, Tendenz steigend. Genderungerechte KI wird uns als Gesellschaft in die Vergangenheit katapultieren, wenn wir jetzt nicht handeln.