Inwieweit ist eine gendergerechte KI, sind intelligent programmierte und gendersensitive Algorithmen für Sie ein praktisch relevantes Problem?
Das ein absolut praktisch relevantes Problem, da KI und Algorithmen in immer mehr Bereichen unseres Lebens zum Einsatz kommen. In unserer Gesellschaft geschieht Geschlechterdiskriminierung meist unbewusst: Wir tragen tradierte Geschlechtervorstellungen in uns, die im Alltag wirksam werden, ohne dass wir dies intendieren. Das sieht man zum Beispiel daran, dass Gründerinnen eher nach den Risiken ihres Vorhabens gefragt werden, Gründer hingegen eher nach den Potenzialen. Oder wenn Männern technische Kompetenz qua Geschlecht zugesprochen wird, während Frauen sie zuerst und dann immer wieder aufs Neue beweisen müssen. Wenn algorithmische Systeme nun aus den Daten der Vergangenheit lernen, dann besteht die Gefahr, dass wir genau diese Verzerrungen perpetuieren, was sich beim Einsatz von KI im Recruitmentprozess auch schon gezeigt hat. Dabei haben wir die Chance, in allen Phasen der Gestaltung – der Datenerhebung, der Modellbildung, der Nutzenden-Interaktion – gezielt darauf hinzuwirken, dass die menschlichen Biases eben nicht zum Tragen kommen, sondern wir tatsächlich faire und gendergerechte KI schaffen.
JETZT BESTELLEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
In welchen Bereichen sehen Sie eine besondere Dringlichkeit für entsprechende Lösungen?
Besondere Dringlichkeit gibt es natürlich überall dort, wo das Leben und die Existenz von Menschen direkt betroffen sind.
Sie haben oben den Gender-Data-Gap in der Medizin genannt. Es gibt aber auch den Gender-Diagnose-Bias, der heute in der ärztlichen Praxis dazu führt, dass bestimmte Krankheiten bei Frauen unterschätzt oder weniger gut diagnostiziert werden. Wenn wir KI-Systeme nun einfach auf Basis der existierenden Daten lernen lassen, übernehmen sie den Bias. Schlimmer noch: Sie reproduzieren und verschärfen ihn. Faire KI-Lösungen können hier Leben retten.
Wenn Frauen auf Jobplattformen schlechter bewertet werden, wenn sie bei Einstellungen benachteiligt werden oder wenn Videokonferenzsysteme ihre Stimme so übertragen, dass sie weniger kompetent erscheinen, dann geht es zwar vordergründig nicht um Leben und Tod. Aber es geht um Grundrechte und die Frage, ob wir verhindern möchten, dass unsere Vorurteile automatisiert in Systemen perpetuiert werden.
Was ist zu tun, damit Algorithmen die Geschlechter unterscheiden und adäquat zuordnen können? Welche Herausforderungen sind dabei zu lösen?
Die Betrachtung nach Geschlecht ist wichtig, um Diskriminierungen wirksam zu begegnen. Auch und gerade wenn wir Gleichstellung wollen, dürfen wir Geschlecht nicht unsichtbar machen. Wir müssen sicherstellen, dass bei der Datenerfassung und -verarbeitung eine ausreichende Anzahl von Datenpunkten für alle Geschlechter vorhanden ist. Hierbei sollten auch Aspekte wie Alter, ethnischer Hintergrund und sozioökonomische Unterschiede berücksichtigt werden.
Das heißt also paradoxerweise: Wenn wir wollen, dass Geschlecht keine Rolle mehr spielt, müssen wir ihm besondere Aufmerksamkeit widmen. Nur dann können wir existierende Ungerechtigkeiten korrigieren. Es funktioniert nicht, Geschlecht einfach wegzulassen – dann kommt es über sogenannte Proxies wieder in die KI-Systeme hinein. Dafür wurden zum Beispiel Kreditvergabealgorithmen kritisiert. Sie hatten Geschlecht explizit nicht beachtet, was dann aber über mit Geschlecht korrelierenden Faktoren zu einer geringeren Kreditvergabe an Frauen geführt hat.
Ist Gendergerechtigkeit vorrangig eine öffentliche Aufgabe oder auch privatwirtschaftlich relevant? Welche rechtlichen Vorgaben sollten diesbezügliche Algorithmen bekommen?
Sowohl als auch. Die meisten Unternehmen möchten Geschlechtergerechtigkeit aktiv umsetzen und dazu beitragen, Diskriminierung zu minimieren und eine inklusivere Gesellschaft zu fördern. Sie tun dies aus sozialer Verantwortung und um ihr Geschäft zu verbessern.
Aktuell gibt es im Rahmen der Vorbereitung des AI-Acts, der europäischen Regelungen für Transparenz und Verantwortlichkeit von KI-Systemen, eine Diskussion über die Aufwände, die solche Regelungen mit sich bringen. Aber: Niemand von uns möchte, dass über unser Leben Entscheidungen getroffen werden, die möglicherweise unfair sind und die nicht erklärbar sind. Deshalb gilt es, unaufgeregt zu überlegen, wie wir Lösungen schaffen, die unserem Verständnis von Transparenz, Verantwortlichkeit und Datenschutz gerecht werden. Denn, richtig gestaltet, erweitern KI-Systeme unsere Möglichkeiten, eine diskriminierungsfreie und geschlechtergerechtere Welt zu schaffen – dieses Potenzial sollten wir nutzen.