Inwieweit ist eine gendergerechte KI, sind intelligent programmierte und gendersensitive Algorithmen für Sie ein praktisch relevantes Problem?
Vorab erlauben Sie mir vielleicht einen Kommentar zur Frage selber. Es wird oft in der Berichterstattung nicht differenziert, an welcher Stelle im komplexen KI-Entwicklungsprozess etwas schief gelaufen ist, bzw. an welcher Stelle Maßnahmen greifen sollten, damit KI-Systeme kein diskriminierendes bzw. benachteiligendes Verhalten zeigen. Das reicht von der Auswahl und Programmierung von Algorithmen über die Auswahl und das Training mit Daten bis hin zur Gestaltung der Mensch-Maschine-Schnittstelle und schließlich der Evaluation und Einführung von Technologie. Daher bin ich ein wenig über die Formulierung „intelligent programmierte Algorithmen“ gestolpert. Die Herausforderung ist vielschichtig.
Auf der Ebene individueller Forschungsprojekte spielen diese Fragen regelmäßig bei uns in ganz unterschiedlichen Kontexten eine Rolle. Dann holen wir typischerweise Experten mit ins Boot wie Ethikerinnen oder Patientenvertreter, da kennen wir als Technologinnen und Technologen unsere Grenzen.
Unsere zentrale Arbeitsgruppe Diversity & Gender Equality hat sich als ein Ziel gesetzt, genau die genannten Aspekte in der Forschung systematisch zu beleuchten, das Bewusstsein bei allen Mitarbeiterinnen und Mitarbeitern wach zu halten und mittelfristig auch aktiv an der Verbesserung des Forschungsstandes in diesen Fragen beizutragen.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
In welchen Bereichen sehen Sie eine besondere Dringlichkeit für entsprechende Lösungen?
Als Technologe möchte ich mir gar nicht anmaßen, hier eine Priorisierung vorzunehmen oder bestimmte Beispiele zu nennen und dabei sicherlich andere zu vergessen. Es ist grundsätzlich besonders wichtig, wenn wir es mit vulnerablen Gruppen zu tun haben, die sich möglicher Weise gar nicht wehren können, wenn sie ungerecht behandelt werden. Und es kommt natürlich auch auf die „Fallhöhe“ an: Geht es um existentielle Fragen? Wobei etwa bei Medizinprodukten oder Dienstleistungen der Daseinsvorsorge ja auch die gesetzlichen Grundlangen wie das AGG gelten.
Was ist denn konkret bei der KI-Entwicklung zu tun, damit kein Geschlecht von Algorithmen und Modellen benachteiligt wird? Welche Herausforderungen sind dabei zu lösen?
Das ist wirklich – und der Ausdruck ist ja auf seine Art sehr passend – die Gretchenfrage! Erst einmal muss man ein Sensorium dafür haben, dass überhaupt eine Benachteiligung stattfinden kann. Idealer Weise ist man „Gender-neutral by Design“. Ein wichtiger Hebel sind hierbei die Trainingsdaten. Da stellt sich dann häufig die Frage: Wenn meine Daten nicht ausgewogen sind, dann habe ich erstmal die Wahl: Will ich das insgesamt bessere System, das dann vielleicht für Männer oder Frauen im Vergleich besser funktioniert oder nutze ich nur einen ausgewogenen Teil der Daten und gleiche damit das System dann „nach unten“ an. Dann gibt es Möglichkeiten, synthetische Daten zu erzeugen oder vielleicht, sofern sie irrelevant sind, Geschlechtsmerkmale ganz aus den Daten zu entfernen. Das ist aber auch nicht trivial, beispielsweise geben Elternzeiten in Lebensläufen typischer Weise Hinweise auf ein bestimmtes Geschlecht. Das sind dann sogenannte Proxy-Merkmale. Hier beginnt dann der spannende Teil der Forschung.
Ist Gendergerechtigkeit vorrangig eine öffentliche Aufgabe oder auch privatwirtschaftlich relevant? Welche rechtlichen Vorgaben sollten diesbezügliche Algorithmen bekommen?
Wie ich bereits sagte, sind bestimmte Bereiche ja ohnehin schon reguliert. In der Enquete-Kommission „KI“ des Deutsche Bundestages haben wir seinerzeit viel über diese Fragen diskutiert. Insgesamt spielen so viele Aspekte hinein: Wer bestimmt, was Gleichheit ist? Wir kennen aus den Sozialen Medien den schmalen Grat zwischen Schutz und Zensur. Wer kontrolliert die Privatwirtschaft? Staatliche Akteure, halbstaatliche? Die Antwort fällt in Deutschland wahrscheinlich anders aus als in China. Die komplexen Antworten auf alle diese Fragen müssen wir in einem gesamtgesellschaftlichen Diskurs aushandeln.