Hinter dem Begriff Künstlicher Intelligenz verbergen sich in der Regel algorithmische Systeme, die mithilfe verschiedener Methoden des maschinellen Lernens große Datenmengen analysieren. Algorithmen sind demnach das Ergebnis einer Modellbildung, die sowohl die Formalisierung eines Problems als auch eine entsprechende Zielsetzung beinhalten. Für die Effektivität von KI Systemen sind die Werte und Annahmen der Entwickler:innen von ebenso großer Bedeutung wie die dem zugrundeliegenden Daten und der Algorithmus, der aus ihnen lernt. Soziale Urteile darüber, wer oder was für eine Problemstellung relevant ist, wird von Systementwickler:innen durch Designentscheidungen und Operationalisierung von strategischen Zielen vorweggenommen. Wenn wir von Algorithmen sprechen, beziehen wir uns also genau genommen auf ein sozio-technisches Ensemble von technischen Anordnungen, in der die Beteiligung von Menschen aber verdeckt bleibt. Mit der Bezeichnung „Algorithmus“ wird verschleiert, dass kulturelle, gesellschaftliche und politische Werte lediglich in eine mathematische Sprache übersetzt sind und es entsteht eine Illusion von Objektivität bei der Nutzung von KI-Systemen, die nicht gerechtfertigt ist. Denn wir Menschen neigen dazu, vermeintlich objektiven KI-Systemen mehr zu vertrauen, als potenziell fehleranfälligen, mit Vorurteilen behafteten, emotionalen Menschen.
In algorithmischen Systemen können systematische Verzerrungen („Bias“) in jeder Phase ihres Lebenszyklus – von der Konzeptions- über die Entwicklungs-, Implementierungs-, Nutzungs- und Evaluierungsphase einfließen und damit zu Perpetuierung von Stereotypen und Vorurteilen, ungerechtfertigter Diskriminierung und Fehlentscheidungen führen. Das Berkeley Haas Center for Equity, Gender, and Leadership hat 133 Systeme aus den Jahren 1988 und 2021 branchenübergreifend analysiert und festgestellt, dass ein alarmierend hoher Anteil von 44,2 Prozent der Systeme einen geschlechtsspezifischen Bias aufweist. Etwa ein Viertel der Systeme weist sowohl geschlechts- als auch rassistische Vorurteile auf. In der Tat kommt der AI NOW Report (2018) zu dem Schluss, dass die Schäden und Verzerrungen in KI-Systemen außer Frage stehen: "Die Debatte ist entschieden, die Beweise sind über jeden Zweifel erhaben". Es stellt sich heraus, dass algorithmische Entscheidungen aufgrund unvollständiger oder unvollständiger Daten, unzureichender Modellierung und problematischer Zielsetzungen mit schwerwiegenden Problemen verbunden sind und im Grunde mit schwerwiegenden Folgen für den einzelnen und die Gesellschaft scheitern.
Der UNESCO Bericht 2018 „I’d blush if I could“ greift insbesondere die Bildungsunterschiede zwischen Frauen und Männer in den MINT und ICT-Bereichen auf und zeigt, wie sich Geschlechterstereotypen in segregierten Bildungsentscheidungen niederschlagen und dazu führen, dass Frauen massiv in der MINT und ICT Bildung als auch in den technischen Professionen unterrepräsentiert sind. Dies verschlechtert nicht nur gesellschaftliche Teilhabechancen von Frauen, sondern führt auch dazu, dass KI-Technologien hauptsächlich von Männern für Männer entwickelt werden – mit den Konsequenzen, die wir aus den oben angeführten Berichten kennen.
Um diesen Teufelskreis zu durchbrechen bedarf es daher massiver Anstrengungen – auch im Sinne der Qualität und Effektivität von KI Technologien – bei Entwickler:innen Teams einen Fokus auf Gendergerechtigkeit, Diversität und Inklusion zu setzen.
Die Potenziale von KI-Technologie können nur dann gehoben werden, wenn sie gendersensibel und inklusiv, die Menschenrechte achtend gestaltet ist. Das ist ausschließlich eine Frage unserer Werte und keine Frage der technischen Machbarkeit.