Von den 1940er bis zu den 1960er Jahren war Programmieren Frauenarbeit. Frauen galten als besonders qualifizierte Programmiererinnen (schließlich, so wurde argumentiert, waren sie auch in der Lage, Kochrezepte und Strickmuster zu entwerfen). Die Arbeit hatte noch nicht den Status, den sie heute hat, der Begriff „Software“ war noch nicht erfunden und „coding“ galt als sekundäre Aufgabe, während Ruhm und Ehre den Herstellern der Maschinen zukam. Dass es heute eklatant wenige Frauen in diesem Bereich gibt, hat also wenig mit der DNA oder anscheinend geschlechtsspezifischen Begabungen zu tun, sondern mit einer Sozialgeschichte, die im Einzelnen noch nachgezeichnet werden muss.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Vergangenheit, Gegenwart … und Zukunft?
In einem Land wie Deutschland, das zu den „KI-Nationen“ gehört, hat eine solche Schieflage erhebliche Konsequenzen: die asymmetrische ökonomische Partizipation von Frauen, der dringende Bedarf an Fachkräften, der nicht gedeckt werden kann und schließlich auch ein Qualitätsproblem. Wenn die Expertise und Erfahrung sehr vieler Menschen keinen Eingang in die Technologieentwicklung und -Implementierung finden, diese Technologien aber Leben und Gesellschaft entscheidend prägen, dann haben wir ein Problem.
Fragen der Geschlechtergerechtigkeit sind intersektionale Fragen. Das bedeutet, dass es nicht allein um „Frauen“ geht. Unterschiedliche Diskriminierungsmechanismen müssen zusammen gedacht werden: Die Benachteiligung aufgrund des Geschlechts ist verknüpft mit der Benachteiligung aufgrund des soziökonomischem Status und der Benachteiligung aufgrund von Herkunft und Hautfarbe.
Und was hat die Ethik damit zu tun?
Ethik ist nicht, wie Ulrich Beck es formulierte, die „Fahrradbremse am Interkontinentalflugzeug“. Ethik bremst nicht den Fortschritt, sondern fragt vielmehr, was Fortschritt ist und wie er gestaltet werden sollte. Aus einer ethischen Perspektive geht es darum, dass die Prinzipien, die grundlegend sind für eine demokratische Gesellschaft, übersetzt werden müssen für eine digitale demokratische Gesellschaft. Dazu braucht es neue Prozesse und Strukturen, etwa Verantwortung, Zurechenbarkeit, und gute Regulierung. Und es braucht das Wissen darum, wer von einer Technologie profitiert, wer einem Einsatz widersprechen kann und in welcher Weise neue Abhängigkeiten geschaffen werden können. Momentan zeigen sich die Probleme insbesondere als strukturelle Probleme, als Probleme der Repräsentation und als Gerechtigkeitsprobleme.
Probleme, Lösungen und die Problematik von Lösungen
Das strukturelle Problem der geringen Zahl an Frauen und Minderheiten im KI-Feld wird häufig als „Pipeline“-Problem behandelt. Man versucht, möglichst früh möglichst viele Mädchen und Frauen (und Minderheiten) in eine Pipeline hineinzustopfen. Ermutigung und Bildungsprogramme sind keineswegs falsch. Leider sind die Ergebnisse mittelmäßig. Die Pipeline ist undicht, und Frauen gehen unterwegs verloren. Das scheint deren Schuld zu sein: Sie können es nicht, sie wollen nicht, oder sie passen nicht. Ein so wahrgenommenes „Pipeline“-Problem vermeidet es nachzusehen, wie es im Inneren der „Pipeline“ aussieht und welche alternativen oder ungewöhnlicheren Wege es für die Karrierewege von Frauen und Minderheiten gibt und geben könnte. Wenn ein hoher Anteil an Frauen nach 10-15 Jahren das Arbeitsfeld KI wieder verlässt, dann müssen nicht nur Frauen und Minderheiten sich verändern, sondern genauso der existierende Mainstream.
Das Problem der mangelnden Repräsentation zeigt sich beispielweise in medizinischen Daten und endet noch nicht bei Daten für Stadtplanung oder Verkehrssicherheit: Daten und Datenanalysen liegen Entscheidungen zugrunde, und Frauen und andere, die nicht zum „Mainstream“ gehören, sind unterrepräsentiert oder missrepräsentiert. Mehr Daten, etwa von indigenen Frauen für Gesundheit und Bildung, sind entscheidend; denn nur das, was gezählt werden kann, zählt letztlich auch für Forschung, für die Zuteilung von Mitteln, für Unterstützung oder die Anerkennung von Rechten. Zugleich aber entsteht hier ein „paradox of exposure” – ein Paradox der Bloßstellung: Gerade diejenigen, die besonders davon profitieren könnten, wenn sie „gezählt“ werden, sind häufig in besonderer Gefahr durch eben diese Datenerfassung und Klassifizierung benachteiligt zu werden. Dazu gehören Migrant:innen, Menschen, die als „illegal“ gelten oder auch trans*Menschen, die konstant mit Angriffen zu rechnen haben.
Das Problem der Gerechtigkeit, im technischen Kontext als „bias“, also „Verzerrung“, benannt, ist Technikentwickler:innen bewusst. Technische Lösungen (DADM, FAcccTML und andere) werden beständig weiterentwickelt, sodass mit „Fair AI“ ein neues Forschungsfeld entstanden ist. Hier ist eine Definition von „bias“ nötig, die leicht operationalisiert und bis zu einem gewissen Grad korrigiert werden kann, beispielsweise dort, wo die Fehlerraten für eine einzelne Variable ungleich verteilt sind.
Es gibt aber Benachteiligungen, die komplexer sind und keine besondere Feindseligkeit oder Bevorzugung einzelner Menschen enthalten. Hier werden Menschen bestimmten Gruppen zugeordnet, und wahrscheinlichkeitstheoretische Einschätzungen von Gruppencharakteristika werden genutzt, um individuelle Charakteristika zu evaluieren. Ob die Gruppe „Frau“ oder „Trans*“ oder „Schwarz“ oder „Postleitzahl“ heißt – hier werden Gerechtigkeitsprobleme generiert. Sichtbar wird dies nicht nur bei Predictive Policing, bei der Vergabe von Krediten, Studienplätzen (usw.), sondern auch bei Systemen, die die Vernachlässigung oder den Missbrauch von Kindern verhindern sollen. Die Daten, die hier zugrunde liegen, sind beispielsweise Anträge auf Sozialhilfe und auf andere Unterstützung, kontinuierliche externe Überprüfungen und Polizeidaten. Arme Kinder tauchen wesentlich häufiger in den Datensätzen auf als andere. Damit sind (teil)automatisierte Systeme in Gefahr, „schlechte“ Eltern mit „armen“ Eltern zu verwechseln.
Wir brauchen also mehr Frauen und Minderheiten im KI-Bereich, aber wir brauchen genauso ein größeres Bewusstsein für Diskriminierungsvorgänge bei allen, die in diesem Bereich arbeiten und bei allen, die die Wirtschaft dieser Bereiche beeinflussen. Damit müsste KI ein interdisziplinäres Feld werden, das auch die Geistes- und Gesellschaftswissenschaften mit einbezieht. Die Entwicklung von Technologien, die innerhalb von komplexen sozialen Realitäten agieren sollen, erfordert ein kritisches Verständnis sozialer, rechtlicher und ethischer Kontexte und deren Interdependenz.
Digitale Hegemonien
Faktoren, die lange Zeit das Leben von Frauen bestimmt haben, und mittlerweile in den Geschlechterstudien diskutiert und kritisiert werden, finden sich auch in der Entwicklung von KI-Systemen wieder: unsichtbare Arbeit, Materialität (statt „Geist“) und kaum geschätztes Wissen. Hier können die KI-Analysen von feministischen Analysen lernen.
Eine der wenig wahrgenommenen Tatsachen ist die unsichtbare und unterbezahlte Arbeit, die KI-Systemen zugrunde liegen: monotone digitale Arbeit, labeling, und das „Säubern“ der Datensätze von schädlichen oder gewalttätigen Inhalten. Lilly Irani nennt dies: durch Menschen betriebene Automatisierung.
Materialität, Körperlichkeit und „Natur“ waren die Zuschreibungen für Frauen. KI gilt als immateriell und „sauber“. Aber es ist an der Zeit, zum einen den ökologischen Fußabdruck zu beziffern, zum anderen die Lieferketten offenzulegen, auch die Extraktion von seltenen Erden durch Kinderarbeit und Arbeit in Krisen- und Kriegsgebieten.
Was „Wissen“ bedeutet und was „Fakten“ sind, ist in westlichen Kontexten festgelegt worden. „Fake news“ sind ein aktuelles großes Problem – aber nicht das einzige Problem. Generative KI wie ChatGPT und die Nachfolgemodelle generieren aus vorhanden Datensätzen überschaubares Wissen, das wiederum in die Wissensbasis eingeht. Aber welches und wessen Wissen ist das? Und welches Wissen wird ausgeschlossen? Die Übermacht eines in Form und Inhalt „westlichen“ Wissens kann ein globales System wie KI in ein koloniales Werkzeug verwandeln.