Menue-Button
← FACHDEBATTE
Statement20.06.2023

Ethik ist nicht die Fahrradbremse am Interkontinentalflugzeug

Warum eine ethische Perspektive notwendig ist, um Diskriminierungsmechanismen offenzulegen

Prof. Dr. Regina Ammicht-Quinn, Universität Tübingen Quelle: Margret Garbrecht, Tübingen Prof. Dr. Regina Ammicht-Quinn Sprecherin IZEW Universität Tübingen
INITIATOR DIESER FACHDEBATTE
Uwe Rempe
Freier Journalist
Meinungsbarometer.info
ZUR FACHDEBATTE

"Wir brauchen mehr Frauen und Minderheiten im KI-Bereich, aber wir brauchen genauso ein größeres Bewusstsein für Diskriminierungsvorgänge bei allen, die in diesem Bereich arbeiten und bei allen, die die Wirtschaft dieser Bereiche beeinflussen", sagt Prof. Dr. Regina Ammicht Quinn. Sie ist unter anderem Sprecherin und Leiterin des Bereichs Gesellschaft, Kultur und technischer Wandel des Wissenschaftlichen Rats des Internationalen Zentrums für Ethik in den Wissenschaften (IZEW) der Universität Tübingen.





Von den 1940er bis zu den 1960er Jahren war Programmieren Frauenarbeit. Frauen galten als besonders qualifizierte Programmiererinnen (schließlich, so wurde argumentiert, waren sie auch in der Lage, Kochrezepte und Strickmuster zu entwerfen). Die Arbeit hatte noch nicht den Status, den sie heute hat, der Begriff „Software“ war noch nicht erfunden und „coding“ galt als sekundäre Aufgabe, während Ruhm und Ehre den Herstellern der Maschinen zukam. Dass es heute eklatant wenige Frauen in diesem Bereich gibt, hat also wenig mit der DNA oder anscheinend geschlechtsspezifischen Begabungen zu tun, sondern mit einer Sozialgeschichte, die im Einzelnen noch nachgezeichnet werden muss.

JETZT HERUNTERLADEN

DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT

alle Debattenbeiträge ungekürzt im Original
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
MEHR ERFAHREN


Vergangenheit, Gegenwart … und Zukunft?
In einem Land wie Deutschland, das zu den „KI-Nationen“ gehört, hat eine solche Schieflage erhebliche Konsequenzen: die asymmetrische ökonomische Partizipation von Frauen, der dringende Bedarf an Fachkräften, der nicht gedeckt werden kann und schließlich auch ein Qualitätsproblem. Wenn die Expertise und Erfahrung sehr vieler Menschen keinen Eingang in die Technologieentwicklung und -Implementierung finden, diese Technologien aber Leben und Gesellschaft entscheidend prägen, dann haben wir ein Problem.

Fragen der Geschlechtergerechtigkeit sind intersektionale Fragen. Das bedeutet, dass es nicht allein um „Frauen“ geht. Unterschiedliche Diskriminierungsmechanismen müssen zusammen gedacht werden: Die Benachteiligung aufgrund des Geschlechts ist verknüpft mit der Benachteiligung aufgrund des soziökonomischem Status und der Benachteiligung aufgrund von Herkunft und Hautfarbe.

Und was hat die Ethik damit zu tun?
Ethik ist nicht, wie Ulrich Beck es formulierte, die „Fahrradbremse am Interkontinentalflugzeug“. Ethik bremst nicht den Fortschritt, sondern fragt vielmehr, was Fortschritt ist und wie er gestaltet werden sollte. Aus einer ethischen Perspektive geht es darum, dass die Prinzipien, die grundlegend sind für eine demokratische Gesellschaft, übersetzt werden müssen für eine digitale demokratische Gesellschaft. Dazu braucht es neue Prozesse und Strukturen, etwa Verantwortung, Zurechenbarkeit, und gute Regulierung. Und es braucht das Wissen darum, wer von einer Technologie profitiert, wer einem Einsatz widersprechen kann und in welcher Weise neue Abhängigkeiten geschaffen werden können. Momentan zeigen sich die Probleme insbesondere als strukturelle Probleme, als Probleme der Repräsentation und als Gerechtigkeitsprobleme.

Probleme, Lösungen und die Problematik von Lösungen
Das strukturelle Problem der geringen Zahl an Frauen und Minderheiten im KI-Feld wird häufig als „Pipeline“-Problem behandelt. Man versucht, möglichst früh möglichst viele Mädchen und Frauen (und Minderheiten) in eine Pipeline hineinzustopfen. Ermutigung und Bildungsprogramme sind keineswegs falsch. Leider sind die Ergebnisse mittelmäßig. Die Pipeline ist undicht, und Frauen gehen unterwegs verloren. Das scheint deren Schuld zu sein: Sie können es nicht, sie wollen nicht, oder sie passen nicht. Ein so wahrgenommenes „Pipeline“-Problem vermeidet es nachzusehen, wie es im Inneren der „Pipeline“ aussieht und welche alternativen oder ungewöhnlicheren Wege es für die Karrierewege von Frauen und Minderheiten gibt und geben könnte. Wenn ein hoher Anteil an Frauen nach 10-15 Jahren das Arbeitsfeld KI wieder verlässt, dann müssen nicht nur Frauen und Minderheiten sich verändern, sondern genauso der existierende Mainstream.

Das Problem der mangelnden Repräsentation zeigt sich beispielweise in medizinischen Daten und endet noch nicht bei Daten für Stadtplanung oder Verkehrssicherheit: Daten und Datenanalysen liegen Entscheidungen zugrunde, und Frauen und andere, die nicht zum „Mainstream“ gehören, sind unterrepräsentiert oder missrepräsentiert. Mehr Daten, etwa von indigenen Frauen für Gesundheit und Bildung, sind entscheidend; denn nur das, was gezählt werden kann, zählt letztlich auch für Forschung, für die Zuteilung von Mitteln, für Unterstützung oder die Anerkennung von Rechten. Zugleich aber entsteht hier ein „paradox of exposure” – ein Paradox der Bloßstellung: Gerade diejenigen, die besonders davon profitieren könnten, wenn sie „gezählt“ werden, sind häufig in besonderer Gefahr durch eben diese Datenerfassung und Klassifizierung benachteiligt zu werden. Dazu gehören Migrant:innen, Menschen, die als „illegal“ gelten oder auch trans*Menschen, die konstant mit Angriffen zu rechnen haben.

Das Problem der Gerechtigkeit, im technischen Kontext als „bias“, also „Verzerrung“, benannt, ist Technikentwickler:innen bewusst. Technische Lösungen (DADM, FAcccTML und andere) werden beständig weiterentwickelt, sodass mit „Fair AI“ ein neues Forschungsfeld entstanden ist. Hier ist eine Definition von „bias“ nötig, die leicht operationalisiert und bis zu einem gewissen Grad korrigiert werden kann, beispielsweise dort, wo die Fehlerraten für eine einzelne Variable ungleich verteilt sind.

Es gibt aber Benachteiligungen, die komplexer sind und keine besondere Feindseligkeit oder Bevorzugung einzelner Menschen enthalten. Hier werden Menschen bestimmten Gruppen zugeordnet, und wahrscheinlichkeitstheoretische Einschätzungen von Gruppencharakteristika werden genutzt, um individuelle Charakteristika zu evaluieren. Ob die Gruppe „Frau“ oder „Trans*“ oder „Schwarz“ oder „Postleitzahl“ heißt – hier werden Gerechtigkeitsprobleme generiert. Sichtbar wird dies nicht nur bei Predictive Policing, bei der Vergabe von Krediten, Studienplätzen (usw.), sondern auch bei Systemen, die die Vernachlässigung oder den Missbrauch von Kindern verhindern sollen. Die Daten, die hier zugrunde liegen, sind beispielsweise Anträge auf Sozialhilfe und auf andere Unterstützung, kontinuierliche externe Überprüfungen und Polizeidaten. Arme Kinder tauchen wesentlich häufiger in den Datensätzen auf als andere. Damit sind (teil)automatisierte Systeme in Gefahr, „schlechte“ Eltern mit „armen“ Eltern zu verwechseln.

Wir brauchen also mehr Frauen und Minderheiten im KI-Bereich, aber wir brauchen genauso ein größeres Bewusstsein für Diskriminierungsvorgänge bei allen, die in diesem Bereich arbeiten und bei allen, die die Wirtschaft dieser Bereiche beeinflussen. Damit müsste KI ein interdisziplinäres Feld werden, das auch die Geistes- und Gesellschaftswissenschaften mit einbezieht. Die Entwicklung von Technologien, die innerhalb von komplexen sozialen Realitäten agieren sollen, erfordert ein kritisches Verständnis sozialer, rechtlicher und ethischer Kontexte und deren Interdependenz.

Digitale Hegemonien
Faktoren, die lange Zeit das Leben von Frauen bestimmt haben, und mittlerweile in den Geschlechterstudien diskutiert und kritisiert werden, finden sich auch in der Entwicklung von KI-Systemen wieder: unsichtbare Arbeit, Materialität (statt „Geist“) und kaum geschätztes Wissen. Hier können die KI-Analysen von feministischen Analysen lernen.

Eine der wenig wahrgenommenen Tatsachen ist die unsichtbare und unterbezahlte Arbeit, die KI-Systemen zugrunde liegen: monotone digitale Arbeit, labeling, und das „Säubern“ der Datensätze von schädlichen oder gewalttätigen Inhalten. Lilly Irani nennt dies: durch Menschen betriebene Automatisierung.

Materialität, Körperlichkeit und „Natur“ waren die Zuschreibungen für Frauen. KI gilt als immateriell und „sauber“. Aber es ist an der Zeit, zum einen den ökologischen Fußabdruck zu beziffern, zum anderen die Lieferketten offenzulegen, auch die Extraktion von seltenen Erden durch Kinderarbeit und Arbeit in Krisen- und Kriegsgebieten.

Was „Wissen“ bedeutet und was „Fakten“ sind, ist in westlichen Kontexten festgelegt worden. „Fake news“ sind ein aktuelles großes Problem – aber nicht das einzige Problem. Generative KI wie ChatGPT und die Nachfolgemodelle generieren aus vorhanden Datensätzen überschaubares Wissen, das wiederum in die Wissensbasis eingeht. Aber welches und wessen Wissen ist das? Und welches Wissen wird ausgeschlossen? Die Übermacht eines in Form und Inhalt „westlichen“ Wissens kann ein globales System wie KI in ein koloniales Werkzeug verwandeln.

UNSER NEWSLETTER
Newsletter bestellen JETZT BESTELLEN
■■■ WEITERE BEITRÄGE DIESER FACHDEBATTE

EIN DEBATTENBEITRAG VON
Prof. Dr. Sabine T. Köszegi
Professorin
TU Wien

Prof. Dr.  Sabine T. Köszegi vom Institute of Management Science der Technischen Universität Wien
Gendergerechtigkeit | KI

Über die Illusion von Objektivität bei ■ ■ ■

Wie KI die Realität richtig erkennen kann

EIN DEBATTENBEITRAG VON
Prof. Dr. Sabine T. Köszegi
Professorin
TU Wien

EIN DEBATTENBEITRAG VON
Nadia Fischer
CEO & Co-Founder
Witty Works

Nadia Fischer, CEO und Co-founder Witty Works
Gendergerechtigkeit | KI

Wie KI-Anwendungen Stereotypen reproduzieren

Und warum auch Algorithmen gendersensitiv sein müssen

EIN DEBATTENBEITRAG VON
Nadia Fischer
CEO & Co-Founder
Witty Works

EIN DEBATTENBEITRAG VON
Dr. Aljoscha Burchardt
Principal Researcher
Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) Berlin

Aljoscha Burchardt
Algorithmen | KI

Wo Technologinnen und Technologen ihre ■ ■ ■

Wie man Künstliche Intelligenz ■ ■ ■

EIN DEBATTENBEITRAG VON
Dr. Aljoscha Burchardt
Principal Researcher
Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) Berlin

ZUR FACHDEBATTE

ÜBER UNSERE FACHDEBATTEN

Meinungsbarometer.info ist die Plattform für Fachdebatten in der digitalen Welt. Unsere Fachdebatten vernetzen Meinungen, Wissen & Köpfe und richten sich an Entscheider auf allen Fach- und Führungsebenen. Unsere Fachdebatten vereinen die hellsten Köpfe, die sich in herausragender Weise mit den drängendsten Fragen unserer Zeit auseinandersetzen.

überparteilich, branchenübergreifend, interdisziplinär

Unsere Fachdebatten fördern Wissensaustausch, Meinungsbildung sowie Entscheidungsfindung in Politik, Wirtschaft, Wissenschaft, Medien und Gesellschaft. Sie stehen für neue Erkenntnisse aus unterschiedlichen Perspektiven. Mit unseren Fachdebatten wollen wir den respektvollen Austausch von Argumenten auf Augenhöhe ermöglichen - faktenbasiert, in gegenseitiger Wertschätzung und ohne Ausklammerung kontroverser Meinungen.

kompetent, konstruktiv, reichweitenstark

Bei uns debattieren Spitzenpolitiker aus ganz Europa, Führungskräfte der Wirtschaft, namhafte Wissenschaftler, Top-Entscheider der Medienbranche, Vordenker aus allen gesellschaftlichen Bereichen sowie internationale und nationale Fachjournalisten. Wir haben bereits mehr als 600 Fachdebatten mit über 20 Millionen Teilnahmen online abgewickelt.

nachhaltig und budgetschonend

Mit unseren Fachdebatten setzen wir auf Nachhaltigkeit. Unsere Fachdebatten schonen nicht nur Umwelt und Klima, sondern auch das eigene Budget. Sie helfen, aufwendige Veranstaltungen und überflüssige Geschäftsreisen zu reduzieren – und trotzdem die angestrebten Kommunikationsziele zu erreichen.

mehr als nur ein Tweet

Unsere Fachdebatten sind mehr als nur ein flüchtiger Tweet, ein oberflächlicher Post oder ein eifriger Klick auf den Gefällt-mir-Button. Im Zeitalter von X (ehemals Twitter), Facebook & Co. und der zunehmenden Verkürzung, Verkümmerung und Verrohung von Sprache wollen wir ein Zeichen setzen für die Entwicklung einer neuen Debattenkultur im Internet. Wir wollen das gesamte Potential von Sprache nutzen, verständlich und respektvoll miteinander zu kommunizieren.