Menue-Button
← FACHDEBATTE
Statement23.08.2023

Über die Illusion von Objektivität bei der Nutzung von KI-Systemen

Wie KI die Realität richtig erkennen kann

Prof. Dr.  Sabine T. Köszegi vom Institute of Management Science der Technischen Universität Wien Quelle: Luiza Puiu Prof. Dr. Sabine T. Köszegi Professorin TU Wien
INITIATOR DIESER FACHDEBATTE
Uwe Rempe
Freier Journalist
Meinungsbarometer.info
ZUR FACHDEBATTE

Geschlechterstereotypen schlagen sich auch in algorithmischen Systemen nieder - was zur Perpetuierung von Stereotypen und Vorurteilen führt, ungerechtfertigter Diskriminierung und Fehlentscheidungen, erklärt Prof. Dr. Sabine T. Köszegi vom Institute of Management Science der Technischen Universität Wien.





Hinter dem Begriff Künstlicher Intelligenz verbergen sich in der Regel algorithmische Systeme, die mithilfe verschiedener Methoden des maschinellen Lernens große Datenmengen analysieren. Algorithmen sind demnach das Ergebnis einer Modellbildung, die sowohl die Formalisierung eines Problems als auch eine entsprechende Zielsetzung beinhalten. Für die Effektivität von KI Systemen sind die Werte und Annahmen der Entwickler:innen von ebenso großer Bedeutung wie die dem zugrundeliegenden Daten und der Algorithmus, der aus ihnen lernt. Soziale Urteile darüber, wer oder was für eine Problemstellung relevant ist, wird von Systementwickler:innen durch Designentscheidungen und Operationalisierung von strategischen Zielen vorweggenommen. Wenn wir von Algorithmen sprechen, beziehen wir uns also genau genommen auf ein sozio-technisches Ensemble von technischen Anordnungen, in der die Beteiligung von Menschen aber verdeckt bleibt. Mit der Bezeichnung „Algorithmus“ wird verschleiert, dass kulturelle, gesellschaftliche und politische Werte lediglich in eine mathematische Sprache übersetzt sind und es entsteht eine Illusion von Objektivität bei der Nutzung von KI-Systemen, die nicht gerechtfertigt ist. Denn wir Menschen neigen dazu, vermeintlich objektiven KI-Systemen mehr zu vertrauen, als potenziell fehleranfälligen, mit Vorurteilen behafteten, emotionalen Menschen.

In algorithmischen Systemen können systematische Verzerrungen („Bias“) in jeder Phase ihres Lebenszyklus – von der Konzeptions- über die Entwicklungs-, Implementierungs-, Nutzungs- und Evaluierungsphase einfließen und damit zu Perpetuierung von Stereotypen und Vorurteilen, ungerechtfertigter Diskriminierung und Fehlentscheidungen führen. Das Berkeley Haas Center for Equity, Gender, and Leadership hat 133 Systeme aus den Jahren 1988 und 2021 branchenübergreifend analysiert und festgestellt, dass ein alarmierend hoher Anteil von 44,2 Prozent der Systeme einen geschlechtsspezifischen Bias aufweist. Etwa ein Viertel der Systeme weist sowohl geschlechts- als auch rassistische Vorurteile auf. In der Tat kommt der AI NOW Report (2018) zu dem Schluss, dass die Schäden und Verzerrungen in KI-Systemen außer Frage stehen: "Die Debatte ist entschieden, die Beweise sind über jeden Zweifel erhaben". Es stellt sich heraus, dass algorithmische Entscheidungen aufgrund unvollständiger oder unvollständiger Daten, unzureichender Modellierung und problematischer Zielsetzungen mit schwerwiegenden Problemen verbunden sind und im Grunde mit schwerwiegenden Folgen für den einzelnen und die Gesellschaft scheitern.

Der UNESCO Bericht 2018 „I’d blush if I could“ greift insbesondere die Bildungsunterschiede zwischen Frauen und Männer in den MINT und ICT-Bereichen auf und zeigt, wie sich Geschlechterstereotypen in segregierten Bildungsentscheidungen niederschlagen und dazu führen, dass Frauen massiv in der MINT und ICT Bildung als auch in den technischen Professionen unterrepräsentiert sind. Dies verschlechtert nicht nur gesellschaftliche Teilhabechancen von Frauen, sondern führt auch dazu, dass KI-Technologien hauptsächlich von Männern für Männer entwickelt werden – mit den Konsequenzen, die wir aus den oben angeführten Berichten kennen.

Um diesen Teufelskreis zu durchbrechen bedarf es daher massiver Anstrengungen – auch im Sinne der Qualität und Effektivität von KI Technologien – bei Entwickler:innen Teams einen Fokus auf Gendergerechtigkeit, Diversität und Inklusion zu setzen.

Die Potenziale von KI-Technologie können nur dann gehoben werden, wenn sie gendersensibel und inklusiv, die Menschenrechte achtend gestaltet ist. Das ist ausschließlich eine Frage unserer Werte und keine Frage der technischen Machbarkeit.

UNSER NEWSLETTER
Newsletter bestellen JETZT BESTELLEN
■■■ WEITERE BEITRÄGE DIESER FACHDEBATTE

EIN DEBATTENBEITRAG VON
Prof. Dr. Regina Ammicht-Quinn
Sprecherin IZEW
Universität Tübingen

Prof. Dr. Regina Ammicht-Quinn, Universität Tübingen
Gendergerechtigkeit | KI

Ethik ist nicht die Fahrradbremse am ■ ■ ■

Warum eine ethische Perspektive notwendig ist, ■ ■ ■

EIN DEBATTENBEITRAG VON
Prof. Dr. Regina Ammicht-Quinn
Sprecherin IZEW
Universität Tübingen

EIN DEBATTENBEITRAG VON
Nadia Fischer
CEO & Co-Founder
Witty Works

Nadia Fischer, CEO und Co-founder Witty Works
Gendergerechtigkeit | KI

Wie KI-Anwendungen Stereotypen reproduzieren

Und warum auch Algorithmen gendersensitiv sein müssen

EIN DEBATTENBEITRAG VON
Nadia Fischer
CEO & Co-Founder
Witty Works

EIN DEBATTENBEITRAG VON
Dr. Aljoscha Burchardt
Principal Researcher
Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) Berlin

Aljoscha Burchardt
Algorithmen | KI

Wo Technologinnen und Technologen ihre ■ ■ ■

Wie man Künstliche Intelligenz ■ ■ ■

EIN DEBATTENBEITRAG VON
Dr. Aljoscha Burchardt
Principal Researcher
Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) Berlin

ZUR FACHDEBATTE

ÜBER UNS

Meinungsbarometer.info ist die Plattform für Fachdebatten in der digitalen Welt. Unsere Fachdebatten vernetzen Meinungen, Wissen & Köpfe und richten sich an Entscheider auf allen Fach- und Führungsebenen. Unsere Fachdebatten vereinen die hellsten Köpfe, die sich in herausragender Weise mit den drängendsten Fragen unserer Zeit auseinandersetzen.

überparteilich, branchenübergreifend, interdisziplinär

Unsere Fachdebatten fördern Wissensaustausch, Meinungsbildung sowie Entscheidungsfindung in Politik, Wirtschaft, Wissenschaft, Medien und Gesellschaft. Sie stehen für neue Erkenntnisse aus unterschiedlichen Perspektiven. Mit unseren Fachdebatten wollen wir den respektvollen Austausch von Argumenten auf Augenhöhe ermöglichen - faktenbasiert, in gegenseitiger Wertschätzung und ohne Ausklammerung kontroverser Meinungen.

kompetent, konstruktiv, reichweitenstark

Bei uns debattieren Spitzenpolitiker aus ganz Europa, Führungskräfte der Wirtschaft, namhafte Wissenschaftler, Top-Entscheider der Medienbranche, Vordenker aus allen gesellschaftlichen Bereichen sowie internationale und nationale Fachjournalisten. Wir haben bereits mehr als 600 Fachdebatten mit über 20 Millionen Teilnahmen online abgewickelt.

nachhaltig und budgetschonend

Mit unseren Fachdebatten setzen wir auf Nachhaltigkeit. Unsere Fachdebatten schonen nicht nur Umwelt und Klima, sondern auch das eigene Budget. Sie helfen, aufwendige Veranstaltungen und überflüssige Geschäftsreisen zu reduzieren – und trotzdem die angestrebten Kommunikationsziele zu erreichen.

mehr als nur ein Tweet

Unsere Fachdebatten sind mehr als nur ein flüchtiger Tweet, ein oberflächlicher Post oder ein eifriger Klick auf den Gefällt-mir-Button. Im Zeitalter von X (ehemals Twitter), Facebook & Co. und der zunehmenden Verkürzung, Verkümmerung und Verrohung von Sprache wollen wir ein Zeichen setzen für die Entwicklung einer neuen Debattenkultur im Internet. Wir wollen das gesamte Potential von Sprache nutzen, verständlich und respektvoll miteinander zu kommunizieren.