Menue-Button

DOKUMENTATION BESTELLEN

DOKUMENTATIONEN ICON
Das Angebot richtet sich insbesondere an Fach- und Führungskräfte auf Entscheiderebene.
Das Angebot richtet sich insbesondere an Fach- und Führungskräfte auf Entscheiderebene.

Debattenstart
23.03.2023

Debattenschluss
15.09.2023

Verfügbarkeit
sofort

Format
PDF

Lieferung
E-Mail mit Download


195,00 €
zzgl. 19 % MwSt.
BESTELLEN

Ist KI von Haus aus fair, unvoreingenommen und egalitär? Nein, sagen Forscher und Praktiker. So erkennt beispielsweise die Software in Zoom-Konferenzen und ähnlichen Diskussionsformaten laut einer Studie von Forschern der dänischen Universität Sonderborg weibliche Stimmen und Gesichter schlechter. Gängige Suchmaschinen, heißt es anderswo, würden männliche und weibliche Berufsbezeichnungen nicht als synonym erkennen und anzeigen, wobei oft die männliche Berufsbezeichnung in den Stellenanzeigen genutzt wird.

Etwas anders gelagert: Aus der Medizin ist das sogenannte Gender-Data-Gap bekannt, die Lücke also, die sich bei der Erhebung von Daten vor allem männlicher Studienteilnehmer (zum Beispiel Medikamententests, Diagnostik von typischen Krankheitssymptomen) ergibt, und deren Ergebnisse unterschiedslos für Frauen und Männern gültig sein sollen.

Das sind nur einige wenige Probleme, die sich in der Praxis in Sachen Gendergerechtigkeit auftun. Wie können in Zeiten der Digitalisierung jeder und jedem die Daten zugeordnet werden, die für sie/ihn relevant sind? Ist das eine Frage der Programmierung, von bewussten oder unbewussten Vorurteilen oder Prägungen der Ingenieure/Programmierer? Was ist zu tun, um KI bzw. Suchalgorithmen von vornherein geschlechtergerecht anzulegen?

AN DIESER DOKUMENTATION INTERESSIERT?

BESTELLEN