In der EU ist eine Debatte über Regeln für Künstliche Intelligenz im Gange. Welche grundsätzlichen ethischen Standards sollten einem entsprechenden Regelwerk zugrunde liegen?
Es gibt verschiedene ethische Werte, die im Zusammenhang mit KI immer wieder genannt werden. Dazu zählen Transparenz, Fairness, Schutz der Privatheit, Zuverlässigkeit und Zurechenbarkeit von Verantwortung. Das sind grundsätzlich wichtige Orientierungen. Damit ist allerdings noch nicht klar, wie diese allgemeinen Werte in die Praxis umgesetzt werden können. Insgesamt herrscht eine große Einigkeit darüber, dass beispielsweise Fairness bzw. Gerechtigkeit oder Verantwortlichkeit „gut“ sind. Wenn es aber dann darum geht, Algorithmen zu testen oder Trainingsdaten in Frage zu stellen, um Diskriminierungen zu vermeiden, sehen sich Entwicklungsabteilungen und Unternehmen vor Herausforderungen gestellt. Fairness mag zwar „gut“ sein, aber nicht alle wollen das gleiche Ziel auch mit gleichen Mitteln verfolgen – oder nicht alle wollen ein sinnvolles Ziel verfolgen, wenn es zu schwierig, komplex oder aufwändig zu erreichen ist.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Im Gespräch ist u.a. ein Haftungssystem für KI-Systeme. Wie stehen Sie dazu?
Ein allgemeines Haftungssystem für KI ist nicht sinnvoll, denn es geht immer um Haftungs- und Verantwortungsfragen in ganz bestimmten Anwendungskontexten. Für die Nutzung von KI in verletzlichen Infrastrukturen wie z. B. dem Schienenverkehr oder dem Energiesektor braucht es ein sehr hohes Maß an Verlässlichkeit. Gleichzeitig müssen für den Schadensfall Haftungsansprüche eingelöst werden können. Das ist auch eine Frage des Verbraucherschutzes. Auch jetzt schon sind die Entwickler*innen, Vertreiber*innen oder Anwender*innen in unterschiedlichen Weisen für KI-Dienste haftbar.
Von Experten gibt es Rufe nach einem KI-Register oder einem KI-TÜV. Wie sehen Sie das?
Zertifizierungen und Standards können ein guter Weg für eine sichere und wertorientierte Entwicklung von KI-Systemen sein. Zuerst ist aber die Frage nach Kritikalität einer Anwendung zu beantworten: Geht von einem System ein besonderes Risiko aus? Wie sieht es mit der Wahlfreiheit der Nutzerinnen und Nutzer aus? Können sie sich zwischen verschiedenen KI-Systemen entscheiden? Ist das Schadenspotenzial eines KI-Systems hoch, dann ist es sinnvoll, es einer Prüfung nach bestimmten Standards zu unterziehen. Dafür sind unabhängige Behörden denkbar. Ein allgemeiner TÜV, wie wir das von Autos kennen, ist aber nicht sinnvoll, weil die KI-Anwendungen immer im ihrem jeweiligen Anwendungskontext betrachtet werden müssen.
Verschiedene EU-Staaten (etwa Deutschland in der KI-Strategie, Österreich in der AI-Mission) streben bereits ethische Standards für KI-Anwendungen an. Inwieweit sind nationale Bemühungen und etwaige EU-Regeln in Anbetracht der Stärke von Digitalkonzernen aus den USA oder China überhaupt erfolgversprechend?
Eine Entwicklung von KI gemäß europäischer Standards kann einen beispielhaften Weg vorzeichnen und eine Alternative darstellen zu den monopolartigen und kommerzorientierten Diensten, die wir bislang insbesondere aus den USA kennen. Die angestrebte digitale Souveränität der EU kann ein wichtiger Faktor für mehr Unabhängigkeit, größere Pluralität und mehr Gemeinwohlorientierung in der Entwicklung von KI sein. Auch wenn es nicht leicht sein wird, eigene europäische Lösungen auf dem globalen Markt zu etablieren, ist es der richtige Weg, um die digitalen Gesellschaften des 21. Jahrhunderts mitzugestalten. Die Europäische Datenschutzgrundverordnung hat gezeigt, dass starke Regulierungsformen auch weltweit Nachahmung finden. Letztendlich können solche Regulierungsformen nicht nur ein Wettbewerbsvorteil, sondern auch ein Vorteil für ein Gleichgewicht zwischen Politik, Bürger*innen und Wirtschaft sein.