In der EU ist eine Debatte über Regeln für Künstliche Intelligenz im Gange. Welche grundsätzlichen ethischen Standards sollten einem entsprechenden Regelwerk zugrunde liegen?
Bei den ethischen Standards für Künstliche Intelligenz geht es in erster Linie darum, Transparenz und Datensicherheit herzustellen und die Grundrechte der europäischen Bürger*innen zu wahren. Dazu brauchen wir entsprechende Aufsichtsmechanismen. Neben der Achtung der Privatsphäre und des Datenschutzes müssen auch angemessene Datenverwaltungsmechanismen sichergestellt werden, die der Qualität und Integrität der Daten Rechnung tragen und einen legitimierten Zugang zu den Daten gewährleisten. Darüber hinaus sollten KI-Systeme und ihre Entscheidungen in einer an den jeweiligen Interessenvertreter angepassten Weise erläutert werden. Der Mensch muss sich bewusst sein, dass er mit einem KI-System interagiert und er muss über die Möglichkeiten und Grenzen des Systems informiert sein. Voreingenommenheit der KI-Systeme muss vermieden werden, da sie vielfältige negative Auswirkungen haben könnte, von der Marginalisierung gefährdeter Gruppen bis hin zur Verschärfung von Vorurteilen und Diskriminierung. KI-Systeme, die die Vielfalt fördern, sollten für alle zugänglich sein.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Im Gespräch ist u.a. ein Haftungssystem für KI-Systeme. Wie stehen Sie dazu?
Kürzlich haben wir im Europäischen Parlament einen Initiativbericht zu zivilrechtlicher Haftung bei Künstlicher Intelligenz verabschiedet, bei dem ich Berichterstatter war. Es gilt, den digitalen Binnenmarkt zu harmonisieren und eine Balance zwischen Rechtssicherheit und Raum für Innovation zu ermöglichen. Der europäische Rahmen für die zivilrechtliche Haftung hat sich bewährt und muss durch das Aufkommen von KI-Systemen nun nicht neu erfunden werden. Das Ziel unserer Vorschläge ist es vielmehr, eine potenzielle Rechtslücke zu schließen, indem wir die Betreiber risikoreicher KI-Systeme für den Schaden haftbar machen, den ihre Anwendungen verursachen. Dabei unterscheiden wir zwischen Hochrisiko- und allen anderen KI-Systemen. Nur die Hochrisiko-Systeme sollen, nach sorgfältiger Auswahl durch die EU-Kommission in enger Zusammenarbeit mit Interessenvertretern aus Wissenschaft, Wirtschaft und der Zivilgesellschaft, einer Gefährdungshaftung unterliegen.Ich erwarte nun, dass die EU-Kommission unseren Text in der vorliegenden Form übernimmt, die Konzepte weiterentwickelt und bin gespannt auf ihren Legislativvorschlag zu Beginn des nächsten Jahres.
Von Experten gibt es Rufe nach einem KI-Register oder einem KI-TÜV. Wie sehen Sie das?
Startpunkt der KI-Regelungen sollte in dieser Hinsicht die Haftung für Hochrisiko-Systeme in der Künstlichen Intelligenz sein, die wir vorgeschlagen haben. Die Frage eines KI-Registers oder TÜVs wird sicherlich in Zukunft weiter diskutiert, ist aber zur Zeit nicht notwendig. Es gilt, den Verwaltungsaufwand nicht zu erhöhen.
Verschiedene EU-Staaten (etwa Deutschland in der KI-Strategie, Österreich in der AI-Mission) streben bereits ethische Standards für KI-Anwendungen an. Inwieweit sind nationale Bemühungen und etwaige EU-Regeln in Anbetracht der Stärke von Digitalkonzernen aus den USA oder China überhaupt erfolgversprechend?
Um global mitzuhalten, muss die EU auf das Konzept der digitalen Souveränität setzen und den Binnenmarkt harmonisieren. Digitalisierung macht nicht vor nationalen Grenzen halt. Auch wenn ich die Vorschläge meiner Kollegen in Berlin begrüße, können wir nur auf europäischer Ebene wettbewerbsfähig bleiben. Gelingt uns das nicht, werden wir zu einer Datenkolonie der USA oder Chinas, deren Systeme nicht auf unseren hohen Datenschutzstandards beruhen, unsere Sicherheitsinfrastruktur bedrohen und uns wirtschaftlich vollständig abhängig machen werden. Noch können wir uns und unsere EU Standards global behaupten. Deshalb müssen wir heute handeln und nicht morgen.