MEINUNGSBAROMETER.INFO

DIGITALISIERUNG

DAS FACHDEBATTENPORTAL

Für Entscheider aus Politik, Wirtschaft, Medien & Gesellschaft


schliessen

Bitte hier einloggen:

Login

Passwort vergessen?
 
16.01.2021
Kopieren und anderweitige Vervielfältigungen sind nicht erlaubt.

RECHTSSICHERHEIT FÜR KI ALS MÖGLICHER WETTBEWERBSVORTEIL

Wie europäische Werte gesichert werden können

Jason Chumtong - KI-Experte, Abteilung Wirtschaft und Innovation in der Hauptabteilung Analyse und Beratung bei der Konrad-Adenauer-Stiftung

Jason Chumtong - KI-Experte, Abteilung Wirtschaft und Innovation in der Hauptabteilung Analyse und Beratung bei der Konrad-Adenauer-Stiftung [Quelle: KAS]


Für den KI-Experten Jason Chumtong von der Konrad-Adenauer-Stiftung gilt es bei der Aushandlung europäischer Regeln darauf zu achten, "dass unsere heute bereits gültigen Standards auch bei der Nutzung von KI weiterhin durchgesetzt werden". Das Interview entstand unter Mitwirkung des KAS-Innovationsexperten Sebastian Weise.


In der EU ist eine Debatte über Regeln für Künstliche Intelligenz im Gange. Welche grundsätzlichen ethischen Standards sollten einem entsprechenden Regelwerk zugrunde liegen?
Jason Chumtong: Künstliche Intelligenz (KI) ist eine beeindruckende Technologie, deren Potenzial für den gesellschaftlichen Fortschritt und die digitale Transformation unbestritten hoch ist. Die mit KI einhergehenden Risiken sind dabei nicht zu unterschätzen, doch sie erfordern keine neuen ethischen  Standards. Ein Beispiel: Bei der Verwendung autonomer Filtersysteme in der Personalverwaltung zur Auswahl geeigneter Bewerberinnen und Bewerber steht die Sorge vor Diskriminierung durch KI im Raum (auch als AI-Bias bekannt). Bei der Problematik geht es um die Aufrechterhaltung von Gleichheit und faire Chancen für jeden Menschen, also ethischen Standards, die wir auch in anderen Bereichen für selbstverständlich erachten. Für ein entsprechendes Regelwerk müssen wir also verstärkt darauf achten, dass unsere heute bereits gültigen Standards auch bei der Nutzung von KI weiterhin durchgesetzt werden. Der menschenzentrierte Einsatz von KI ist und bleibt die oberste Zielvorgabe.


Jetzt bestellen!

DIE DOKUMENTATION DIESER FACHDEBATTE

Im Gespräch ist u.a. ein Haftungssystem für KI-Systeme. Wie stehen Sie dazu?
Sebastian Weise: Grundlegend ist es zu begrüßen, dass Europa aktuell an einem Rechtsrahmen arbeitet, der Rechtssicherheit für KI-Systeme gewährt und Haftungslücken ausschließt. Dies ist nicht nur für einen möglichen Geschädigten und das Vertrauen in KI-Systeme wichtig. Es ist zugleich bedeutsam für Entwickler wie Betreiber von KI-Systemen und kann somit ein wichtiger Wettbewerbsvorteil Europas sein. Es gilt daher, ein Haftungssystem zu entwickeln, das für alle Stakeholder Rechtssicherheit und Vertrauen schafft. Zugleich darf das Haftungssytem in Folge ausufernder Risikoklassen und zu vieler bürokratischer Hürden aber nicht die Verbreitung von KI ohne Not hemmen. Gerade dem Mittelstand und jungen innovativen Unternehmen sollten keine unnötigen Lasten aufgebürdet werden. Weiterhin wäre es wünschenswert, dass man kein lex specialis für KI schafft, sondern ein Haftungssystem innerhalb des bereits bestehenden Haftungsrechts etabliert. Darüber hinaus sollte am Ende ein Haftungssystem im Sinne eines einheitlichen digitalen Binnenmarktes entstehen, hier können wir aus den Erfahrungen mit der  Datenschutzgrundverordnung (DSGVO) lernen.

Von Experten gibt es Rufe nach einem KI-Register oder einem KI-TÜV. Wie sehen Sie das?
Jason Chumtong: Mit Amsterdam und Helsinki können wir seit September anhand zwei konkreter Fallbeispiele sehen, wie sich ein solches KI-Register ausgestaltet, welche Effekte es erzielt, aber auch welche Alltagshürden auftreten können. Neben der Transparenz, also wo und in welchem Maße KI-Systeme bestimmte Dienstleistungen unterstützen, soll ja vor allem die Etablierung und Stabilisierung von Vertrauen in die Technologie durch ein Register gestärkt werden. Sollte sich nach den Experimenten die Erfüllung dieser Ziele abzeichnen, spräche wenig gegen ein ähnliches Modell hierzulande. Das TÜV-Prinzip ist in erster Linie eine strukturelle Lösung, um Laien die Nutzung eines Gerätes zu ermöglichen, ohne dass sie sich tiefergehende Expertise aneignen müssen. Für den Deutschen Automobilverkehr hat sich dieser Sicherheitsmechanismus bewährt.

Verschiedene EU-Staaten (etwa Deutschland in der KI-Strategie, Österreich in der AI-Mission) streben bereits ethische Standards für KI-Anwendungen an. Inwieweit sind nationale Bemühungen und etwaige EU-Regeln in Anbetracht der Stärke von Digitalkonzernen aus den USA oder China überhaupt erfolgversprechend?
Jason Chumtong: Wir können bei der DSGVO beobachten, dass man in Europas digitalem Raum europäische Werte als Grundlage verankern kann, an die sich jeder Akteur halten muss. Gleichzeitig erkennen wir, wie gewisse Praktiken in der Umsetzung der DSGVO diese Werte aushöhlen oder zumindest banalisieren. Aktuell fällt dieses Problem im Umgang mit der Consent Policy zum Betreten von Webseiten auf, bei der Cookie Walls zunächst jegliche Interaktion blockieren. Um erfolgreich ethische Standards für KI-Anwendungen einzuführen, sollten wir für ihre Umsetzung im Anwendungskontext auch eine gewisse Nutzerfreundlichkeit mitbedenken. Digitalkonzerne verfolgen das Interesse, den Kunden zufrieden zu stellen und den gültigen Rechtsrahmen – hierin spiegeln sich schließlich unsere Wertvorstellungen – vor diesem Hintergrund zu adaptieren. Wenn die Operationalisierbarkeit ethischer Standards in ihrer Ausformulierung mitbedacht wird, könnte ihre Beachtung durch Digitalkonzerne nicht nur durch Rechtsabwehr motiviert sein, sondern zu einer Grundhaltung werden.