MEINUNGSBAROMETER.INFO

DIGITALISIERUNG

DAS FACHDEBATTENPORTAL

Für Entscheider aus Politik, Wirtschaft, Medien & Gesellschaft


schliessen

Bitte hier einloggen:

Login

Passwort vergessen?
 
08.12.2021
Kopieren und anderweitige Vervielfältigungen sind nicht erlaubt.

NEUE REGELN FÜR QUALITÄTS-, TRANSPARENZ- UND KONTROLLSTANDARDS

Was die EU-KI-Verordnung leisten könnte

Prof. Dr. Antje von Ungern-Sternberg - Direktorin, Institut für Recht und Digitalisierung Trier (IRDT), Universität Trier

Prof. Dr. Antje von Ungern-Sternberg - Direktorin, Institut für Recht und Digitalisierung Trier (IRDT), Universität Trier [Quelle: Uni Trier/ Jenna Theis]


"Es ist zu begrüßen, dass die EU-Kommission die Regulierung von Algorithmen und Künstlicher Intelligenz in Angriff nimmt", sagt Prof. Dr. Antje von Ungern-Sternberg von der Uni Trier grundsätzlich. Bei wichtigen Punkten hofft sie, dass diese sich tatsächlich auch in der endgültigen Fassung finden.


Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
Es ist zu begrüßen, dass die EU-Kommission die Regulierung von Algorithmen und Künstlicher Intelligenz in Angriff nimmt. Das vorgeschlagene Gesetz versteht KI sehr weit, beansprucht aber nur eine Regulierung bestimmter Technologien nach Einstufung in drei Risikokategorien: Einige Praktiken werden gänzlich verboten, Hochrisiko-Praktiken werden mit Sicherungsmechanismen versehen und für weitere Praktiken gelten lediglich Transparenzanforderungen. In der Tat ergänzt dieser Ansatz die Datenschutzgrundverordnung und verspricht den notwendigen Grundrechtsschutz. So schützt es die menschliche Autonomie, dass die umfassende Überwachung, Bewertung und manipulativen Ausbeutung des Menschen künftig verboten sein soll. Zielführend ist es auch, dass Praktiken wie das Profiling, also das Errechnen menschlicher Risiko- und Chancenpotentiale, etwa im Kontext von Bildung, Arbeit oder Kriminalitätsbekämpfung nur noch zulässig sein sollen, wenn das Verfahren Qualitätsstandards genügt, hinreichend dokumentiert wird und durch den Menschen überwacht und korrigiert werden kann.


Jetzt bestellen!

DIE DOKUMENTATION DIESER FACHDEBATTE

Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Die Differenzierungen nach dem Risiko sind sachgerecht, denn es wäre verfehlt, Forschung und Innovation auf dem Gebiet der Künstlichen Intelligenz in Europa durch pauschale Verbote auszubremsen. Strengere Regeln für die Kreditvergabe sind notwendig, weil die jetzige Praxis unter Intransparenz leidet und man ausschließen sollte, dass Verbrauchern oder Unternehmern Kredite aufgrund fehlerhafter oder gar diskriminierender Zuweisung von Kredit-Scores versagt bleiben. Die neuen Regeln würden hier für Qualitäts-, Transparenz- und Kontrollstandards sorgen.

Für Chatbots gilt, dass der Einsatz dieser praktischen Programme für die Kommunikation und Interaktion mit Menschen legitime Bedürfnisse erfüllen kann und darf, zum Beispiel nach detailgenauer, kostensparender oder auch anonymer Kommunikation. Gleichzeitig ist es aber nicht schutzwürdig, die Betroffenen über den Einsatz von Chatbots zu täuschen. Der Gesetzesvorschlag sieht daher eine Offenlegungspflicht vor, die im Übrigen auch den Einsatz täuschender Social Bots im Wahlkampf verbieten würde.

KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Das Social Scoring, also das langfristige Profiling des Sozialverhaltens von Menschen durch Staaten und die hierauf gestützte Sanktionierung von Menschen mit schlechten Scores, dürfte zwar auch schon nach Datenschutzrecht verboten sein, aber hier scheint die EU-Kommission sich deutlich vom großangelegten chinesischen System des Sozialkredits abgrenzen zu wollen. Allerdings wird – bei näherer Betrachtung – das Social Scoring gar nicht umfassend verboten. Das Verbot erfasst nur bestimmte Nutzungen des Social Score, die zu unverhältnismäßigen Nachteilen führen oder die nicht mehr in dem Kontext stehen, in dem der Social Score entwickelt wurde. Man fragt sich also, welchen spezifischen Bedeutungsgehalt die Vorschrift tatsächlich besitzt.

Das grundsätzliche Verbot der KI-gestützten biometrischen Personenerkennung, konkret der automatisierten Gesichtserkennung, hat bei der Diskussion des Kommissionsvorschlags bislang eine besonders große Rolle gespielt. Auch die Personenerkennung unterfällt bereits den besonders strengen Regelungen des Datenschutzrechts für biometrische und damit sensible Daten. Das vorgeschlagene KI-Gesetz spezifiziert nun den Rechtsrahmen für die staatliche Nutzung dieser Technik zu Zwecken der Gefahrenabwehr und der Strafverfolgung. Dass – wie beim Datenschutz – gewisse Ausnahmen, namentlich für besonders gewichtige Rechtsgüter vorgesehen sind, etwa zum Schutz vermisster Kinder oder zur Verhinderung terroristischer Attentate, ist zweckmäßig.

Was sollte aus Ihrer Sicht unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?
Der Gesetzgebungsentwurf entwickelt wichtige Pflichten zur Sicherung von Qualität, Transparenz und menschlicher Kontrolle intelligenter Systeme. Diese sollten sich auch in der endgültigen Fassung finden. Gleiches gilt für den Ansatz, Pflichten auch für die Software-Anbieter und nicht nur die Verwender entsprechender KI-Systeme zu etablieren. Dies würde das KI-Gesetz auch gegenüber der Datenschutzgrundverordnung hervorheben, die Softwarefirmen wie Microsoft gerade nicht verpflichtet, sondern nur die Verwender der Softwareprodukte.