MEINUNGSBAROMETER.INFO

DIGITALISIERUNG

DAS FACHDEBATTENPORTAL

Für Entscheider aus Politik, Wirtschaft, Medien & Gesellschaft


schliessen

Bitte hier einloggen:

Login

Passwort vergessen?
 
25.06.2021
Kopieren und anderweitige Vervielfältigungen sind nicht erlaubt.

EU-REGELN ZU KI DÜRFEN KEIN WEITERER REGULATIONSMOLOCH WERDEN

Was am Entwurf der EU-Kommission noch zu verbessern ist

Dr. Irina Kummert - Präsidentin des Ethikverbands der deutschen Wirtschaft

Dr. Irina Kummert - Präsidentin des Ethikverbands der deutschen Wirtschaft [Quelle: privat]


"Das Vorgehen der EU-Kommission ist insofern bestenfalls ein Paradebeispiel für gut gemeint, aber nicht gut gemacht", sagt Dr. Irina Kummert, Präsidentin des Ethikverbands der deutschen Wirtschaft mit Blick auf die vorliegenden Vorschläge zur KI-Regulierung. Auch beim Schutz vor staatlicher Überwachung sieht sie eine Hintertür.


Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
Auf den ersten Blick hört es sich gut an, Grundrechte schützen und Vertrauen in KI stärken zu wollen. Auf den zweiten Blick jedoch ist im Regelfall sobald ein Gesetzgeber meine Grundrechte schützt, damit genauso regelmäßig eine Einschränkung von Freiheitsrechten oder Wahlmöglichkeiten verbunden. Im vorliegenden Fall erfolgt beispielsweise durch die EU-Kommission die Direktive, dass alle Anwendungen, bei denen gemäß der vorgenommenen Klassifizierung nach Auffassung der Kommission ein erhöhtes Risiko besteht, bestimmte Bedingungen erfüllen müssen, bevor die betreffenden Anwendungen auf den jeweiligen Markt kommen dürfen. Mit dieser Maßgabe ergeht eine Marktzugangsbarriere, die auch dazu führen kann, dass die Marktzugangsberechtigung für bestimmte Anwendungen verweigert wird. Im Ergebnis können die Nutzer*innen nicht mehr entscheiden, ob eine bestimmte Anwendung für einen konkreten Praxisfall sinnvoll ist oder nicht. Wie jede Regel verkleinert auch diese Richtlinie unseren Handlungsspielraum. Vor diesem Hintergrund lohnt es sich, sich im Vorfeld zu überlegen, was wir aufgeben und welchen Preis wir ggfs. dafür bezahlen, wenn der Gesetzgeber uns „schützen“ will. Bezogen auf die Vorgehensweise halte ich die Reihenfolge, erst einen Entwurf vorzulegen und dann darüber zu diskutieren für bevormundend und wenig zielführend. Aus meiner Sicht wäre es auch bei diesem Thema angezeigt gewesen, in einem ersten Schritt einen Round Table mit den verschiedenen Anwendergruppen aufzusetzen, mit ihnen über konkrete Use Cases zu sprechen und in einem zweiten Schritt gemeinsam zu überlegen, wo und in welchem Maße Regulierung auch unter pragmatischen Gesichtspunkten sinnvoll ist. Das Vorgehen der EU-Kommission ist insofern bestenfalls ein Paradebeispiel für gut gemeint, aber nicht gut gemacht.


Jetzt bestellen!

DIE DOKUMENTATION DIESER FACHDEBATTE

Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Die EU-Kommission begründet ihre Initiative zu der neuen Regelung damit, das Vertrauen in KI stärken zu wollen. Gleichzeitig hat sie als Ausgangspunkt für die von ihr vorgeschlagenen Regeln einen risikobasierten Ansatz gewählt. Sobald wir die Risiken ins Zentrum unserer Betrachtung rücken, spielen wir mit der ohnehin schon ausgeprägten Angst von Menschen, durch den Einsatz neuer Technologien Schaden zu nehmen. Mit den aufgestellten Regeln soll zwar Vertrauen in KI vermittelt werden. Dieses Vorhaben wird jedoch dadurch konterkariert, dass sich die Regeln an der Ausprägung von Risiken auf einer Skala von „unannehmbar“ über „hoch“ bis „minimal“ orientieren. Hier stellt sich doch in erster Linie ein Unsicherheitsgefühl ein, statt Vertrauen zu vermitteln. Gleichzeitig wird mit der geplanten Regelung ein Sicherheitsversprechen gegeben, das letztlich ohnehin nicht einlösbar ist. So ist beispielsweise die Frage nach der Nachvollziehbarkeit von Entscheidungen durch eine selbstlernende KI noch nicht beantwortet. Da wir noch gar nicht alle Risiken, die mit den unterschiedlichen Qualitätsstufen von KI verbunden sind, kennen, sollte die EU-Kommission zudem statt der vorliegenden Regulierung, zumindest aber parallel dazu, Programme aufsetzen, die zum Umgang mit Unsicherheit und möglichen Risiken und zur besseren Beurteilung von Statistiken befähigen - zumal KI letztlich lediglich hoch komplexe Statistik ist.

KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Hier wurde eine Hintertür offengelassen, durch die staatliche Überwachung von Privatpersonen weiter möglich bleibt. Auch das Verbot von Social Scoring gilt nur unter bestimmten Bedingungen. Beides macht den vorgelegten Entwurf was das propagierte Herstellen von Vertrauen angeht eher unglaubwürdig.

Was sollte aus Ihrer Sicht unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?
Was aus meiner Sicht fehlt, ist der Blick über den Tellerrand. Die EU-Kommission geht offenbar davon aus, dass sie analog zum Datenschutz mit dem vorliegenden Regelwerk Standards vorgeben kann, an die sich andere Staaten anschließen werden. Davon ist jedoch nicht unbedingt auszugehen - sowohl die USA u.a. über die amerikanische Verbraucherschutz- und Wettbewerbsbehörde Federal Trade Commission (FTC) als auch China bringen sich hinsichtlich der Definition von ethischen Normen und Standards für KI in Stellung. Sowohl in den USA als auch in China spielen andere Parameter eine Rolle als Risikostufen, was letztlich auch bedeutet, dass die Chancen neuer Technologien stärker in den Vordergrund gestellt werden als es in Europa offensichtlich der Fall ist. Zudem haben die USA vermutlich eine andere Haltung gegenüber Risiken als wir und China versteht vielleicht unter Privatsphäre etwas anderes als wir. Was aus der EU-Richtlinie keinesfalls werden soll: ein weiterer Regulationsmoloch, der in erster Linie verhindert, auch durch einen Berg an Administration nicht pragmatisch umsetzbar ist und einen gesunden Wettbewerb auf vielerlei Ebenen unmöglich macht.