Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
KI made in Europe kann nur erfolgreich sein, wenn sich EntwicklerInnen in einem sicheren Rechtsrahmen bewegen und AnwenderInnen der Technologie vertrauen. Daher begrüßen wir als KI Bundesverband grundsätzlich den Vorschlag der Europäischen Kommission zur Regulierung von KI-Anwendungen.
Leider gibt es im aktuellen Vorschlag noch einige Probleme, um diese Ziele umzusetzen. Die Definition von Künstlicher Intelligenz ist zu breit und sollte sich unserer Meinung nach an der Definition der High-Level Expert Group orientieren, um auch wirklich nur KI Anwendungen zu betreffen. Für essenzielle Begriffe wie bias gibt es noch gar keine Definition. Wir fragen uns, wer festlegt was am Ende ein bias ist.
Darüber hinaus vermissen wir in vielen Punkten noch Anweisungen zur Umsetzung der Regulierung. Diese sollen über die Jahre natürlich entstehen. Bei der Datenschutzgrundverordnung sehen wir aber, dass das nicht geschieht. Stattdessen lähmt die Unsicherheit mit der Regulierung bis heute die gesamte europäische Wirtschaft. Eine solche Entwicklung darf sich nicht wiederholen.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Der risikobasierte Ansatz ist richtig. Nur die KI, die am Ende für den Menschen schädlich sein kann, sollte reguliert werden. Es macht schließlich einen Unterschied, ob ein Fahrzeug auf der Straße fährt und Menschen transportiert oder ob es in einem geschlossenen Lager Güter transportiert.
Wir sehen aber auch hier aktuell noch Probleme mit der Definition von Hochrisiko. Es werden beispielsweise explizit deep fakes genannt. Uns erschließt sich nicht, warum diese anders behandelt werden sollte als die klassische Bearbeitung von Bildern, Videos oder Sounddateien. Rufmord, Verleumdung oder Betrug sind bereits durch das Gesetz abgedeckt. Hier würde eine Doppelregulierung entstehen.
KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Wir sind der Ansicht, dass dies die richtige Entscheidung ist. KI hat riesige Potentiale unsere Sicherheitsbehörden beim Schutz der Infrastruktur oder der Täterermittlung zu unterstützen. Gleichzeitig soll kein Überwachungsstaat nach chinesischem Vorbild aufgebaut werden. Wir halten Social Scoring daher mit unseren ethischen Grundsätzen nicht für vereinbar. Gezielte und rechtlich klar abgesteckte Personenerkennung kann aber der Sicherheit aller dienen.
Was sollte aus Ihrer Sicht unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?
Wir fordern noch eindeutigere Definitionen. Der Begriff KI ist zu weit gefasst, bias wird nicht ausreichend definiert und wir sehen die Gefahr einer Doppelregulierung.
Darüber hinaus muss es klare Handlungsanweisungen geben. Das Desaster der Datenschutzgrundverordnung darf sich nicht wiederholen. Selbst drei Jahre nach Inkrafttreten der Regulierung fühlen sich viele UnternehmerInnen und AnwenderInnen unsicher, wenn es um den Umgang mit Daten geht. Das lähmt die Entwicklung der gesamten europäischen Wirtschaft.
Wir erwarten außerdem ein Mitspracherecht der Wirtschaft im neugeschaffenen AI Board. Europäische KI kann nur erfolgreich sein, wenn alle Interessengruppen zusammenarbeiten.
Schließlich wird es entscheidend sein, welche nationalen Behörden die Umsetzung der Richtlinie überwachen. Diese Aufgabe darf nicht nur von Datenschützern besetzt werden.