Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
Will die EU einen wettbewerbsfähigen Raum für vertrauensvolle, europäische KI-Entwicklungen und -Anwendungen schaffen, bedarf es eines gesetzlichen Rahmens, der den Missbrauch von KI verhindert und gleichzeitig einen flexiblen, innovationsfördernden Rahmen für KMU setzt. Das ist eine enorme Herausforderung, denn der Grat zwischen notwendiger Regulierung und einer hemmenden Überregulierung ist sehr schmal. Gleichzeitig sollten Freiheitsrechte oder Diskriminierungsverbote, die ja jetzt schon unabhängig von eingesetzten Technologien gelten, berücksichtigt und einbezogen werden.
Den Zielen steht auch die Entwicklung von KI-Anwendungen gegenüber, die ja ebenfalls im europäischen Raum gefördert werden sollen. Hier weist Europa im Vergleich zu den USA oder China bspw. bei den Patentanmeldungen eben auch schon einen deutlichen Rückstand auf. Der Entwurf hat hier einige gute Ansätze, einiges bleibt aber auch noch offen. Allen voran, wie KI rein rechtlich überhaupt definiert wird. Dazu kommt, dass der Erfüllungsaufwand für Unternehmen an vielen Stellen ungeklärt ist. Wie genau läuft die Risikoeinstufung ab und wie und von wem werden KI-Anwendungen geprüft? Ist der Zugang zu KI-Anwendungen für KMU mit zu hohen Hürden verbunden, verfehlt der Rechtsrahmen das Ziel.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Eine risikobasierte Regulierung der Anwendung von KI klingt erstmal sinnvoll, zumal die derzeit im Entwurf befindliche Liste der Hochrisikoanwendungen regelmäßig durch Sachverständige begutachtet und aktualisiert werden soll. Durch die Abstufungen können Unternehmen als unbedenklich eingestufte KI-Anwendungen weiterhin ohne zusätzliche Hürden einsetzen, während Anwendungen mit hohem Risiko extern überprüft werden müssen. Gleichzeitig bietet der Entwurf KMU und Start-Ups mit sogenannten regulatorischen „Sandkästen“ ein kontrolliertes Umfeld, in dem
innovative Technologie für einen begrenzten Zeitraum getestet werden kann.
Allerdings erlauben die drei angedachten Risikostufen derzeit wenig Differenzierung zwischen spezifischen Anwendungsfeldern. Hierdurch ist zu erwarten, dass in der Praxis deutlich mehr KI-Anwendungen als die geschätzten 15 Prozent als Hochrisikoanwendungen eingestuft werden. Gleichzeitig sollte die Möglichkeit einer Einzelfallbeurteilung gegeben sein, um neue, oder interdisziplinäre Anwendungsfälle zu klassifizieren. Es ist unbedingt notwendig, dass Maßnahmen ergriffen werden, um trotz anwendungszentrierter Risikoreinstufung die Hürden für den Einsatz in Unternehmen so gering wie möglich zu halten.
Der Entwurf der EU-Kommission plant hier bereits mehrere Vorgaben, die unbedingt auszuweiten sind. Die regulatorischen „Sandkästen“ müssen niedrigschwellig und unbürokratisch angelegt sein. Zusätzlich braucht es für KMU ein Beratungsprogramm zur Risikoeinschätzung. Hier müssen die Entwickler von KI-Anwendungen Klarheit haben, damit ihre Produkte am Schluss auch wettbewerbsfähig sind. Konformitätsbewertungen, notwendige Qualitäts- und Risikomanagementsysteme dürfen keine riesigen bürokratischen Hürden werden und so am Schluss Innovationen aus Europa hemmen.
KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Dass die biometirische Identifizierung z.B. für die Authentifizierung bei digitalen Endgeräten unter Einhaltung besonderer Vorschriften erlaubt bleibt, ist sehr sinnvoll. Gleichzeitig ist es notwendig KI-Anwendungen, die mit unannehmbarem Risiko für die Gesellschaft und einer Verletzung europäischer Grundrechte einhergehen, zu verbieten. Dass hier einem Einsatz wie beim Sozialkreditsystem in China ein gesetzlicher Riegel vorgeschoben wird, ist komplett richtig. Bei Ausnahmeregelungen wie dem Einsatz von Massenüberwachung im öffentlichen Raum im Falle von „berechtigten Interesse“ oder bei militärischen Einsätzen muss dann genau hingeschaut werden, wenn die EU ihrem Anspruch eines Qualitätssiegels für vertrauensvolle KI gerecht werden will.
Was sollte aus Ihrer Sicht unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?
Der KI-Regulierungsentwurf der EU ist ein vielversprechender Ansatz, der die richtigen Grundlagen für einen verantwortungsvollen Einsatz von KI bietet. In keinem Fall darf es zu einer Verschärfung der Risikostufen kommen, die eine Wettbewerbsfähigkeit der EU im Bereich der KI gefährden könnte. In der endgültigen Fassung müssen die Richtlinien in jedem Fall weiter konkretisiert und eine praktische Umsetzung ohne zusätzliche Hürden für KMU und KI-Entwickler festgelegt werden. Die Regulierung darf nicht das Gegenteil bewirken und am Ende zu einer Rechtsunsicherheit führen.