Für die geplanten EU-Regeln werden KI-Anwendungen in Risikogruppen eingeteilt – wie bewerten Sie diesen Ansatz?
Der risikobasierte Ansatz ist der Kern des Artificial Intelligence Acts (AI Act). Ich bewerte diesen sehr positiv, da er eine zielgerichtete Regulierung ermöglicht. Schätzungen der EU-Kommission zufolge werden 5-15% aller KI-Anwendungen in den Hochrisiko-Bereich fallen. Das bedeutet im Umkehrschluss, dass ca. 85% der KI-Systeme nicht beziehungsweise nur wenig reguliert werden und so genug Raum für Innovationen bleibt.
In den Hochrisiko-Bereich fallen nur KI-Anwendungen, die auch tatsächlich ein hohes Risiko für die Grund- und Persönlichkeitsrechte der Bürgerinnen und Bürger darstellen. Ein Bereich, der meiner Meinung nach in den Hochrisiko-Bereich fallen muss, ist die Arbeitswelt. Zum Beispiel unterstützen KI-basierte Systeme Recruiter:innen in der Auswahl von passenden Bewerber:innen und Vorgesetzte bei der Leistungsbewertung von Beschäftigten. Hier besteht ein hohes Diskriminierungsrisiko. KI-Systeme reproduzieren naturgemäß die Muster in den zum Training genutzten Datensätzen. Da Frauen und People of Color zum Beispiel auf dem Arbeitsmarkt historisch diskriminiert werden, drohen sich diese Muster zu verstetigen. In einem solchen Fall sind regulatorische Maßnahmen geboten.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Bestimmte KI-Systeme sollen gänzlich verboten werden, etwa wenn sie für Social Scoring eingesetzt werden. Wie finden Sie das?
Bestimmte KI-Systeme beinhalten solche hohen Risiken für die Grund- und Persönlichkeitsrechte, dass ihre Anwendung in unserer Gesellschaft nicht toleriert werden dürfen. Verbote für gewisse KI-Systeme sind daher aus meiner Sicht unabdinglich – dafür hat sich die SPD-Bundestagsfraktion auch in ihrem Positionspapier im Januar 2023 ausgesprochen. Ein Beispiel sind Social Scoring Systeme. Social Scoring Systeme verändern das Gefüge unserer Gesellschaft in ihren Grundzügen. Sie dokumentieren das Verhalten von Bürger:innen, um daraus Prognosen für zukünftige Verhaltensweisen zu erstellen. Nicht nur verletzt das das Recht auf Privatsphäre – Bürger:innen droht bei als „unerwünscht“ eingestuftem Verhalten außerdem Benachteiligung. Wie wir in China sehen, stehen diese Systeme für die maximale Kontrolle des Staates über seine Bürger:innen und sind damit nicht mit den Grundwerten der Europäischen Union zu vereinbaren.
Es ist wichtig, dass der AI Act Verbote für gewisse KI-Systeme vorsieht, da diese inakzeptable Auswirkungen für unsere Gesellschaft und eine Missachtung der Grund- und Persönlichkeitsrechte bedeuten würden.
Kritiker befürchten, dass insbesondere innovative Start-ups durch die Regulierung gebremst werden könnten. Wie schätzen Sie diese Gefahr ein?
Diese Befürchtung habe ich schon oft gehört – meistens kommt sie aber aus der Ecke der etablierten Wirtschaft und den Big Tech Unternehmen. Ich schätze diese Gefahr als eher gering ein. Die KI-Regulierung schafft durch klare Regeln Rechtsicherheit für Betriebe. Das ist besonders für KMU und Startups von großer Relevanz, da sie sich keine großen Rechtsabteilungen leisten können, die sie durch potenzielle rechtliche Unsicherheiten navigieren könnten.
Zudem schafft der AI Act Vertrauen in diese eher abstrakte Technologie in der Bevölkerung. Mit dieser Akzeptanz können wir die Nutzung von KI in der Breite der Wirtschaft und Gesellschaft erhöhen und damit die Wettbewerbsfähigkeit unserer Unternehmen global stärken. Hier greift auch der sogenannte Brüssel Effekt. Die EU schafft mit dem AI Act einen internationalen Goldstandard an dem sich Unternehmen weltweit orientieren werden, die im europäischen Markt tätig sein möchten.
Was sollte aus Ihrer Sicht unbedingt in einem endgültigen Regelwerk stehen - und was auf keinen Fall?
Im AI Act sollten wir auf unbedingt darauf achten, dass Transparenz- und Kennzeichnungspflichten für KI-Systeme verankert werden. Bürger:innen werden oft nicht darüber aufgeklärt, dass eine KI entscheidet – selbst dann, wenn diese Entscheidungen weitreichende Folgen für sie und ihre Lebensrealitäten haben. Das muss sich ändern: Um für Klarheit zu sorgen, brauchen wir eine Kennzeichnungspflicht für alle KI-Anwendungen im Hochrisikobereich. Diese Transparenz ist unabdingbar, um das Vertrauen in KI in unserer Gesellschaft zu stärken.
Worauf ich noch mit Sorge blicke, sind die Ausnahmen für Sicherheitsbehörden in der Anwendung von KI-Systemen. So soll es Sicherheitsbehörden aktuell beispielsweise möglich sein, Systeme biometrischer Erkennung im Grenzschutz und in der Migration zu verwenden. Gerade bei weniger demokratisch-gefestigten Ländern wie Ungarn können die Rechte von besonders vulnerablen Gruppen, wie Geflüchteten, dadurch beeinträchtigt werden. Daran muss in der Fertigstellung des AI Acts noch nachgebessert werden.