Die geplanten EU-Regeln teilen KI-Anwendungen in Risikogruppen ein - wie bewerten Sie diesen Ansatz?
Es ist grundsätzlich positiv, dass sich der Kommissionsentwurf auf Hochrisikoanwendungen konzentriert, daneben Anwendungen verbietet und bestimmte Transparenzpflichten einführt. Die Alternativen sind alle schlechter: Man kann sicher nicht alle Anwendungen über einen Kamm scheren. Man kann auch nicht an anderen Merkmalen wie der spezifischen Technologie anknüpfen. Das Problem ist die Definition von Hochrisikoanwendungen. Derzeit handelt es sich um eine Aufzählung von Anwendungen: KI bei der Einstellung von Mitarbeitern oder bei der Bewertung von Schülern. Hier sollte der Gesetzgeber noch nachschärfen und weitere abstrakte Kriterien einführen.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Bestimmte KI-Systeme sollen ganz verboten werden, etwa wenn sie zum Social Scoring eingesetzt werden. Was halten Sie davon?
Grundsätzlich richtig, denn KI kann heute schon so viel, dass es rote Linien für den Einsatz dieser Technologie geben muss. Ein Verbot ist aber das äußerste Mittel, die ultima ratio. Ein solches Verbot ist ein scharfes Schwert, das gut abgewogen werden muss und nur dann zum Einsatz kommen darf, wenn im Ergebnis keine legitime Nutzung solcher Systeme zu erwarten ist. In welchen Fällen dies z.B. beim Social Scoring der Fall ist, muss im Einzelfall geprüft werden. Auch diese Situationen müssen definiert werden. Es überrascht nicht, dass Art. 5 zu den umstrittensten Regelungen des KI-Gesetzes gehört. Ich glaube auch, dass dieser Artikel am schnellsten von der technischen Entwicklung überholt werden wird.
Kritiker befürchten, dass insbesondere innovative Start-ups durch die Regulierung ausgebremst werden. Wie schätzen Sie diese Gefahr ein?
Die Gefahr ist grundsätzlich nicht von der Hand zu weisen. Jede Regulierung muss umgesetzt werden und die Umsetzung verursacht Aufwand. Natürlich haben Start-ups kurz nach der Gründung oft nicht die Kapazitäten, sich mit diesen Themen auseinanderzusetzen, das kann eine Hürde sein. Umgekehrt sollten gerade neue, disruptive und innovative Anwendungen rechtliche, ethische und gesellschaftliche Aspekte von Anfang an mitdenken. Das sind sicher keine unüberwindbaren Gegensätze, denn Start-ups haben am Anfang einige Probleme, angefangen bei der Finanzierung. Ein Ausweg ist, Rechtsberatung als Teil der Start-up-Förderung zu etablieren. Applied AI hat hier zum Beispiel ein Beratungsangebot aufgebaut und auch meine Forschungsgruppe berät Projekte, die gemeinnützige Ziele verfolgen.
Man sollte hier aber nicht zu einseitig agieren. Regulierung kann auch große Vorteile für Start-ups haben. Es gibt klare Verhaltenspflichten, Haftungsrisiken können begrenzt werden, wenn man sich zumindest regelkonform verhält. So können Startups auch in Anwendungsbereiche vordringen, die ohne diese Haftungsregelung für sie zu riskant wären. An verschiedenen Stellen werden spezielle Regelungen für kleine und mittlere Unternehmen getroffen. Darüber hinaus gibt es auch spezifische Fördermöglichkeiten wie z.B. für Reallabore.
Was sollte aus Ihrer Sicht in einem endgültigen Regelwerk unbedingt enthalten sein - und was auf keinen Fall?
Derzeit fehlen partizipative Elemente, insbesondere beim Risikomanagement. Dabei ist es gerade bei der Erkennung und Behandlung von Risiken sehr wichtig, auch mit Nutzer:innen und auch Bürger:innen zu arbeiten. Daher wäre es aus meiner Sicht absolut notwendig. Ähnliche Regelungen gibt es bereits in der Datenschutzgrundverordnung und im Digitaldienstleistungsgesetz. Denn es ist ein Irrglaube, dass Unternehmen, ihre Compliance-Abteilungen und einschlägige Stellen wie der TÜV allein die gesellschaftliche Relevanz neuer Systeme umfassend erfassen können.
Was auf keinen Fall aufgenommen werden sollte, sind Versuche, die Technologie spezifisch zu regulieren, also bestimmte Vorschriften zu machen. Die Stärke des Entwurfs liegt darin, dass er prozessorientiert ist und Menschen in die Lage versetzt, Verantwortung für die Entwicklung zu übernehmen. Dieses Element sollte unbedingt gestärkt werden, indem die Prozesse mit Leben gefüllt werden.