Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
Eine transparente Regulierung schafft Rechtssicherheit und Vorhersehbarkeit, und das schafft im besten Fall Vertrauen und Akzeptanz. Der von der EU-Kommission vorgelegte Entwurf ist grundsätzlich geeignet, diese Ziele zu erreichen. Er legt allerdings einen Schwerpunkt auf Themen des Grundrechtsschutzes und unterstellt damit, dass die betroffenen Grundrechte, würde KI (eine Familie von Algorithmen) nicht reguliert werden, nicht oder schwerer zu wahren wären. Hier besteht die Gefahr einer beim Vertrauensaufbau kontraproduktiven Stigmatisierung des Werkzeugs KI, während die Ursache der Grundrechtsverletzungen nicht in der Technologie zu suchen sein dürften.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Der Ansatz eines risikobasierten Modells ist vernünftig und zu begrüßen. Auch die konkreten Differenzierungen erscheinen plausibel. Aus Startup-Sicht ist besonders wichtig, dass in der Praxis eine möglichst einfache, dezentrale, schnelle und transparente Risikobewertung möglich gemacht wird. Monatelange Unsicherheiten (vor und nach Inkrafttreten des neuen Rechtsrahmens) in einer für das Europäische KI-Ökosystem entscheidenden Phase sollten unbedingt vermieden werden. Die Situation nach der Einführung der DSGVO ist hier ein warnendes Beispiel. Der richtige Ansatz ist hier aus meiner Sicht, existierende Gerüste für Risikobewertung in den einzelnen Sektoren um KI-spezifische Risiken zu erweitern, statt ein neues, technologiespezifisches Risikobewertungssystem zu etablieren.
KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Beide genannten Maßnahmen, Personenerkennung wie Social Scoring, sind völlig unabhängig von KI problematische Praktiken. Richtig ist, dass KI hier, wie überall sonst, eingesetzt werden kann und Effizienzgewinne bringt. Aus meiner Sicht gehören Maßnahmen, die fundamentale Grundrechte sichern sollen, nicht in ein Regelwerk, das eine bestimmte Technologie regulieren soll. So wichtig die Technologie aufgrund ihrer jüngsten Fortschritte sein mag, die Regeln unseres Zusammenlebens legen wir normalerweise fest, ohne aufzuzählen, mit welchen Werkzeugen wir sie nicht verletzen dürfen.
Social Scoring mit Stift und Papier, oder mit einer in den 1980er Jahren entwickelten Datenbank, ist einem System mit KI-Anteilen nicht vorzuziehen. Hier fällt die europäische Öffentlichkeit erkennbar auf das in totalitären Regimen gern bemühte Narrativ herein, dass die Umsetzung von Social Scoring-Systemen nicht das Ergebnis hoch fragwürdiger politischer Präferenzen sei, sondern gewissermaßen eine natürliche Folge einer angeblichen Überlegenheit im Umgang mit Daten und oder Algorithmen.
Was sollte aus Ihrer Sicht unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?
Technologiespezifische Themen wie die Kennzeichnungspflicht für Chatbots sollten technologiespezifisch reguliert werden, und ihre explizite Erwähnung ist zu begrüßen. Auch klare Kriterien zur Risikoeinordnung, idealerweise verwendbar im Rahmen bestehender Risikobewertungs-Regelwerke wie wir sie im Maschinenbau lange kennen, sind sehr zu begrüßen.
Wie dargelegt haben dagegen Themen, die grundlegende Fragen des Verhältnisses zwischen Staat und Bürger, wie Social Scoring, in einer Technologieregulierung nichts zu suchen. Ähnliches gilt für Themen der Ordnung der Öffentlichkeit, wie Fakes – wer Lügen verbreitet, sollte unabhängig davon, wie er sie herstellt, belangt werden.
Um Missverständnisse zu vermeiden: Ich unterstütze die vorgeschlagenen Verbote und Kennzeichnungspflichten. Sie jedoch als KI-Problem darzustellen und entsprechend regulieren zu wollen, versucht gesellschaftliche Herausforderungen auf dem Feld der Technologie zu lösen. Das ist grundsätzlich fragwürdig, für das entstehende KI-Ökosystem problematisch und im Sinne der erklärten Ziele des vorgeschlagenen Regelwerks kontraproduktiv.