Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
Es ist sehr begrüßenswert, dass die EU Kommission mit diesem Regulierungsvorschlag die Grundrechte von Menschen schützen will. Der vorliegende Entwurf baut in vielen Punkten auf den Ethikrichtlinien und den Policy-Empfehlungen der High-Level Expert Group für Künstliche Intelligenz der Europäischen Kommission (HLEG AI) auf. Die Verankerung von Grundrechten, wie der Respekt für Autonomie und Selbstbestimmung, von Fairness und der Schutz vor Diskriminierung sind wichtige Eckpfeiler für Technologien, die starken Einfluss auf unser Leben nehmen und auch gesamtgesellschaftliche Auswirkungen haben können. Auch der Risiko-basierte Ansatz zur Klassifizierung wurde von der HLEG AI vorgeschlagen. Ob die geplanten Regelungen den Schutz dieser Grundrechte tatsächlich gewährleisten können, hängt am Ende davon ab, wie diese Regulierungsvorschriften im Detail und in den einzelnen Mitgliedsstaaten operationalisiert, implementiert und durchgesetzt werden. Hier gibt es noch viele offene Fragen.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Die Risiko-Differenzierung von KI-Applikationen ist ein grundsätzlich sinnvoll. Da die Europäische Kommission nicht die Technologie selbst, sondern deren konkreten Anwendungen regulieren will, ist eine genaue Bewertung des Risikos bei jeder spezifischen Anwendung notwendig. Allerdings wird uns diese Bewertung vor große Herausforderungen stellen, denn sie ist sicherlich nicht abschließend durchzuführen, sondern kann nur eine provisorische Einstufung nach dem aktuellen Stand des Wissens sein. Die von Ihnen skizzierten Anwendungsfälle von KI-gestützter Kreditvergabe und Chatbots sind dafür gute Beispiele: vulnerable Gruppen, wie Jugendliche oder Suizidgefährdete, können etwa durch manipulative Chatbots durchaus in Situationen gebracht werden, bei denen ihre Unversehrtheit von Leib und Leben auf dem Spiel steht, in etwa, weil sie Jugendliche in riskantes Verhalten treiben. Die nun vorgeschlagenen Richtlinien würden solche Anwendungen, bei korrekter Bewertung in der Stufe nicht-akzeptables Risiko einordnen; sie wären somit verboten. Eine Zulassung von riskanten Anwendungen müsste in jedem Fall an entsprechende Maßnahmen zur Sicherstellung der Grundrechte geknüpft sein. Insofern kommt der erfolgreichen Operationalisierung der Risikobewertung ein Hauptaugenmerk zu. Es bedarf eines andauernden Anpassungsprozesses dieser Risikobewertungen in beide Richtungen, sowohl in Hinblick auf neue technologische Entwicklungen als auch in Hinblick auf neue Anwendungsgebiete. Darüber hinaus wird es spannend, wie die Kompetenzen von Zertifizierungs- und Monitoring-Gremien in den Mitgliedstaaten und sowie in der Kommission genau ausverhandelt werden.
KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Die genannten Anwendungen widersprechen ganz klar den Grundwerten der Europäischen Kommission. Die Grenzziehung mit „Red Lines“ ist daher absolut wichtig. Sie zeigen auf, wofür Europa steht und was nicht toleriert wird. Das gibt den Menschen Sicherheit. Speziell im globalen Kontext kann die EU in diesem Bereich eine eigenständige, grundrechtskonforme Technologiepolitik forcieren, die sich stark von den aktuell anderen wichtigen Playern, vor allem China und die USA, unterscheidet. Allerdings sind auch hier im Detail noch grundlegende Fragen offen, etwa warum nur eine KI-gestützte Live-Personenerkennung ausgeschlossen wird. Hier bedarf es sicherlich noch Nachschärfungen.
Was sollte aus Ihrer Sicht unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?
Es wird wichtig sein, europaweit gültige und gemeinsame Standards zu entwickeln. Dies wird sicherlich eine Herausforderung. Gleichzeitig ist dies aber die einzige Möglichkeit, den Single European Market für vertrauenswürdige KI-Technologien zu verwirklichen und Schlupflöcher und Zertifizierungstourismus zu vermeiden.