Für die geplanten EU-Regeln werden KI-Anwendungen in Risikogruppen ein geteilt – wie bewerten Sie diesen Ansatz?
Wir erachten die risikobasierte Einteilung von KI-Anwendungen als zielführenden Ansatz. Die Einordnung von Hochrisiko-KI-Systemen durch Anwendungsgebiete in den Anhängen des Entwurfs ermöglicht es, zielgerichtet bestimmte Bereiche zu regulieren und auf zukünftige Entwicklungen der künstlichen Intelligenz in anderen Anwendungsbereichen, falls notwendig, zu reagieren (z.B.: durch das Hinzufügen neuer Bereiche). Um eine Überregulierung zu vermeiden, wäre es wichtig die Anwendungsbereiche so konkret wie möglich und weitreichend wie notwendig zu definieren.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Bestimmte KI-Systeme sollen gänzlich verboten werden, etwa wenn sie für Social Scoring eingesetzt werden. Wie finden Sie das?
Die Regulierung von Künstlicher Intelligenz stellt eine notwendige Herausforderung in unserer heutigen digitalen Welt dar. Wir sehen es als richtig und wichtig an, besonders staatlichen Akteuren und großen Konzernen, in diesem Bereich Grenzen zu setzen. Insbesondere der Einsatz von KI-Systemen im Bereich des Social Scorings birgt immense Risiken in Bezug auf die Privatsphäre und die Grundrechte des Einzelnen. Daher ist es entscheidend, klare Regulierungen und Verbote für die Anwendung dieser Technologien zu schaffen.
Kritiker befürchten, dass insbesondere innovative Start-ups durch die Regulierung gebremst werden könnten. Wie schätzen Sie diese Gefahr ein?
Unserer Einschätzung nach besteht eine hohe Gefahr, dass innovative Start-ups durch Regulierung ausgebremst werden. Ähnlich wie bei der DSGVO, ist zu erwarten, dass die Kosten, sowie die, auch unbegründete, Angst vor Strafen bei Verstößen, ein ernsthaftes Hindernis für innovative Unternehmen darstellen. Dies ist speziell in der Anfangsphase ein hohes Risiko, da diese Unternehmen oft nicht in der Lage sind, die Kosten für Rechtsberatung und Compliance zu tragen. Darüber hinaus könnten Unsicherheiten bei neuen Entwicklungen und mangelnde Urteile in Rechtsstreitigkeiten zu zusätzlichen Risiken für Start-ups führen. Wir befürchten auch, dass die Definitionen in den gegenwärtigen Regulierungsentwürfen zu weit gefasst sind, was dazu führen kann, dass auch Technologien und Anwendungen reguliert werden, die eigentlich nicht im Fokus der Regulierung stehen sollten.
Was sollte aus Ihrer Sicht unbedingt in einem endgültigen Regelwerk stehen - und was auf keinen Fall?
Es ist wichtig, dass ein europaweit geltendes Regelwerk etabliert wird, dass entsprechende Rechtssicherheit für Innovator*innen und Anwender*innen schafft. Wesentlich dafür ist eine einheitliche Definition von KI, die die Bandbreite von maschinellem Lernen über neuronale Netzwerke bis hin zu komplexen Algorithmen, berücksichtigt. Darüber hinaus muss das Regelwerk klare Rahmenbedingungen für die Entwicklung und Anwendung von KI definieren. Es sollte dabei gewährleisten, dass die technologische Innovation nicht durch übermäßige Restriktionen behindert wird, aber gleichzeitig sicherstellen, dass ethische und gesellschaftliche Normen eingehalten werden, und die Verantwortlichkeit bei Missbrauch oder Fehlern eindeutig zuweisbar ist.
Eine klare Anleitung für das Konformitätsbewertungsverfahren aus Sicht des Entwicklers ist ebenfalls wichtig. Entwickler sollten in der Lage sein, ihre Produkte und Dienstleistungen möglichst einfach auf Übereinstimmung mit den festgelegten Regeln zu prüfen, eine entsprechende Beratungsstelle muss dafür implementiert werden. Der AI-Act muss Forschung und Entwicklung neuer Verfahren und Technologien fördern, anstatt sie einzuschränken. Hierbei ist die richtige Balance zwischen Innovation und Sicherheit entscheidend. Auch bei der Beschaffung von KI-Systemen sind klare Vorgaben in Bezug auf Sicherheit wichtig. Die Einhaltung dieser Kriterien sollte sowohl von den Herstellern als auch von den Anwendern der KI überprüft werden können. Auch müssen Anwender in die Lage versetzt werden einfach festzustellen, ob sie mit einer KI oder einer echten Person kommunizieren.