Es soll der nächste große Wurf werden: die weltweit erste große Regulierung von Künstlicher Intelligenz in der EU. Ein Vorschlag für die Regelwerk von der Kommission liegt auf dem Tisch. Danach sollen die Anwendungen je nach Risiko verschieden stark an die Leine gelegt werden – bis hin zum absoluten Verbot – etwa für Social Scoring.
Der SPD-Digital-Politiker Armand Zorn begrüßt in der Fachdebatte auf meinungsbarometer.info, dass sie KI-Regulierung durch klare Regeln Rechtssicherheit für Betriebe schaffen kann. „Das ist besonders für KMU und Startups von großer Relevanz, da sie sich keine großen Rechtsabteilungen leisten können, die sie durch potenzielle rechtliche Unsicherheiten navigieren könnten.“ Zudem schaffe der AI Act Vertrauen in die eher abstrakte Technologie in der Bevölkerung. Mit dieser Akzeptanz könne man die Nutzung von KI in der Breite der Wirtschaft und Gesellschaft erhöhen und damit die Wettbewerbsfähigkeit unserer Unternehmen global stärken. Er sieht sogar einen sogenannten Brüssel-Effekt. „Die EU schafft mit dem AI Act einen internationalen Goldstandard an dem sich Unternehmen weltweit orientieren werden, die im europäischen Markt tätig sein möchten.“
Auch Prof. Dr. Christian Djeffal Rechtswissenschaftler Technische Universität München betont, dass Regulierung kann große Vorteile für Start-ups haben. „Es gibt klare Verhaltenspflichten, Haftungsrisiken können begrenzt werden, wenn man sich zumindest regelkonform verhält.“ So können Startups aus seiner Sicht in Anwendungsbereiche vordringen, die ohne diese Haftungsregelung für sie zu riskant wären. Zudem verweist er auf spezielle Regelungen für kleine und mittlere Unternehmen. Darüber hinaus gebe es auch spezifische Fördermöglichkeiten wie z.B. für Reallabore.
Forscher um Prof. Marlies Temper, Leiterin verschiedener Studiengänge an der FH St. Pölten sehen durchaus die Gefahr, dass innovative Start-ups durch Regulierung ausgebremst werden. „Ähnlich wie bei der DSGVO, ist zu erwarten, dass die Kosten, sowie die, auch unbegründete, Angst vor Strafen bei Verstößen, ein ernsthaftes Hindernis für innovative Unternehmen darstellen.“ Dies sei speziell in der Anfangsphase ein hohes Risiko, da diese Unternehmen oft nicht in der Lage seien, die Kosten für Rechtsberatung und Compliance zu tragen. Darüber hinaus könnten Unsicherheiten bei neuen Entwicklungen und mangelnde Urteile in Rechtsstreitigkeiten zu zusätzlichen Risiken für Start-ups führen. Daher sehen die Experten die Gefahr, dass die Definitionen in den gegenwärtigen Regulierungsentwürfen zu weit gefasst sind, was dazu führen könne, dass auch Technologien und Anwendungen reguliert werden, die eigentlich nicht im Fokus der Regulierung stehen sollten.
Ihr Kollege Prof. Dr. Michael Litschka plädiert dafür, dass die vorgesehenen Kennzeichnungspflichten für KI-Anwendungen unbedingt bleiben oder sogar noch verschärft werden. „Für den Qualitätsjournalismus etwa, der sowieso schon durch die großen digitalen Plattformen, Fake-News-Debatten und Finanzierungsprobleme durch abfließende Werbegelder unter Druck geraten ist, ist das sowieso unabdingbar.“ Auch bei Interaktionen mit Behörden fordert er diesbezüglich komplette Transparenz.
Dr. Walter Peissl, Stv. Direktor Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften sieht die möglichen gefährliche Wirkungen von KI-Anwendungen für individuelle Grundrechte und Entfaltungsmöglichkeiten genauso wie für die Demokratie. Deswegen hält er ein grundsätzliches Verbot für bestimmte Anwendungen für gerechtfertigt. „Vielmehr noch beunruhigt mich die Tatsache, dass die Wirkungsmechanismen innerhalb bestimmter KI-Modelle und Methoden – auch von der Wissenschaft – noch nicht geklärt sind.“ Solange diese Black Box bestehe und Transparenz und Nachvollziehbarkeit nicht ausreichen, um menschliche Kontrolle zu gewährleisten, sollten Moratorien für bestimmte KI-Systeme angedacht werden, sofern ihre Entscheidungen weitreichende soziale oder demokratiepolitisch bedenkliche Konsequenzen nach sich ziehen oder starke moralisch-ethische Komponenten beinhalten.
Dr. Michael Klimke, CEO der Bayerischen KI-Agentur führt den Begriff der menschenzentrierten KI ein. „Meiner Ansicht nach sollte sich im Regelwerk unbedingt eine wohlgesetzte Balance zwischen Persönlichkeitsrechten und öffentlichem Interesse sowie wirtschaftlichen Freiheiten wiederfinden.“ Er verweist darauf, die Entwicklungen der disruptiven Technologie Künstliche Intelligenz noch am Anfang steht.
Auch Innovation-Profiler & Future Strategist Alexander Pinker hält ein endgültiges Regelwerk für unmöglich. Daher sollte eine Verordnung stets Flexibilität und Anpassungsfähigkeit betonen, um mit der raschen Entwicklung der KI-Technologie Schritt zu halten. Er fordert ein Framework, das klar definierte ethische und rechtliche Grundlagen setzt, dabei aber Raum für Innovation und Weiterentwicklung lässt. „Wichtig wäre auch ein Dialogmechanismus zwischen Entwicklern, Unternehmen, Regulierungsbehörden und der Öffentlichkeit.“