Für die geplanten EU-Regeln werden KI-Anwendungen in Risikogruppen ein geteilt – wie bewerten Sie diesen Ansatz?
Ein risikobasierter Ansatz ist grundsätzlich vernünftig, weil es nun mal unterschiedliche Risiken je Anwendungsmöglichkeit gibt. Aus wirtschafts-, medien- und technikethischer Sicht ist eine Folgenabschätzung bei Technologieanwendungen sowieso entscheidend, und bei dieser müssen deontologische (pflichtenethische), utilitaristische (folgenethische) und diskursive Elemente eine Rolle spielen. Letztere weisen darauf hin, dass alle Betroffenen die Risiken auch diskursiv mitbeurteilen sollten. Spätestens seit Jonas‘ „Das Prinzip Verantwortung“ sollten wir um die verantwortungsethische Komponente der Folgenabschätzung wissen und diese im Design der KI-Technologie mitdenken („Ethics in Design“).
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Bestimmte KI-Systeme sollen gänzlich verboten werden, etwa wenn sie für Social Scoring eingesetzt werden. Wie finden Sie das?
Das ist aus ethischer Sicht wohl notwendig, denn eine Art gesellschaftliche Übereinkunft (im Sinne eines Sozialvertrags), dass Social Scoring erwünscht sein könnte, kann ich mir nicht vorstellen (und ist im asiatischen Raum aus kulturellen Gründen zwar etwas mehr akzeptiert, aber wohl nicht in dem Ausmaß, in dem es etwa in China gerade eingesetzt wird). Der europäische Zugang zu Privacy-Fragen, Diskriminierungsfreiheit und non-biased AI ist hier zu bevorzugen. Hier kommt auch das so genannte „Ethics by Design“ in den Blick: kann das Verhalten von KI-Systemen ethisch analysiert werden, bzw. können KI-Systeme ihre „Entscheidungen“ ethisch reflektieren? Das ist zur Zeit aus philosophischer Sicht nicht im vollen Ausmaß möglich (wenn es auch Denkrichtungen gibt, die das für möglich halten). Wenn „ethical reasoning“, also die Verteidigung ethischer Argumente vor einer potenziell unbegrenzten Öffentlichkeit (wie es ähnlich Jürgen Habermas formuliert hat) durch Maschinen nicht funktioniert, warum dann ein Social Scoring System mittels KI akzeptieren?
Kritiker befürchten, dass insbesondere innovative Start-ups durch die Regulierung gebremst werden könnten. Wie schätzen Sie diese Gefahr ein?
Als vorhanden, aber gering, denn gerade Start-ups brauchen Rechtssicherheit und wollen ihre „license to operate“ (die ethische Legitimation ihrer Geschäftsstrategie) erhalten. Eine selbstverantwortliche Akzeptanz solcher Regulierungen kann auch in die von der Bevölkerung wahrgenommene CSR (Corporate Social Responsibility) solcher Unternehmen einzahlen; dieser Art ethischer Selbstbeschränkung kann also auch Marktchancen und Wettbewerbsvorteile erzeugen!
Was sollte aus Ihrer Sicht unbedingt in einem endgültigen Regelwerk stehen - und was auf keinen Fall?
Die vorgesehenen Kennzeichnungspflichten für KI-Anwendungen sollten unbedingt bleiben oder sogar noch verschärft werden. Für den Qualitätsjournalismus etwa, der sowieso schon durch die großen digitalen Plattformen, Fake-News-Debatten und Finanzierungsprobleme durch abfließende Werbegelder unter Druck geraten ist, ist das sowieso unabdingbar; auch bei unseren Interaktionen mit Behörden (man denke an das österreichische Arbeitsmarktservice, das einen Algorithmus als Entscheidungsgrundlage für die Vergabe von Arbeitslosenunterstützungen mitverwendet) wollen wir diesbezüglich komplette Transparenz. Auch die Prozessorientierung statt der Adressierung konkreter Technologien finde ich richtig, gerade auch im Sinne der Innovation und der rasanten Entwicklungsgeschwindigkeit bei KI-Systemen.
Keinesfalls sollte sich bewahrheiten, was schon in einigen Medien kolportiert wurde, nämlich, dass Tech-Anbieter (bspw. Open AI) zu viel Einfluss auf die letztendliche Ausgestaltung des AI Act nehmen würden. Ebenfalls schlecht wäre eine zu starke Fokussierung auf Expert:innen-Inputs (der wichtig ist), statt auch den permanenten Einbezug der Bürger:innenperspektiven mitzudenken.


