In der EU ist eine Debatte über Regeln für Künstliche Intelligenz im Gange. Welche grundsätzlichen ethischen Standards sollten einem entsprechenden Regelwerk zugrunde liegen?
Grundsätzlich halte ich es für notwendig, darüber eine Debatte zu führen. Und weil künstliche Intelligenz (KI) von der technischen Entwicklung überall in der globalisierten Welt getrieben wird, finde ich es richtig, dass sich die EU damit beschäftigt. Nur so können wir verhindern, dass unsere Wirtschaft nicht vom Rest der Welt (China, USA) abgehängt wird. Meiner Beobachtung nach wird dabei gerne über eine Standardisierung der Ethik gesprochen, wobei moralische Regeln gemeint sind. Ethik als Wissenschaft oder als Diskurs dessen, was ein Mensch in der einen oder anderen Situation tun soll, kann nicht standardisiert werden. Ansätze dazu können bestenfalls in den verschiedenen Disziplinen der Ethik geschaffen werden: Tugendethik, Utilitarismus, etc. ... Wohl aber könnte die von der Technik angewandte Moral vereinheitlicht werden. Aber wollen wir das wirklich? Schließlich ist dies kulturell auch unterschiedlich. Wollen wir als Nebeneffekt unsere verschiedenen Kulturen vereinheitlichen?
Aber welche Ethik / Moral sollte es denn sein? Ich meine, wir sind gut beraten, zunächst die Menschenrechte der UN zugrunde zu legen. Das wird – soweit ich es überblicke – auch immer anerkannt. Darüber hinaus benötigen wir aber weitere Eigenschaften von KI-gesteuerten Maschinen, um Vertrauen zu erzeugen:
a) Nachvollziehbarkeit: Man kann nachvollziehen, wie die Maschine zu einer Entscheidung / Aktion gekommen ist.
b) Verlässlichkeit: Die Maschine macht in der gleichen Situation auch immer das Gleiche.
c) Etc. ...
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Im Gespräch ist u.a. ein Haftungssystem für KI-Systeme. Wie stehen Sie dazu?
Der Hersteller jeder Maschine, die er verkauft, haftet für die korrekte Funktionsweise. Seine konkrete Haftung ist üblicherweise in der Dokumentation oder im Vertrag dazu festgelegt. Das gilt zunächst auch für Maschinen, die KI einsetzen. Aber ist das bei selbstlernenden Maschinen überhaupt möglich? Wenn ein Käufer – auch versehentlich - der Maschine etwas beibringt, was er dann doch lieber nicht gerne haben möchte. Wie kann der Hersteller dafür haften? Es ist wie mit dem Hinweis: Eltern haften für ihre Kinder. Wie lange? Bis sie erwachsen sind. Und dann haften sie für sich selbst. Ab wann kann eine Maschine für sich selbst haften? Kann man eine Maschine bestrafen?
Ich meine, daraus folgt, dass der Hersteller nur für gewisse Eigenschaften der Maschine haften kann, nicht aber für alles, was da schief laufen kann. Und das gilt es zu regeln.
Von Experten gibt es Rufe nach einem KI-Register oder einem KI-TÜV. Wie sehen Sie das?
Es ist zweifellos sinnvoll, eine unabhängige Instanz zu schaffen, die KI-Systeme beurteilen oder prüfen kann. Das ist zwar kein einfacher Job. Und in dem Maße, wie Maschinen in Zukunft einmal alles Mögliche erlernen können, wird es Ähnlichkeiten mit Prüfungen von schulischen Kenntnissen geben. Ob dies eine staatliche Instanz oder privatwirtschaftlich angelegt sein soll, ist meiner Meinung nach weniger wichtig. Der Staat allerdings sollte eine Regulierungsbehörde dafür schaffen, damit die Prüfungsinstanzen nach vergleichbaren Regeln arbeiten.
Verschiedene EU-Staaten (etwa Deutschland in der KI-Strategie, Österreich in der AI-Mission) streben bereits ethische Standards für KI-Anwendungen an. Inwieweit sind nationale Bemühungen und etwaige EU-Regeln in Anbetracht der Stärke von Digitalkonzernen aus den USA oder China überhaupt erfolgversprechend?
Wie oben geschildert, haben wir eine Chance nur, wenn wir es EU-weit organisieren. Am Beispiel der – europäischen – DSGVO, die jetzt erstmalig in einem Spezialgebiet weltweit anerkannt ist, kann man sehen, dass wir durchaus eine Chance haben. Wir sollten sie aktiv nutzen und nicht lange zögern!
Und wir sollten darüber hinaus gehen und Moral in die Maschinen selbst einbauen, so dass sich die Maschinen moralisch wie gewünscht verhalten. Das wird nicht nur eine große Herausforderung, sondern auch ein großer Markt, den andere bisher noch nicht angegangen sind.
Ein kleines Beispiel zum autonomen Fahren möge dies verdeutlichen: Wie schnell darf ein autonomes Auto durch eine Pfütze fahren, wenn ein Fußgänger daneben steht? Hängt doch wohl davon ab, wie nah er der Pfütze ist. Oder? Solche Regelungen werden aktuell von keiner der EU-weiten oder nationalen Bemühungen erfasst. Solche Anforderungen wird es aber sehr, sehr viele geben, die alle berücksichtigt werden wollen – und die in jedem Kulturkreis anders sind. Wenn wir kulturabhängige Bemühungen dann „national“ nennen, habe ich nichts dagegen.
Nochmal: Das wird auch ein großer Markt, den andere noch nicht entdeckt haben.