In der EU ist eine Debatte über Regeln für Künstliche Intelligenz im Gange. Welche grundsätzlichen ethischen Standards sollten einem entsprechenden Regelwerk zugrunde liegen?
Künstliche Intelligenz beeinflusst unseren Alltag immer stärker – und sie ist nicht fair. In den Datensätzen stecken die Vorurteile unserer Gesellschaft. Sie können durch die Algorithmen sogar noch verstärkt werden. Dadurch benachteiligen sie viele Personen und Gruppen. Frauen als Beispiel: Lange Zeit unbemerkt haben KI-Anwendungen Frauen weniger Anzeigen für hochbezahlte Jobs gezeigt als Männern, sie in Bewerbungsverfahren früher aussortiert oder ihre Kreditwürdigkeit geringer eingestuft. Das darf nicht sein. Mir reicht das Vertrauen in ethische Richtlinien nicht mehr aus. Ethische Absichtserklärungen müssen künftig Hand in Hand gehen mit starken, klaren Regeln in der EU. Wir brauchen Gesetze, die allen Menschen Einsicht gewähren, wie und wo künstliche Intelligenz zum Einsatz kommt, was die Folgen sind und wie man sich gegen diskriminierende oder schlichtweg falsche Entscheidungen von Maschinen wehren kann.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Im Gespräch ist u.a. ein Haftungssystem für KI-Systeme. Wie stehen Sie dazu?
Es gibt zurzeit eine große Rechtsunsicherheit in vielen Bereichen und Rechtslücken, die wir dringend beheben müssen. Es gibt ein berüchtigtes Beispiel aus den USA, wo Künstliche Intelligenzen die Rückfallwahrscheinlichkeit von Straftäter*innen berechnet haben, um daran gemessen Bewährungsstrafen festzulegen. Dort wurden schwarze Menschen strukturell diskriminiert, weil das Computersystem mit den zur Verfügung stehenden Daten gearbeitet hat, die schon in sich von Diskriminierungen geprägt waren. In einem solchen Fall besteht kein zivilrechtlicher Haftungsanspruch: Das Computersystem arbeitet ja korrekt mit allen zur Verfügung stehenden – wenngleich diskriminierenden – Daten und ist damit nicht “fehlerhaft” im Sinne unseres aktuellen Haftungsregimes. Wir brauchen deshalb eine sogenannte Gefährder*innenhaftung, ähnlich wie wir es aus dem Straßenverkehr für den Betrieb von Kraftfahrzeugen kennen: Betreiber*innen einer Künstlichen Intelligenz müssen verschuldensunabhängig für risikoreiche Anwendungen haften.
Von Experten gibt es Rufe nach einem KI-Register oder einem KI-TÜV. Wie sehen Sie das?
Ich plädiere für eine europäische Aufsicht mit umfassenden Audit-Rechten. Sie kann Einsicht in die Datensätze und in alle Phasen der Entwicklung von KI-Instrumenten verlangen, Risikofolgenabschätzungen vornehmen, Auskünfte erteilen und Auflagen durchsetzen. Ihre Aufgabe wäre es, für die einheitliche Anwendung der KI-Vorschriften in der gesamten Europäischen Union zu sorgen – besonders gegenüber den KI-Giganten aus den USA und aus China. Außerdem benötigen wir ein Netz regionaler oder nationaler branchenspezifischer Aufsichtsbehörden mit gutem Verständnis von KI im jeweiligen Einsatzbereich. KI in der Schraubenfertigung ist ja etwas ganz anderes als in der Personalverwaltung, das kann man nicht über einen Kamm scheren. Die große Herausforderung ist außerdem der Spagat zwischen Rechtssicherheit für Unternehmen, die mit klaren Kategorien gewährleistet werden muss und einem dynamischen Aufsichtssystem. Da KI-Systeme sich fortlaufend weiterentwickeln, brauchen wir auch niederschwellige gesellschaftliche Eingriffsmöglichkeiten, wenn sich ein System als problematisch erweist. Ob ein Register das leisten kann, ohne zu einem administrativen Monstrum zu werden, ist derzeit noch unklar.
Verschiedene EU-Staaten (etwa Deutschland in der KI-Strategie, Österreich in der AI-Mission) streben bereits ethische Standards für KI-Anwendungen an. Inwieweit sind nationale Bemühungen und etwaige EU-Regeln in Anbetracht der Stärke von Digitalkonzernen aus den USA oder China überhaupt erfolgversprechend?
Nationale Alleingänge sind nicht zielführend, weder in der Regulierung noch in der Aufsicht. Wir brauchen einen einheitlichen Binnenmarkt in Europa, der sich durch seine Werte von anderen Weltmärkten abhebt. „KI made in Europe“ muss eigene Prioritäten und Grenzen setzen. Nur so können wir die Demokratie und soziale Marktwirtschaft schützen und gleichzeitig die europäische Industrie stärken. Ich werde dafür streiten, dass wir erstmals in einem Gesetz festschreiben, dass künstliche Intelligenz nicht diskriminieren darf, dass sie nicht unsere Privatsphäre, Datenschutz, Meinungsfreiheit oder gar die Würde des Menschen verletzen darf.