Menue-Button
← FACHDEBATTE Interview

Für eine Europäische Aufsicht mit umfassenden Audit-Rechten für KI

Wie KI und Algorithmen diskriminierungsfrei arbeiten sollen

Alexandra Geese - Mitglied des Europäischen Parlaments Quelle: pr Alexandra Geese MdEP Fraktion Die Grünen/EFA im Europäischen Parlament 12.11.2020
INITIATOR DIESER FACHDEBATTE
Dipl.- Journ. Thomas Barthel
Founder & Herausgeber
Meinungsbarometer.info
ZUR FACHDEBATTE

"Ethische Absichtserklärungen müssen künftig Hand in Hand gehen mit starken, klaren Regeln in der EU", betont die Grüne Europaabgeordnete Alexandra Geese mit Blick auf KI-Systeme und Algorithmen. Dabei will sie für dafür kämpfen, dass KI nicht diskriminieren und wichtige Grundrechte nicht verletzen darf.







In der EU ist eine Debatte über Regeln für Künstliche Intelligenz im Gange. Welche grundsätzlichen ethischen Standards sollten einem entsprechenden Regelwerk zugrunde liegen?
Künstliche Intelligenz beeinflusst unseren Alltag immer stärker – und sie ist nicht fair. In den Datensätzen stecken die Vorurteile unserer Gesellschaft. Sie können durch die Algorithmen sogar noch verstärkt werden. Dadurch benachteiligen sie viele Personen und Gruppen. Frauen als Beispiel: Lange Zeit unbemerkt haben KI-Anwendungen Frauen weniger Anzeigen für hochbezahlte Jobs gezeigt als Männern, sie in Bewerbungsverfahren früher aussortiert oder ihre Kreditwürdigkeit geringer eingestuft. Das darf nicht sein. Mir reicht das Vertrauen in ethische Richtlinien nicht mehr aus. Ethische Absichtserklärungen müssen künftig Hand in Hand gehen mit starken, klaren Regeln in der EU. Wir brauchen Gesetze, die allen Menschen Einsicht gewähren, wie und wo künstliche Intelligenz zum Einsatz kommt, was die Folgen sind und wie man sich gegen diskriminierende oder schlichtweg falsche Entscheidungen von Maschinen wehren kann.

JETZT HERUNTERLADEN

DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT

alle Debattenbeiträge ungekürzt im Original
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
MEHR ERFAHREN


Im Gespräch ist u.a. ein Haftungssystem für KI-Systeme. Wie stehen Sie dazu?
Es gibt zurzeit eine große Rechtsunsicherheit in vielen Bereichen und Rechtslücken, die wir dringend beheben müssen. Es gibt ein berüchtigtes Beispiel aus den USA, wo Künstliche Intelligenzen die Rückfallwahrscheinlichkeit von Straftäter*innen berechnet haben, um daran gemessen Bewährungsstrafen festzulegen. Dort wurden schwarze Menschen strukturell diskriminiert, weil das Computersystem mit den zur Verfügung stehenden Daten gearbeitet hat, die schon in sich von Diskriminierungen geprägt waren. In einem solchen Fall besteht kein zivilrechtlicher Haftungsanspruch: Das Computersystem arbeitet ja korrekt mit allen zur Verfügung stehenden – wenngleich diskriminierenden – Daten und ist damit nicht “fehlerhaft” im Sinne unseres aktuellen Haftungsregimes. Wir brauchen deshalb eine sogenannte Gefährder*innenhaftung, ähnlich wie wir es aus dem Straßenverkehr für den Betrieb von Kraftfahrzeugen kennen: Betreiber*innen einer Künstlichen Intelligenz müssen verschuldensunabhängig für risikoreiche Anwendungen haften.

Von Experten gibt es Rufe nach einem KI-Register oder einem KI-TÜV. Wie sehen Sie das?
Ich plädiere für eine europäische Aufsicht mit umfassenden Audit-Rechten. Sie kann Einsicht in die Datensätze und in alle Phasen der Entwicklung von KI-Instrumenten verlangen, Risikofolgenabschätzungen vornehmen, Auskünfte erteilen und Auflagen durchsetzen. Ihre Aufgabe wäre es, für die einheitliche Anwendung der KI-Vorschriften in der gesamten Europäischen Union zu sorgen – besonders gegenüber den KI-Giganten aus den USA und aus China. Außerdem benötigen wir ein Netz regionaler oder nationaler branchenspezifischer Aufsichtsbehörden mit gutem Verständnis von KI im jeweiligen Einsatzbereich. KI in der Schraubenfertigung ist ja etwas ganz anderes als in der Personalverwaltung, das kann man nicht über einen Kamm scheren. Die große Herausforderung ist außerdem der Spagat zwischen Rechtssicherheit für Unternehmen, die mit klaren Kategorien gewährleistet werden muss und einem dynamischen Aufsichtssystem. Da KI-Systeme sich fortlaufend weiterentwickeln, brauchen wir auch niederschwellige gesellschaftliche Eingriffsmöglichkeiten, wenn sich ein System als problematisch erweist. Ob ein Register das leisten kann, ohne zu einem administrativen Monstrum zu werden, ist derzeit noch unklar.  

Verschiedene EU-Staaten (etwa Deutschland in der KI-Strategie, Österreich in der AI-Mission) streben bereits ethische Standards für KI-Anwendungen an. Inwieweit sind nationale Bemühungen und etwaige EU-Regeln in Anbetracht der Stärke von Digitalkonzernen aus den USA oder China überhaupt erfolgversprechend?
Nationale Alleingänge sind nicht zielführend, weder in der Regulierung noch in der Aufsicht. Wir brauchen einen einheitlichen Binnenmarkt in Europa, der sich durch seine Werte von anderen Weltmärkten abhebt. „KI made in Europe“ muss eigene Prioritäten und Grenzen setzen. Nur so können wir die Demokratie und soziale Marktwirtschaft schützen und gleichzeitig die europäische Industrie stärken. Ich werde dafür streiten, dass wir erstmals in einem Gesetz festschreiben, dass künstliche Intelligenz nicht diskriminieren darf, dass sie nicht unsere Privatsphäre, Datenschutz, Meinungsfreiheit oder gar die Würde des Menschen verletzen darf.

UNSER NEWSLETTER

Newsletter bestellen JETZT BESTELLEN

■■■ WEITERE BEITRÄGE DIESER FACHDEBATTE

EIN DEBATTENBEITRAG VON
Jason Chumtong
KI-Experte
Konrad-Adenauer-Stiftung

Jason Chumtong - KI-Experte, Abteilung Wirtschaft und Innovation in der Hauptabteilung Analyse und Beratung bei der Konrad-Adenauer-Stiftung
KI | EU

Rechtssicherheit für KI als möglicher ■ ■ ■

Wie europäische Werte gesichert werden können

EIN DEBATTENBEITRAG VON
Jason Chumtong
KI-Experte
Konrad-Adenauer-Stiftung

EIN DEBATTENBEITRAG VON
Carla Hustedt
Senior Project Manager
Bertelsmann Stiftung

Carla Hustedt - Senior Project Manager Programm Megatrends | Ethik der Algorithmen, Bertelsmann Stiftung
KI | EU

Wenn Maschinen entscheiden, müssen ■ ■ ■

Welche Regeln für welche KI gelten sollten

EIN DEBATTENBEITRAG VON
Carla Hustedt
Senior Project Manager
Bertelsmann Stiftung

EIN DEBATTENBEITRAG VON
Michael Mörike
Vorstand
Integrata-Stiftung für humane Nutzung der Informationstechnologie

Michael Mörike - Vorstand der Integrata-Stiftung für humane Nutzung der Informationstechnologie
KI | EU

Ab wann kann eine Maschine für sich ■ ■ ■

Vor welchen Herausforderungen ein Rechtsrahmen ■ ■ ■

EIN DEBATTENBEITRAG VON
Michael Mörike
Vorstand
Integrata-Stiftung für humane Nutzung der Informationstechnologie

ZUR FACHDEBATTE

ÜBER UNSERE FACHDEBATTEN

Meinungsbarometer.info ist die Plattform für Fachdebatten in der digitalen Welt. Unsere Fachdebatten vernetzen Meinungen, Wissen & Köpfe und richten sich an Entscheider auf allen Fach- und Führungsebenen. Unsere Fachdebatten vereinen die hellsten Köpfe, die sich in herausragender Weise mit den drängendsten Fragen unserer Zeit auseinandersetzen.

überparteilich, branchenübergreifend, interdisziplinär

Unsere Fachdebatten fördern Wissensaustausch, Meinungsbildung sowie Entscheidungsfindung in Politik, Wirtschaft, Wissenschaft, Medien und Gesellschaft. Sie stehen für neue Erkenntnisse aus unterschiedlichen Perspektiven. Mit unseren Fachdebatten wollen wir den respektvollen Austausch von Argumenten auf Augenhöhe ermöglichen - faktenbasiert, in gegenseitiger Wertschätzung und ohne Ausklammerung kontroverser Meinungen.

kompetent, konstruktiv, reichweitenstark

Bei uns debattieren Spitzenpolitiker aus ganz Europa, Führungskräfte der Wirtschaft, namhafte Wissenschaftler, Top-Entscheider der Medienbranche, Vordenker aus allen gesellschaftlichen Bereichen sowie internationale und nationale Fachjournalisten. Wir haben bereits mehr als 600 Fachdebatten mit über 20 Millionen Teilnahmen online abgewickelt.

nachhaltig und budgetschonend

Mit unseren Fachdebatten setzen wir auf Nachhaltigkeit. Unsere Fachdebatten schonen nicht nur Umwelt und Klima, sondern auch das eigene Budget. Sie helfen, aufwendige Veranstaltungen und überflüssige Geschäftsreisen zu reduzieren – und trotzdem die angestrebten Kommunikationsziele zu erreichen.

mehr als nur ein Tweet

Unsere Fachdebatten sind mehr als nur ein flüchtiger Tweet, ein oberflächlicher Post oder ein eifriger Klick auf den Gefällt-mir-Button. Im Zeitalter von X (ehemals Twitter), Facebook & Co. und der zunehmenden Verkürzung, Verkümmerung und Verrohung von Sprache wollen wir ein Zeichen setzen für die Entwicklung einer neuen Debattenkultur im Internet. Wir wollen das gesamte Potential von Sprache nutzen, verständlich und respektvoll miteinander zu kommunizieren.