Menue-Button
← FACHDEBATTE Interview

Über Pioniercharakter, Vorbildfunktion und blinde Flecken

Was an der europäischen KI-Verordnung gut ist - und was noch besser werden muss

Prof. Dr. Matthias Wendland, LL.M. (Harvard) - Universitätsprofessor für Law and Business Innovation, Institut für Unternehmensrecht und Internationales Wirtschaftsrecht, Karl-Franzens-Universität Graz Quelle: KFU Graz Prof. Dr. Matthias Wendland Universitätsprofessor für Law and Business Innovation Karl-Franzens-Universität Graz 08.11.2021
INITIATOR DIESER FACHDEBATTE
Uwe Schimunek
Freier Journalist
Meinungsbarometer.info
ZUR FACHDEBATTE

"Der Vorschlag der EU-Kommission für eine europäische KI-Verordnung (KI-VO-E) ist der weltweit erste Versuch einer umfassenden Regulierung Künstlicher Intelligenz", betont Prof. Dr. Matthias Wendland von der Karl-Franzens-Universität Graz. Er hat im Detail aber auch klare Forderungen. Neben dem Interview hat der Experte eine ausführliche Stellungnahme formuliert.







Mit einem neuen Rechtsrahmen will die EU-Kommission Grundrechte schützen und Vertrauen in KI stärken – wie gut erfüllen die geplanten Regeln diese Ziele aus Ihrer Sicht ganz grundsätzlich?
Der Vorschlag der EU-Kommission für eine europäische KI-Verordnung (KI-VO-E) ist der weltweit erste Versuch einer umfassenden Regulierung Künstlicher Intelligenz. Er hat insoweit Pioniercharakter und Vorbildfunktion weit über die Europäische Union hinaus. Der Grundansatz einer unional harmonisierten horizontalen Regulierung auf der Grundlage eines risikobasierten Ansatzes, der sich im Produktsicherheitsrecht seit langem bewährt hat, ist für die Regelungsmaterie die am besten geeignete Regulierungsstrategie und daher ausdrücklich zu begrüßen. Eine sektorale Regulierung durch Erweiterung bereits bestehender sektorspezifischer Instrumente wäre demgegenüber mit der Gefahr einer Rechtszersplitterung und erheblicher Regulierungslücken verbunden. Auch die weite Definition Künstlicher Intelligenz in Art. 3 Nr. 1 KI-VO-E ist schon zur Vermeidung von Abgrenzungsproblemen und Umgehungsstrategien sowie mit Blick auf das Regulierungsziel, die Risiken datengetriebener Technologien effektiv zu begrenzen, sinnvoll. Für die Gefahrenprävention kann es nicht auf die zum Einsatz gebrachte Technologie, sondern muss es vor allem auf die Schadensneigung der Systeme ankommen. Entsprechende Risiken bestehen grundsätzlich auch bei „herkömmlichen“ Data-Science Anwendungen ohne Rückgriff auf KI-Technologien im engeren Sinn.

Allerdings bedarf der Verordnungsvorschlag zur Effektuierung der Regulierungsziele in zentralen Kernelementen der Ergänzung. Andernfalls besteht die Gefahr, dass das Schutzkonzept der Verordnung leerläuft und zugleich die Entwicklung wettbewerbsfähiger KI-Systeme durch schwer umsetzbare regulative Anforderungen behindert wird. Eine Nachjustierung ist vor allem in den Bereichen des Schutzes der Grund- und Verbraucherrechte, der Durchsetzung und der Umsetzbarkeit des Pflichtenkanons erforderlich.

JETZT HERUNTERLADEN

DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT

alle Debattenbeiträge ungekürzt im Original
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
MEHR ERFAHREN


Die EU-Kommission unterscheidet KI nach dem Risiko. So sollen etwa bei der Kreditvergabe sehr strenge, bei Chatbots lockerere Regeln gelten – wie bewerten Sie die vorgesehenen Differenzierungen?
Der risikobasierte Ansatz des Verordnungsentwurfs greift auf klassische Regulierungsansätze des Produktsicherheitsrechts zurück und ist ausdrücklich zu begrüßen. Allerdings besteht hier im Einzelnen noch erheblicher Korrekturbedarf. Das betrifft insbesondere die bisher noch fehlende Berücksichtigung der Beeinträchtigung von Verbraucherrechten als Maßstab für die Risikobewertung, die Unabhängigkeit des Konformitätsbewertungsverfahrens und die Risikobewertung bei verbundenen Produkten. Hier sollte der Kommissionsvorschlag entsprechend nachgeschärft werden. So ist etwa die Liste der Hochrisiko-KI-Systeme auch um solche Anwendungen zu ergänzen, die geeignet sind, Verbraucherrechte erheblich zu beeinträchtigen oder den Zugang zu Märkten und Dienstleistungen zu erschweren. Darüber hinaus sollten Hochrisiko-KI-Systeme einer Konformitätsbewertung durch anerkannte unabhängige Stellen im Rahmen eines Zertifizierungsverfahrens unterworfen werden. Eine Selbsteinschätzung der Anbieter, dass sie die Forderungen erfüllen, genügt hierfür nicht. Und schließlich sollte bei verbundenen Produkten die Klassifizierung als Hochrisiko-KI-System vom Bestehen einer Drittprüfungspflicht nach dem sektoralen Produktsicherheitsrecht entkoppelt und an die Aufnahme in den Anhang III auf der Grundlage einer Risikobewertung des Gesamtsystems geknüpft werden.

KI-gestützte Personenerkennung soll nur stark eingeschränkt, Social Scoring für Staaten ganz verboten sein. Wie sehen Sie diese Pläne?
Der Ansatz der Kommission, den Einsatz dieser besonders grundrechtsgefährdenden Anwendungen zu begrenzen, weist zwar in die richtige Richtung, ist in der Umsetzung aber lückenhaft und damit in weiten Bereichen wirkungslos. Problematisch sind hier vor allem zwei Punkte: Erstens die weitreichenden Ausnahmen zur biometrischen Echtzeit-Fernidentifizierung von Personen, die eine Massenüberwachung im öffentlichen Raum im Ergebnis nicht verhindern, sondern legitimieren und damit erst rechtlich ermöglichen. Die Ausnahmetatbestände des Art. 5 I 1 d), II – IV KI-VO-E sollten daher mit Blick auf die Effektuierung des Grundrechtsschutzes deutlich beschränkt werden. Andererseits gelten die Beschränkungen im Fall KI-gestützter Personenerkennung und des Social Scoring nur für Behörden, nicht jedoch für private Akteure. Hier wäre Art. 5 I c-d) KI-VO-E unbedingt dahingehend zu ergänzen, dass das Verbot des Einsatzes derartiger KI-Systeme auch auf private Stellen ausgeweitet wird.

Was sollte unbedingt noch in einem endgültigen EU-KI-Regelwerk stehen – und was auf keinem Fall?   
Ein blinder Fleck besteht derzeit noch im Bereich des Rechtsschutzes und zwar sowohl mit Blick auf den Individualrechtsschutz Betroffener, als auch im Hinblick auf den kollektiven Rechtsschutz. Vor allem bei algorithmenbasierten Bewertungen besteht die Gefahr, dass Betroffene im Fall von Fehlfunktionen erheblich geschädigt werden mit weitreichenden Folgen für den Zugang zu Märkten und Dienstleistungen. Hier wäre der Verordnungsvorschlag um entsprechende Ansprüche der Betroffenen auf Offenlegung der Bewertungsgrundlagen sowie Korrektur und Löschung ungerechtfertigter Bewertungen zu ergänzen. Flankierend sollte, wie im Bereich des unlauteren Wettbewerbs seit weit langem bewährt, Verbraucherschutzorganisationen ein Verbandsklagerecht eingeräumt werden, um Verstöße gegen die Anforderungen der KI-VO gerichtlich geltend machen und gegebenenfalls eine unabhängige Drittprüfung anstoßen zu können. Davon würden die Sicherheit von KI-Systemen und das Vertrauen in KI insgesamt ganz erheblich profitieren. Was die Kommission im weiteren Gesetzgebungsverfahren unbedingt vermeiden sollte: Eine Anwendung der KI-Verordnung auf bereits in den Markt eingeführte Medizinprodukte. Hier ist eine sorgfältige Abstimmung zwischen den Regelungen der Medizinprodukteverordnung (MDR) und der KI-VO notwendig um zu vermeiden, dass bereits zugelassene und wirksame KI-Anwendungen aufgrund widersprüchlicher Anforderungen wieder vom Markt genommen werden müssen.

***
Stellungnahme zum Verordnungsvorschlag der Europäischen Kommission für einen harmonisierten Rechtsrahmen für Künstliche Intelligenz
2021/0106 (COD)
 
I. Gesamtbewertung und Regulativer Ansatz
Der Vorschlag der EU-Kommission für eine europäische KI-Verordnung (KI-VO-E) ist der weltweit erste Versuch einer umfassenden Regulierung Künstlicher Intelligenz. Er hat insoweit Pioniercharakter und Vorbildfunktion weit über die Europäische Union hinaus. Der Grundansatz einer unional harmonisierten horizontalen Regulierung auf der Grundlage eines risikobasierten Ansatzes, der sich im Produktsicherheitsrecht seit langem bewährt hat, ist für die Regelungsmaterie die am besten geeignete Regulierungsstrategie und daher ausdrücklich zu begrüßen. Eine sektorale Regulierung durch Erweiterung bereits bestehender sektorspezifischer Instrumente wäre demgegenüber mit der Gefahr einer Rechtszersplitterung und erheblicher Regulierungslücken verbunden. Auch die weite Definition Künstlicher Intelligenz in Art. 3 Nr. 1 KI-VO-E ist schon zur Vermeidung von Abgrenzungsproblemen und Umgehungsstrategien sowie mit Blick auf das Regulierungsziel, die Risiken datengetriebener Technologien effektiv zu begrenzen, ausdrücklich zu begrüßen. Für die Gefahrenprävention kann es nicht auf die zum Einsatz gebrachte Technologie, sondern muss es vor allem auf die Schadensneigung der Systeme ankommen. Entsprechende Risiken bestehen grundsätzlich auch bei „herkömmlichen“ Data-Science Anwendungen ohne Rückgriff auf KI-Technologien im engeren Sinn.

II. Änderungsbedarf im Einzelnen
Allerdings bedarf der Verordnungsvorschlag zur Effektuierung der Regulierungsziele in zentralen Kernelementen der Ergänzung. Andernfalls besteht die Gefahr, dass das Schutzkonzept der Verordnung leerläuft und zugleich die Entwicklung wettbewerbsfähiger KI-Systeme durch schwer umsetzbare regulative Anforderungen behindert wird. Eine Nachjustierung ist vor allem in den drei Bereichen 1) Schutz der Grund- und Verbraucherrechte, 2) Durchsetzung und 3) Umsetzbarkeit des Pflichtenkanons erforderlich.
 
1. Schutz der Grund- und Verbraucherrechte:
Im Bereich des Schutzes der Grund- und Verbraucherrechte bestehen Schutzlücken vor allem aufgrund der fehlenden Einbeziehung privater Akteure, der mangelnde Berücksichtigung von Verbraucherrechten sowie der unvollständigen Erfassung besonders riskanter Anwendungen.
- Private Akteure als Normadressaten: In vielen Fällen ist der Einsatz besonders riskanter KI-Systeme – wie etwa das Social Scoring nach Art. 5 I c) KI-VO-E oder das Verbot der biometrischen Fernidentifizierung im öffentlichen Raum nach Art. 5 I (d) KI-VO-E – nur Behörden, nicht jedoch privaten Akteuren verboten. Dadurch ergeben sich deutliche Schutzlücken, da auch aus dem Einsatz dieser Technologien durch Private erhebliche Ge-
fahren für die Grundrechte der Betroffenen erwachsen können. Das Verbot des Social Scoring gem. Art. 5 I c) KI-VO-E und der biometrischen Fernidentifizierung im öffentlichen Raum gem. Art. 5 I d) KI-VO-E sind daher auch auf private Akteure auszuweiten.
- Schutz von Verbraucherrechten: Der sachliche Schutzbereich der KI-VO beschränkt sich derzeit vor allem auf mögliche Risiken in den Bereichen Sicherheit, Gesundheit und Grundrechte. In der Praxis kommen allerdings in weitem Umfang auch KI-Anwendungen zum Einsatz (etwa in den Bereichen Versicherungen, Zahlungsverkehr, Inkasso, Scoring, Finanzanlagen), aus denen sich weitreichende Risiken für die Wahrnehmung von Verbraucherrechten mit der Folge wirtschaftlicher Schäden für die Betroffenen ergeben können.
Entsprechend sollte die Liste der Hochrisiko-KI-Systeme gem. Art. 6 II KI-VO-E um Anwendungen ergänzt werden, die geeignet sind, Verbraucherrechte erheblich zu beeinträchtigen, zum Nachteil der Betroffenen erhebliche wirtschaftliche Schäden zu verursachen oder den Zugang zu Märkten und Dienstleistungen zu erschweren.
- Ergänzung des Katalogs besonders riskanter Anwendungen: Die Entwicklung von KI-Systemen vollzieht sich mit atemberaubender Geschwindigkeit und erfasst immer neue Anwendungsbereiche. Umso mehr sollte der Katalog besonders riskanter KI-Anwendungen um Systeme ergänzt werden, die bereits als besonders risikoträchtig bekannt sind und in der Praxis verwendet werde. Hierzu gehört insbesondere der Einsatz sog. „Dark Patterns“, die darauf abzielen, die selbstbestimmte Entscheidungsfindung von Verbrauchern zu beeinträchtigen. Art. 5 I b) KI-VO-E ist daher dahingehend zu ergänzen, dass der Einsatz auch solcher KI-Systeme unzulässig ist, die geeignet sind, die persönlichen Schwächen oder die Schutzbedürftigkeit von Verbrauchern zu ihrem Nachteil auszunutzen. Die Beschränkung des persönlichen Anwendungsbereiches des Art. 5 I b) KI-VO-E auf alte und behinderte Menschen ist deutlich zu eng. Darüber hinaus sollte Art. 5 I b) KI-VO-E neben physischen und psychischen auch wirtschaftliche Schäden erfassen. Gleiches gilt für KI-Systeme zur Emotionsanalyse. Der Einsatz KI-basierter Analyse menschlicher Merkmale im öffentlichen Raum sowie automatisierter Entscheidungen in Rechtsprechung und Verwaltung sollte einem generellen Verbot unterliegen. Entsprechend sind die Ausnahmetatbestände des Art. 5 I 1 d), II – IV KI-VO-E mit Blick auf die Effektuierung des Grundrechtsschutzes deutlich zu beschränken.
 
2. Durchsetzung
Entscheidend für die Effektivität regulativer Instrumente sind hinreichend konkretisierte und damit umsetzbare Standards, ein unabhängiges Kontrollregime sowie die Möglichkeit effektiven Rechtsschutzes. In allen drei Bereichen bestehen Regulierungsdefizite:
- konkretisierte und umsetzbare Standards: Die regulativen Anforderungen der KI-VO an Hochrisiko-KI-Systeme bewegen sich – dem Regelungscharakter Europäischer Verordnungen entsprechend –auf weitgehend hohem abstrakten Niveau unter Rückgriff auf unbestimmte Rechtsbegriffe. So sind etwa nach Art. 15 I KI-VO-E Hochrisiko-KI-Systeme so zu konzipieren und zu entwickeln, „dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen“. Sowohl für KI-Hersteller und Betreiber als auch für die Aufsichtsbehörden sind regulative Vorgaben auf einem derart hohen Abstraktionsniveau nur schwer umsetzbar mit der Folge erheblicher Rechtsunsicherheiten und Umsetzungsdefizite. Hier sollten in der Verordnung nach dem Beispiel der DSGVO zumindest leitende Kriterien zur Konkretisierung der Vorgaben vorgesehen werden. Die Umsetzung dieser Kriterien auf technischer Ebene ist Gegenstand zukünftiger Zertifizierungsverfahren.
- unabhängiges Kontrollregime: Nach Art. 43 II KI-VO-VO soll das für Hochrisiko-KI-Systeme vorgesehene Konformitätsbewertungsverfahren auf der Grundlage einer Selbsteinschätzung der Anbieter gem. Anhang VI ohne Einbeziehung einer modifizierten unabhängigen Stelle durchgeführt werden. Zur Verwirklichung der Regulierungsziele einer vertrauenswürdigen und sicheren KI sowie zur Förderung der Akzeptanz sind Instrumente der Selbstregulierung allerdings nicht geeignet. Der Verzicht auf eine unabhängige Drittprüfung steht darüber hinaus im Widerspruch zu Art. 4 I b des Beschlusses 768/2008/EG über einen gemeinsamen Rechtsrahmen für die Vermarktung von Produkten, wonach die anzuwendenden Verfahren mit Blick auf die „Relevanz der Konformitätsbewertung entsprechend der Art und der Höhe der Risiken“ auszuwählen sind. Wie im Bereich der Produktsicherheit mit Blick auf hochriskante Technologien
allgemein üblich, sollten Hochrisiko-KI-Systeme einer unabhängigen Konformitätsbewertung durch anerkannte unabhängige Stellen im Rahmen eines Zertifizierungsverfahrens unterworfen werden. Die Konformitätsbewertung sollte dabei nicht nur bei Markteintritt, sondern in regelmäßigen Abständen über den gesamten Lebenszyklus des Systems hinweg erfolgen.
- effektiver Rechtsschutz: Vor allem im Bereich des algorithmenbasierter scorings entfalten automatisierte Bewertungen ein erhebliches Risikopotenzial mit Blick auf die wirtschaftliche Schädigung von Verbrauchern und den Zugang zu Märkten und Dienstleistungen. Hier sollte für die Betroffenen ein Anspruch auf Offenlegung der Bewertungsgrundlagen, auf Korrektur ungerechtfertigter Bewertungen sowie ein Löschungsanspruch vorgesehen werden. Der Individualrechtsschutz ist durch bewährte Instrumente des kollektiven Rechtsschutzes zu flankieren. Wie im Bereich des unlauteren Wettbewerbs sollte auch im Anwendungsbereich der KI-VO Verbraucherschutzorganisationen ein Verbandsklagerecht eingeräumt werden, um Verstöße gegen die Anforderungen der KI-VO gerichtlich geltend machen zu können. Hierzu wäre die KI-VO in Anhang I der Europäischen Richtlinie 2020/1828 über Verbandsklagen zum Schutz der Kollektivinteressen der Verbraucher aufzunehmen.
 
3. Umsetzbarkeit, Nachvollziehbarkeit und Kohärenz
Zentral für die Effektivität der Verordnung mit Blick auf die Verwirklichung der Regulierungsziele sind Umsetzbarkeit, Nachvollziehbarkeit und Kohärenz der regulativen Vorgaben. Sowohl Hersteller und Betreiber als auch die Aufsichtsbehörden sind auf hinreichend konkretisierte, umsetzbare und kohärente Anforderungen angewiesen. Hier bestehen erhebliche Defizite mit Blick auf die Klassifizierungskriterien für die einzelnen Risikoklassen, das Verhältnis zu sektoralen Richtlinien und Verordnungen sowie die Anforderungen an Genauigkeit, Robustheit und Cybersicherheit.
- Klassifizierungskriterien für die einzelnen Risikoklassen: Die Eingruppierung in die einzelnen Risikoklassen, insbesondere die Qualifizierung als Hochrisiko-KI-Systeme nach Art. 6 iVm Anhang III KI-VO-E bildet eine entscheidende Weichenstellung bei der Anwendung des regulativen Rahmens der Verordnung. Denn Hochrisiko-KI-Systeme unterliegen einer besonders strengen Regulierung bis hin zum Verbot einzelner Anwendungen gem. Art. 5 KI-VO-E. Allerdings fehlen im Kommissionsvorschlag nachvollziehbare Klassifizierungskriterien wie auch eine hinreichend ausdifferenzierte Definition von Hochrisiko-KI-Systemen, die eine Zuordnung auch nicht in Anhang III KI-VO-E aufgeführter KI-Systeme zu den einzelnen Risikoklassen erlauben. Insbesondere lässt der Verordnungstext offen, welchen Wertentscheidungen die Herleitung der Risikoklassen zugrunde liegt. Die Verordnung sollte daher um klare und nachvollziehbarer Abgrenzungskriterien ergänzt werden, auf deren Grundlage die Eingruppierung einer KI-Anwendung als Hochrisiko-System erfolgt.
- Verhältnis zu sektoralen Richtlinien und Verordnungen: Für die Qualifikation einer KI-Anwendung als Hochrisiko-KI-System folgt der Kommissionsentwurf in Art 6 KI-VO-E einem zweidimensionalen Ansatz, der zwischen KI-Komponenten in drittprüfungspflichtigen Produkten (Art. 6 I KI-VO-E) einerseits und den in Anhang III enumerativ aufgezählten standalone KI-Systemen (Art. 6 II KI-VO-E) andererseits differenziert. Für die erste Kategorie stellt Art. 6 I KI-VO-E maßgeblich darauf ab, ob ein KI-System, das als Sicherheitskomponente in einem Produkt verwendet wird, das nach den in Anhang II aufgeführten sektoralen Richtlinien und Verordnungen einem unabhängigen Konformitätsbewertungsverfahren unterliegt. Ist das Produkt, in dem das KI-System integriert ist, nicht drittprüfungspflichtig, fällt das KI-System damit automatisch aus der Risikoklasse der Hochrisiko-KI-Systeme heraus.
Dies wird dem tatsächlichen Gefährdungspotenzial, das von integrierten KI-System ausgeht, nicht gerecht, da die Wechselwirkungen zwischen KI- und produktspezifischen Risiken so nicht angemessen berücksichtigt werden. Denn die Integration eines KI-Systems in ein bisher nicht drittprüfungspflichtiges Produkt kann dazu führen, dass sich die von diesem Produkt ausgehen Risiken deutlich erhöhen. Darüber hinaus werden KI-spezifische Risiken in den sektoralen Instrumenten bisher nur vereinzelt adressiert. Die Klassifizierung als Hochrisiko-KI-System sollte daher in Art. 6 I b) KI-VO-E vom Bestehen einer Drittprüfungspflicht entkoppelt und an die Aufnahme in Anhang III auf der Grundlage einer Risikobewertung des Gesamtsystems geknüpft werden.
- Konkretisierung der Anforderungen an Genauigkeit, Robustheit und Cybersicherheit:
Nach Art. 15 KI-VO-E sind Hochrisiko-KI-Systeme so zu konzipieren, dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Niveau an Genauigkeit, Robustheit und Cybersicherheit erreichen und dieses Niveau während ihres gesamten Lebenszyklus beibehalten. Die Normierung dieser Anforderungen ist ausdrücklich zu begrüßen, allerdings bedürfen sie für eine effektive Anwendung in der Praxis der weitergehenden Konkretisierung. Das betrifft insbesondere die Anforderung der „angemessenen Genauigkeit“, die mit hinreichender Zulässigkeit nur ex post bestimmt werden kann.

UNSER NEWSLETTER

Newsletter bestellen JETZT BESTELLEN

■■■ WEITERE BEITRÄGE DIESER FACHDEBATTE

EIN DEBATTENBEITRAG VON
Prof. Dr. Antje von Ungern-Sternberg
Direktorin
Institut für Recht und Digitalisierung Trier (IRDT), Universität Trier

Prof. Dr. Antje von Ungern-Sternberg - Direktorin, Institut für Recht und Digitalisierung Trier (IRDT), Universität Trier
EU | KI

Neue Regeln für Qualitäts-, ■ ■ ■

Was die EU-KI-Verordnung leisten könnte

EIN DEBATTENBEITRAG VON
Prof. Dr. Antje von Ungern-Sternberg
Direktorin
Institut für Recht und Digitalisierung Trier (IRDT), Universität Trier

EIN DEBATTENBEITRAG VON
Prof. Dr. Sabine Theresia Köszegi
Ratsvorsitzende
Österreichischer Rat für Robotik und Künstliche Intelligenz

Prof. Dr. Sabine Theresia Köszegi - Ratsvorsitzende, Österreichischer Rat für Robotik und Künstliche Intelligenz
EU | KI

Schlupflöcher und ■ ■ ■

Warum die EU-Pläne für die KI-Regeln in die ■ ■ ■

EIN DEBATTENBEITRAG VON
Prof. Dr. Sabine Theresia Köszegi
Ratsvorsitzende
Österreichischer Rat für Robotik und Künstliche Intelligenz

EIN DEBATTENBEITRAG VON
Oliver Süme
Vorstandsvorsitzender
eco - Verband der Internetwirtschaft e.V.

Oliver Süme - Vorstandsvorsitzender eco - Verband der Internetwirtschaft e.V.
EU | KI

eco mahnt politischen Rückenwind für ■ ■ ■

Warum die EU-Regulierungs-Pläne in die richtige ■ ■ ■

EIN DEBATTENBEITRAG VON
Oliver Süme
Vorstandsvorsitzender
eco - Verband der Internetwirtschaft e.V.

ZUR FACHDEBATTE

ÜBER UNSERE FACHDEBATTEN

Meinungsbarometer.info ist die Plattform für Fachdebatten in der digitalen Welt. Unsere Fachdebatten vernetzen Meinungen, Wissen & Köpfe und richten sich an Entscheider auf allen Fach- und Führungsebenen. Unsere Fachdebatten vereinen die hellsten Köpfe, die sich in herausragender Weise mit den drängendsten Fragen unserer Zeit auseinandersetzen.

überparteilich, branchenübergreifend, interdisziplinär

Unsere Fachdebatten fördern Wissensaustausch, Meinungsbildung sowie Entscheidungsfindung in Politik, Wirtschaft, Wissenschaft, Medien und Gesellschaft. Sie stehen für neue Erkenntnisse aus unterschiedlichen Perspektiven. Mit unseren Fachdebatten wollen wir den respektvollen Austausch von Argumenten auf Augenhöhe ermöglichen - faktenbasiert, in gegenseitiger Wertschätzung und ohne Ausklammerung kontroverser Meinungen.

kompetent, konstruktiv, reichweitenstark

Bei uns debattieren Spitzenpolitiker aus ganz Europa, Führungskräfte der Wirtschaft, namhafte Wissenschaftler, Top-Entscheider der Medienbranche, Vordenker aus allen gesellschaftlichen Bereichen sowie internationale und nationale Fachjournalisten. Wir haben bereits mehr als 600 Fachdebatten mit über 20 Millionen Teilnahmen online abgewickelt.

nachhaltig und budgetschonend

Mit unseren Fachdebatten setzen wir auf Nachhaltigkeit. Unsere Fachdebatten schonen nicht nur Umwelt und Klima, sondern auch das eigene Budget. Sie helfen, aufwendige Veranstaltungen und überflüssige Geschäftsreisen zu reduzieren – und trotzdem die angestrebten Kommunikationsziele zu erreichen.

mehr als nur ein Tweet

Unsere Fachdebatten sind mehr als nur ein flüchtiger Tweet, ein oberflächlicher Post oder ein eifriger Klick auf den Gefällt-mir-Button. Im Zeitalter von X (ehemals Twitter), Facebook & Co. und der zunehmenden Verkürzung, Verkümmerung und Verrohung von Sprache wollen wir ein Zeichen setzen für die Entwicklung einer neuen Debattenkultur im Internet. Wir wollen das gesamte Potential von Sprache nutzen, verständlich und respektvoll miteinander zu kommunizieren.