Der digitale Raum gibt allen Nutzenden die Möglichkeit sich zu äußern – zugleich bietet er Raum für Falsch-Informationen und persönliche Angriffe. Wie sollte die Politik die Debattenkultur im digitalen Raum ganz grundsätzlich stärken?
Politiker:innen und ihre Parteien können mit gutem Beispiel vorangehen. Das heißt: Auf eine offene, ehrliche Kommunikation setzen, die auf falsche oder irreführende Informationen verzichtet und die persönliche Angriffe meidet. Gerade im Internet kommt noch hinzu: Auf den eigenen Kanälen klare Kante zeigen gegen Sexismus, Rassismus, Antisemitismus und andere Diskriminierungen und Hetze. Das ist besonders im Wahlkampf wichtig, aber auch darüber hinaus. „Campaign Watch", eine Initiative aus mehr als 20 zivilgesellschaftlichen und wissenschaftlichen Organisationen, hat dafür konkrete Vorschläge erarbeitet, wie Parteien über eine Selbstverpflichtungen für einen fairen Wahlkampf sorgen können. Fast alle Parteien haben dann auch Selbstverpflichtungen entwickelt. Abgesehen vom Wahlkampf und von Selbstverpflichtungen ist es wichtig, dass gerade die großen Plattformen, die für Millionen Menschen Kommunikationsräume bereitstellen, in den Blick genommen werden. Denn wie genau Plattformen mit Falschinformationen, aber auch mit strafrechtlich relevanten Posts umgehen, ist in den allermeisten Fällen allein den Plattformen überlassen. Es muss auch bessere Möglichkeiten für Forschende und andere Fachleute geben, um zu verstehen, wie sich Falschinformationen verbreiten und ob die Ausgestaltung der Plattformen selbst dazu beiträgt.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE

DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Fachleute beobachten die Tendenz, dass Menschen sich im digitalen Raum gläsern oder sozial unter Druck fühlen und in der Folge selbst zensieren. Was bedeutet dieses "Social Cooling" aus Ihrer Sicht für die demokratische Debattenkultur?
Dass Menschen sich aus Furcht vor Diskriminierungen und Anfeindungen aus politischen und gesellschaftlichen Debatten zurückziehen, bedeutet eine Schwächung der demokratischer Debatten. Das betrifft sehr stark Frauen, insbesondere Frauen in Führungspositionen, und Stimmen von Minderheiten, beispielsweise aus migrantischen Gemeinschaften. Wenn hier eine Selbstzensur stattfindet, gehen wichtige Stimmen in der Debatte verloren.
Wie lässt sich im Angesicht individueller Algorithmen-gesteuerter Anzeige von Inhalten auf großen Plattformen ein gesamtgesellschaftlicher Diskurs aufrechterhalten?
Die Vorstellung, dass vor Facebook, Twitter und YouTube ein wahrlich gesamtgesellschaftlicher Diskurs stattfand, halte ich für naiv. Auch früher waren gesellschaftliche Debatten schon zersplittert. Aber selbst diese Tatsache sollte nicht dazu führen, große Plattformen aus der Verantwortung zu lassen. Im Gegenteil: Die Tendenz zur Zersplitterung kann durch Algorithmen großer Plattformen verstärkt werden. Denn nie zuvor gab es eine so große Fülle an so detaillierten Daten zu so vielen Menschen, die von privaten Unternehmen dafür genutzt werden können, um Leuten bestimmte Inhalte anzuzeigen und Werbung auszuspielen – je nachdem, in welche Gruppe sie geordnet werden, welches Profil sie haben. Vor diesem Hintergrund ist es wichtig, dass Plattformen wenigstens Transparenz- und Rechenschaftspflichten einhalten müssen, wie es in ähnlicher Weise in anderen Industrien längst Standard ist. Zum Beispiel müssen Forschende besser verstehen können, wie die automatisierte Inhalteausspielung und die Werbepraktiken der Plattformen funktionieren. Darüber hinaus wäre eine unabhängige Aufsicht, die sich genau mit diesen Themen befassen kann, sinnvoll. Die Europäische Union arbeitet aktuell an Gesetzesvorschlägen in diesem Bereich. Es ist wichtig, dass diese Vorschläge wohl durchdacht sind, um weder unternehmerischen noch staatlichen Stellen zu viel Macht zu geben, sondern eine unabhängige Kontrolle zu ermöglichen.
Nach dem Netzwerkdurchsetzungsgesetz haben die großen Plattformen seit einiger Zeit die Aufgabe, möglicherweise strafbare Inhalte selbst zu löschen. Wie fällt Ihr Fazit mit der Umsetzung der Vorschriften aus?
Das Netzwerkdurchsetzungsgesetz enthält sinnvolle Teile, die sich bewährt haben. Zum Beispiel müssen große Plattformen bestimmte Meldewege für Nutzende bereithalten, um Inhalte zu melden, und müssen über ihre Inhaltemoderation, also wie Inhalte auf der Plattform ausgewählt und angezeigt werden, öffentlich berichten. Andere Teile des Gesetzes haben sich meiner Ansicht nach nicht bewährt und dazu zählen die Löschvorschriften in ihrer jetzigen Form. Es muss eine Selbstverständlichkeit sein, dass strafbare Inhalte wie Volksverhetzung gelöscht werden. Diese Aufgabe in einem ersten Schritt allerdings vornehmlich den Plattformen, also privaten Unternehmen, zu überlassen, ist problematisch. Ein Ausbau und eine Reform der strafrechtlichen Verfolgung und der richterlichen Auseinandersetzung mit solchen Inhalten wäre stattdessen nötig. Hinzu kommt, dass Plattformen oftmals automatisierte Systeme einsetzen, um Inhalte zu löschen. Diese sind für viele schwierige Bereiche – etwa die Entscheidung, ob etwas eine Beleidigung nach dem Strafrecht ist oder nicht – noch zu fehleranfällig.