Die Erwartungen waren groß: Das Internet versprach für viele Experten in der Frühphase demokratische Teilhabe für alle. Später erlaubten sogenannte soziale Medien eine neue Form von Öffentlichkeit. Tatsächlich kann sich in der digitalen Sphäre jeder äußern. Allerdings schafft das auch Raum für Falsch-Informationen und persönliche Angriffe.
Dr. Christoph Egle ist Wissenschaftlicher Geschäftsführer am Bayerischem Forschungsinstitut für Digitale Transformation und er nimmt die politische Debattenkultur in Deutschland im internationalen Vergleich nicht als besonders problematisch wahr. „Der beste Schutz vor der Verbreitung von Desinformationen ist sicherlich die Medienkompetenz der Bürger. Wir glauben ja auch nicht jeden Unsinn, der in der analogen Welt verbreitet wird.“ Generell helfen aus seiner Information und Aufklärung, die sowohl von staatlichen Stellen als auch von zivilgesellschaftlichen Organisationen zur Verfügung gestellt werden können. Er verweist auf aktuelle Studien, nach denen bereits eine Warnung vor Desinformationen einen Beitrag leisten kann, diese einzuhegen. Die öffentliche Forschungsförderung könne Forschungsprojekte finanzieren, die helfen, die Verbreitung von Desinformation besser zu verstehen und Gegenmaßnahmen zu entwickeln. „Ähnlich wie bei der Hassrede sehe ich auch hier nicht nur die Politik, sondern auch die Plattformbetreiber selbst in der Verantwortung.“
Aus Sicht von Dr. Jasmin Siri von der Universität Erfurt müssen sich bei der Einführung eines jeden neuen Mediums soziale Regeln ausbilden und einspielen. Für das digitale Medium gilt: „Jeder und jede kann sich nun als Autor oder Autorin betätigen, ganz unabhängig von Expertise oder einer journalistischen Ausbildung.“ In politischen Auseinandersetzungen habe es indes schon immer Falschinformationen und persönliche Angriffe gegeben und sie nennt Beispiele aus der Geschichte bis in die Antike. „Aber neu ist, dass alle anderen das mitlesen und mitverfolgen können, was ein verstörendes Gefühl erzeugen kann. Die Erfahrung der Bürgerinnen und Bürger im 21. Jahrhundert ist es, dass ihre Meinung, dass das, was sie selbst für vernünftig und rational ist, von anderen komplett anders beurteilt wird.“ Man müsse lernen, mit der großen Varität an Meinungen und Haltungen im Netz umzugehen. Dafür, dass dies möglich sei, spreche, dass eine Vielzahl der Hassbotschaften im Netz nicht von jungen Menschen, sondern von Menschen über 60 Jahren stammt. So könnte mit den Jahren ein Zivilisierungseffekt eintreten.
Dr. Ansgar Klein vom Bundesnetzwerk Bürgerschaftliches Engagement (BBE) geht auf die personalisierte Adressierung einzelner Inhalte ein. Diesbezüglich werde etwa eine Transparenzpflicht diskutiert, also die Kennzeichnung personalisierter Inhalte durch die Plattformbetreiber/Webseitbetreiber oder sogar das generelle Verbot individualisierter Inhalte, was natürlich aber massive Probleme in Hinblick auf Fragen der Meinungsfreiheit und Zensur mit sich brächte. „Die Gestaltung von Algorithmen sollte mit Blick auf deren kommunikative Folgen kritisch durch kompetente Institutionen begleitet werden, in denen die vielfältige Zivilgesellschaft auf Augenhöhe eingebunden ist, etwa einer künftigen „Bundeszentrale für digitale Aufklärung““. Entsprechende Regulierungen der Algorithmen bei nachgewiesenem Regulierungsbedarf sollten allerdings vom Parlament eng begleitet werden.
Für Dr. Jens Zimmermann, Digitalpolitischer Sprecher der SPD-Bundestagsfraktion, müssen Selbstlernende Systeme und Algorithmen transparent und diskriminierungsfrei angelegt werden.“ Gerade mit Blick auf den ungehinderten, offenen und freien gesellschaftlichen Diskurs können diese algorithmenbasierten Selektionskriterien eine Gefahr darstellen, wenn sie bestimmte Inhalte gewichten, priorisieren oder auch diskriminieren.“ Zielsetzung einer algorithmischen Entscheidung müsse transparent, klar und überprüfbar definiert sein. Hierfür brauche es eine stringente Regulierung und Aufsicht. Die Digitalisierung dürfe die Gesellschaft nicht spalten. Deswegen betont er: „Wir brauchen ein Recht auf digitale Bildung und Weiterbildung für alle Generationen.“
Dr. Julian Jaursch von der Stiftung Neue Verantwortung (SNV) geht auf bereits bestehende Rechtsregeln ein. Teile des Netzwerkdurchsetzungsgesetzes haben sich seiner Ansicht nach nicht bewährt und dazu zählen die Löschvorschriften in ihrer jetzigen Form. Es müsse eine Selbstverständlichkeit sein, dass strafbare Inhalte wie Volksverhetzung gelöscht werden. Diese Aufgabe in einem ersten Schritt allerdings vornehmlich den Plattformen, also privaten Unternehmen, zu überlassen, sei problematisch. „Ein Ausbau und eine Reform der strafrechtlichen Verfolgung und der richterlichen Auseinandersetzung mit solchen Inhalten wäre stattdessen nötig.“