Der digitale Raum gibt jedem Nutzer die Möglichkeit sich zu äußern – zugleich bietet er Raum für Falsch-Informationen und persönliche Angriffe. Wie sollte die Politik die Debattenkultur im digitalen Raum ganz grundsätzlich stärken?
Zunächst einmal: durch ein gutes Vorbild! Wenn Politiker sich selbst unflätig beschimpfen oder mit Falschbehauptungen über ihre Wettbewerber in den Wahlkampf ziehen, können sie nicht erwarten, dass sich andere Menschen besser verhalten. Im internationalen Vergleich nehme ich die politische Debattenkultur in Deutschland aber nicht als besonders problematisch wahr.
In Bezug auf persönliche Angriffe bzw. „Hassreden“ hat die Politik in den letzten Jahren bereits einige Maßnahmen ergriffen, die intensiv und zum Teil hitzig diskutiert wurden, wie z. B. das NetzDG, das die Verbreitung strafrechtlich relevanter Inhalte verhindern soll. In Ergänzung dazu sehe ich aber auch die Betreiber reichweitenstarker Plattformen in der Verantwortung, von sich aus geeignete Maßnahmen zur Kuratierung und ggf. Löschung der dort verbreiteten Inhalte zu entwickeln und umzusetzen. Ich kann mir gut vorstellen, dass im Rahmen des aktuell verhandelten Digital Services Act (DSA) der Europäischen Union hierfür bestimmte gesetzliche Mindestanforderungen und/oder obligatorische Transparenzregeln geschaffen werden. Schließlich kann die Politik zivilgesellschaftliche Initiativen und Kampagnen fördern, die sich zum Ziel gesetzt haben, die Diskussionskultur in bestimmten sozialen Medien zu verbessern.
Der beste Schutz vor der Verbreitung von Desinformationen ist sicherlich die Medienkompetenz der Bürger. Wir glauben ja auch nicht jeden Unsinn, der in der analogen Welt verbreitet wird. Generell helfen Information und Aufklärung, die sowohl von staatlichen Stellen als auch von zivilgesellschaftlichen Organisationen zur Verfügung gestellt werden können. Aktuelle Studien zeigen, dass bereits eine Warnung vor Desinformationen einen Beitrag leisten kann, diese einzuhegen. Die öffentliche Forschungsförderung wiederum kann Forschungsprojekte finanzieren, die uns helfen, die Verbreitung von Desinformation besser zu verstehen und Gegenmaßnahmen zu entwickeln. Ähnlich wie bei der Hassrede sehe ich auch hier nicht nur die Politik, sondern auch die Plattformbetreiber selbst in der Verantwortung.
JETZT HERUNTERLADEN
DIE DOKUMENTATION DIESER FACHDEBATTE
DIE DOKUMENTATION ENTHÄLT
Übersicht aller aktiven Debattenteilnehmer
Summary für Ihr Top-Management
Experten beobachten die Tendenz, dass Nutzer sich im digitalen Raum gläsern oder sozial unter Druck fühlen und in der Folge selbst zensieren. Was bedeutet dieses "Social Cooling" aus Ihrer Sicht für die demokratische Debattenkultur?
Wenn dieser Effekt dazu führt, dass sich bestimmte Personen bzw. Personengruppen systematisch nicht mehr trauen, ihre Positionen und Interessen in den öffentlichen Diskurs einzubringen, ist das in der Tat ein Problem für die demokratische Willensbildung. Allerdings ist dieses Phänomen nicht unbedingt neu in der Gesellschaft, da es schon immer Menschen gab, die sich aufgrund sozialen Drucks oder weiteren Einflussfaktion nicht oder nur eingeschränkt an öffentlichen Diskussionen beteiligt haben. Im digitalen Raum gibt es demgegenüber die Möglichkeit, sich anonym oder mit einem Pseudonym an politischen Debatten zu beteiligen, um sich selbst zu schützen. Leider kann diese Anonymität aber auch zur Verrohung der Debatten beitragen. Insgesamt haben sich die Chancen und Möglichkeiten zur politischen Partizipation durch das Internet meines Erachtens so stark verbessert, dass diese Vorteile die vereinzelten Effekte eines „Social Cooling“ insgesamt überwiegen.
Wie lässt sich im Angesicht individueller Algorithmen-gesteuerter Anzeige von Inhalten auf großen Plattformen ein gesamtgesellschaftlicher Diskurs aufrechterhalten?
Der Anspruch, einen gesamtgesellschaftlichen Diskurs auf einer digitalen Plattform abzubilden, ist sehr hoch. Das konnten und können auch klassische Medien (Zeitungen, Fernsehen) nicht leisten. Und genauso wie sich Mediennutzer in der analogen Welt einseitig oder umfassend informieren konnten, ist auch bei der Nutzung digitaler Plattformen die Medienkompetenz der Bürger von zentraler Bedeutung. Zwar sind die von den Plattformen eingesetzten Algorithmen in der Regel so gestaltet, dass die Besuchszeiten der Nutzer optimiert werden und diesen daher tendenziell Inhalte gezeigt werden, die eine gewisse Konformität mit zuvor angeklickten Inhalten aufweisen. Es liegt aber auch an den Nutzern selbst, ob sie sich auf diese selektive Auswahl einlassen oder nicht. Nutzer brauchen dafür Grundkenntnisse über die Funktionsweise digitaler Plattformen und die dahinterstehenden Geschäftsmodelle, um zu verstehen, wann und warum ihnen bestimmte Inhalte gezeigt werden. Die Vermittlung dieser Medienkompetenz ist nicht nur eine Aufgabe für Schulen, sondern vor allem auch für Träger und Formate der Erwachsenenbildung.
Perspektivisch könnten diese Empfehlungssysteme durchaus so gestaltet werden, dass eine Vielfalt von Themen und Positionen angezeigt wird. Damit könnte es technisch unterstützt werden, dass Nutzer verschiedene Meinungen und Positionen zu Gesicht bekommen und nicht immer nur das Gleiche. Eine solche Funktionalität wird aktuell vor allem für nicht-kommerzielle Angebote wie z. B. des öffentlich-rechtlichen Rundfunks diskutiert. Je nachdem, wie zuverlässig solche Systeme funktionieren, könnten auch private Plattformen, die eine nennenswerte Auswirkung auf den öffentlichen politischen Diskurs haben, dazu verpflichtet werden, einen gewissen Grad an Vielfalt und Pluralität der von ihnen empfohlenen Inhalte zu gewährleisten. Wie man Vielfalt und Meinungsmacht digitaler Medien systematisch messen und in Zukunft regulieren könnte, ist Gegenstand verschiedener Forschungsprojekte* an unserem Institut.
Grundsätzlich halte ich es für wünschenswert, dass soziale Medien ab einer gewissen Reichweite ihre Nutzer darüber informieren, welche Methoden und Verfahren sie zur Kuratierung von Inhalten einsetzen. Dies steht natürlich in einem Zielkonflikt mit legitimen Interessen der Plattformbetreiber, die Details ihrer algorithmischen Empfehlungssysteme als Geschäftsgeheimnisse zu wahren. Ich denke aber schon, dass hier ein vernünftiger Ausgleich gefunden werden kann, z. B. im Rahmen der bereits genannten DSA-Umsetzung. Denkbar wären für mich auch Audits oder andere Instrumente der Qualitätszertifizierung, die auch auf freiwilliger Basis bzw. im Sinne einer Selbstregulation der Branche eingesetzt werden können.
Nach dem Netzwerkdurchsetzungsgesetz haben die großen Plattformen seit einiger Zeit die Aufgabe, möglicherweise strafbare Inhalte selbst zu löschen. Wie fällt Ihr Fazit mit der Umsetzung der Vorschriften aus?
Das NetzDG sah sich ja von Anfang an umfassender Kritik ausgesetzt. Es wurde vor allem befürchtet, dass auch Beiträge gelöscht werden, die sich nach genauerer Prüfung als rechtmäßig erweisen würden. Dieses Overblocking wäre eine Gefahr für die Meinungsfreiheit. Tatsächlich kann man vermuten, dass die Betreiber großer Plattformen die Kosten für einen (intensiven) Prüfungsaufwand geringhalten möchten und sich daher im Zweifel eher für die Löschung als für die Beibehaltung eines kritischen Beitrags entscheiden, um sich nicht einem Bußgeld auszusetzen. Andererseits haben sie aber auch ein wirtschaftliches Interesse daran, möglichst viele Nutzer und Traffic auf ihrer Plattform zu halten. Wenn eine Plattform aber im Ruf steht, zu viel zu löschen, ist das auch nicht gut für ihr Geschäft. Diese divergierenden Interessen und Anreize könnten dazu führen, dass die Gefahr des Overblocking begrenzt bleibt. Die durch das NetzDG vorgeschriebenen Transparenzberichte geben zwar Auskunft über die Anzahl der Beschwerden und die vorgenommenen Sperrungen, enthalten aber keine Auflistung der gelöschten Inhalte. Die Frage nach dem Umfang eines möglichen Overblocking kann auf dieser Grundlage also kaum evidenzbasiert beantwortet werden.
Ein Mangel des NetzDG war sicherlich, dass es zunächst keine verfahrensrechtlichen Gegenrechte für diejenigen Nutzer vorsah, deren Beiträge gelöscht wurden. Es bleibt abzuwarten, inwieweit das inzwischen etablierte Gegenvorstellungsverfahren hier eine Verbesserung bedeutet.
Davon unabhängig vermute ich, dass die tatsächliche Relevanz des NetzDG für die Debattenkultur in sozialen Netzwerken geringer ist als vielfach angenommen. Tatsächlich löschen viele Plattformen zweifelhafte Beiträge sehr viel häufiger auf Grundlage ihrer eigenen Gemeinschaftsstandards als aufgrund der Vorgaben des NetzDG.
* https://www.bidt.digital/projekte/