Foto: Mika Baumeister / Unsplash

Meinungsfreiheit in Sozialen Medien

Wie Twitter und Facebook reguliert werden können

Im Januar sperrte Twitter den Account von Donald Trump. Fast 89 Millionen Menschen folgten dem damaligen Präsidenten der USA dort. Auch andere soziale Netzwerke wie Facebook, Instagram, YouTube und Twitch entzogen ihm den Zugang zu ihren Plattformen. Die Tech-Unternehmen begründeten dieses „Deplatforming“ mit dem Aufruf zu Hass und Gewalt. Er soll mit seinen Aussagen die gewaltsamen Ausschreitungen im US-Kapitol in Washington, D.C. am 6. Januar 2021 befeuert haben. Das „Risiko einer weiteren Anstiftung zur Gewalt“ sei zu groß, teilte Twitter mit.

Die Reaktionen kamen prompt. Teile der Twitter-Community feierten das Deplatforming von Trump. Die deutsche Bundeskanzlerin Angela Merkel kritisierte diesen Schritt als Einschnitt in die Meinungsfreiheit. Über ihren Sprecher Steffen Seibert ließ sie verkünden: „In dieses Grundrecht kann eingegriffen werden, aber entlang der Gesetze, […] und nicht nach dem Beschluss der Unternehmensführung von Social-Media-Plattformen“.

Private Tech-Unternehmen beeinflussen wie wir kommunizieren

Diese Debatte macht einmal mehr deutlich, wie viel Einfluss private Digitalkonzerne darüber haben, wie wir kommunizieren. Ihre Algorithmen bestimmen, welche Informationen in unserer Timeline erscheinen. Ihre Community-Standards entscheiden darüber, was gelöscht wird und wer von der Plattform fliegt.

In den Sozialen Medien kann jede*r die eigene Meinung frei äußern und damit potenziell sehr viele Menschen erreichen. Dabei sind der freien Meinungsäußerung kaum Schranken gesetzt. Denn Meinungsfreiheit ist ein Grundrecht. In Artikel 5. (1) des deutschen Grundgesetzes steht: „Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten“. Dass uneingeschränkte Redefreiheit aber auch Gefahren bergen kann, zeigt das Beispiel Trump.

„In der Vergangenheit hatten wir es mit einer stark gemanagten Öffentlichkeit durch Gatekeeper wie traditionellen Medien zu tun.“ 

Prof. Dr. Andreas Jungherr, Universität Jena

In den frühen 2000ern starteten die Sozialen Medien richtig durch – und mit ihnen wuchs die Hoffnung auf mehr Demokratie und politische Teilhabe, mehr direkten Austausch und mehr Meinungsvielfalt. „Da ging es darum, dass eine Reihe von neuen Stimmen zum Diskurs dazukommen, teilweise unterrepräsentierte Stimmen, die ihre Sicht auf die Welt und auf politische Missstände artikulieren können und dafür ein Publikum finden“, sagt Andreas Jungherr, Professor für Kommunikationswissenschaft mit Schwerpunkt Digitalisierung und Öffentlichkeit an der Universität Jena. „In der Vergangenheit hatten wir es mit einer stark gemanagten Öffentlichkeit durch Gatekeeper wie traditionellen Medien zu tun“, sagt Jungherr. Diese Form der Gatekeeper wurden durch die Sozialen Medien stark geschwächt. Die Chance: Die Meinungen marginalisierter Gruppen, denen oft ein Zugang zu etablierten Medien verwehrt blieb, kann so in den öffentlichen Raum gelangen. Kampagnen wie #metoo und Protestbewegungen wie der „Arabische Frühling“ oder Occupy Wallstreet verschafften sich in Sozialen Medien Gehör. Das Risiko: Durch die fehlende Filterfunktion der Redaktionen werden auch extremere Positionen laut. Soziale Medien gelten mittlerweile oft als Brandbeschleuniger von Debatten, als Quelle von Hass und Falschinformationen. „Generell hat sich gezeigt, dass die Öffnung von Diskursen jenseits der Kontrolle von einigen wenigen Gatekeepern zu deutlich komplizierteren Ergebnissen führt, als sich viele dies in der frühen Phase des Internets insgesamt und auch der Sozialen Medien erhofft hatten“, sagt Jungherr.

Das Problem Fake News

Die Plattformen selbst stehen immer wieder in der Kritik, nicht ausreichend gegen Desinformation vorzugehen. Gerade in der Covid-19-Pandemie gingen mit der zunehmenden Ausbreitung des neuartigen Coronavirus auch Falschmeldungen und irreführende Gerüchte in den Sozialen Medien viral.

„In der Forschung unterscheiden wir Desinformation von Falschinformation“ sagt Dr. Edda Humprecht von der Universität Zürich. Sie forscht dort an Kommunikation und Desinformation in digitalen Medien. Die Schwierigkeit an Desinformationen sei, dass sie häufig einen wahren Kern haben, aber dieser in einer bestimmten Art und Weise verdreht, anders dargestellt oder Informationen weggelassen werden, sodass sie dann eine andere Aussage erhielten. „Der maßgebliche Unterschied ist, dass Desinformation mit der Intention verbreitet wird, zu täuschen. Meistens um politische Ziele zu erreichen”, sagt Humprecht. „Desinformationen sind häufig politische Nachrichten, wie beispielsweise die Verschwörungstheorie, dass das Virus eine Biowaffe sei, die von wahlweise der chinesischen oder der amerikanischen Regierung entwickelt wurde“.

Werden diese Informationen von Leuten mit einer großen Reichweite in den Sozialen Medien verbreitet, erzielen sie eine entsprechend große Wirkung. Selbst wenn sie als Desinformation entlarvt werden, verleiht ihnen die große Sichtbarkeit oft Legitimität.

Twitter will mit Community-Fact-Checking gegen Desinformation vorgehen

Twitter begann daher –auch aufgrund gestiegenen öffentlichen Drucks – im Mai 2020, Falschinformationen zum Coronavirus mit Warnhinweisen zu versehen oder zu löschen. Mittlerweile fragt das soziale Netzwerk seine Nutzer*innen auch, ob sie den Artikel im Tweet, den sie teilen wollen, tatsächlich gelesen haben. So will Twitter die Reichweite von potenziell irreführenden Nachrichten durch zahlreiche schnelle Retweets begrenzen.

Aktuell testet Twitter auch einen Community-basierten Ansatz gegen Fake-News. Bei Birdwatch sollen Nutzer*innen freiwillig das Fact-Checking übernehmen und Falschmeldungen kennzeichnen. In einem Kommentar können sie erklären, weshalb der Inhalt irreführend ist, und Kontext liefern. Andere Nutzer*innen bewerten dann, ob der Kommentar hilfreich und die Aussagen darin wahrheitsgetreu sind. Zunächst ist Birdwatch als Beta-Version in den USA gestartet.

„Ich schätze, dass das keinen großen Nutzen bringen wird. […] Es bleibt abzuwarten, welche Wirkung Birdwatch hat, denn Daten gibt es derzeit noch nicht.”

Dr. Edda Humprecht, Universität Zürich

Expert*innen wie Edda Humprecht sind skeptisch, ob diese Maßnahmen Wirkung zeigen werden: „Ich schätze, dass das keinen großen Nutzen bringen wird. Im Moment ist das auch eine sehr kleine Community, die dort mitmacht. Es bleibt abzuwarten, welche Wirkung Birdwatch hat, denn Daten gibt es derzeit noch nicht”. Ein weiteres Problem sei die fehlende Diversität in dieser Community. Die Forschung belege, dass Nutzer*innen in Sozialen Medien, die sehr aktiv sind und häufig kommentieren, sehr homogen sind: „Das sind häufig Männer, eher internetaffine oder technikaffine Personen und oft Personen mit einer ähnlichen politischen Einstellung”, sagt Humprecht, die das Risiko erneuter Verzerrungen sieht.

Eine weitere Herausforderung bei diesem nutzerbasierten Ansatz besteht laut Humprecht in der Gefahr des Missbrauchs: „Gibt es vielleicht auch Nutzer*innen, die ein bestimmtes Kalkül haben, und in orchestrierten Kampagnen beispielsweise bestimmte Inhalte gezielt markieren oder selbst Desinformationen verbreiten? Das sind sehr viele große Fragezeichen“.

Auch die Tatsache, dass die Verantwortung und damit die Entscheidungsgewalt, welche Informationen markiert werden, letztlich doch wieder bei Twitter selbst liegt, sieht die Forscherin kritisch. Insbesondere, da es derzeit kein verbindliches Regelwerk dafür gibt. Wie das gelingen soll, ohne selbst Fact-Checking zu betreiben und somit redaktionelle Aufgaben zu übernehmen, bleibt fraglich. Nicht ohne Grund arbeiten Soziale Netzwerke wie Facebook mit unabhängigen Faktenprüfern wie Correctiv, der Washington Post oder der französischen Nachrichtenagentur AFP zusammen.

„Die Plattform versucht jetzt in einem ersten Schritt, das Erkennen von Desinformation auszulagern. Da stellt sich auch die Frage, wie viele Nutzer*innen bereit sind, unentgeltlich für private, kommerzielle Unternehmen zu arbeiten und diese Arbeit zu leisten“, sagt Humprecht.

Hate-Speech hat reale Konsequenzen

Neben Falschmeldungen haben Soziale Medien zunehmend ein Hate-Speech-Problem. Das Institut für Demokratie und Zivilgesellschaft Jena hat im vergangenen Jahr Bürger*innen nach ihren Erfahrungen mit Hate-Speech im Netz befragt. In der bundesweiten Umfrage gab jede*r zwölfte Teilnehmende an, schon direkt online von Hassrede betroffen gewesen zu sein. Hate-Speech wahrgenommen haben bereits 40 Prozent der Befragten insgesamt. Unter den jüngeren Menschen im Alter von 18 – 24 Jahren waren es sogar 73 Prozent.

„Wir sehen, dass es eine Art von Schweigespirale gibt, dass bestimmte Personen oder bestimmte gesellschaftliche Gruppen sich weniger in öffentliche Diskurse in den Sozialen Medien einbringen, weil sie die Befürchtung haben, dass sie dort angegriffen werden, weil sie eine andere Meinung vertreten.“

Dr. Edda Humprecht, Universität Zürich

Dabei richten sich Hasskommentare im Netz häufig gegen Frauen und marginalisierte Gruppen. „Diese Diffamierung von bestimmten Gruppen kann dazu führen, dass bestimmte Personen eingeschüchtert werden“, sagt Humprecht. Hass im Netz kann die Meinungsfreiheit von Menschen folglich indirekt einschränken, weil sie sich seltener in Sozialen Medien äußern. „Wir sehen, dass es eine Art von Schweigespirale gibt, dass bestimmte Personen oder bestimmte gesellschaftliche Gruppen sich weniger in öffentliche Diskurse in den Sozialen Medien einbringen, weil sie die Befürchtung haben, dass sie dort angegriffen werden, weil sie eine andere Meinung vertreten“, so Humprecht.

Dass Soziale Medien zu realer Gewalt führen können, zeigt der Völkermord an den Rohingya in Myanmar. Soldaten sollen Menschen dieser muslimischen Minderheit ermordet, vergewaltigt und vertrieben haben. In ihrem Bericht stellten Beobachter*innen der Vereinten Nationen fest, dass Fake News und Hetze in Sozialen Medien, eine entscheidende Rolle beim Ausbruch des Konflikts gespielt hätten, vor allem Facebook, das in Myanmar „für die meisten Nutzer*innen gleichbedeutend mit dem Internet ist“.

Facebook setzt bei der Moderation auf einen eigenen „Supreme Court“

Um Falschmeldungen und Hass auf der eigenen Plattform in den Griff zu bekommen, setzt Facebook im Gegensatz zu Twitter auf ein Aufsichtsgremium bei der Content-Moderation. Mit 20 internationalen Expert*innen aus Zivilgesellschaft und Wissenschaft ist das Facebook Oversight Board prominent besetzt. Journalist*innen wie der ehemalige Chefredakteur des britischen „Guardian“, eine dänische Ex-Premierministerin, eine Nobelpreisträgerin und zahlreichen Jura-Professor*innen aus der ganzen Welt sollen bei heiklen Moderationsentscheidungen ein Urteil sprechen. Das hat dem 2018 ins Leben gerufene Aufsichtsgremium auch den Namen „Facebook Supreme Court“ eingebracht.

„Aber auch hier stellt sich letztlich die Frage: Welche Regeln werden angewandt?“ sagt Humprecht.  In verschiedenen Ländern gäbe es unterschiedliche Normen und unterschiedliche Vorstellungen darüber, wie öffentlicher Diskurs funktionieren soll. Die Entscheidungen, mit denen Plattformen eingreifen, müssten transparent und für alle Nutzer*innen verbindlich sein. Außerdem müssten sie in vielen kulturellen Kontexten bestehen und mit den Gesetzen der jeweiligen Länder vereinbar sein. Hier ein einheitliches Regelwerk zu finden scheint fast unmöglich – auch aufgrund der Organisationsstrukturen der Plattformen.

„Es besteht die Gefahr, dass hier der Eindruck entsteht, es werde politisch eingegriffen oder der Finger auf die Waage gelegt.“

Prof. Dr. Andreas Jungherr, Universität Jena

„Die Herausforderung bei Plattformen oder digitalen Medien ist, dass wir es mit international agierenden Akteuren zu tun haben, deren primäres Geschäftsmodell eben nicht Nachrichten sind. Es ist auch problematisch, dass viele dieser Entscheidungen momentan noch ad hoc stattfinden, dass sie eben nicht regelbasiert und nicht transparent sind. Das macht diese Entscheidung auch angreifbar. Es besteht die Gefahr, dass hier der Eindruck entsteht, es werde politisch eingegriffen oder der Finger auf die Waage gelegt“, sagt Jungherr. Es stelle sich die Frage, wie man Einfluss nehmen soll auf Plattformen, die nicht im eigenen Land gehostet werden und deren Dienste nicht an nationalstaatlichen Grenzen enden.

Politik in der Verantwortung

Wichtig sei es laut Jungherr, Verbindlichkeiten zu schaffen: „Die Plattformen brauchen interne, verbindliche Regeln und diese müssen auch mit Regulierungsbehörden gespiegelt werden.“ Letztlich sieht er die Politik in der Verantwortung in Zusammenarbeit mit Plattformbetreibern und Öffentlichkeit, verbindliche Regeln und Transparenz zu schaffen.

Die Plattformen stärker zu regulieren, forderte auch Bundespräsident Frank-Walter Steinmeier in seiner Rede beim „Forum Bellevue“ am 1. März 2021. Die „digital vernetzten Demonstrationen für die Demokratie in Belarus“ und die „digital befeuerte Angriffe gegen Demokratie rund um die US-Wahl“ zeigen laut Steinmeier den enormen Einfluss der Sozialen Medien auf den öffentlichen Raum und die damit verbundenen Chancen und Risiken.

Schon heute gibt es für die freie Meinungsäußerungen Einschränkungen, beispielsweise wenn Inhalte beleidigend oder verleumdend sind und die persönliche Ehre einer Person verletzen, gegen den Jugendschutz verstoßen oder den Holocaust leugnen oder verharmlosen.

Zusätzliche Abhilfe soll das Netzwerkdurchsetzungsgesetz (NetzDG) bringen, das 2018 vom Bundestag verabschiedet wurde. Es soll Nutzer*innen ermöglichen, gegen Hasskriminalität und andere strafbaren Inhalte in sozialen Netzwerken vorzugehen. Die Plattformen müssen rechtsverletzende Beiträge innerhalb von 24 Stunden löschen. Das NetzDG steht allerdings in der Kritik, unabsichtlich Inhalte zu zensieren. So haben Facebook und Instagram beispielsweise einen Beitrag des WDR-Politmagazins „Monitor“ über die Rolle der Polizei beim Anschlag in Hanau vor einem Jahr wegen „Verstoß gegen die Gemeinschaftsrichtlinien“ gelöscht. Auf Twitter wirft der Moderator Georg Restle den Plattformen Overblocking vor. Mittlerweile hat Facebook die Löschung rückgängig gemacht und spricht von einem Irrtum, nannte aber bislang keine Gründe.

 

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

 

Ein einheitliches EU-Regelwerk für Plattformen und mehr Transparenz will die Europäische Union mit einem Aufschlag zu einem Digital Service Act und Digital Markets Act schaffen. Die Antwort auf die Frage, wie genau diese Regulierung ablaufen soll, bleibt die Kommission noch schuldig. Es bleibt also abzuwarten, ob die EU es schafft, die Social-Media-Plattformen „entlang der Gesetze, […] und nicht nach dem Beschluss der Unternehmensführung“ zu regulieren.

Mehr zu dem Thema