In den frühen 2000ern starteten die Sozialen Medien richtig durch – und mit ihnen wuchs die Hoffnung auf mehr Demokratie und politische Teilhabe, mehr direkten Austausch und mehr Meinungsvielfalt. „Da ging es darum, dass eine Reihe von neuen Stimmen zum Diskurs dazukommen, teilweise unterrepräsentierte Stimmen, die ihre Sicht auf die Welt und auf politische Missstände artikulieren können und dafür ein Publikum finden“, sagt Andreas Jungherr, Professor für Kommunikationswissenschaft mit Schwerpunkt Digitalisierung und Öffentlichkeit an der Universität Jena. „In der Vergangenheit hatten wir es mit einer stark gemanagten Öffentlichkeit durch Gatekeeper wie traditionellen Medien zu tun“, sagt Jungherr. Diese Form der Gatekeeper wurden durch die Sozialen Medien stark geschwächt. Die Chance: Die Meinungen marginalisierter Gruppen, denen oft ein Zugang zu etablierten Medien verwehrt blieb, kann so in den öffentlichen Raum gelangen. Kampagnen wie #metoo und Protestbewegungen wie der „Arabische Frühling“ oder Occupy Wallstreet verschafften sich in Sozialen Medien Gehör. Das Risiko: Durch die fehlende Filterfunktion der Redaktionen werden auch extremere Positionen laut. Soziale Medien gelten mittlerweile oft als Brandbeschleuniger von Debatten, als Quelle von Hass und Falschinformationen. „Generell hat sich gezeigt, dass die Öffnung von Diskursen jenseits der Kontrolle von einigen wenigen Gatekeepern zu deutlich komplizierteren Ergebnissen führt, als sich viele dies in der frühen Phase des Internets insgesamt und auch der Sozialen Medien erhofft hatten“, sagt Jungherr.
Das Problem Fake News
Die Plattformen selbst stehen immer wieder in der Kritik, nicht ausreichend gegen Desinformation vorzugehen. Gerade in der Covid-19-Pandemie gingen mit der zunehmenden Ausbreitung des neuartigen Coronavirus auch Falschmeldungen und irreführende Gerüchte in den Sozialen Medien viral.
„In der Forschung unterscheiden wir Desinformation von Falschinformation“ sagt Dr. Edda Humprecht von der Universität Zürich. Sie forscht dort an Kommunikation und Desinformation in digitalen Medien. Die Schwierigkeit an Desinformationen sei, dass sie häufig einen wahren Kern haben, aber dieser in einer bestimmten Art und Weise verdreht, anders dargestellt oder Informationen weggelassen werden, sodass sie dann eine andere Aussage erhielten. „Der maßgebliche Unterschied ist, dass Desinformation mit der Intention verbreitet wird, zu täuschen. Meistens um politische Ziele zu erreichen”, sagt Humprecht. „Desinformationen sind häufig politische Nachrichten, wie beispielsweise die Verschwörungstheorie, dass das Virus eine Biowaffe sei, die von wahlweise der chinesischen oder der amerikanischen Regierung entwickelt wurde“.
Werden diese Informationen von Leuten mit einer großen Reichweite in den Sozialen Medien verbreitet, erzielen sie eine entsprechend große Wirkung. Selbst wenn sie als Desinformation entlarvt werden, verleiht ihnen die große Sichtbarkeit oft Legitimität.
Twitter will mit Community-Fact-Checking gegen Desinformation vorgehen
Twitter begann daher –auch aufgrund gestiegenen öffentlichen Drucks – im Mai 2020, Falschinformationen zum Coronavirus mit Warnhinweisen zu versehen oder zu löschen. Mittlerweile fragt das soziale Netzwerk seine Nutzer*innen auch, ob sie den Artikel im Tweet, den sie teilen wollen, tatsächlich gelesen haben. So will Twitter die Reichweite von potenziell irreführenden Nachrichten durch zahlreiche schnelle Retweets begrenzen.
Aktuell testet Twitter auch einen Community-basierten Ansatz gegen Fake-News. Bei Birdwatch sollen Nutzer*innen freiwillig das Fact-Checking übernehmen und Falschmeldungen kennzeichnen. In einem Kommentar können sie erklären, weshalb der Inhalt irreführend ist, und Kontext liefern. Andere Nutzer*innen bewerten dann, ob der Kommentar hilfreich und die Aussagen darin wahrheitsgetreu sind. Zunächst ist Birdwatch als Beta-Version in den USA gestartet.