Foto: Natalie Schüz

„Das Teilen hat vor allem auch eine soziale Funktion”

Ein Gespräch mit Prof. Dr. Benjamin Schüz

0 Kommentare

Sie sind an dem Forschungsprojekt „COVID-19 Misinformation on Social Media: Identifying Determinants of Misinformation Sharing Behavior and Designing Nudging Interventions” beteiligt, das im August 2020 gestartet ist. Worum geht es bei dem Projekt?

Es geht uns darum, herauszufinden, wie Maßnahmen aussehen könnten, die Menschen davon abhalten, Fehlinformationen in den sozialen Medien zu teilen. Es geht also nicht um die Ursprünge von Fehlinformationen, sondern darum, was man machen kann, wenn solche Fehlinformationen bereits im Netz sind. Wir wollen mit Nudging-Interventionen eingreifen, bevor Menschen Fehlinformationen in den sozialen Medien teilen und weiterverbreiten, um zu verhindern, dass noch mehr Menschen diese Fehlinformationen sehen. Dazu schauen wir uns an, wer Fehlinformationen teilt und warum – dieses Verhalten betrachten wir getrennt vom Inhalt der Fehlinformation.

„Das Teilen hat vor allem auch eine soziale Funktion: Zum einen wird die eigene Identität gestärkt, indem man sich öffentlich positioniert. Außerdem wird der soziale Zusammenhalt innerhalb der eigenen Gruppe gefestigt.“

Warum lassen Sie den Inhalt der Fehlinformation außen vor?

Bei vielen Maßnahmen gegen Fehlinformationen, beispielsweise beim Fact Checking, wird eine Bereitschaft zur inhaltlichen Auseinandersetzung vorausgesetzt. Die ist aber nicht unbedingt gegeben. Das Teilen hat vor allem auch eine soziale Funktion: Zum einen wird die eigene Identität gestärkt, indem man sich öffentlich positioniert. Außerdem wird der soziale Zusammenhalt innerhalb der eigenen Gruppe gefestigt, denn oft teilen wir Informationen in Kreisen, von denen wir annehmen, dass alle dieselben Überzeugungen haben wie wir selbst. Der genaue Inhalt spielt dabei eine untergeordnete Rolle. Und nicht immer ist das Ziel, die Empfänger*innen von der Botschaft zu überzeugen; Fehlinformationen werden auch geteilt, um sich gemeinsam zu amüsieren oder zu empören. 

Wie läuft das Projekt ab?

Im ersten Schritt verschaffen wir uns einen systematischen Überblick über den Forschungsstand. Dabei schauen wir uns an, welche Nudging-Interventionen es in diesem Bereich bereits gibt. Gerade sind wir dabei, die Studien, die wir identifiziert haben, auszuwerten. Im zweiten Schritt werden wir dann darauf aufbauend verschiedene Interventionen entwickeln und testen. 

„Es gibt bereits eine Reihe von Nudges, die Ihnen vielleicht auch schon begegnet sind. […] Wir überlegen, was es darüber hinaus geben könnte und was stärker auf das Teilen per se eingeht.“

Wie könnten solche Nudges aussehen? 

Es gibt bereits eine Reihe von Nudges, die Ihnen vielleicht auch schon begegnet sind. Beispielsweise hat Twitter eine Funktion eingeführt, mit der Nutzer*innen dazu animiert werden sollen, Informationen, die sie teilen, zuvor selbst zu überprüfen: Wenn man einen Artikel retweeten will, wird man gefragt, ob man den Artikel nicht zuerst lesen will. Dieser Nudge zielt auf den Inhalt ab: Die Nutzer*innen werden quasi dazu angestupst, selbst einen Faktencheck zu machen. Wir überlegen, was es darüber hinaus geben könnte und was stärker auf das Teilen per se eingeht – beispielsweise ein Nudge, der die soziale Komponente anspricht und darauf hinweist, von wie vielen Nutzer*innen der Beitrag schon „disliked“ wurde. Solche Nudges werden wir aber erst in der zweiten Projektphase testen. 

Wie werden die Tests ablaufen? 

Die Nudges, die wir auf Grundlage der Erkenntnisse aus der ersten Projektphase entwerfen, werden zunächst in einer simulierten Umgebung – also beispielsweise in einer Art nachgebautem Twitter – in einem Online-Experiment getestet. Dabei schauen wir uns an, bei welcher Art von Interventionen Informationen eher weitergeleitet beziehungsweise nicht weitergeleitet werden, also welche Nudges am erfolgversprechendsten sind. Denn bevor ein Nudge großflächig ausgerollt wird, wollen wir uns sicher sein, dass er auch funktioniert. 

Die entwickelten Nudges müssten also von den Plattformen umgesetzt werden. Sind diese dazu bereit? 

Seitens der Plattformen gibt es durchaus Bereitschaft dazu, solche Nudges zu implementieren. Schließlich wäre die Alternative für viele Plattformen eine stärkere Reglementierung. Auch die Plattformen selbst beschäftigen sich mit der Frage, wie sie die Verbreitung von Fehlinformationen eindämmen können. 

„Ich glaube, dass wir gerade im Bereich der sozialen Medien sowieso nicht von freiem Willen sprechen können. Was uns in den Newsfeed gespült wird, ist von Algorithmen gesteuert, die hauptsächlich darauf ausgelegt sind, unser Verhalten dahingehend zu optimieren, dass wir als Nutzer*innen möglichst viel klicken und lange auf der Plattform bleiben.“

Gibt es Bedenken gegen den Einsatz von Nudges in diesem Bereich?

Beim Nudging geht es darum, ein bestimmtes Verhalten wahrscheinlicher zu machen – manche kritisieren, dass das Manipulation sei, oder den freien Willen einschränke. Ich glaube, dass wir aber gerade im Bereich der sozialen Medien sowieso nicht von freiem Willen sprechen können. Was uns in den Newsfeed gespült wird, ist von Algorithmen gesteuert, die hauptsächlich darauf ausgelegt sind, unser Verhalten dahingehend zu optimieren, dass wir als Nutzer*innen möglichst viel klicken und lange auf der Plattform bleiben. Und diese Algorithmen machen sich die Schwachpunkte in unserer Informationsverarbeitung zunutze: Mit Dingen, die uns aufregen oder die schnelle Befriedigung versprechen, beschäftigen wir uns länger, die werden eher angeklickt und weiterverbreitet. Das ist das Geschäftsmodell von sozialen Medien. Deshalb habe ich da wenig Bedenken, die Umgebung in einem sozialen Netzwerk so zu ändern, dass daraus ein weniger schädliches Verhalten resultiert.

Zur Person

Prof. Dr. Benjamin Schüz ist Professor für Public Health mit Schwerpunkt Gesundheitsförderung am Institut für Public Health und Pflegeforschung an der Universität Bremen

Foto: Natalie Schüz

Debattiere mit!

Deine Emailadresse wird nicht veröffentlicht.

0 Kommentare

Mehr zu dem Thema

  • 0
  • 1
  • 0
  • 2
  • 0
  • 0