Weiterverbreitung von Online-Inhalten, die Empörung hervorrufen
Studie: Empörung begünstigt Weiterverbreitung von Online-Inhalten, auch unabhängig von ihrem Wahrheitsgehalt
nicht-vertrauenswürdige Inhalte rufen mehr Empörung hervor als vertrauenswürdige Inhalte
unabhängige Forschende sehen Definitionen als teils zu ungenau, Ergebnisse könnten trotzdem interessant für Maßnahmen gegen Desinformationen sein
Die Frage, wie und warum Desinformationen sich in sozialen Medien verbreiten, wird oft diskutiert. Aus wissenschaftlicher Sicht ist nicht vollends geklärt, nach welchen Kriterien Nutzende die Inhalte auswählen, die sie weiterverbreiten. Amerikanische Forschende haben ein mögliches Kriterium identifiziert: Empörung. Posts, die Empörung hervorrufen, sollen mit höherer Wahrscheinlichkeit oft geteilt werden als welche, die das nicht tun. Gleichzeitig sollen Posts, die Links zu nicht-vertrauenswürdigen Webseiten oder Artikeln enthalten, mehr Empörung hervorrufen als Links zu vertrauenswürdigen Inhalten. Außerdem argumentieren die Autorinnen und Autoren, Nutzende würden Inhalte unabhängig davon weiterverbreiten, ob sie sie für wahr hielten oder nicht. Die betreffende Studie ist in der Fachzeitschrift „Science“ erschienen (siehe Primärquelle).
Professorin für Medienkommunikation, Technische Universität Chemnitz
Methodik und Rückschlüsse
„Die Methodik der Studie ist im Kontext der von den Autor*innen genannten Limitationen sinnvoll und gerechtfertigt. Einige ihrer Annahmen sind jedoch diskussionswürdig, insbesondere die Aussage, dass ‚Individuen, die Empörung äußern, als vertrauenswürdiger wahrgenommen werden‘. Diese Behauptung stützt sich lediglich auf einen Preprint-Artikel, der noch nicht die akademische Qualitätssicherung durchlaufen hat.“
„Die Gleichsetzung von Desinformation mit den untersuchten Links aus nicht-vertrauenswürdigen Quellen ist eine Vereinfachung, deren Einschränkungen die Autor*innen ebenfalls ansprechen. Die Ergebnisse der Studie sollten daher im Hinblick auf das Auftreten emotionaler Reaktionen (‚Empörung‘) interpretiert werden, die als Reaktion auf Posts mit Links zu als vertrauenswürdig oder nicht-vertrauenswürdig eingestuften Quellen auftreten. Bei der Einstufung als vertrauenswürdig oder nicht-vertrauenswürdig ist eine objektive Einstufung im Rahmen des Studiendesigns gemeint, nicht die individuelle subjektive Einschätzung der Nutzenden.“
„Die aktuelle Studie basiert hauptsächlich auf automatisierten Beobachtungsstudien. Diese Methodik erlaubt keine direkten Rückschlüsse auf die Gründe für das Teilen von Desinformation.“
Einordnung in den Stand der Forschung
„Die Studie zeigt, dass Posts mit Links zu (im Rahmen des Studiendesigns – nicht subjektiv durch die Nutzenden!) als nicht-vertrauenswürdig eingestuften Quellen mehr emotionale Reaktionen (‚Empörung’) hervorrufen als solche zu vertrauenswürdigen Quellen. Außerdem zeigt sie, dass stärkere emotionale Reaktionen mit erhöhtem Teilverhalten einhergehen.“
„Diese Ergebnisse überraschen nicht, da sie mit dem aktuellen Forschungsstand zum Zusammenhang zwischen Emotionen und Teilverhalten übereinstimmen. Dass das Teilen (korrekter) Informationen nur ein Teil der Motivation zum News Sharing in sozialen Medien ausmacht, zeigt der Forschungsstand schon seit geraumer Zeit. Entsprechend hat mich dieses Ergebnis auch nicht überrascht.“
Auf die Frage, inwiefern die US-Wahl im Zeitraum der Erhebung die von Facebook und Twitter zur Verfügung gestellten Daten im Vergleich zum normalen Ablauf auf den Plattformen beeinflusst haben könnte:
„Generell sind derartige Studien immer Momentaufnahmen, die auf den Algorithmen der sozialen Medien zum Zeitpunkt der Studiendurchführung basieren. Durch die konsistenten Befunde über zwei Zeiträume und zwei Plattformen scheint mir dieses Problem im vorliegenden Artikel aber weniger bedeutsam als bei anderen Studien.“
Wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum
Methodik und Rückschlüsse
„Die Studie verfügt über ein sehr komplexes Design, das durch den Einsatz eines Mixed-Methods-Ansatzes und das Nebeneinander von Stichproben aus zwei Social-Media-Plattformen versucht, methodische Schwächen auszugleichen und robuste Ergebnisse zu erzeugen. Kritisch ist insbesondere die sehr breite Definition von Misinformation, die von Fake News über fragwürdige Finanzierungsquellen bis hin zu niedrigen Glaubwürdigkeitsratings reicht – eine Vereinfachung, die dem komplexen Phänomen nicht gerecht wird. Gleichzeitig unterstellt die Studie, dass vertrauenswürdige Quellen per se frei von irreführenden oder voreingenommenen Inhalten sind, was ebenfalls hinterfragt werden sollte. Zudem fehlen detaillierte Angaben zu den genauen Datenerhebungszeiträumen und der -methode, was die Nachvollziehbarkeit der Ergebnisse einschränkt.“
„Der Satz ‚individuals who express outrage are seen as more trustworthy‘ ist kein Ergebnis der vorliegenden Studie. Dieser Satz verweist auf einen Befund einer anderen Studie, die die Autor:innen zitieren [1].“
Einordnung in den Stand der Forschung
„Im Hinblick auf die Wirkung empörender Inhalte auf das Teilverhalten scheinen die Ergebnisse sehr robust zu sein. Das gilt sowohl für Misinformation als auch für Inhalte aus vertrauenswürdigen Quellen, wobei der Effekt für die als Misinformation klassifizierten Inhalte stärker ist.“
„Die Studie zeigt, dass empörende Inhalte – unabhängig davon, ob sie Misinformationen oder vertrauenswürdige Nachrichten sind – besonders häufig geteilt werden. Das oft sogar ohne, dass die Inhalte zuvor gelesen werden. Die Beobachtungsstudien finden in diesem Zusammenhang einen leicht stärkeren Effekt bei Misinformationen. Das begleitende Experiment ergab jedoch keine Unterschiede im Teilverhalten zwischen empörenden Misinformationen und vertrauenswürdigen Meldungen, was die Bedeutung des emotionalisierenden Charakters von Meldungen unterstreicht. Emotionalisierende Inhalte werden in sozialen Medien unabhängig davon geteilt, ob sie aus vertrauenswürdigen oder nicht-vertrauenswürdigen Quellen stammen. Diese Ergebnisse decken sich weitgehend mit der bisherigen Forschung, die auf die emotionale Ansteckung und den impulsiven Charakter des Teilens hinweist.“
Mögliche Interventionen gegen Desinformation
„Interventionen, insbesondere Fact-Checking-Maßnahmen, scheitern in sozialen Medien häufig an mangelnder Reichweite und der geringen Attraktivität sachlicher Botschaften in der Aufmerksamkeitsökonomie sozialer Medien. Sie emotionalisieren weniger und werden dadurch von Algorithmen benachteiligt. Des Weiteren überzeugen sie nur diejenigen, die ohnehin an den Misinformationen zweifeln. Ideologisch gefestigte Personen lassen sich durch Richtigstellungen nur schwer erreichen.“
„Dennoch bleibt es mit Blick auf sich weiter polarisierende Gesellschaften entscheidend, Falschinformationen mit richtigstellenden Fakten zu begegnen, um die große Zahl an unsichtbaren Mitlesenden zu erreichen. Die Ergebnisse der Studie geben dafür einen vielversprechenden Hinweis: Inhalte so zu gestalten, dass sie Emotionen – auch positive – ansprechen. Die Autor:innen denken, dass emotionale Botschaften eine höhere Verbreitung finden. Effektive Strategien gegen Misinformation könnten also eine Mischung aus Faktentreue und emotionalem Storytelling sein.“
„Letztlich sind aber die Verbreitung und Wirkung von bestimmten Desinformationen in sozialen Medien nur Symptome für bestimmte gesellschaftliche Schieflagen. Diese können nicht allein durch Interventionen im digitalen Raum aufgelöst werden. Dafür braucht es Maßnahmen auf sozialer, kultureller und politischer Ebene.“
Rolle von Algorithmen
„Die bisherige Forschung verdeutlicht, dass Algorithmen auf sozialen Plattformen Inhalte bevorzugen, die starke emotionale Reaktionen hervorrufen, polarisieren oder intensive Nutzerinteraktionen fördern. Diese Priorisierung dient dem Ziel, Verweildauer und Engagement der Nutzenden zu maximieren – ein zentraler Bestandteil des ökonomisch motivierten Geschäftsmodells der Plattformen. Faktoren wie der Inhaltstyp, die Sprache, die Vernetzung der Urheber:innen und die Reaktionen der Nutzer:innen beeinflussen dabei, welche Beiträge algorithmisch hervorgehoben werden. Besonders emotionalisierende Inhalte wie Bilder, Videos oder Memes erzielen hierbei eine starke Wirkung, da sie sowohl Aufmerksamkeit binden als auch affektive Reaktionen verstärken. Dies begünstigt zusätzlich die Verbreitung von Desinformationen.“
Auf die Frage, inwiefern die US-Wahl im Zeitraum der Erhebung die von Facebook und Twitter zur Verfügung gestellten Daten im Vergleich zum normalen Ablauf auf den Plattformen beeinflusst haben könnte:
„Es ist bekannt, dass soziale Netzwerke ihre Algorithmen regelmäßig anpassen, auch im Kontext von Wahlen. Solche Änderungen könnten die Dynamiken beeinflussen, jedoch sehe ich in diesem Fall keine schwerwiegenden Auswirkungen auf die Ergebnisse. Die Robustheit der Studie wird durch den Einsatz plattformunabhängiger Experimente und die Analyse von Daten über verschiedene Zeiträume und Plattformen hinweg gewährleistet. Dies minimiert das Risiko, dass algorithmische Anpassungen die zentralen Aussagen der Untersuchung verzerren.“
„Ich habe keinerlei Interessenkonflikte.“
„Ich habe keinerlei Interessenkonflikte.“
Primärquelle
McLoughlin KL (2024): Misinformation exploits outrage to spread online. Science. DOI: 10.1126/science.adl2829.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Jordan JJ et al. (2019): Signaling when no one is watching. Psyarxiv. DOI: 10.31234/osf.io/qf7e3.
Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Expertinnen und Experten begutachtet wurde.
Prof. Dr. Veronika Karnowski
Professorin für Medienkommunikation, Technische Universität Chemnitz
Dr. Josephine Schmitt
Wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum