Zuckerbergs Pläne zur Moderation von Inhalten bei Meta
Mark Zuckerberg hat angekündigt, bei Meta die Moderation von Inhalten ändern und Faktenchecks durch Community Notes ersetzen zu wollen
unabhängige Social-Media-Forscher vermuten, dass Community Notes Faktenchecks nicht ersetzen können, attestieren beiden Maßnahmen eher geringe Wirkungen
unabhängige juristische Forschende halten Änderungen für wohl nicht konform mit Digital Services Act
Mark Zuckerberg, der Gründer und Vorstandsvorsitzende von Meta, hat am 07.01.2025 Änderungen in der Content-Moderation für die Social-Media-Plattformen Facebook, Instagram und Threads angekündigt [I]. Zuckerberg argumentiert, Regierungen und etablierte Medien hätten darauf gedrängt, dass Meta Inhalte auf den Plattformen zensiert. Durch die neuen Änderungen soll die freie Meinungsäußerung gesichert werden. Bei der Argumentation bedient Zuckerberg sich an Formulierungen und Narrativen, die auch der designierte US-Präsident Donald Trump und seine Anhängerschaft sowie Elon Musk häufig verwenden. Die Änderungen sind zunächst nicht für die EU geplant.
Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich
Vorgaben durch den Digital Services Act
„Falschinformationen sind nur durch den Digital Services Act (DSA) verboten, wenn sie rechtswidrig sind. Der DSA verpflichtet Plattformen darauf, rechtswidrige Inhalte zu löschen und darüber hinaus Risikobewertungen abzugeben hinsichtlich der Wirkung der internen Regeln und Praktiken auf (unter anderem) demokratische Willensbildungsprozesse. Die Meta-Produktfamilie kann auf Community Notes setzen, das ist nicht verboten, auch wenn der DSA eigentlich externe Expertise unterstützt, wie etwa die externen Hinweisgeber, die national zertifiziert werden können. Faktisch hat aber die Abschaffung des Fact-Checkings zumindest bei Twitter/X zu mehr Hassrede, Desinformation, Frauenfeindlichkeit und so weiter geführt. Daher kann bezweifelt werden, inwiefern hier realistisch davon ausgegangen werden kann, dass ein DSA-konformer Moderationszustand durch Community Notes alleine und durch den bewussten Rückbau von automatisierter Filterung überhaupt erreicht werden kann.“
Strafen bei Verstößen gegen den Digital Services Act
„Es drohen empfindliche Geldstrafen, allerdings gilt auch hier der Spruch: Geldstrafen bedeuten, es ist erlaubt, wenn du reich genug bist. Und das ist Zuckerberg, auch wenn er im Gegensatz zu Musk sein Hauptgeschäft in Social Media hat. Eine Sperrung wäre theoretisch denkbar, ist aber nicht realistisch.“
Allgemeine Einschätzung
„Das ist ein Kniefall vor Trump und ein Versuch, das mehr schlecht als recht funktionierende Modell der Community Notes von Twitter/X zu kopieren. Es ist traurig, dass Meta ohne ersichtlichen Grund ein weitgehend gut funktionierendes System der Inhaltemoderation durch externe Fact-Checker, das über Jahre aufgebaut wurde, nun beendet. Externe Expertise ist wichtig und gerade im DSA sind externe Stakeholder auch vorgesehen. Wir haben hier einen klaren Rückschritt in eine Zeit des ‚Anything goes‘. Zuckerberg scheint sich als Tiktok-Alternative beliebt machen zu wollen. Dem Unternehmen droht ja die Sperre in den USA.“
„Ähnlich wie bei Twitter/X sehe ich größere Risiken auf die Meta-Produktfamilie in der EU zukommen. Ob die angekündigten Maßnahmen den DSA-Pflichten entsprechen, ist zu bezweifeln. Jedenfalls müsste die Kommission rasch eine neue Risikobewertung hinsichtlich systemischer Risiken einfordern, da sich nun sehr eindeutig die Vorzeichen geändert haben.“
„Zuckerberg irrt natürlich, wenn er davon spricht, zu viel ‚Zensur‘ werde geübt. Das stimmt nicht. Zensur können Staaten üben, nicht Unternehmen. Wenn er meint, dass die Regeln zu eng angewandt worden sind, dann hätte er die Anwendung verbessern können, indem er mehr Ressourcen in die Content-Moderation investiert. Aber Fact-Checking zu beenden und zunehmend auf Automatisierung zu setzen, ist der falsche Weg. Symbolisch bedeutet dies ein Einschwenken auf die Musk-Trump-Linie. Dazu passt auch die Versetzung der Content-Moderations-Abteilung vom – für amerikanische Ohren ‚liberalen‘ – Silicon Valley ins Trump-Kernland Texas. Kein guter Tag für die menschenrechtsorientierte Moderation von Online-Inhalten. Aber aus Zuckerbergs Sicht ein gelungenes Vorbereiten der Inauguration von Trump.“
Leiterin des Lehrstuhls für das Recht der Digitalisierung und des Instituts für Digitalisierung, Universität zu Köln
Vorgaben durch den Digital Services Act
„Der DSA richtet sich gegen die Verbreitung von Falschinformationen und Hassrede; dieses gesetzlich vorgegebene Ziel wird nun durch Meta ganz offensichtlich aufgegeben. Falschinformationen und Hassrede sind beim neuen Modell bei Meta künftig nicht nur möglich, sondern sogar zu erwarten. CEO Zuckerberg sagt selbst, dass nunmehr mehr problematische Inhalte in das Netz gelangen und dort verbleiben. Damit aber kommt Meta den DSA-Verpflichtungen nicht nach. Im Moment soll das nur für die USA gelten, aber da wohl kein effektives Geoblocking geschieht und auch bisher Meta seine Produkte weltweit möglichst ähnlich ausgestaltet, wird es absehbar auch in Europa und im Rest der Welt zu ungefilterten Fehlinformationen bei den Meta-Produkten kommen.“
Strafen bei Verstößen gegen den Digital Services Act
„Weil Meta ein auf Maximierung des Gewinns ausgerichtetes Unternehmen ist, ist vermutlich eine der wirkungsvollsten Sanktionen, wenn bei Verstößen die möglichen Bußgelder verhängt und – ganz wichtig – auch durchgesetzt werden. Immerhin erlaubt der DSA Bußgelder in Höhe von bis zu sechs Prozent des weltweiten Jahresumsatzes des Plattformbetreibers – das ist auch für Meta nicht beiläufig. Besonders wichtig ist, ganz unabhängig von der Regulierung, dass diejenigen Nutzer/innen Meta-Dienste spätestens jetzt verlassen und meiden, die eine rational orientierte, faktenbasierte Information über soziale Netzwerke wollen.“
Associate Professor für politische Kommunikation, Digital Democracy Centre, Süddänische Universität, Odense, Dänemark
Wissenschaftliche Evidenz zu den Auswirkungen von Faktenchecks und Community Notes
„Faktenchecks funktionieren unter bestimmten Bedingungen auf der Ebene des Individuums; in dem Sinne, dass sie Fehlwahrnehmungen korrigieren können. Diese Effekte hängen jedoch stark von einer Reihe weiterer Kontextvariablen ab. Zum Beispiel kann es wichtig sein, wie die Faktenchecker wahrgenommen werden. Zum anderen erweisen sich demografische Merkmale und ideologische Überzeugungen oft als resistent gegen Korrekturen.“
„Wie überzeugend ein Faktencheck ist, hängt also auch vom Publikum ab und davon, wie aufgeschlossen es ist. Ebenso hängt es von den Angeboten ab: Sind die Institutionen vertrauenswürdig, die diese Checks durchführen? Die durch digitale Medien bedingte Informationsflut macht es sehr schwer bis unmöglich, mit Hilfe von Faktenchecks Schritt zu halten. Und wer etwas nachweislich Falsches glauben möchte, kann im ‚High-Choice-Media-Environment‘ schnell Bestätigungen für die eigenen Überzeugungen finden.“
„Wir sollten hier aber auch unterscheiden zwischen der grundsätzlichen Bedeutung von Fakten für den öffentlichen Diskurs und der Praxis der Faktenchecks wie von Facebook bisher implementiert und nun abgebrochen – deren gesamtgesellschaftliche Effektivität man wohl eher bezweifeln darf. Eher wird durch die angekündigten Moderierungsänderungen dieser Informationsraum nun wohl noch toxischer werden, als er es für viele User:innen jetzt bereits schon ist.“
Die von Zuckerberg angeführte Gefahr der Überregulierung
„Angesichts monopolartiger oder kartellartiger Geschäftsmodelle in der US-amerikanischen und globalen Tech-Branche wäre es absurd, zu dem Schluss zu kommen, dass ‚das Problem‘ Überregulierung oder zu viele Faktenchecks seien.“
„Viel wichtiger ist es zu betonen, dass wir uns als demokratische Gesellschaft zunehmend nicht mehr damit beschäftigen, wie Institutionen der Öffentlichkeit durch demokratisch legitimierte Regeln gestaltet und reguliert werden. Stattdessen setzen de-facto-Oligarchen ihre eigenen Interessen durch: Ein Oligarch reduziert Deliberation via Twitter zu einem Scherbenhaufen und bedroht nun Wikipedia, ein anderer schreibt der Washington Post vor, was sie (nicht) drucken darf, der nächste verkündet quasi unilateral Entscheidungen, die die Kommunikation und Wahrnehmung von Millionen von Menschen direkt oder indirekt beeinflussen. Es ist bezeichnend, wie schnell wir uns von der Frage, wie der Kongress, die Federal Communications Commission (FCC) oder die EU regulieren, hin zur Frage bewegen, was Trump, Zuckerberg, Musk oder Bezos wohl denken und wollen. Was können da ‚Community Notes‘ noch groß ausrichten?“
Zur Kritik, Faktenchecks seien gerade in den USA oft voreingenommen
„Es wäre fatal, diese Argumentationsweise gelten zu lassen oder gar zu übernehmen. Ein vermeintlicher ‚Bias‘ der Faktenchecker gegenüber rechts-konservativen Positionen in den USA ist vor allem darauf zurückzuführen, dass in diesem Bereich (der größer ist als nur Trump und auch einen erheblichen Teil der Mediensphäre umfasst) schlichtweg deutlich mehr Unwahrheiten zirkulieren als in anderen Teilen der Netzöffentlichkeit.“
„Wer dies aufzeigt, ist vergleichbar mit einem Schiedsrichter, der öfter gegen eine Seite pfeift, weil diese häufiger foult. Die Frage lautet daher: Warum foult eine Seite mehr? Die offensichtliche Antwort lautet: Weil diese Seite stärker aus ideologischem Interesse agiert und Fakten hierbei weniger Gewicht haben.“
„Genau diese Seite trägt das Argument eines ‚Bias‘ vor – nicht aufgrund der Faktenlage, sondern aus ideologischer Motivation. Sie wird sich niemals davon überzeugen lassen, dass es keine Voreingenommenheit der Faktenchecker gegen rechts gibt, da dieses Argument nicht auf Fakten, sondern auf motivierter Wahrnehmung beruht.“
„Es gibt hierzu Vorläufer, wie zum Beispiel die gezielte Strategie von rechts außen, ‚die Medien‘ pauschal als zu links abzustempeln, in der Hoffnung, dass die eigene Seite von dieser Kritik profitiert. Im Englischen wird diese Strategie als ‚working the refs‘ bezeichnet – also die Schiedsrichter zu beeinflussen.“
Mögliche Wirkung der neuen Maßnahmen
„Fakten können nur dort Wirkung entfalten, wo Institutionen für tatsachenbasierte Informationen empfänglich sind und auf Basis dieser Fakten Macht ausgeübt wird. Dies ist das Grundprinzip einer demokratischen Öffentlichkeit, die durch diverse ‚wahrheitssuchende‘ Institutionen geprägt ist: Wissenschaft, Journalismus, aber auch Gerichte, parlamentarische oder öffentliche Debatten. All dies sind diskursive Arenen, in denen der Anspruch besteht, dass Fakten etabliert werden und Einfluss auf Entscheidungen haben. Wenn der politische Entscheidungsapparat diese Prinzipien nicht mehr hochhält oder – schlimmer noch – aktiv unterminiert, dann funktioniert der Staat nach anderen Prinzipien: Sein Handeln folgt dann ideologischen, parteipolitischen oder privaten Interessen einer herrschenden Elite.“
„Ich interpretiere Zuckerberg so, dass er einen Wandel erkannt hat und Meta sich nun dem Diktat neuer Machtverhältnisse unterwirft. Sein marktwirtschaftliches Kalkül zielt darauf ab, wie die kommenden Regularien der US-Exekutive funktionieren und welche Parameter sie für Metas Geschäftsmodell setzen werden. Darum geht es hier. Das Einstampfen der Faktenchecks bietet hierfür aber natürlich die Symbolik: weg von Wahrheit, hin zur Macht.“
„Man kann hoffen, dass dies ein US-amerikanisches Phänomen bleibt und die EU sich auf dieses Spiel nicht einlässt. Doch auch hierzulande mehren sich Kräfte, deren Absicht es ist, die Arenen der Faktenfindung zu beschränken.“
Juniorprofessor für Kommunikationswissenschaft mit Schwerpunkt interpersonale Kommunikation im Kontext der Digitalisierung, Universität Erfurt
Wissenschaftliche Evidenz zu den Auswirkungen von Faktenchecks und Community Notes
„Viele Studien zeigen, dass Faktenchecks durchaus funktionieren: Menschen akzeptieren im Großen und Ganzen die korrigierten Inhalte und lassen sich von faktenbasierten Argumenten überzeugen [1] [2]. Allerdings sind diese Effekte in der Regel eher schwach – besonders, wenn Menschen misstrauisch gegenüber journalistischen Medien sind oder die Falschmeldung vorher geglaubt haben. Hinzu kommt, dass die Korrektur einer Falschmeldung naturgemäß später kommt und weniger Menschen erreicht als die ursprüngliche Nachricht. Community Notes zeigen ebenfalls positive Effekte und können eine nützliche Ergänzung sein [3]. Faktenchecks und Community Notes sind aber nur Bausteine in der Auseinandersetzung mit falschen und irreführenden Inhalten im Netz: Sie helfen, sind aber kein Allheilmittel.“
Die von Zuckerberg angeführte Gefahr der Überregulierung
„Content-Moderation wird immer ‚scheitern‘, weil es zu viele Inhalte gibt, menschliche Moderationsteams nicht hinterherkommen und automatisierte (KI-)Anwendungen nicht gut genug sind. Es ist also durchaus ein Problem, dass zuweilen Inhalte zu Unrecht geblockt werden, genauso wie Inhalte immer wieder zu Unrecht nicht geblockt werden. Es ist daher eine grundlegende Frage, wie wichtig Plattformen es nehmen, problematische Inhalte korrekt zu identifizieren und zu blocken. Zuckerberg scheint sich hier entschieden zu haben: Es sollen mehr politische Inhalte ausgespielt und diese weniger stark moderiert werden, insbesondere bei den Themen Einwanderung und Gender. Das wird voraussichtlich mehr Hassrede und Falschinformationen zur Folge haben, auch wenn diese Regelung zunächst nur auf die USA begrenzt zu sein scheint. Das Ersetzen von Faktenchecks durch Community Notes ist in dieser Hinsicht dann eher eine Randnotiz.“
Zur Kritik, Faktenchecks seien gerade in den USA oft voreingenommen
„Fact-Checking und Content-Moderation greift in den USA tatsächlich eher konservativ-republikanische Inhalte auf beziehungsweise moderiert entsprechende Accounts – diese teilen aber auch häufiger Fehlinformationen [4]. Im Kontext des Statements von Zuckerberg halte ich die Aussage aber tatsächlich für eine Ausrede. Er dient sich recht offensichtlich der Trump-Regierung an und erfüllt Trumps Forderung nach einem laxeren Umgang mit Inhalten, um weitere Regulierung zu vermeiden. Das zeigt auch die Aufnahme von Trump-Vertrauten ins Management von Meta sowie die absurde Ankündigung, die Content-Moderator:innen von Kalifornien nach Texas umziehen zu lassen.“
Mögliche Wirkung der neuen Maßnahmen
„Das kann man kaum abschätzen. In jedem Fall zeigt sich, dass journalistische Standards für Meta im Zweifel wenig Bedeutung haben. Fact-Checking ist professionelle Arbeit mit Routinen und Mechanismen zur Qualitätssicherung, das kann nicht gleichwertig durch Laien ersetzt werden. Bei aller berechtigter Kritik am Journalismus ist es doch eine große Errungenschaft, dass sich Menschen professionell mit dem Sammeln, Prüfen und Aufbereiten von gesellschaftlich relevanten Informationen beschäftigen. Niemand möchte von einem Team medizinisch interessierter Laien operiert werden – dieselbe Ernsthaftigkeit sollten wir bei politischen Informationen an den Tag legen. Hier wird aber ein Grundproblem deutlich: Weite Teile unseres gesellschaftlichen Diskurses finden auf privaten, US-amerikanischen Online-Plattformen statt, was unsere Gesellschaften zu einem gewissen Grad der Willkür der Plattformbetreiber ausliefert.“
Professor für Kommunikationsmanagement und politische Kommunikation, Universität Leipzig
Wissenschaftliche Evidenz zu den Auswirkungen von Faktenchecks und Community Notes
„Metaanalysen zeigen insgesamt sehr kleine bis gar keine Auswirkungen von Faktenchecks auf Fehlwahrnehmungen. Dies, obwohl eher Studien veröffentlicht werden, die Effekte finden (sogenannter Publication Bias). Zudem handelt es sich meist um experimentelle Studien. In der freien Wildbahn sind die Effekte vermutlich kleiner als im Experiment, weil sich Menschen hier den Faktenchecks leichter entziehen können.“
„Korrigierende Wirkungen scheinen eher bei Personen aufzutreten, die mit der Quelle der Faktenchecks sympathisieren. Besonders gering sind die Wirkungen bei jenen Personen, die relativ viel Misinformation konsumieren und glauben. Dies vor allem, weil es sich in der Regel um Individuen mit einem gefestigten Weltbild handelt, die Misinformation gezielt aufsuchen. Amerikanische Studien zeigen, dass politisch rechtsstehende Individuen Faktenchecker eher als feindselig empfinden und Faktenchecks daher hier auch weniger wirken.“
„Interessant ist auch, dass manche Menschen eine Belehrung durch Faktenchecks nicht zu mögen scheinen – selbst, wenn sie in einem Experiment ihre Fehlwahrnehmung korrigieren, entwickeln sie zugleich eine negativere Einstellung gegenüber dem Absender des Faktenchecks oder gegenüber Medien generell.“
„Der Forschungsstand zur Wirkung der Community Notes ist noch weniger ausgeprägt. Es gibt Hinweise darauf, dass die Akzeptanz von Faktenchecks durch die Community relativ groß ist, weil diese als ausgewogener empfunden wird. Ähnlich wie bei professionellen Faktenchecks zeigen experimentelle Studien, dass Community Notes zu (begrenzten) Korrekturen von Fehlwahrnehmungen führen können. Auswirkungen auf Einstellungen oder Verhalten sind in beiden Fällen nicht wahrscheinlich. Beide Formen von Faktenchecks – professionelle und Community Notes – hinken viraler Misinformation zeitlich hinterher, was ihre Wirksamkeit reduziert.“
Die von Zuckerberg angeführte Gefahr der Überregulierung
„In den USA gibt es Ansätze einer engeren Regulierung von Social Media – von links wie auch von rechts, vor allem auf der Ebene der Bundesstaaten. Viele dieser Initiativen beschäftigen derzeit die Gerichte. Es ist noch nicht klar, ob sich diese Vorstöße durchsetzen werden. Wahrscheinlich ist dies nicht, da die Meinungsfreiheit in den USA sehr umfassend geschützt ist, und die rechtliche Verantwortlichkeit von Plattformen für die dort veröffentlichten Inhalte sehr begrenzt ist.“
„In der Europäischen Union hat sich die Regulierungsdichte zuletzt deutlich erhöht, etwa mit dem Digital Services Act (DSA) und dem Digital Markets Act (DMA). Aus Sicht der Plattformen sind diese Regulierungen noch mit viel Unsicherheit verbunden. Was in der Praxis genau wie umgesetzt werden muss, ist oft unklar. Vertreter der EU, wie vormals Thierry Breton, agierten hier wenig glücklich, weil sie öffentlich Forderungen formulierten, die kaum durch den DSA gedeckt sind. Das erhöht die politische Unsicherheit.“
„Metas Wechsel im Fact-Checking-System weg von professionellen Anbietern hin zu Community Notes ist von diesen Regulierungsansätzen aber wenig berührt. Allenfalls muss Meta nun berichten, inwiefern sich durch das neue System Risiken für die europäische Öffentlichkeit ergeben könnten. Nach wie vor ist Meta verpflichtet, illegale Inhalte zu entfernen.“
Zur Kritik, Faktenchecks seien gerade in den USA oft voreingenommen
„Mit Blick auf politische Entscheidungsträger zeigen Studien, dass Republikaner und Demokraten ähnlich häufig einem Faktencheck unterworfen werden, die Aussagen der Republikaner werden häufiger als falsch bewertet. Insgesamt werden rechtsstehende Nutzer eher ‚Opfer‘ einer korrigierenden oder beschränkenden Maßnahme der Inhaltemoderation auf Social Media. Dies wird damit begründet, dass die politische Rechte mehr Misinformation verbreitet oder anderweitig gegen die Richtlinien der Plattformen verstößt.“
„Eine Befragung zeigte, dass sich Expertinnen und Experten für Misinformation weit überwiegend und deutlich auf der politischen Linken positionieren. Auch das mag dazu beitragen, dass Faktenchecker unter rechtsstehenden Individuen unpopulär sind. Anhänger der Republikaner empfinden laut Umfragen die Inhaltemoderation der Plattformen als zu restriktiv. Gerade bei Themen, die politisch Rechtsstehende umtreiben, wie Migration oder Gender, geben die meisten Plattformen enge Leitlinien vor, um beispielsweise Hatespeech zu unterbinden. Dies erklärt partiell, warum Rechte häufiger in Konflikt mit der Inhaltemoderation der Plattformen wie Facebook oder Instagram geraten. Unter Elon Musk wurden diese Regeln auf Twitter/X gelockert, Meta will diesem Beispiel nun folgen.“
Mögliche Wirkung der neuen Maßnahmen
„Ich erwarte nicht, dass ein Wechsel vom professionellen Fact-Checking zu Community Notes einen nennenswerten Einfluss auf die Verbreitung oder Akzeptanz von Misinformation haben wird. Im Detail hängt dies natürlich von der Art der Umsetzung ab.“
„Deutlich größere Auswirkungen dürfte die Lockerung der Leitlinien mit Blick auf Themen wie Migration und Gender haben, und auch die angekündigte Fokussierung der Inhaltemoderation auf illegale Inhalte. Es ist sehr wahrscheinlich, dass politisch rechtsstehende Akteure dadurch mehr Spielraum und auch mehr Reichweite auf den Meta-Plattformen erzielen können.“
Professor für Recht und Ethik der digitalen Gesellschaft, Europa-Universität Viadrina Frankfurt (Oder)
Vorgaben durch den Digital Services Act
„Es gibt hier zwei große Verpflichtungen. Erstens müssen alle Plattformen, die fremde Inhalte hosten, für möglicherweise rechtswidrige Inhalte (Artikel 16 DSA) ein Melde- und Abhilfeverfahren einrichten. Jeder Nutzer kann daher Posts, die er oder sie für illegal hält, der Plattform anzeigen. Die Plattform muss dafür eine einfache Möglichkeit bereithalten. Sie muss dann ein im Wesentlichen rechtsförmiges Verfahren durchführen. Dabei muss sie die Meldung bearbeiten und zeitnah, sorgfältig, frei von Willkür und objektiv darüber entscheiden. Meldungen von sogenannten vertrauenswürdigen Hinweisgebern, die nach einem festgelegten Verfahren akkreditiert werden, müssen bevorzugt behandelt werden (Artikel 22 DSA).“
„Eigentlich sind Plattformen von einer Haftung für die Inhalte ihrer Nutzer ausgenommen (Artikel 6 DSA). Denn es wäre zu viel verlangt, müsste eine Plattform aktiv alle Beiträge ihrer Nutzer analysieren. Mit der Meldung jedoch erlischt dieses Haftungsprivileg, die Plattform muss nun tätig werden. Will die Plattform daher einer Haftung für etwaige Rechtsverletzungen entgehen, muss sie einen ihrer Meinung nach rechtswidrigen Beitrag sperren oder löschen.“
„Für sehr große online Plattformen (Very Large Online Platforms, VLOPs) wie zum Beispiel X, Facebook oder Instagram gelten, zweitens, zusätzlich noch strengere Maßstäbe. Sie sind verpflichtet, aktiv systemische Risiken für Grundrechte und demokratische Prozesse zu analysieren und entsprechende Korrekturmaßnahmen zur Verminderung der Risiken zu ergreifen (Artikel 34 f. DSA) – insbesondere auch für Risiken, die geschützte Minderheiten, den demokratischen Prozess und den freien Diskurs in der Gesellschaft betreffen (Artikel 34 Absatz 1, EG 81 und 82 DSA). Dies umfasst auch die Pflicht, aktiv gegen entsprechende falsche Inhalte vorzugehen. Zugleich sind Plattformen aber auch an die Grundrechte gebunden (aus Artikel 14 Absatz 4 DSA), was zu komplexen Abwägungsentscheidungen im Einzelfall führen kann. Illegale Formen der Meinungsäußerung sowie Hassrede und Schmähkritik stehen jedoch schon von vornherein außerhalb des Schutzes der Grundrechte, sodass sich insoweit dieses Problem nicht stellt; vielmehr müssen VLOPs dafür sorgen, dass derartige Inhalte keine signifikante Verbreitung erfahren.“
„Zuckerbergs Kniefall vor Trump ist zugleich ein Schritt weg vom europäischen Recht. Solange Meta seine Dienste in der EU anbietet, gilt dies aber uneingeschränkt.“
Community Notes
„Community Notes sind kurze Bewertungen von anderen Nutzern zu potenziell irreführenden oder falschen Tweets [5]. Diese Bewertungen werden als Disclaimer neben solchen Tweets angezeigt, um die Nutzer über fehlenden Kontext zu informieren [6].“
„Während dieser Ansatz in den USA an Bedeutung gewonnen hat, wies die Europäische Kommission darauf hin, dass ein solches System einer Risikobewertung unterzogen werden muss, bevor es in der EU eingesetzt werden kann. Der DSA schreibt zwar keine spezifischen Moderationswerkzeuge vor. Die von den Plattformen gewählten Methoden müssen aber die Verbreitung schädlicher Inhalte wirksam verhindern [7].“
„Meta wird sich vermutlich schwertun, nachzuweisen, dass ein effektives Risikomanagement allein mit Community Notes möglich ist. Das legt auch der Blick auf die Erfahrungen mit X nahe. Empirische Studien betonen, dass Community Notes in ihrer Wirksamkeit gegen Falschinformationen beschränkt sind und nicht unbedingt zu einem entsprechenden Nutzerverhalten (zum Beispiel Löschung des Posts) führen [8], insbesondere dann, wenn die Notiz von Personen aus dem Lager des (vermeintlichen) politischen Gegners stammt [9]. Dies begründet an ihrer Effektivität als Werkzeug zur Verminderung systemischer Risiken erhebliche Zweifel, insbesondere im Vergleich mit externen Fact-Checkern [8].“
„Letztlich ist festzuhalten: Auch wenn die Chefs von X und Meta dies mittlerweile anders sehen mögen, hat im europäischen Recht immer noch nicht derjenige Recht, der am lautesten schreit oder die meisten Posts und Likes hinter sich versammelt. Das würde jeglichen Minderheitenschutz letztlich komplett aushebeln.“
„Der DSA sieht nicht explizit vor, dass VLOPs mit externen und unabhängigen Organisationen zur Überprüfung und Korrektur von Inhalten zusammenarbeiten müssen. Stattdessen legt der DSA allgemeine Verpflichtungen für VLOPs fest, wie die Einrichtung von Systemen zur Bekämpfung der Verbreitung illegaler Inhalte und die Durchführung von Risikobewertungen. Die Zusammenarbeit mit externen Faktenprüfern im Rahmen von freiwilligen Maßnahmen wird in der Europäischen Union vor allem durch den Code of Practice on Disinformation geregelt. Dieser Code of Practice ist ein freiwilliges Instrument, das Teil des breiteren Aktionsplans der EU gegen Desinformation ist [10].“
„Das im Dezember 2023 eingeleitete und andauernde Verfahren gegen X wegen möglicher Verstöße gegen den DSA bezieht sich nicht nur auf die Einhaltung der DSA-Verpflichtungen in Bezug auf die Bekämpfung der Verbreitung illegaler Inhalte (einschließlich der Risikobewertung und -minderung sowie des Melde- und Aktionsmechanismus von X), sondern auch auf die Wirksamkeit der Maßnahmen zur Bekämpfung von Informationsmanipulationen, insbesondere die Wirksamkeit des Systems Community Notes von X und die Wirksamkeit der damit verbundenen Maßnahmen zur Abschwächung der Risiken für den zivilen Diskurs und die Wahlprozesse [11].“
„Der DSA sieht Fehlinformationen durchaus als systemisches Risiko an (siehe etwa Erwägungsgründe 9, 83, 84, 88, 95, 104, 106, 108). Die Community Notes sollen dieser Verpflichtung zur Minderung systemischer Risiken gerecht werden. Allerdings erreichen Tweets oft viele Nutzer, bevor solche korrigierenden Notizen verfügbar sind, was eine strukturelle Herausforderung darstellt [12]. Community Notes können ein nützliches Werkzeug zur Bekämpfung von Fehlinformationen sein; sie können jedoch ein funktionierendes externes Moderationssystem nicht ersetzen – weder rechtlich noch faktisch.“
„Laut Spiegel waren die bisherigen Warnungen bei Meta nicht ohne Wirksamkeit; in einem Fünftel der Fälle löschten die Autorinnen und Autoren die betroffenen Beiträge offenbar noch vor Veröffentlichung [13]. Da die Community Notes erst nach Veröffentlichung greifen, ist auch insofern zu bezweifeln, dass sie genauso wirksam sind.“
Strafen bei Verstößen gegen den Digital Services Act
„Bei Verstößen können Anbieter bis zu sechs Prozent ihres weltweiten Jahresumsatzes im vorangegangenen Geschäftsjahr als Geldbuße auferlegt bekommen.“
„Außerdem muss der Anbieter innerhalb einer von der Kommission gesetzten Frist Maßnahmen zur Behebung des Verstoßes ergreifen. Wenn die Plattform die Einhaltung von einstweiligen Maßnahmen, Abhilfemaßnahmen und Verpflichtungen verzögert, kann sie dafür regelmäßig mit bis zu fünf Prozent ihres durchschnittlichen weltweiten Tagesumsatzes für jeden Tag der Verzögerung sanktioniert werden [14].“
„Wenn die Kommission feststellt, dass zu irgendeinem Zeitpunkt der Untersuchung möglicherweise das Risiko eines schweren Schadens für Nutzer des Dienstes besteht, kann sie einstweilige Maßnahmen für die Plattformanbieter erlassen (verhältnismäßig und vorübergehend): zum Beispiel Änderungen an Empfehlungssystemen, verstärkte Überwachung bestimmter Keywords oder Hashtags, oder Anordnungen zur Beendigung oder Behebung von mutmaßlichen Verstößen [14].“
„Die Kommission kann Meta also auch auffordern, vorläufige Maßnahmen zu ergreifen, bevor sie eine endgültige Entscheidung über die Nichteinhaltung trifft, wenn aufgrund der Gefahr eines ernsthaften Schadens für die Nutzer Dringlichkeit gegeben ist.“
„Sperrungen von Onlineplattformen sind im DSA auch möglich. Diese Sperrungen können von den jeweiligen nationalen Behörden verhängt werden. Die Anforderungen dafür sind, dass der Plattformbetreiber trotz mehrfacher Geldbußen dem DSA zuwiderhandelt, dadurch schwerwiegende Schäden verursacht werden und eine Straftat begangen wird, die das Leben oder die Sicherheit von Personen bedroht. Die Sperrungen können allerdings immer nur vorübergehend eingesetzt werden und gelten als ultima ratio. Dass sie bei X oder Meta bald zur Anwendung kommen, ist daher unwahrscheinlich.“
Professor für Kommunikations- und Medienwissenschaft, und Leiter des Labs „Platform Governance, Media, and Technology“ am Zentrum für Medien-, Kommunikations- und Informationsforschung (ZeMKI), Universität Bremen
„Zuckerberg folgt Musk – Rollback zurück zur grenzenlosen Freiheit und Verantwortungslosigkeit der Plattformen: Mit dieser Entscheidung von Zuckerberg wird endgültig deutlich: Die Plattformen wünschen sich zurück in ihre Anfangsjahre und wollen gleichzeitig ihre globale Dominanz behalten. Wir sehen ein Rollback zurück zu einem libertären Verständnis von Meinungsfreiheit, das die individuelle Freiheit vor jede Begrenzung stellt. Wichtiger aber ist der versuchte Rollback zu einem Verständnis von Plattformen, das sie aus der Verantwortung nimmt: Wir haben in den vergangenen zehn Jahren einen breiten gesellschaftlichen und politischen Konsens aufgebaut, zunächst in Europa, aber zunehmend auch in großen Teilen von Lateinamerika und auch in den USA, dass Plattformen Verantwortung für die Inhalte und Interaktionen auf ihren Diensten übernehmen müssen. Nach Musk kündigt nun auch Zuckerberg die Übernahme dieser Rolle explizit auf, und benennt jede Form von Eingriff und Begrenzung von Kommunikation als ‚Zensur‘. Er fühle derzeit im Zusammenhang mit der US-Wahl einen ‚cultural tipping point towards once again prioritizing speech‘. Das möchte Zuckerberg nutzen, um ‚back to the roots‘ von Facebook zu gehen und Nutzer*innen wieder alle Freiheiten der Meinungsäußerung zu ermöglichen. Diese vermeintlichen Freiheiten der Nutzer*innen ist für Zuckerberg und Meta aber vor allem attraktiv, weil sie auch eine grenzenlose Freiheit und wortwörtlich Verantwortungslosigkeit der Plattformen mitbringen würde.“
außerordentliche Professorin am Digital Democracy Centre, Süddänische Universität, Odense, Dänemark
Wissenschaftliche Evidenz zu den Auswirkungen von Faktenchecks und Community Notes
„Faktenchecks spielen eine wichtige Rolle in unseren modernen Informationsumgebungen – schließlich haben die wenigsten von uns Zeit, alles selbst zu überprüfen, was beim Warten auf den Bus über den Bildschirm unseres Smartphones läuft.“
„Faktenchecks haben verschiedene Funktionen. Erstens können sie Personen informieren, die selbst noch nicht über eine bestimmte Fehlinformation gestolpert sind. Vor allem gut gemachte Faktenchecks haben dann eine Informationsfunktion und können dazu beitragen, uns für die Konfrontation mit Fehlinformationen auszurüsten. Diese Funktion wird auch als ‚Prebunking‘ (Vor-Widerlegung) bezeichnet. Meta hat beispielsweise bislang Warnhinweise eingeblendet, die Personen darüber informiert haben, dass bestimmte Inhalte von Faktenchecks angezweifelt werden – anklicken konnte man die Inhalte trotzdem. Zweitens können Faktenchecks dazu dienen, Politiker und Politikerinnen oder andere mächtige Personen und Institutionen zur Verantwortung zu ziehen – etwa, wenn bei politischen Debatten direkt die Information zur Verfügung gestellt wird, ob der oder diejenige sich an die Fakten hält. Drittens können Faktenchecks auch Personen ansprechen, die bereits von einer bestimmten Fehlinformation gehört haben (‚Debunking‘) und diese vielleicht sogar für teilweise glaubwürdig halten.“
„Generell zeigen sowohl einzelne Studien als auch Meta-Analysen (systematische Auswertungen mehrerer Studien), dass Faktenchecks zu faktenbasierteren Überzeugungen beitragen [15] [16]. Die Erfolgsrate hängt jedoch davon ab, wie Faktenchecks gemacht sind und wen sie wann erreichen. Zum Beispiel haben zusammenfassende Faktenchecks – im Vergleich zu einzelnen ‚stimmt nicht‘-Statements – einen größeren Effekt, ebenso detaillierte, wenn auch kurze, Erklärungen [17] [18]. Faktenchecks haben es zudem manchmal schwer, dieselbe Reichweite im Netz zu entwickeln, wie Fehlinformationen – vor allem dann, wenn Empfehlungsalgorithmen emotionale, sensationalistische Inhalte besonders oft weiterempfehlen.“
„Zu guter Letzt profitieren Personen, die (noch) nicht an eine bestimmte Fehlinformation glauben, mehr von faktischen Informationen als Personen, die (schon) an eine bestimmte Fehlinformation glauben. Dennoch profitieren alle von faktischen Inhalten – nur eben in unterschiedlichem Ausmaß [19] [20] [21].“
„Spezifische Warnhinweise, wie Meta sie bislang einsetzte, sind einigen Studien (unter anderem einer unserer eigenen) zufolge wirksam – allerdings gibt es auch Studien, die keinen Effekt finden. In Meta-Analysen zeichnet sich aber eher ab, dass diese Label im Sinne einer besseren Unterscheidungsfähigkeit von faktenbasierten gegenüber nicht-faktenbasierten Inhalten hilfreich waren [19] [22] [23] [24].“
Die von Zuckerberg angeführte Gefahr der Überregulierung
„Zunächst einmal stellen Faktenchecker und Faktencheckerinnen Informationen zur Verfügung und recherchieren nach. Sie stellen Quellen und Argumente zur Verfügung [25].“
„Das reine Zurverfügungstellen von Informationen ist erst einmal keine Überregulierung – Mediennutzende sind durchaus in der Lage, sich ein eigenes Urteil zu bilden. Wer schon mal versucht hat, ein Familienmitglied von etwas zu überzeugen, das die Person wirklich nicht glaubt, weiß wie schwer das ist – Medieninhalte haben es noch schwerer.“
„Die Idee von Community Notes ist ökonomisch verlockend – statt ausgebildete Personen mit finanziellen Ressourcen auszustatten, um Inhalte nachzurecherchieren, liegt die Verantwortung hier auf den Nutzenden. Die kosten nichts und als Plattformbetreibende kann ich die Verantwortung für die Inhalte in ‚meinem Haus‘ auf meine ‚Gäste‘ abwälzen. Allerdings zeigen Studien, dass erstens Nutzende gar nicht alle Inhalte überprüfen, sondern eher Inhalte, die ihnen sowieso schon komisch vorkommen, weil sie ihrer Meinung widersprechen. Zweitens machen die meisten Leute gar nichts, wenn ihnen Fehlinformationen begegnen. Drittens sind Menschen zwar durchaus in der Lage, vertrauenswürdige Inhalte zu erkennen, aber neigen viertens auch dazu, ihre eigenen Fähigkeiten zu überschätzen, wenn sie besonders wenig Ahnung von einem Thema haben (Dunning-Krueger Effekt) [26] [27] [28] [29].“
Zur Kritik, Faktenchecks seien gerade in den USA oft voreingenommen
„Nutzende vertrauen Community Notes – aber eher, weil diese Hintergründe liefern [30]. Community Notes sind aber eben durchaus auch von Parteilichkeit beeinflusst – man checkt eher die anderen als die eigene Gruppe, zeigt ein bislang nicht begutachteter Beitrag aus den USA [9] [31]. Community Notes sind zudem langsamer als professionelle Faktenchecks [32].“
Mögliche Wirkung der neuen Maßnahmen
„Twitter hat nicht grade vom Abschaffen von Faktenchecks und Moderation profitiert. Viele Nutzende sind zu anderen Plattformen gewechselt, der Marktwert ist ziemlich eingebrochen – auch wenn die aktuelle politische Situation das wieder beeinflusst.“
„Generell sind die meisten Mediennutzenden an faktisch akkuraten Inhalten interessiert [35] und insbesondere Hassrede (siehe Metas neue Toleranz für sexistische Hassrede) führt dazu, dass Menschen sich von Plattformen schlicht zurückziehen [36]. Wer will schon ständig beschimpft, belogen und anderweitig angegriffen werden? Die meisten Menschen haben ja Besseres zu tun.“
„Keine Interessenkonflikte.“
„Keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
„Es gibt keine Interessenkonflikte.“
„Interessenkonflikte bestehen nicht.“
„Ich habe keine Interessenkonflikte.“
„Christian Katzenbach ist Mitglied des wissenschaftlichen Beirats ‚Actor and Behavioral Policies‘ bei Meta. Er erhält dafür ein jährliches Honorar von $6.000.“
„Lena Frischlich hatte Forschungszugang zu Metas Crowdtangle Tool und war Beta-Testerin für Metas Content-Library. Sie hat nie finanzielle Unterstützung von Plattformen erhalten.“
Weiterführende Recherchequellen
Science Media Center (2024): Die Verbreitung von Desinformation. Science Response. Stand: 15.05.2024.
Science Media Center (2024): Die Wirkung von Desinformation. Science Response. Stand: 16.05.2024.
Science Media Center (2024): Welche Maßnahmen gegen Desinformation helfen. Science Response. Stand: 01.06.2024.
Science Media Center (2025): Wirkung sozialer Medien im Wahlkampf. Press Briefing. Stand: 08.01.2025.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Walter N et al. (2020): Fact-checking: a meta-analysis of what works and for whom. Political Communication. DOI: 10.1080/10584609.2019.1668894.
[2] Martel C et al. (2024): Fact-checker warning labels are effective even for those who distrust fact-checkers. Nature Human Behaviour. DOI: 10.1038/s41562-024-01973-x.
[3] Drolsbach CP et al. (2024): Community notes increase trust in fact-checking on social media. PNAS Nexus. DOI: 10.1093/pnasnexus/pgae217.
[4] Mosleh M et al. (2024): Differences in misinformation sharing can lead to politically asymmetric sanctions. Nature. DOI: 10.1038/s41586-024-07942-8.
[5] X (2025): About Community Notes on X. X Corp.
[6] Bovermann M (08.01.2024): Putting X’s Community Notes to the Test. Blog-Post. Verfassungsblog On Matters Constitutional.
[7] Competition Policy International (08.01.2025): EU Rebukes Meta CEO’s Claims of Censorship Under Digital Services Act. Artikel. Competition Policy International.
[8] Godel W et al. (2021): Moderating with the Mob: Evaluating the Efficacy of Real-Time Crowdsourced Fact-Checking. Journal of Online Trust & Safety. DOI: 10.54501/jots.v1i1.15.
[9] Allen J et al. (2022): Birds of a feather don’t fact-check each other: Partisanship and the evaluation of news in Twitter’s Birdwatch crowdsourced fact-checking program. Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems. DOI: 10.1145/3491102.3502040.
[10] Europäische Kommission (letztes Update 24.10.2024): The 2022 Code of Practice on Disinformation. Verhaltenskodex. Europäische Kommission.
[11] Europäische Kommission (18.12.2023): Commission opens formal proceedings against X under the Digital Services Act. Pressemitteilung.
[12] Binder M (30.11.2023): Most users on X never see Community Notes correcting misinformation. Artikel. Mashable.
[13] Böhm M et al. (08.01.1015): Was ändert sich bei Facebook und Instagram? Artikel. Spiegel.
[14] Europäische Kommission (letztes Update 30.04.2024): Der Durchsetzungsrahmen nach dem Gesetz über digitale Dienste.
[15] Martel C et al. (2024): Fact-checker warning labels are effective even for those who distrust fact-checkers. Nature Human Behaviour. DOI: 10.1038/s41562-024-01973-x.
[16] Walter N et al. (2020): Fact-checking: A meta-analysis of what works and for whom. Political Communication. DOI: 10.1080/10584609.2019.1668894.
[17] Agadjanian A et al. (2019): Counting the pinocchios: The effect of summary fact-checking data on perceived accuracy and favorability of politicians. Research & Politics. DOI: 10.1177/20531680198703.
[18] Ecker UKH et al. (2020): The effectiveness of short-format refutational fact-checks. British Journal of Psychology. DOI: 10.1111/bjop.12383.
[19] Martel C et al. (2023): Misinformation warning labels are widely effective: A review of warning effects and their moderating features. Current Opinion in Psychology. DOI: 10.1016/j.copsyc.2023.101710.
[20] Nyhan B et al. (2016): Estimating fact-checking’s effects. American Press Institute.
[21] Walter N et al. (2020): Evaluating the impact of attempts to correct health misinformation on social media: A meta-analysis. Health Communication. DOI: 10.1080/10410236.2020.1794553.
[22] Clayton K et al. (2020): Real solutions for fake news? Measuring the effectiveness of general warnings and fact-check tags in reducing belief in false stories on social media. Political Behavior. DOI: 10.1007/s11109-019-09533-0.
[23] Koch TK et al. (2023): Effects of fact-checking warning labels and social endorsement cues on climate change fake news credibility and engagement on social media. Journal of Applied Social Psychology. DOI: 10.1111/jasp.12959.
[24] Oeldorf-Hirsch A et al. (2020): The ineffectiveness of fact-checking labels on news memes and articles. Mass Communication and Society. DOI: 10.1080/15205436.2020.1733613.
[25] Humprecht E (2019): How do they debunk “fake news”? A cross-national comparison of transparency in fact checks. Digital Journalism. DOI: 10.1080/21670811.2019.1691031.
[26] Freiling I (2019): Detecting misinformation in online social networks: A think-aloud study on user strategies. Studies in Communication and Media. DOI: 10.5771/2192-4007-2019-4-471.
[27] Pennycook G et al. (2019): Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1806781116.
[28] Tandoc EC et al. (2020): Diffusion of disinformation: How social media users respond to fake news and why. Journalism. DOI: 10.1177/1464884919868325.
[29] Dunning D (2012): Chapter five - The Dunning–Kruger Effect: On Being Ignorant of One's Own Ignorance. Advances in Experimental Social Psychology. DOI: 10.1016/B978-0-12-385522-0.00005-6.
[30] Drolsbach CP et al. (2024): Community notes increase trust in fact-checking on social media. PNAS Nexus. DOI: 10.1093/pnasnexus/pgae217.
[31] Pröllochs N (2022): Community-Based Fact-Checking on Twitter’s Birdwatch Platform. Proceedings of the International AAAI Conference on Web and Social Media. DOI: 10.1609/icwsm.v16i1.19335.
[32] Pilarski M etal. (2024): Community Notes vs. Snoping: How the Crowd Selects Fact-Checking Targets on Social Media. Proceedings of the International AAAI Conference on Web and Social Media. DOI: 10.1609/icwsm.v18i1.31387.
[33] Graves L et al. (2016): Why do journalists fact-check? The role of demand and supply-side factors. White Paper.
[34] Hameleers M et al. (2021): Civilized truths, hateful lies? Incivility and hate speech in false information – evidence from fact-checked statements in the US. Information, Communication & Society. DOI: 10.1080/1369118X.2021.1874038.
[35] Pennycook G et al. (2021): Shifting attention to accuracy can reduce misinformation online. Nature. DOI: 10.1038/s41586-021-03344-2.
[36] Bernhard L et al. (2024): Lauter Hass – leiser Rückzug: Wie Hass im Netz den demokratischen Diskurs bedroht. Ergebnisse einer repräsentativen Befragung. Kompetenznetzwerk gegen Hass im Netz.
Literaturstellen, die vom SMC zitiert wurden
[I] Kaplan J (07.01.2025): More Speech and Fewer Mistakes. Meta Platforms.
[II] X (2025): Note ranking algorithm. X Corp.
[III] X (2025): Anleitung für Kollektive Anmerkungen. X Corp.
[IV] Meta (09.01.2025): Hateful Conduct. Community-Richtlinie. Meta Platforms.
Prof. Dr. Matthias Kettemann
Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich
Angaben zu möglichen Interessenkonflikten
„Keine Interessenkonflikte.“
Prof. Dr. Indra Spiecker genannt Döhmann
Leiterin des Lehrstuhls für das Recht der Digitalisierung und des Instituts für Digitalisierung, Universität zu Köln
Angaben zu möglichen Interessenkonflikten
„Keine Interessenkonflikte.“
Prof. Dr. Curd Knüpfer
Associate Professor für politische Kommunikation, Digital Democracy Centre, Süddänische Universität, Odense, Dänemark
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Fabian Prochazka
Juniorprofessor für Kommunikationswissenschaft mit Schwerpunkt interpersonale Kommunikation im Kontext der Digitalisierung, Universität Erfurt
Angaben zu möglichen Interessenkonflikten
„Es gibt keine Interessenkonflikte.“
Prof. Dr. Christian Hoffmann
Professor für Kommunikationsmanagement und politische Kommunikation, Universität Leipzig
Angaben zu möglichen Interessenkonflikten
„Interessenkonflikte bestehen nicht.“
Prof. Dr. Philipp Hacker
Professor für Recht und Ethik der digitalen Gesellschaft, Europa-Universität Viadrina Frankfurt (Oder)
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Christian Katzenbach
Professor für Kommunikations- und Medienwissenschaft, und Leiter des Labs „Platform Governance, Media, and Technology“ am Zentrum für Medien-, Kommunikations- und Informationsforschung (ZeMKI), Universität Bremen
Angaben zu möglichen Interessenkonflikten
„Christian Katzenbach ist Mitglied des wissenschaftlichen Beirats ‚Actor and Behavioral Policies‘ bei Meta. Er erhält dafür ein jährliches Honorar von $6.000.“
Prof. Dr. Lena Frischlich
außerordentliche Professorin am Digital Democracy Centre, Süddänische Universität, Odense, Dänemark
Angaben zu möglichen Interessenkonflikten
„Lena Frischlich hatte Forschungszugang zu Metas Crowdtangle Tool und war Beta-Testerin für Metas Content-Library. Sie hat nie finanzielle Unterstützung von Plattformen erhalten.“