Moderator [00:00:00] Hallo liebe Journalistinnen und Journalisten. Herzlich willkommen zu unserem Press Briefing des Science Media Center zum Thema Soziale Medien, deren Auswirkungen auch auf Meinungsbildung und wie sie aktuell reguliert werden. Ich bin Bastian Zimmermann, Redakteur beim Science Media Center und freue mich, die Expertin und die beiden Experten begrüßen zu dürfen. Erst einmal herzlich willkommen an Sie, schön, dass Sie heute da sind. Ich stelle Sie gleich noch etwas genauer vor. Heute soll es ja um soziale Medien, Online-Plattformen gehen und vor allem um die Frage: Welchen Einfluss haben soziale Medien auf die Meinungsbildung. Da spielt natürlich auch das Thema Desinformation mit rein und wie sieht eigentlich die aktuelle Regulierung aus. Da gibt es unterschiedlichste Themen, die gerade in den Medien und in der Gesellschaft diskutiert werden: Die Sperrung von X in den USA, generell Debatten über Musks Rolle und wie er User auf X beeinflusst. Die Verhaftung des Telegram-Gründers Pawel Durow in Frankreich und die Frage auch, inwiefern Besitzer von Plattformen eigentlich haftbar gemacht werden können. Dann gibt es auch neue Regulierungsansätze in den USA, in Australien, die alle soziale Medien regulieren wollen. Wir haben deswegen das Thema des Press Briefings bewusst breit gehalten, damit Sie einfach die Fragen stellen können, die Sie zurzeit interessieren. Noch kurz der Hinweis: Stellen Sie bitte die Fragen über das Frage-und-Antwort-Modul unten in Zoom, dann können wir nämlich alle Fragen sehen, dann können wir diese gegebenenfalls auch bündeln. Da können Sie dann auch mit einem Daumen hoch abstimmen, wenn Sie eine Frage für besonders interessant halten. Also bitte die Fragefunktion wählen. Zu unseren Expertinnen und Experten, ich mache das mal alphabetisch. Wir haben hier Professor Dr. Christian Hoffmann. Er ist Professor für Kommunikationsmanagement und Politische Kommunikation an der Universität Leipzig und er befasst sich mit Desinformation aus der kommunikationswissenschaftlichen Perspektive. Professor Dr. Matthias Kettemann ist Programmleiter im Forschungsprogramm Regelstrukturen und Regelbildung in digitalen Kommunikationsräumen am Leibniz-Institut für Medienforschung, dem Hans Bredow Institut in Hamburg. Und er ist Jurist und befasst sich viel mit Digitalgesetzgebung und insbesondere dem Digital Services Act. Nicole Krämer ist Leiterin des Fachgebietes Sozialpsychologie, Medien und Kommunikation der Universität Duisburg-Essen und Medienpsychologin, die sich unter anderem auch mit dem Thema Desinformation befasst. Ich beginne mit Eingangsfragen an Sie. Frau Krämer, wie funktioniert denn eigentlich Meinungsbildung auf den sozialen Medien?
Nicole Krämer [00:02:39] Das ist eine sehr, sehr breite Frage und es ist sehr komplex, die zu beantworten. Ich versuche es mal in drei Schritten und erst mal vergleichsweise kurz. Details können wir ja später in den Fragen noch klären. Generell können wir bei psychologischen Prozessen der Meinungsbildung auf sozialen Medien davon ausgehen, dass generell von der Bevölkerung her ein großes Interesse besteht, richtige Informationen zu finden. Es ist in allen Umfragen, die dazu gemacht wurden, ein klares Bild, dass Menschen Sorge haben, Desinformationen aufzusitzen und dass sie motiviert sind, sich richtig zu informieren. Natürlich umso stärker, je wichtiger die Antwort auf die Frage, nach der sie suchen, für das eigene Leben ist. Man will sich richtig informieren. Das heißt, man sucht auch im Großen und Ganzen gezielt nach Hinweisreizen, die einem sagen können: Kann ich das glauben oder kann ich das nicht glauben und darin sind Menschen erstaunlicherweise dann doch relativ gut. Wir haben Studien, die schon ein paar Jahre älter sind, wo wir gesehen haben: Insbesondere die Personen, für die das Thema wichtig ist – da hatten wir beispielhaft Eltern, die sich darüber informieren wollen, wie viel Stunden Medienkonsum denn wohl für die eigenen Kinder gut oder nicht so gut sind – geschickt darin, im Umgang damit Informationen zu suchen, die ihnen wirklich weiterhelfen, das heißt die a) glaubwürdig sind und b) – das hatte uns überrascht – die auch zweiseitig sind. Also man sucht, wenn man wirklich ein Interesse an einem Thema hat, gar nicht nach der einen polemischen Botschaft, nach dem Motto, nur so kann es sein, sondern man will sich auch zweiseitig informieren, man sucht dann eher die komplexe Information. Das ist erst mal die gute Nachricht. Eine andere Möglichkeit, und da werden wir sicherlich auch gleich in den Fragen noch weiter darauf eingehen, woran man sich halten kann, sind die Personen, die die Nachrichten übermitteln. Da spielt die Expertise eine ganz große Rolle. Das ist aus meiner Sicht zumindest wieder eine gute Nachricht, dass gezielt danach gesucht wird, wer ist ein Experte für das Thema, wem kann ich abnehmen, dass er oder sie dazu eine gute Meinung hat. Auf der anderen Seite spielen aber auch Dinge wie die Attraktivität des Senders eine Rolle oder wie gerne man diese Personen aus welchen Gründen auch immer mag. Das sind alles Aspekte, wo ich sagen würde: Eigentlich sollte man doch Hoffnung haben für die Zukunft. Selbst wenn es Falschinformationen en masse in den sozialen Medien gibt, gibt es gute Strategien, diese zu vermeiden und Menschen wenden die auch an. Auf der anderen Seite haben wir psychologische Mechanismen, die selective exposure genannt werden, also dass man selektiv nach Informationen sucht, die – mal umgangssprachlich gesagt – einem in den Kram passen. Wir sehen sehr deutlich die Vorgehensweise, dass man die Dinge, von denen man ohnehin schon glaubt, dass sie richtig sind, stärker aufsucht und diese dann stärker auch in die eigene Meinung einbezogen werden. Das führt dann gegebenenfalls dazu, dass man sich immer tiefer hineingräbt in – ich will nicht sagen in jedem Fall Verschwörungstheorien, aber in Informationen, die nicht stimmen. Und des Weiteren, selbst wenn dieser Aspekt etwas außen vorgelassen wird, ist es leider auch so und das ist etwas, wovor wir als Psychologinnen auch immer warnen: Wenn Falschinformationen vorhanden sind, selbst wenn Leute motiviert sind, sie zu vermeiden, sie aber vielleicht nicht auf den ersten Blick als falsch erkennen, kann das dazu führen, dass sie doch stark im Hirn verankert werden, weil sie plausibel gemacht werden. Man zuckt vielleicht zuerst kurz, denkt: Kann ja nicht sein, aber dann passt es doch vielleicht zu irgendeinem kleinen Stückchen, was man im Gehirn schon abgespeichert hat, ja, doch, es könnte möglich sein. Und wenn man das einmal so plausibel verbaut hat, kommt es dann zum Continued Information Effect, dass man selbst, wenn man hinterher aufgeklärt wird, das war falsch, es nicht mehr umbauen kann. Selbst wenn man die neue, richtige Information glaubt und zwei Wochen später wieder gefragt wird, behält man nur die ursprüngliche, falsche Information. Noch ein anderer, bedrohlicher Mechanismus kommt hinzu: Je häufiger man eine falsche Nachricht hört oder liest oder sieht, umso eher bleibt sie im Gedächtnis. Und solche Aspekte führen dann dazu, dass trotz der Tatsache, dass Menschen falsche Informationen vermeiden wollen, sich diese manchmal verankern und dann man eben nicht mehr davon wegkommt. Ich bin gespannt auf die Diskussion aus rechtlicher Sicht. Wir arbeiten in vielen Projekten mit Kolleginnen aus dem Bereich Recht zusammen, die immer stark für den Schutz der Meinungsfreiheit plädieren, wo ich jedes Mal denke, auch aus psychologischer Sicht müssten wir eigentlich viel, viel früher dahin kommen zu sagen: Nein, diese Info darf einfach nicht weiter angezeigt werden. Es ist so schädlich und geht nicht mehr aus den Köpfen raus. Aber da werden wir dann gleich in der Diskussion sehen, wie wir da weiterkommen.
Moderator [00:08:29] Die Frage kommt auch gleich an Herrn Kettemann. Vielen Dank Frau Krämer für das Eingangsstatement. Herr Hoffmann, an Sie die Frage, welche Rolle soziale Medien bei der Verbreitung von Desinformation eigentlich spielen?
Christian Hoffmann [00:08:44] Unsere Aufmerksamkeit ist sehr stark auf die sozialen Medien gerichtet, weil das das neuere Phänomen ist. Es ist aber trotzdem interessant, die etablierten journalistischen Medien den sozialen Medien mal gegenüberzustellen, weil es zweifellos so ist, dass die etablierten journalistischen Medien letztlich eine höhere Reichweite haben, eine höhere Glaubwürdigkeit haben. Insofern ist das Wirkpotenzial einer Miss- und Desinformation, die durch etablierte journalistischen Medien verbreitet wird, natürlich höher als eine Miss- oder Desinformation, die auf irgendeinem Facebook- oder Twitteraccount geteilt wird. Man kann sich manchmal fragen, ob das so gerechtfertigt ist, dass wir so einen starken Fokus auf die Social Media haben. Neben der Neuigkeit ist sicherlich ein weiterer Grund, dass die Social Media sehr niederschwellig sind. Es ist sehr einfach, dort Accounts aufzumachen, Content zu teilen. Es ist nicht ganz so einfach, dem Ganzen dann Reichweite und Glaubwürdigkeit zu verleihen. Wir lesen ja jetzt gerade in den letzten Tagen wieder von den Aktivitäten russischer Agenturen und so weiter, es kam ja auch gerade eine Frage dazu im Chat. Da liest man dann häufig, dass das über Fake-Accounts und Troll-Accounts und so weiter und Bots in Social Media geteilt wird. Da zeigt die Forschung bisher, dass dieser Ansatz nicht furchtbar erfolgversprechend ist, weil die Reichweite von solchen Fake-Accounts doch sehr begrenzt ist. Im Grunde brauchen solche Kampagnen dann schon so etwas wie entweder prominente Multiplikatoren, die so einen Inhalt aufgreifen und ihm eine deutlich höhere Reichweite dadurch geben oder tatsächlich Journalisten, die darauf hereinfallen und das Ganze dann in etablierten journalistischen Medien wiedergeben und dann dadurch diesem Inhalt eine sehr große Reichweite und auch eine höhere Glaubwürdigkeit geben. Alleine in den Social Media zu posten zumal mit irgendwelchen Troll-Accounts ist keine sehr durchschlagende Erfolgsstrategie.
Moderator [00:10:45] Vielen Dank. Sie sind ja schon auf die erste Frage eingegangen, da kommen wir gleich noch mal kurz drauf, aber ich gehe erst einmal mit den Eingangsstatements durch. An Sie Herr Kettemann die Frage, die Frau Krämer eben auch schon aufgeworfen hat: Wo ist denn nach aktueller Rechtslage in sozialen Medien die Grenze zwischen freier Meinungsäußerung und strafbaren Aussagen und ist das immer so klar oder ist das auch eine Auslegungssache?
Matthias Kettemann [00:11:10] Zunächst einmal befinden wir uns und man sollte nicht aufhören, das zu sagen, im Internet nicht in einem rechtsfreien Raum. Das Gleiche, was offline gilt, gilt auch online. Deswegen sind separate staatliche Regeln für Online-Inhalte, für Online-Meinungen, für Online-Meinungsäußerungen immer sehr problematisch, weil man immer fragen muss: Na ja, wenn das online verboten ist, warum ist es dann auch nicht offline verboten? Wir haben eine besondere Situation auf den Online-Kommunikationsräumen, das sind nämlich zunächst einmal private Räume. Genauso wie man beim Rewe zum Beispiel an der Fleischtheke nicht für eine vegetarische Lebensweise demonstrieren kann, weil man da im Rahmen eines privaten Raumes ist, das Hausrecht, des Besitzers, der Besitzerin gilt und der einen rauswerfen darf im Rahmen der geltenden Gesetze. Dasselbe gilt auch online. Online-Kommunikationsräume werden reguliert einerseits durch das internationale Recht und europäisches Recht, durch staatliches Recht und eben zu einem großen Teil durch die privaten internen Regeln und Empfehlungsalgorithmen der jeweiligen Plattformen. Sehr viele Inhalte, die von den Plattformen gelöscht werden, werden aufgrund der internen Regeln gelöscht. Zwischen 95 und 99 Prozent von Inhalten, die tagtäglich gelöscht werden, werden gelöscht, weil die Plattformen das so entscheiden. Da ist natürliche auch sehr viel Spam dabei. Das Recht bietet nur einem Rahmen, innerhalb dessen die Plattformen tätig werden können. Und dieser Rahmen wird immer neu zu verhandeln sein, aber auf Grundlage des Grundgesetzes. Wir sollten in eine Diskussion darüber treten, ob wir neue Regeln für diese neuen Kommunikationswelten brauchen, neue Gesetze brauchen. Aber die Mehrheit der Juristinnen und Juristen würde sagen, dass das Grundgesetz eine gute, solide, zeitgemäße Basis darstellt, wir also keine neuen Regeln für die Meinungsäußerung, für die Meinungsfreiheit im Netz brauchen. Was wir aber brauchen, ist stärkere Überwachung der Plattformen mit Blick auf ihre Praxis. Genau das geschieht jetzt im europäischen Recht durch den neuen Rechtsakt zu digitalen Diensten und zu digitalen Märkten. Der sagt nicht, dass es neue Straftatbestände gibt. Da hat die EU gar keine Kompetenz. Nein, aber die neuen Regeln sagen: Liebe Plattformen, wir müssen genau wissen, was ihr moderiert. Wir müssen wissen, wenn ihr Inhalte moderiert. Es braucht Rechtsschutz und es muss klar sein, dass rechtswidrige Inhalte von den Plattformen verschwinden müssen. Was rechtswidrig ist, bestimmt das staatliche Recht, aber die Art und Weise, wie ihr umgeht mit rechtswidrigen Inhalten, darüber müsst ihr uns etwas erzählen, damit müsst ihr Transparenz walten lassen. Wenn ihr viele rechtswidrige Inhalte habt, müsst ihr, besonders die Großen, Risiko-Assessments abgeben. Ihr müsst sagen, was ihr tut gegen Desinformation, was ihr tut gegen gesundheitsbezogene Fehlinformationen. Das wird dann überwacht und die EU Kommission und die jeweiligen staatlichen Kontrolleure – bei uns ist das die Bundesnetzagentur – untersuchen das dann und schauen, ob gegebenenfalls den Plattformen Vorschläge, Empfehlungen oder sogar Strafen aufgebürdet werden müssen. Das heißt, um zusammenzufassen, das bestehende Recht ist natürlich online anzuwenden, wir brauchen kein neues Recht für die Online-Räume, man muss klar unterscheiden zwischen Rechtswidrigkeit und bloß schwierigen, problematischen Inhalten. Die kann man nicht auf Grundlage des Strafrechts angehen, sondern die muss man einerseits im Rahmen dieser Risiko-Assessments der Plattformen, ihrer internen Pflichten, ihrer Transparenzpflichten und im Rahmen einer gesellschaftlichen Kritik angehen, die ja durchaus Wirkung zeigt. Es hat zwar einige Zeit gedauert, aber sowohl Twitter sieht man ist sehr stark in der Kritik. Da würde keiner davon ausgehen, dass das eine gut gemanagte Plattform ist, und auch Herr Durow, der sich lange Jahre der deutschen Justiz entzogen hat, sieht jetzt auch, dass es keine langfristig sinnvolle Alternative ist, sich nicht mit dem Recht auf einen guten Fuß zu stellen.
Moderator [00:15:50] Ja, vielen Dank, Herr Kettemann. Die erste Frage, die wir hier im Chat bekommen haben, da sind Sie im Eingangsstatement auch kurz darauf eingegangen, Herr Hoffmann. Daher würde ich die jetzt erst mal an Frau Krämer stellen und Sie können dann gerne noch ergänzen. Laut den jüngsten Enthüllungen über die russische Social Design Agency feiert die AfD Wahlerfolge als Ergebnis der eigenen Desinformationskampagnen in Deutschland. Hat die russische Desinformation tatsächlich diese Wirkung hier und kann man diese Wirkung quantifizieren?
Nicole Krämer [00:16:25] Ich kann als Psychologin nichts darüber sagen, was aus Russland getan wird oder nicht und wir machen auch keine entsprechenden Studien. Dazu habe ich schlicht keine Daten, inwiefern diese Propaganda effektvoll ist. Aber vor dem Hintergrund der psychologischen Mechanismen, die ich eben geschildert habe, ist es sehr wahrscheinlich und sehr gut erklärlich, dass es Wirkungen gibt. Denn was man ja beobachten kann und das wird auch nicht nur dieses Jahr, sondern seit Jahren bereits gemacht, es werden soziale Medien geflutet mit Informationen, die prorussisch, pro AfD sind und entsprechende Meinungsbildung beinhalten, die ganz offensichtlich in der Bevölkerung verfängt. Da kann man wieder verweisen auf diesen Selective-Exposure-Ansatz, sicherlich besonders erfolgreich bei denen, die schon eine entsprechende Voreinstellung haben. Das mag vielleicht dann auch ein Erklärungsansatz sein, warum das in unterschiedlichen Regionen Deutschlands auch unterschiedlich verfängt und was ich als Mechanismus noch mal aufführen würde, der sicherlich eine Rolle spielt, ist diese Wiederholung, die ich eben nannte. Es wird immer wieder und immer wieder eine ähnliche Falschinformation platziert so lange, bis die Leute sie zum fünften Mal sehen und denken, da ist doch was dran, das habe ich doch schon mal gesehen. Über solche Mechanismen ist da sicherlich ein Erfolg zu verzeichnen.
Moderator [00:18:24] Herr Hoffmann noch dazu.
Christian Hoffmann [00:18:27] Es gibt Studien zu den entsprechenden Kampagnen der Russia Internet Agency hießt die glaube ich (wahrscheinlich ist die Internet Research Agency gemeint; Anm. d. Red.), die 2016 versucht hat, in den Präsidentschaftswahlkampf Trump/Clinton zu intervenieren. Und da muss man sagen, sind die Forschungsergebnisse relativ ernüchternd in dem Sinne, als dass eigentlich keine Wirkungen nachgewiesen werden können. Die Reichweite war letztlich doch wohl überschaubar. Wie Frau Krämer gerade sagte, erreichte dieser Content vor allem eine kleine Minderheit von Personen, die ohnehin schon diese Einstellungen hatte, das führt auch dazu, dass man keine nennenswerten Überzeugungseffekte nachweisen kann. Insofern wäre ich jetzt auch in Hinblick auf diese aktuelle Kampagne skeptisch. Interessant ist, dass wir jetzt beobachten können, nicht nur, dass die AfD ja schon bei den letzten Landtagswahlen in Sachsen und Thüringen eine hohe Zustimmung hatte, jetzt halt doch etwas dazugewonnen hat, aber das sich die Wählermotivation ein Stück weit auch verändert hat, dass das Protestmotiv in der Vergangenheit wichtiger war für die Wahl der AfD und inzwischen doch so etwas wie eine Überzeugungswahl beobachtet werden kann, dass die Wählerinnen und Wähler der AfD tatsächlich das Programm der AfD kennen und unterstützen. Solche fundierteren Wahlentscheidungen sind auch schwieriger zu beeinflussen als spontane Protest-Wahlentscheidungen. Das spricht für mich auch eher dagegen, dass das ein sehr nennenswerter Faktor gewesen wäre.
Matthias Kettemann [00:19:58] Wäre noch zu ergänzen: Meinungsbildungsprozesse sind komplex. Jede monokausale Erklärung ist per se schon mal falsch. Wir müssen uns außerdem vor Augen führen, dass die Verbreiter von Desinformation ein ganz großes Interesse daran haben, dass wir Angst haben vor dieser Desinformation. Das Narrativ zu sagen, Russland hätte die deutsche Wahl beeinflusst, ist genau das, was Russland hören möchte, weil da offensichtlich nämlich Macht projiziert wird. Das stimmt nicht, das kann man wissenschaftlich nicht nachweisen. Selbst in Einzelfällen ist es sehr komplex. Meinungsbildungsprozesse zu modellieren und gerade im Internet aufgrund der so stark gestiegenen Informationsreservoirs gibt es praktisch keine Möglichkeit, das im Einzelfall nachzuweisen. Was wir aber sehr wohl sehen, ist, dass gerade die Kombination von algorithmischer Verstärkung bestimmte Inhalte der ständigen Verfügbarkeit von Inhalten und die Dekontextualisierung von Inhalten, dass also nunmehr einzelne Bilder geteilt werden oder kleine, teilweise verfälschte, vage wiedergegebene Zitate, dass das schon dazu führen kann, dass es große Herausforderungen für die Meinungsbildungsprozesse gerade für junge Menschen gibt. Aber da ist es nicht sinnvoll zu sagen, das macht Russland mit uns, sondern es ist sinnvoll zu sagen: Wie können wir sicherstellen, dass junge Leute emanzipiert an Bildungsprozesse in Medien herangehen – und nicht nur junge übrigens. Das betrifft natürlich genauso die Generation 40, 50 plus, die ein bisschen vergessen wird, wenn es um Meinungsbildung geht. Es gibt ja keine politische Bildung mehr für die älteren Menschen. Das ist ein wichtigerer Punkt als zu sagen, dass Russland hier die Wahlen beeinflusst.
Moderator [00:21:57] Frau Krämer, Sie hatten noch eine Ergänzung.
Nicole Krämer [00:21:59] Ich wollte ergänzen, dass ich noch mal betonen wollte, dass es aber natürlich auch viele Menschen gibt, die eine Voreinstellung haben, wo das auf fruchtbaren Boden fällt und eine Beeinflussung eine Rolle spielen kann, dass diese Leute mobilisiert werden. Das ist ja auch das, was jetzt gerade in den USA versucht wird. Diejenigen, die in eine bestimmte Richtung tendieren, gegebenenfalls auch mit Falschinformationen dazu zu bekommen, zu sagen, es ist wichtig, dass ich da hingehe und zum Beispiel Trump wähle. Das kann sicherlich eine Rolle spielen. Ansonsten würde ich in jedem Fall den Satz unterschreiben, dass es nie eine einzelne Ursache ist und ich würde auch nie sagen, diese Dinge haben die Wahl entschieden. Genauso wie sich auch herausgestellt hat, dass der Cambridge-Analytica-Skandal, die damalige angebliche Beeinflussung sogar über auf Persönlichkeitsvariablen zugeschnittenen Nachrichten hätte dazu geführt, dass Trump gewählt wurde, ist sicherlich auch vor dem Hintergrund psychologischer Mechanismen nicht haltbar. Ein ganz kurzer Satz noch zu der vielleicht wirklichen Gefahr, die von Herrn Kettemann eben auch angesprochen wurde. Ich würde das noch ein Stück weitertreiben. Was wirklich eine große Gefahr ist, da haben wir noch keine empirischen Daten zu, versuchen die aber gerade zu erheben: In persönlichen Gesprächen sagen mir gerade junge Menschen, wenn ich dann mal einen Vortrag über Desinformation vor jungen Studierenden halte, mehr und mehr: Wir wissen gar nicht mehr, was wir glauben sollen. Diese Erosion von Vertrauen in jegliche Information ist etwas, was dann am Ende die Demokratie noch viel stärker beeinflusst beziehungsweise dazu führt, dass junge Menschen weniger in Demokratie vertrauen, als das in der Vergangenheit der Fall war. Das halte ich auch für einen sehr, sehr dramatischen Nebeneffekt sowohl der Propaganda in sich als auch des Berichtens über diese Propaganda.
Matthias Kettemann [00:24:15] Und das ist ja übrigens auch nicht nur ein Nebeneffekt, sondern in der Tat sogar eines zentralen Ziele von Desinformationskampagnen, "flooding the field...". Man schaut, was verfängt, aber die Kernmessage ist: Du kannst den Medien nicht vertrauen und vor allem den öffentlich-rechtlichen Medien kannst du nicht vertrauen. Diese Destabilisierung von vertrauensvollen Medien ist genau das, was dann der erste Schritt ist: Zuerst Unsicherheit produzieren und dann versuchen, durch eigene Inhalte diese neuen Kommunikationsräume zu füllen. Vor diesem Hintergrund sind zum Beispiel Maßnahmen der Plattformen, die rechtlich kontrolliert sind, hinsichtlich der stärkeren Verbreitung von Qualitätsinhalten durchaus sinnvoll. Im Rahmen der Umsetzung von europäischen Rechtsakten gibt es solche gemeinsamen besten Praxismodelle und eines dieser Praxismodelle unterstützt Plattformen dabei, qualitätsvolle Inhalte stärker zu kennzeichnen oder stärker zu verbreiten.
Christian Hoffmann [00:25:27] Ich glaube, ein wichtiger Punkt ist auch noch: Es gibt manchmal diese Annahme, dass zum Beispiel Russland eine bestimmte Partei oder einen bestimmten Akteur stärken will, weil diese Partei oder dieser Akteur – Trump oder die AfD – Russland gegenüber relativ freundlich sind. Ich glaube, das ist eine nicht ganz zutreffende Annahme. Es ist häufig das Ziel von Desinformation, einfach Unruhe in ein Land reinzubringen, Streit reinzubringen, Konflikt zu verschärfen und das kann man zum Beispiel tun, indem man mal die eine Partei, mal die andere Partei unterstützt. Wir wissen, dass die Desinformationskampagnen 2015/2016 sich darum auch sehr stark auf das Migrationsthema fokussiert haben, weil das ein Spaltthema war zu der Zeit. Das hat jetzt ein bisschen abgenommen, nach dem, was wir wissen über die Doppelgänger-Kampagne, hat die sich tatsächlich sehr stark auf das Thema Ukrainekrieg fokussiert, was natürlich auch Russland besonders am Herzen liegt im Moment. Das Thema Krieg und Frieden war für AfD-Wähler das viertwichtigste Thema, das war nicht das primäre Thema, das die AfD-Wähler motiviert hat. Das war beim BSW anders. Es wäre vielleicht auch mal ganz interessant zu sehen, inwiefern BSW-Wählerinnen und -Wähler mit russischer Desinformation konfrontiert wurden. Die Wahrscheinlichkeit ist relativ hoch, dass sich diese Wähler stark für dieses Thema interessieren und darum möglicherweise häufiger in Berührung mit solchen Informationsangeboten gekommen sind.
Moderator [00:26:49] Eine Frage habe ich noch an Sie, Frau Krämer. Da erinnere ich mich sogar, dass wir 2022, vor ungefähr zwei Jahren, da auch mal eine Aussendung zu hatten, die ich jetzt natürlich auch in den Chat posten werde schamlos. Aber an Sie erst mal die Frage: Was halten Sie denn von Ansätzen wie beispielsweise von Google propagiert, dass man versucht, Nutzerinnen gegen Desinformation zu impfen, indem man über mögliche Narrative und Desinformationen aufklärt und im vorab warnt?
Nicole Krämer [00:27:15] Ja, das ist tatsächlich ein Thema, an dem wir immer noch arbeiten. Das ist gerade auch in der Literatur sehr stark immer wieder vertreten. Ich würde es nicht mehr Impfung nennen, weil das, was im Moment gemacht wird, nicht dem wirklich psychologischen Mechanismus der Impfung entspricht. Was man im Moment viel macht und wozu es viele Daten gibt, ist das sogenannte Prebunking statt Debunking, was ja, das wird Herr Kettemann vielleicht dann auch noch einmal ergänzen, nicht gemacht werden kann, weil es eben ein Eingriff in die Meinungsfreiheit bedeutet, wenn man sagt: Wir lassen jetzt diese Nachrichten hier verschwinden. Stattdessen wird Prebunking jetzt stark gemacht im Sinne entweder der Tatsache, dass man eben im Vorhinein darüber informiert, hier könnte diese oder jene spezifische Falschinformation kommen. Und unsere Kollegen aus der Kommunikationswissenschaft in Stuttgart und in Köln […], mit denen wir arbeiten, haben sehr schön nachgewiesen, dass eigentlich immer die gleichen Desinformationen kommen. Das heißt, man weiß auch, wenn ein neues Thema kommt, sagen wir jetzt mal Krieg Israel/Palästina, [dann kann man] relativ gut vorhersagen, was für Falschinformationen da kommen werden. Die kann man dann prebunken, indem man vorher die Leute warnt und sagt, hier im Umfeld wird damit zu rechnen sein, dass Ihr dieses oder jenes sehen werdet. Das stimmt aber nicht, weil: Faktencheck, wir haben hier diese oder jene Dinge. Diese sehr spezifische Vorinformation ist als relativ wirkungsvoll nachgewiesen. In unseren eigenen Studien konnten wir sehen, dass je spezifischer das ist, umso besser hat es gewirkt. Meistens wird das Prebunking aber angewendet, und auch dazu gibt es große Studien, die da einigermaßen Erfolge zeigen, [indem] es ganz allgemein gehalten und einfach nur gesagt [wird]: Es ist viel Desinformation im Umlauf. Man erkennt die gemeinhin hieran und daran. Achtet darauf, wenn die Sprache zu affirmativ ist, dann handelt es sich wahrscheinlich eher um Falschinformationen, solche Dinge, die ein bisschen edukativ sind. Aber auch da werden Wirkungen nachgewiesen.
Moderator [00:29:57] Erst einmal vielen Dank für die Ausführungen. Wir haben jetzt auch noch einige Fragen bekommen, deswegen würde ich schnell weitermachen. Herr Hoffmann, an Sie noch die die Frage, was Sie zu dieser Aussage sagen: Da hatte ein Journalist gesagt, dass große Bevölkerungsgruppen jetzt so eng verbunden sind mit unseriösen oder radikalen digitalen Medien oder Kanälen, dass die Annahme nicht mehr zutrifft, dass es ohne die Übernahme durch seriöse Medien keine Verbreitung oder Wirkung gibt. Und als Beispiel, dass der Telegram-Kanal der Freien Sachsen, der rechtsradikal-verschwörerisch sei, sagt der Journalist, eine der größten "Zeitungen" Sachsens ist mit über 100.000 Subscriptions.
Christian Hoffmann [00:30:35] Ja, wenn man sich das Mediennutzungsverhalten der durchschnittlichen Bürgerinnen und Bürger anschaut, dann stellt man erstens fest, dass Nachrichten und politische Informationen ohnehin nur ein relativ kleiner Teil [sind], worauf Menschen [ihre] Aufmerksamkeit richten. Aber dieser kleine Teil wird im Wesentlichen bedient nach wie vor durch seriöse, etablierte Medienangebote. Alternative Medien spielen bei den durchschnittlichen Bürgerinnen und Bürgern wirklich eine ganz, ganz untergeordnete Rolle. Wieder so ähnlich, wie wir es vorher gesagt haben. Es gibt natürlich Minderheiten, das sind oft Personen, die politisch eher am Rand stehen, politisch sehr interessiert sind, relativ stark affektiv polarisiert sind, die suchen dann halt nach alternativen Angeboten und da spielen dann solche Kanäle schon eine größere Rolle. Aber das sind nach wie vor Minderheiten. [Und auch diese Minderheiten informieren sich] weit überwiegend immer noch aus etablierten journalistischen Angeboten.
Moderator [00:31:33] Vielen Dank. Herr Kettemann, eine Frage, die ich an Sie noch habe, ist: Nachdem der Digital Services Act eine gewisse Zeit, die Sie besser wissen als ich, jetzt aktiv ist – was für einen Eindruck haben Sie? Hat das bisher etwas gebracht? Hat das etwas geändert am Diskussionsklima in den sozialen Medien? Was ist Ihr erster Eindruck der Wirkung?
Matthias Kettemann [00:31:54] Man darf neue Gesetze nicht überfordern. Die sind einmal da. Die Plattformen führen die ein, die haben schon über die letzten Jahre, das hat man kommen gesehen, entsprechende interne Maßnahmen durchgeführt. Natürlich ändert das Inkrafttreten eines Gesetzes nichts am Klima der politischen Meinungsbildung in einem Land. Aber wir haben jetzt ein Gesetz an der Hand, das man effektiv einsetzen kann, um die bösen Jungs der Plattformwirtschaft ein bisschen zu ärgern. Das sieht man bei dem Zweikampf von Thierry Breton und Elon Musk. Okay, der Herr Breton ist jetzt nicht mehr Kommissar, aber wir sehen, dass der DSA zum Beispiel sehr nützlich sein kann, um Unternehmen, die nicht ausreichend illegale Inhalte weg aus dem Netz holen, an ihre Pflichten zu erinnern. Und wir sehen auch angesichts der, wenn auch eher im Wettbewerbsrecht, langsam ergehenden großen Urteile gegen Apple, gegen Google, dass hier wirklich die Kommission es schafft, wichtigen Rechtsschutz sicherzustellen. Wir setzen den DSA, also den Rechtsakt zu digitalen Diensten, in der Tat jetzt gerade um. Deutschland baut die Bundesnetzagentur auf als ein effektiver Koordinator. Und ich sehe durchaus der Zukunft mit großem Vertrauen entgegen, dass wir hier zu mehr Rechtsschutz im Online-Raum kommen, wenn auch, wie gesagt, es keine Revolution ist, sondern eher eine Evolution.
Moderator [00:33:34] […] Es geht natürlich bei den sozialen Medien oft um die USA und was da passiert. Wie ist es mit der Handhabe durch den Digital Services Act bei Sachen, die auf die USA zutreffen?
Matthias Kettemann [00:33:47] Da ist der DSA ganz klar: Alles, was von europäischen Nutzerinnen und Nutzern abrufbar ist und wenn die Plattform eine bestimmte Größe hat, fällt sie unter den DSA. Deswegen [fallen] inzwischen auch Shoppingplattformen wie Temu zum Beispiel in bestimmten Bereichen sowohl unter den Rechtsakt zu digitalen Märkten als auch zu digitalen Diensten. Da ist egal, wo die Plattform ursprünglich herkommt, sei es aus Amerika oder aus China. Die haben alle inzwischen europäische Töchter. Und diese europäischen Töchter müssen übrigens, wie wir auch seit Kurzem wissen, auch Steuern zahlen. Da gab es ja inzwischen ein sehr schönes milliardenschweres Urteil gegen Google. Das ist nicht so entscheidend, wo die herkommen. Was wir sehen, ist, dass die USA weiterhin es nicht schaffen, sinnvoll Plattformen zu regulieren. Auf die dürfen wir nicht warten. Denen fällt nichts mehr ein, außer TikTok zum Beispiel zu verbieten, was sie aus Gründen der nationalen Sicherheit machen wollen. Rechtlich gesehen [steht] das ein bisschen auf tönernen Füßen, aber auch nicht ganz so abträglich, wie man meint. Es gibt zum Beispiel in vielen, vielen Ländern herrschende Verbote, dass klassische Medien, TV-Stationen zum Beispiel, von ausländischen Trägern beherrscht werden. Und im Kern sagt das amerikanische TikTok-Verbotsgesetz auch nicht, dass TikTok verboten wird, sondern dass TikTok einen amerikanischen Eigentümer braucht und nicht mehr von einer fremden Macht beherrscht werden sollte.
Moderator [00:35:12] Also kann man damit auch den Social-Media-Giganten in den USA ganz gut beikommen. Herr Hoffmann, eine Frage an Sie, aber sonst gerne auch Ergänzungen: Welche Rolle bei der Verbreitung von Falschinformationen spielen denn die Algorithmen? Wirken Algorithmen tatsächlich "aufheizend", weil die Verbreitung spektakulärer Informationen oder steiler Thesen unterstützt wird? Und machen die Algorithmen die Verbreitung von Fake News leichter? Und dann die Frage: Müssen die reguliert werden?
Christian Hoffmann [00:35:42] Ja, […] ursprünglich hatten wir sicherlich das Phänomen, dass die Algorithmen einfach Reichweite maximieren wollten. Die wollten dafür sorgen, dass die Menschen so lange wie möglich auf der Plattform bleiben, damit man viele Werbeanzeigen zeigen kann. Und es ist nun mal so, dass wir auf emotionale, aktivierende Inhalte stärker reagieren, dass die uns mehr binden, dass wir vielleicht länger dabei bleiben, wenn eben etwas irgendwie aufregend, spannend, traurig, lustig ist und so weiter. Und Desinformation hat häufig den Charakter, dass sie durch entweder Laien oder unprofessioneller Akteure formuliert wird und deswegen gerne eher einen emotionalen und moralisierenden Sprachduktus verwendet, der dem entspricht. Insofern hatten wir sicherlich in den Zehner-Jahren häufig das Phänomen, dass einfach aufgrund der Natur der Formulierung solcher Desinformationen die befördert wurden in der Verbreitung durch Algorithmen. Aber ich glaube nicht, dass man das einfach linear auf heute [übertragen] kann, weil die Plattformen ja auch lernen. Und man muss inzwischen beobachten, dass die Algorithmen auf den unterschiedlichen Plattformen doch recht unterschiedlich moduliert werden. Bei Meta zum Beispiel beobachten wir, dass einfach politische Inhalte generell heruntergerankt werden sollen, weil, einfach gesagt, Meta sich mit diesem ganzen Ärger nicht mehr herumschlagen möchte und deswegen zum Beispiel, wenn etwas als ein politischer Inhalt identifiziert wird, das eine ein bisschen weniger hohe Reichweite bekommt. Und das erschwert natürlich die Verbreitung von Desinformationen zu politischen Themen auch. Wir haben bei TikTok das interessante Phänomen, dass dort auch versucht wird, ganz gezielt die Gewohnheiten der Nutzenden auch mal zu durchbrechen, dass dort auch immer wieder einmal Dinge gezeigt werden, die anders sind. Das klingt vielleicht erst einmal gut, weil dann dadurch Echokammern durchstoßen werden können. Aber wenn Sie natürlich jemand sind, der nur seriöse Inhalte konsumiert, dann kann dieses Durchbrechen Ihrer Gewohnheiten dazu führen, dass Ihnen auch mal zur Abwechslung unseriöse Informationen gezeigt werden. Das kann in die eine oder in die andere Richtung wirken, je nachdem, welche Präferenzen die Nutzenden haben. Inzwischen haben sich die Algorithmen ziemlich ausdifferenziert und man kann das, glaube ich, nicht mehr so ganz allgemein einordnen. Das hängt davon ab, wie der jeweilige Algorithmus funktioniert. Und insofern ist das auch so ein Katz-und-Maus-Spiel zwischen denjenigen, die Desinformation verbreiten und den Plattformbetreibenden. Die Plattformbetreibenden versuchen schon hier und da auf bekannte Muster zu reagieren, zum Beispiel unauthentische Accounts schneller zu erkennen und denen keine Reichweite zu geben. Aber dann reagieren natürlich darauf wieder diejenigen, die versuchen, Desinformation zu verbreiten.
Moderator [00:38:26] Also kann man nicht per se sagen, dass Algorithmen immer zur zusätzlichen Verbreitung von Desinformation beitragen?
Christian Hoffmann [00:38:33] In der Tendenz ist das vermutlich schon noch so, aber ganz allgemein kann man das so nicht sagen.
Moderator [00:38:39] Herr Kettemann noch kurz.
Matthias Kettemann [00:38:41] Jedes Empfehlungssystem auf einer Plattform beruht ja auf automatisierten Systemen, den angesprochenen Algorithmen, und alle Inhalte werden algorithmisch gerankt und verstärkt oder abgeschwächt. Und die Entscheidungen, die man trifft, nach welchen Kriterien, welchen Faktoren dieses Ranking geschieht, die sind genau die Geheimrezepte der Plattformen. Die Coca-Cola-Rezepte von TikTok und Twitter. Und hier ist eben die Frage, wie wir da intervenieren können oder wollen. Jetzt kann der Staat natürlich nicht, aufgrund des Schutzes der Meinungsäußerungsfreiheit und der Meinungsbildungsprozesse, […] den Plattformen genau vorschreiben, was sie zu tun haben. Es wäre verfassungsrechtlich untragbar, wenn der Staat zum Beispiel sagt, nur liberale Inhalte oder nur konservative Inhalte sollten verstärkt werden. Das ginge nicht. Das kann nicht mittels Gesetz funktionieren. Aber was geschieht oder was haben wir? Daher zur Präzisierung Ihrer Frage: Wir haben natürlich Algorithmenregulierung. Der Digital Services Act, der Rechtsakt zu digitalen Diensten, sagt, dass die großen Plattformen offenlegen müssen, wie sie mit Inhalten umgehen. Dazu gehört auch, bekanntzugeben, wie die zentralen Logiken der entsprechenden Empfehlungen sind. Die Plattform müssen bekanntgeben, was für Inhalte sie stärker pushen, welche sie verstecken. Und sie müssen vor allem, wenn sie große Plattformen sind, mit Blick auf die demokratische Willensbildung und gesundheitsbezogene Informationen diese angesprochenen Risikobewertungen abgeben. Sie müssen also eine Art Selbstbespiegelung machen und sagen: Meine Algorithmen und meine Regeln und meine Userinnen und User und die Inhalte, die sie haben, wie wirken die sich zusammen aus auf die demokratische Willensbildung in dem Land, in dem ich jeweils tätig bin? Und dann müssen sie Risikominderungsmaßnahmen durchführen, um potenzielle negative Effekte dieses Konvoluts abzumildern. Als Beispiel, denkt man an Corona: Wenn Plattformen jetzt drauf kommen, dass sie zum Beispiel überhaupt keine Regeln haben gegen die Verbreitung von gesundheitsbezogener Desinformation, wäre das ganz offensichtlich ein Verstoß gegen ihre Verpflichtung, gegen die Verbreitung von gesundheitsbezogener Desinformationen einzutreten. Dann würden sie bestraft werden. Weil sie das nicht wollen, müssen sie natürlich interne Regeln umsetzen und ihre Algorithmen entsprechend neu modellieren, um sicherzustellen, dass wir hier keine Verbreitung von gesundheitsbezogener Desinformation haben.
Moderator [00:41:17] Gerade durch den Digital Services Act ist da ja noch einige Bewegung reingekommen in den letzten Jahren. Jetzt wurde eben eine Frage im Chat gestellt an Herrn Hoffmann, aber ich stelle sie jetzt erst einmal an Sie, Frau Krämer, die ich auch sehr interessant fand und die ich mir auch selber aufgeschrieben hatte. Welche Rolle spielen denn eigentlich Meinungsführer wie zum Beispiel Elon Musk, die ihre Gedanken regelmäßig mit sehr vielen Followern teilen und auch Followern, die diesen Leuten ja vertrauen oder einen Vertrauensvorschuss entgegenbringen? Welche Rolle spielen diese Leute für die Meinungsbildung?
Nicole Krämer [00:41:46] Ich habe keine konkreten Zahlen zu Elon Musk oder sonst einem großen Meinungsführer. Das vielleicht auch wieder vorweggeschickt, dass sich meine Antwort jetzt eher auf die Mechanismen und nicht auf ganz konkrete Daten zum Beispiel zu einer Person wie Elon Musk bezieht. Ich hatte eben schon gesagt, dass der Sender eine große Rolle spielt. Das sehen wir immer wieder in unseren Studien, wenn es darum geht: Wonach beurteilen Leute die Glaubwürdigkeit? Wonach beurteilen Leute, ob sie das in ihre Meinungsbildung aufnehmen sollten, was gesagt wird? Die Quelle spielt eine sehr, sehr zentrale Rolle. Das ist, psychologisch gesprochen, fast wie eine Heuristik, dass man teilweise unbesehen die Argumente dann nicht mehr stark prüft, weil diese Heuristik – das ist ein Sender, dem ich vertraue – durchschlagend ist. Das konnten wir auch empirisch zeigen. Inwieweit Elon Musk jetzt als Person so jemand ist, weiß ich nicht. Ich kenne im Umfeld nur Leute, die jedes Mal sagen: Oh Gott, Elon Musk. Aber es mag Leute geben, die ihn als so eine Figur empfinden. Tech-Millionär, der richtig was auf die Beine gestellt hat, dem sollten wir vertrauen und folgen. Aber prinzipiell ist die Attraktivität des Senders etwas, das eine große Rolle spielt. Und durch Attraktivität, durch diese Sympathie, die demjenigen entgegengebracht wird, wird eben häufig auch auf die Kompetenz geschlossen und eben eine Glaubwürdigkeit dann dadurch zugeschrieben, die dazu führen kann, dass solche sehr, sehr sichtbaren Personen dann eben auch die Meinung stärker beeinflussen können. Da spielen natürlich, auch das ist dann wiederum komplex, nicht nur diese eigenen Vorlieben eine Rolle, sondern auch wieder das, was wir eben genannt und besprochen haben, dass da natürlich eine größere Reichweite mit einhergeht. Das heißt, es ist nicht alleine die Person per se, sondern [es sind] natürlich die Umgebungsvariablen. In dem Fall, dass die Plattform Elon Musk gehört, was natürlich dann auch wieder dafür sorgt, dass es einfach bei jedem in den Feed gespült wird. Diese Kombination von Faktoren mag dann eine Rolle dabei spielen. Und aus psychologischer Sicht, wie gesagt, ja, gibt es auch Mechanismen, die dafür sorgen können, dass solche Personen einflussreicher werden, als wenn dieselbe Nachricht von einer beliebigen anderen Person [käme].
Moderator [00:44:36] Ja, Herr Hoffmann, noch kurz dazu, auch gerne mit dem Bezug dann auf die Desinformation direkt.
Christian Hoffmann [00:44:42] Was mir beim Phänomen Elon Musk noch wichtig erscheint, ist, dass die politischen Präferenzen von Bürgerinnen und Bürgern relativ stabil sind. Politische Lager sind relativ träge Phänomene, und wie Frau Krämer ja auch schon sagte, wirkt ein Multiplikator auf mich dann stärker, wenn ich den schätze, wenn ich den mag, wenn ich den respektiere und so weiter. Wenn ich jetzt plötzlich beobachte, dass ein Elon Musk Donald Trump unterstützt, was er ja ganz offen tut, dann würde ich sagen, ist die Wahrscheinlichkeit höher, dass ein Demokrat Elon Musk weniger mag – höher, als dass ein Demokrat von Elon Musk beeinflusst wird. Also das heißt, die politische Verankerung der Person ist wahrscheinlich stabiler als die Beziehung, die diese Person zu Elon Musk hat. Und ich glaube, das darf man auch nicht unterschätzen. Elon Musk hat, glaube ich, einfach seine Glaubwürdigkeit [bei] der politischen Linken schlicht zerstört durch seine Meinungsäußerungen und seine klaren politischen Verortungen, und seine Glaubwürdigkeit auf der politischen Rechten vielleicht erhöht. Insofern hat er jetzt vielleicht eine höhere Resonanz auf der politischen Rechten, aber dort unterstützt er bereits vorhandene Einstellungen. Was tatsächlich noch ein wichtiges Element ist bei solchen prominenten Multiplikatoren wie Musk, ist, dass die eine Schnittstelle zum Journalismus darstellen. Das heißt, wenn Elon Musk eine Misinformation aufgreift und verbreitet, dann ist die Wahrscheinlichkeit gegeben, dass Journalistinnen und Journalisten über das Phänomen Elon Musk und sein Verhalten berichten und dadurch natürlich dann indirekt auch diesen Inhalten wieder eine größere Plattform, eine größere Reichweite geben können. Das ist häufig so eine Scharnierfunktion, die reichweitenstarke Influencer auf Social Media haben, dass sie den Sprung in die journalistische Berichterstattung erleichtern.
Moderator [00:46:28] Und natürlich, selbst wenn Elon Musk tendenziell von den Prozentzahlen sehr wenige der Leute überzeugt, die das jetzt sehen, erreicht er natürlich sehr viele Leute, weswegen vielleicht auch in absoluten Zahlen geringe Prozentzahlen schon eine signifikante Anzahl von Leuten ausmachen könnten, oder?
Christian Hoffmann [00:46:48] Wie gesagt, ich glaube, dass die Reichweite von Musk allein, auch wenn er natürlich eine hohe [Reichweite] hat auf seiner Plattform, immer noch begrenzt ist. Erst in dem Moment, in dem die Tagesschau und die New York Times und so weiter beginnen, Agenda-Setting zu betreiben und sagen, Elon Musk ist ein seltsamer Mensch und schaut mal, was der wieder Seltsames gesagt hat und so weiter, dann kommen wir wirklich in einen Bereich, wo dieser Inhalt, wo diese Nachricht eine substanzielle Reichweite bekommt und dadurch natürlich auch die Wahrscheinlichkeit steigt, dass auch so etwas wie Überzeugungseffekte irgendwo passieren könnten.
Matthias Kettemann [00:47:19] Wir sollten nämlich nicht außer Acht lassen: Die Medien sind teilweise selbst schuld an dem Phänomen, das sie dann später beklagen. Wenn Musk auf Twitter irgendetwas Blödes schreibt wie vor Kurzem, warum eigentlich niemand darüber nachgedacht hat, die demokratischen Kandidaten umzubringen. Auf Twitter lesen das ein paar Leute, aber doch auch nicht so viele. Twitter ist inzwischen zu einem Fringe-Netzwerk geworden. Die richtige große Resonanz kriegt man erst, in dem man darüber berichtet. Und amerikanische Medien wie die großen – CNN, NBC, Fox – machen das den ganzen Tag, und damit geben sie ihm natürlich mehr Macht, als er eigentlich hätte und eigentlich haben sollte. Musk und Trump sind beides sehr ähnliche Phänomene. Beide haben einen unbändigen Glauben an sich selbst, dass sie die Welt mit ihren Ideen unterhalten sollten und haben Angst davor, kurz einmal nicht beachtet zu werden. Hier sehen wir, dass das Recht Schwierigkeiten hat, dem beizukommen, obwohl Musk genau das macht, wovor eigentlich die Republikaner die ganze Zeit gewarnt haben. Die haben immer gesagt, es kann doch nicht sein, dass diese liberalen kalifornischen Eliten unsere Plattformen alle beherrschen. Da gab es Hearings um Hearings, und da hieß es immer: Diese liberalen Eliten, die beherrschen die Plattformen und oktroyieren ihren Willen auf. Und jetzt haben wir ein Beispiel dafür, wie ein Nichtliberaler, aber dennoch ein Teil dieser Elite, wirklich eine Plattform nach seinem Willen formt und seine Inhalte pusht und allen quasi sich selbst vorsetzt. Und das ist jetzt plötzlich kein Problem mehr, weil es zufälligerweise pro-Trump ist. Aber so etwas könnte es in der Form in Europa nicht geben, weil die Regeln, die wir haben, sehr klar ihm Grenzen aufzeigen. Und er hat sich schon so oft hinweggesetzt über den DSA, es laufen viele Verfahren gegen ihn. Wir sehen das, dass die aktuelle Rechtslage sehr gut mit den aktuellen Problemen umgehen kann und dass wir die gesellschaftlichen Diskurse noch ein bisschen nachschärfen müssen.
Moderator [00:49:33] Aber das ist schon einmal eine gute Bestätigung, dass das Rechtssystem theoretisch funktioniert und jetzt gerade in Bewegung gesetzt wird. Wir haben noch drei Fragen, die wir vielleicht schaffen, wenn wir ein bisschen überziehen. Muss einer von ihnen pünktlich zu einem neuen Termin? Dann würde ich die Frage an Sie jetzt schnell vorziehen. Sonst können wir vielleicht gucken, ob wir noch durchkommen. Ich würde ich Sie bitten, kurz darauf einzugehen, da die Zeit jetzt knapp wird. Die erste Frage ist an Herrn Kettemann gerichtet, aber ich glaube, ehrlich gesagt, nur weil Sie Österreicher sind, sonst gerne in die Runde. In Österreich ist ja gerade Hoch-Wahlkampf. Was sind Ihre aktuellen Beobachtungen hinsichtlich Social Media und etwaigen Desinformationskampagnen, die dort laufen? Und spielen Sie da im Vergleich vielleicht auch zu den kürzlich abgehaltenen Regionalwahlen in Deutschland eine Rolle?
Matthias Kettemann [00:50:17] Ich würde sagen, dass die Temperatur in Österreich, was Desinformationen aus sozialen Medien betrifft, nicht besonders hoch ist. Österreich ist einfach ein kleinerer Markt, der ist nicht so ein attraktives Ziel von Desinformationskampagnen wie Deutschland. Dies gesagt: Natürlich weiß ich [um die] Verquickungen zwischen russischen Geheimdiensten und österreichischer Politik und Medienlandschaft. Das heißt, klar, gibt es da Aktivitäten, aber ich würde jetzt nicht sagen, dass wir hier besonders viele Beispiele haben für gut gemachte und effektive Desinformationskampagnen.
Moderator [00:50:53] Frau Krämer, Herr Hoffmann, ergänzen Sie gerne, wenn sie da etwas beobachtet haben. Ansonsten würde ich zur nächsten Frage kommen, die geht an Sie, Frau Krämer. Sie sagten eben, der Cambridge-Analytica-Skandal hätte keinen messbaren Einfluss auf die Wahl Trumps gehabt. Würden Sie das auch für den Brexit sagen?
Nicole Krämer [00:51:10] Die Aussage bezog sich darauf, dass dieser Mechanismus, der da angeblich angewandt wurde, psychologisch überhaupt nicht nachweisbar ist. Cambridge-Analytica-Skandal bezog sich ja darauf, dass über Facebook Daten zur Persönlichkeit der Nutzerinnen und Nutzer abgegriffen wurden. Das kann man, das ist auch psychologisch gezeigt worden in Studien, dass man aus Likes und dem Verhalten, was man auf sozialen Medien zeigt, eine Zuordnung zu gewissen Persönlichkeitseigenschaften machen kann. So weit, so gut. Cambridge Analytica behauptet jetzt aber, dass Nachrichten dann passgenau an die Leute geschickt wurden, um nach nachgewiesener Persönlichkeitseigenschaft dann eine Nachricht so zu gestalten, dass sie überzeugend ist. Da hat Herr Hoffmann eben schon sehr richtig gesagt: Man kann nicht beliebig jede Person drehen, nur weil man eine Nachricht geschickt formuliert. Dann sähe unsere Welt noch sehr viel anders aus, als sie aussieht. Diesen Mechanismus, den kann man so nicht nachweisen, weil es völlig unklar ist, durch welche Art von Nachricht eine Person, die eine bestimmte Persönlichkeitseigenschaft hat, denn jetzt wirklich komplett gedreht wird. Dass sie eben vorher Trump nicht unterstützt hat und nach dem Lesen dieser Nachricht Trump unterstützt, nur weil sie geschickt formuliert ist. So wurde Cambridge Analytica verkauft, dieser Mechanismus, und dafür gibt es keinen Nachweis. Wir haben eigene Studien gemacht. Es gibt ein paar Studien aus dem Bereich Advertisement, also Commercial Ads, wo man zeigen kann, Personen mit einer höheren Extraversion sprechen etwas besser an, wenn die Werbung etwas bunter, lauter, aufregender ist. Aber es gibt keine Grundlage anzunehmen, dass Cambridge Analytica solche passgenauen Nachrichten machen konnte. Was man natürlich weiß, und das ist aber auch schon 2008 gemacht worden: Wenn man weiß, die Leute haben eine gewisse Voreinstellung und das kann man natürlich auch an Facebook-Daten ablesen – ist derjenige eher Demokrat oder eher Republikaner –, dann entsprechende Nachrichten zu senden. Aber das war nichts Neues, was zu Trump-Zeiten gemacht wurde. Das hat Obama auch schon genutzt, und das macht die Deutsche Post seit 20 Jahren – nicht mit Rebublikanern, aber passgenau je nach Adresse die Werbung zuschicken zu lassen. Das ist nichts Neues.
Moderator [00:53:51] Okay, vielen Dank. Wir haben noch eine Frage, die sehr gut als Abschlussfrage fungiert. Ich stell sie erst einmal an Sie, Herr Hoffmann, aber ansonsten gerne Ergänzungen. Der Versuch einer Zusammenfassung: Social Media wirkt primär nicht über die Reichweite, sondern dient vor allem als das Druckmittel, mit dem wir, damit ist wohl gemeint die Journalistinnen und Journalisten, dazu gebracht werden, Narrative auch aufzugreifen, auch wenn die Social-Media-Reichweite gar nicht so groß ist. Richtig zusammengefasst? Was den Journalisten zur Frage bringt: Was sollen die Journalistinnen und Journalisten denn tun, sollen die über das Thema schweigen? Sollen sie Fakten checken? Sollen sie neutral berichten und damit Gefahr laufen, die Botschaft zu stärken?
Christian Hoffmann [00:54:28] Ja, ich glaube, dass der inzwischen ja ziemlich breite, reichhaltige Forschungsstand zu Des- und Misinformation in Social Media Licht- und Schattenseiten hat aus Sicht des Journalismus. Weil die Lichtseite ist, dass wir dann schon feststellen, dass der Journalismus nach wie vor einfach unglaublich wichtig ist, dass die Bürgerinnen und Bürger weit überwiegend immer noch aus etablierten journalistischen Medien ihre Nachrichten beziehen und so gesehen schon noch eine Agenda-Setting-Funktion und vielleicht sogar ein Stück weit ja auch immer noch die berühmte Gatekeeping-Funktion im Journalismus existiert, auch wenn sie natürlich geschwächt wurde durch Social Media. Aber die Schattenseite ist wirklich diese sehr kniffelige und auch oft normative Frage: Wie gehen wir als Journalisten mit der Berichterstattung über Desinformation oder solche Kampagnen um? Denn einerseits ist es natürlich richtig und notwendig, über Gefahren aufzuklären, und das interessiert das Publikum ja auch offensichtlich. Andererseits ist eben doch die Gefahr, dass man mit sehr viel Berichterstattung über diese Phänomene, die nach allem, was wir wissen, eine begrenzte Reichweite und eine eher geringe Wirkung haben, Angst erzeugt und Unsicherheit erzeugt. Ich glaube, sowohl Frau Krämer wie Herr Kettemanann haben es schon gesagt, es gibt dann diese sekundären Desinformationseffekte, dass Menschen gar nicht direkt durch Desinformation beeinflusst werden, aber durch den Diskurs über die Gefahr der Desinformation sehr verunsichert werden und Vertrauen verlieren. Und wenn ich da kurz den Bogen vielleicht auch noch mal zu diesen Impfungen, Impfansätzen machen darf: Was nach meiner Beobachtung in der Fachliteratur kritisch diskutiert wird, ist: Führen diese Impfungen möglicherweise manchmal dazu, dass einfach generell alles skeptischer betrachtet wird und alle Inhalte misstrauisch betrachtet werden, was ein Problem wäre, weil eben die Bürgerinnen und Bürger ja überwiegend seriöse Inhalte konsumieren? Insofern ist das tatsächlich ein sehr feiner Grat. Und wenn ich da eine sehr einfache Antwort hätte, dann könnte ich wahrscheinlich viel Geld mit TED-Talks verdienen.
Moderator [00:56:19] Okay, es gibt schon einige Ansätze, die man verfolgen kann, aber final gelöst ist das Problem leider noch nicht. Gut, ja, dann sind wir jetzt auch durch. Erst einmal vielen Dank für Ihre Zeit. Danke Frau Krämer, Herr Hoffmann, Herr Kettemann, dass Sie sich die Zeit genommen haben. Danke auch an die Journalistinnen und Journalisten für die guten Fragen. Sie finden die Videoaufzeichnung des Gesprächs heute auch auf unserer Homepage. Das Transkript wird da voraussichtlich morgen Nachmittag veröffentlicht. Und wenn Sie ein maschinell erstelltes und von uns noch nicht redigiertes Transkript wollen, wenn Sie die Aufzeichnung oder Audiodateien als Datei brauchen, dann finden Sie in der Mail von heute Morgen den Link. Da können Sie dann darauf zugreifen. Ja, dann vielen Dank für das Gespräch. Dann wünsche ich Ihnen noch einen schönen Tag und auf Wiedersehen. Bis zum nächsten Mal.

