Digital Services Act zur Regulierung großer Digitalkonzerne
Richtungsweisendes Gesetz zur Regulierung von Online-Diensten wie Plattformen, Suchmaschinen und Marktplätzen
Pflichten für Betroffene: Illegales löschen, mehr Transparenz, weniger personalisierte Werbung und mehr
Fachleute: Sehr wichtiges Gesetz, aber auch fragwürdige Aspekte. Einschätzungen nur unter Vorbehalt möglich, da der volle Gesetzestext noch nicht vorliegt
Kurz nachdem auch Barack Obama eine strengere Regulierung für große Online-Plattformen gefordert hat [I], hat sich die EU in der Nacht auf den 23. April auf eine vorläufige politische Übereinkunft zum Digital Services Act (DSA) geeinigt (siehe Primärquellen). Der DSA soll die Betreiber der großen Plattformen regulieren und ihnen gewisse Pflichten auferlegen. In dem Gesetz geht es unter anderem darum, wie die Tech-Konzerne mit illegalen Inhalten umgehen, aber auch um Transparenzpflichten und den Umgang mit Desinformation und manipulativen Inhalten. Zusammen mit dem Digital Markets Act (DMA), dessen vorläufige Übereinkunft Ende März veröffentlicht wurde [II], gilt der DSA als richtungsweisendes Gesetz für die zukünftige Regulierung von Tech-Giganten und sozialen Medien.
Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien Stuttgart
„Mit dem Digital Services Act (DSA) und dem schon länger ausverhandelten Digital Markets Act (DMA) legt die Europäische Union einen neuen globalen Standard zur Regulierung der Digitalwirtschaft vor. Die als Verordnung konzipierten und daher unmittelbar anwendbaren Vorgaben stellen das rechtliche Betriebssystem für digitale Dienste auf eine gänzlich neue Version um.“
„Neben den in der Presse bereits breit diskutierten diversen neuen Features unter anderem in Gestalt einer deutlich weitergehenden Inpflichtnahme zentraler Akteure und mehr Transparenz sowie Nachvollziehbarkeit der Vorgänge in ihren Maschinenräumen scheinen mir zwei Punkte besonders erwähnenswert. Erstens die Adressierung von ‚Dark Patterns‘ und zweitens der erst auf der Zielgeraden der langen Verhandlungen eingefügte und aktuellen Geschehnissen in der Ukraine Rechnung tragende ‚Crisis Response Mechanism‘.“
„Unter dem Sammelbegriff der ‚Dark Patterns‘ werden Designmuster bei digitalen Anwendungen der Internetwirtschaft verstanden, die Nutzer zu Handlungen verleiten sollen, welche ihren ‚eigentlichen‘ Interessen zuwiderlaufen. Dies geschieht durch Ausnutzung verhaltensökonomischer beziehungsweise -psychologische Effekte. Wir kennen das von Cookie-Consent Bannern, in denen der Button für das Akzeptieren des Trackings deutlich attraktiver gestaltet ist als derjenige – so es ihn überhaupt gibt –, mit dem das abgelehnt wird. Der Anwendungsbereich dieser Techniken geht aber weit über dieses Beispiel hinaus und es ist deshalb sehr zu begrüßen, dass neben dem insoweit defizitär aufgestellten Datenschutzrecht (Datenschutzgrundverordnung, DSGVO, Artikel 25, Privacy by Design) jetzt im DSA eine Regel etabliert wird, die es den großen Unternehmen zumindest schwerer machen soll, NutzerInnen zu übervorteilen.“
„Hochbrisant ist der erst kürzlich in den DSA eingebrachte ‚Crisis Response Mechanism‘, der es unter näher festgelegten Umständen erlauben wird, im Falle eines Notstands erhebliche Eingriffe in die Meinungs- und Informationsfreiheit zuzulassen. Zum Beispiel indem als Desinformation oder Propaganda bewertete Inhalte von Online-Plattformen nicht weiterverbreitet werden dürfen, beziehungsweise zu löschen sind.“
„Den offiziellen Pressemitteilungen von Rat und Parlament vom 23.04. ist die endgültige Ausgestaltung dieses Mechanismus nicht zu entnehmen, sie hat aber enorme Grundrechtsrelevanz. Präzedenz für ein solches Verfahren stellen die Maßnahmen der Europäische Union von Anfang März dieses Jahres dar, mit dem über russische Staatsmedien (Russia Today, Sputnik) ein ‚Desinformationsembargo‘ verhängt wurde. Mit dieser Wirtschaftssanktion wurden unter anderem Suchmaschinenbetreiber und soziale Netzwerke in die Pflicht genommen, Inhalte des genannten Ursprungs zu unterbinden.“
„Das hat in der medienrechtlichen und netzpolitischen Community hierzulande zu Recht hohe Wellen geschlagen, denn prozessuale Schutzmechanismen gegen ‚Overblocking‘ waren in dem Rechtsakt vom März nicht vorgesehen. Völkerrechtlich ist die Verbreitung von Kriegspropaganda von Staaten zu unterbinden. Medienrechtlich beruht das europäische Mediensystem aber auf einem ‚Free Flow of Information‘. Unklar bleibt, wie man dieses Dilemma auflöst.“
„Bei dem nunmehr im DSA wohl breiter definierten Anwendungsbereich (zum Beispiel Krisen) für ähnlich gelagerte Maßnahmen wird man sehr genau hinschauen müssen, unter welchen Voraussetzungen die Einschränkung der Medien- und Informationsfreiheit welcher Akteure (Plattformen und ihre NutzerInnen) von wem (Kommission und/oder weitere, bestenfalls auch staats- und regierungsferne Gremien?) beantragt werden kann. Wie lange sie aufrechterhalten werden darf und wann sie darüber hinaus verhältnismäßig sind. Dem noch zu veröffentlichenden finalen Text der Einigung ist hier mit großer Spannung entgegenzusehen.“
Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich
„Mit dem DSA legt die EU einen bedeutsamen neuen Rechtsakt vor, der in vielen Bereichen der Internetkommunikation für mehr Fairness, Rechtssicherheit und Rechenschaftspflicht führen wird. Onlineplattformen werden verstärkt in die Pflicht genommen. Gleichzeitig ist der Rechtsakt – besonders für deutsche Nutzer*innen, die schon jetzt unter dem Schutz des NetzDG stehen – wohl keine Revolution.“
„Dennoch sind vor allem drei Neuerungen hervorzuheben: Erstens: Die Plattformen müssen besser moderieren, ihre Regeln müssen klarer werden, sie müssen professioneller mit Beschwerden umgehen. Auch wichtig: Mit dem DSA wird ein Zugriff auf die Algorithmen der (großen) Plattformen jetzt möglich; diese müssen über die Logiken ihren automatisierten Empfehlungssysteme informieren. Zweitens: Mehr Schutz für Verbraucher*innen: Online-Plattformen müssen illegale Produkte, Dienstleistungen oder Inhalte umgehend entfernen, nachdem sie gemeldet wurden. Drittens: Mehr Schutz für Kinder und Jugendliche, besonders mit Blick auf den Datenschutz: Es kommen Verbote gezielter Werbung für Minderjährige sowie Targeting auf Basis sensibler Daten.“
Auf die Frage, was die wichtigsten Aspekte sind:
Auf die Frage, inwiefern sich einschätzen lässt, ob die EU überhaupt Kapazitäten hat, die Vorschriften durchzusetzen:
„Die neue Aufsichtsstruktur muss erst in der Praxis beweisen, was sie kann. Noch vergangene Woche haben die Landesmedienanstalten darauf hingewiesen, dass die Aufsicht ‚erhebliche Webfehler‘ aufweist. Das Prinzip der Staatsferne für die Medienaufsicht werde nicht eingehalten und bereits funktionierenden Aufsichtsstrukturen werde die Arbeit erschwert. In der Tat wird die Aufsplittung der Exekutivfunktionen zwischen nationalen Medienaufsichten, den nationalen Koordinatoren und dem Digital Board komplex, gerade da zwischen paneuropäischen und crosssektoralen Fällen zu unterscheiden sein wird.“
„Es scheint, dass explizite Schutzvorschriften gegen Uploadfilter im Text nun nicht vorkommen, allerdings sind diese nach der Judikatur des EuGH ohnedies großteils verboten. Eine allgemeine Delistungspflicht für illegale Inhalte für Suchmaschinen wird nicht kommen; diese wäre sehr breit und wohl unverhältnismäßig gewesen. In Krisenfällen kann die Kommission, nach entsprechender Empfehlung und zeitlich begrenzt, auf Daten der Plattformen zur Krisenbekämpfung zugreifen. Die zwischenzeitlich angedachten Registrierungspflichten für Mobiltelefone werden nicht kommen. Stark verkürzt wurde auch die Liste der verbotenen ‚dark patterns‘, also der verpönten, irreführenden Plattformdesigns, die kognitive Shortcuts von Nutzer*innen ausnützen.“
„Der Text wird jetzt von den Rechts- und Sprachsachverständigen überprüft. Dann stimmen Parlament und Rat noch einmal zu, aber das ist eine Formalität. Dann kann das Gesetz im EU-Amtsblatt veröffentlicht werden. Frühestens in Kraft treten werden die Regeln im Sommer 2023.“
„Grundsätzlich sind Änderungen in letzter Minute demokratiepolitisch bedenklich. Allerdings ist es rechtspolitische Realität, dass bei Verhandlungen Kompromisse bis zum Schluss geschlossen werden. Auch sind die verschiedenen Regulierungsoptionen schon seit ein bis zwei Jahren auf dem Tisch, sodass niemand wirklich überrascht sein sollte von den nun angenommen Klauseln.“
Professorin für Datenschutzrecht und Recht in der Informationsverarbeitung, Frankfurt University of Applied Sciences
„Die folgenden Aussagen wurden zu einem Zeitpunkt getroffen, zu dem nur die einzelnen Positionen der EU-Gremien aber noch nicht die finale Textfassung der Verordnung vorlagen.“
„Die Verordnung gibt weitgehend nur einen Rahmen vor, enthält aber keine klaren Verbote. Ausnahme ist der Schutz Minderjähriger und schutzbedürftiger Personengruppen. Gemäß dem Vorschlag des Europäischen Parlaments ist sowohl personalisierte Werbung für Minderjährige verboten als auch die Verarbeitung von sensiblen Daten für Maßnahmen des Direktmarketings. Dieses Verbot gilt für Soziale Netzwerke und Online-Marktplätze, die als Hosting-Diensteanbieter definiert werden und gleichzeitig unter die Kategorie der Online-Plattformen fallen. Solchen Plattformen obliegen besondere Transparenzpflichten.“
„Zweifelhaft ist hingegen, ob der (nicht näher konkretisierte) Vorschlag des Europäischen Parlaments, den Nutzerinnen und Nutzern im Rahmen ihrer Einwilligung für Werbezwecke aussagekräftige Informationen bereitzustellen – einschließlich Informationen darüber, wie ihre Daten monetarisiert werden – letztendlich eine Verbesserung darstellen würde. So stellt sich in der Praxis stets die Frage, wie Informationen verständlich und transparent für die NutzerInnen aufbereitet werden können. Zudem gelten die Anforderungen der Datenschutzgrundverordnung.“
„Haben Online-Plattformen (auch Soziale Netzwerke und Online-Marktplätze) eine erhebliche Reichweite – durchschnittliche monatliche Zahl an NutzerInnen mindestens 45 Millionen Personen –, gelten sie als ‚sehr große Plattformen‘. Diese werden verpflichtet, eine jährliche Bewertung aller erheblichen systemischen Risiken durchzuführen. Gemäß dem Vorschlag des Europäischen Parlaments soll sich diese Bewertung ebenso auf algorithmische Systeme beziehen. Nachteilig ist allerdings, dass der Begriff ‚erheblich‘ nicht definiert ist. Aus der Verordnung ergibt sich außerdem nicht, was ‚illegale‘ Inhalte darstellen, deren Verbreitung von der Risikobewertung ebenso umfasst sind.“
„Für ‚sehr große Plattformen‘ besteht außerdem die Verpflichtung, der zuständigen Behörde oder EU-Kommission Datenzugang zu gewähren. Das Europäische Parlament hat zusätzlich vorgeschlagen, dass diese Plattformen verpflichtet sein sollen, die Logik und Funktionsweise der Algorithmen zu erläutern.“
„Insgesamt würde dies eine Verbesserung für die NutzerInnen beziehungsweise VerbraucherInnen darstellen, da dadurch eine Kontrolle von Plattformen erfolgen kann, die derzeit nur eingeschränkt möglich ist. Auch der Vorschlag des Europäischen Parlaments, Datenzugang sowohl für (geprüfte) Wissenschaftlerinnen und Wissenschaftler als auch für gemeinnützige Organisationen zu ermöglichen, könnte die Ausübung der Grundrechte der NutzerInnen stärken. So könnten die Risiken der Sozialen Netzwerke bewertet sowie verringert werden und gleichermaßen die bestehenden Informationsasymmetrien überwunden werden. Ungeklärt ist jedoch, inwieweit sich Unternehmen dennoch auf Betriebs- und Geschäftsgeheimnisse berufen können und wie in der Praxis die Datenschutzinteressen der Nutzerinnen und Nutzer gewahrt werden. Unterstützen könnten insgesamt Verhaltenskodizes, die jedoch noch ausgearbeitet werden müssen. Mit Blick auf die zeitliche Komponente der Erstellung von Kodizes ist zudem zu berücksichtigen, dass auch in der Datenschutzgrundverordnung die Ausarbeitung von Verhaltensregeln vorgesehen ist, in der Praxis aber davon weitgehend noch kein Gebrauch gemacht wurde.“
„Wird ein weiterer Vorschlag des Europäischen Parlaments umgesetzt (Artikel 13 lit.a Absatz. 1), müssen die NutzerInnen von digitalen Dienten im Sinne der Verordnung außerdem grundsätzlich eine freie, autonome und informierte Entscheidung oder Wahl treffen können. Insbesondere darf eine der Einwilligungserklärungen nicht optisch stärker hervorgehoben werden. Auch dies könnte erheblich zur Transparenz beitragen. So wurde in einer Studie festgestellt, dass ‚Framing‘ das Nutzerverhalten beeinflussen kann und Empfehlungen gegebenenfalls ohne weitere Reflexion übernommen werden [1].“
Juniorprofessor für IT-Recht und Medienrecht, Juristische Fakultät, Universität Potsdam
„Es handelt sich um einen wichtigen und im Ansatz auch sinnvollen Rechtsakt, in dessen Umfeld aber zu viel Marketingsprech Verwendung findet. Dies ist freilich nicht verwunderlich, ist die Regelungsmaterie doch stark politisch und emotional aufgeladen. So handelt es sich beim DSA beispielsweise – natürlich – nicht um eine Art von digitaler Verfassung beziehungsweise ein Grundgesetz für das Internet. Auch erscheinen Begriffe wie ‚Hassrede‘, ‚schädliche Desinformation‘ und so weiter nicht unproblematisch, da sie juristisch schwerlich handhabbar geraten. Mit Übertreibungen wie ‚Goldstandard‘ erweist man der Akzeptanz des DSA einen Bärendienst. Andererseits leistet der DSA nicht – wie Kritiker meinen – pauschal der Zensur Vorschub.“
„Insgesamt täte mehr Sachlichkeit der Diskussion gut. Diese wird in den nächsten Wochen hoffentlich zunehmend Einzug erhalten, wenn man sich mit den einzelnen Bestimmungen der finalen Fassung genauer – man könnte auch sagen: seriös – auseinandersetzen konnte. Bis dahin bewegen sich Bewertungen zu Einzelregelungen allzu sehr im Spekulativen.“
Professor für Medienrecht, Technische Universität Dortmund
„Der Digital Services Act wird gerne als Grundgesetz fürs Internet bezeichnet. Das ist er – im Sinne einer Verfassung – sicher nicht. Dennoch legt er grundlegende Regeln fest, die EU-weit gerade auch die sehr großen Plattformen regulieren sollen. Dies ist zweifelsohne eine wichtige Innovation. So sind gerade diese Plattformen zu wichtigen Informations- und Kommunikationsinfrastrukturen geworden. Sie werden von privaten Unternehmen betrieben, haben aber zugleich Bedeutung für den individuellen und öffentlichen Meinungsbildungsprozess.“
„Künftig werden nun wichtige Stellschrauben in der Mechanik von Plattformen wie Meta, YouTube und Twitter regulatorisch in den Blick genommen. Dazu gehören beispielsweise Prozesse für das Melden illegaler Inhalte, Transparenzauflagen für Upload-Filter oder der Datenzugang für Forscher*innen.“
„Der Digital Services Act setzt sich zum Ziel, dass online illegal sein soll, was offline illegal ist. Er soll insbesondere Hass, Hetze und Desinformationen ausbremsen, indem er die Plattformen in die Pflicht nimmt. Das gilt nicht nur in Reaktion auf eingetretene Rechtsverletzungen, sondern auch in ihrer Prävention. So sollen Plattformen wie Meta, YouTube und Twitter regelmäßig über die Ausbreitung illegaler Inhalte und Desinformation sowie systematischen Grundrechtsverletzungen informieren.“
„Die Rechte der Nutzer*innen sollen gestärkt werden, wozu vor allem auch ihre Meinungs- und Informationsfreiheit, aber auch ihr Persönlichkeitsrecht gehören. Ein Beispiel hierfür sind die Regulierung sogenannter Dark Patterns, also Nutzerführungen durch Plattformen, die wie etwa bei der Zustimmung zu Cookies gewissermaßen manipulativ zu gewünschtem Handeln führen. Außerdem dürfen etwa von Minderjährigen keine Daten erhoben werden, um personalisiert Werbung auszuspielen. Die Liste ließe sich mühelos fortsetzen.“
„Wie bei der Datenschutz-Grundverordnung in Deutschland nicht alles im Datenschutz neu wurde, gilt das auch für den Digital Services Act, der wesentliche Grundgedanken des deutschen Netzwerkdurchsetzungsgesetzes übernimmt. Das gilt etwa für die Einführung von Beschwerdemechanismen oder Datenzugänge für Forscher*innen. Auch eine Transparenz-Pflicht für die algorithmische Ausspielung von Inhalten ist im Medienstaatsvertrag bereits zu finden. Dennoch gehen die Regelungen des Digital Services Act deutlich darüber hinaus – und schaffen europaweit erstmals zeitgemäße Regelungen. Das gilt gerade auch, weil die bislang maßgebliche E-Commerce-Richtlinie deutlich in die Jahre gekommen ist. Sie führte zu einer Privilegierung von Plattformen, immer erst nach individuellem Hinweis auf illegale Hinweise reagieren zu müssen. Das sieht jetzt deutlich anders aus.“
„Für wichtig halte ich beispielsweise, dass nunmehr Faktenchecker wie Medien oder NGOs künftig einen Rechtsstatus erhalten. So ist vorgesehen, dass Online-Plattformen ‚die erforderlichen technischen und organisatorischen Maßnahmen‘ zu ergreifen haben, ‚damit Meldungen, die von vertrauenswürdigen Hinweisgebern [...] übermittelt werden, vorrangig und unverzüglich bearbeitet werden und darüber entschieden wird‘. In Deutschland wurde bislang über ihre Legitimation gerichtlich gestritten – mit offenem Ausgang.“
„Auch ist ein entscheidender Schritt, dass Uploadfilter stärker in die Regulierung einbezogen werden, wie auch durch das jüngste Update des Netzwerkdurchsetzungsgesetzes geschehen. Hier wird regelmäßig nicht nach gesetzlichen Vorgaben, sondern den Nutzungsbedingungen der sehr großen Plattformen selbst über das Veröffentlichen oder Nicht-Veröffentlichen von Posts entschieden. Das betrifft inzwischen den überwiegenden Teil an Hassrede. Deswegen ist auch hier Transparenz wichtig, um genauer zu verstehen, was dies für individuelle und öffentliche Meinungsbildungsprozesse bedeutet – und wie hier der Rechtschutz fortentwickelt werden sollte.“
„Außerdem wird mehr Transparenz über algorithmische Entscheidungen geschaffen. Dies betrifft zum einen den Datenzugang von Wissenschaftler*innen, als auch mehr Transparenz für die User selbst, wie zum Beispiel die Nutzer*innen von Empfehlungssystemen. So sollen Forscher*innen Zugang zu Daten großer Plattformen bekommen, um die Forschung zu ermöglichen.“
„Bisher ist jedoch noch unklar, inwieweit sich die großen Plattformen auf gegenläufige Rechte wie das Betriebs- und Geschäftsgeheimnis berufen werden, um dem Daten-Zugang entgegenzutreten. Das wird ein zu beobachtender Aushandlungsprozess werden, der auch die Gerichte beschäftigen könnte. Was die Empfehlungssysteme angeht, gibt es Transparenzpflichten hinsichtlich der entscheidenden Parameter des Empfehlungssystems.“
„Der Digital Services Act verpflichtet außerdem Meta, YouTube und Co. zur Analyse der von ihnen verursachten systemischen Risiken und zur Minimierung dieser Risiken. Gemeint sind hier Risiken wie die Verbreitung illegaler Inhalte über ihre Dienste, etwaige negative Auswirkungen auf die Ausübung der Grundrechte der Meinungs- und Informationsfreiheit und die vorsätzliche Manipulation des Dienstes. Zur Risikominderung sind angemessene, verhältnismäßige und wirksame Maßnahmen durch die digitalen Plattformen zu treffen. Das ist neu – und grundsätzlich zu begrüßen.“
„Als Reaktion auf den Angriffskrieg Russlands gegen die Ukraine und die Manipulation der Online-Informationen hierüber wurde ein Krisenmechanismus eingerichtet, um auf weitere Krisen, wie etwa auf Bedrohungen der öffentlichen Sicherheit oder der Gesundheit entsprechend reagieren zu können, damit die Bedrohungen auf den Plattformen begrenzt werden. Dieser Mechanismus soll es ermöglichen, dass die Plattformen die Auswirkungen ihrer Aktivitäten auf die betreffende Krise analysieren sowie verhältnismäßige und wirksame Maßnahmen treffen, die zur Wahrung der Grundrechte zu ergreifen sind.“
Auf die Frage, inwiefern sich einschätzen lässt, ob die EU überhaupt Kapazitäten hat, die Vorschriften durchzusetzen:
„Der Vollzug dieses Gesetzes bedeutet selbstverständlich einen enormen Aufwand. Das gilt für die Umsetzung durch die Plattformen, aber gerade auch für denkbare Sanktionen. Hier wird nunmehr europaweit die Verpflichtung eingeführt, auf behördliche Anordnung illegale Inhalte zu entfernen. Gepaart wird dies mit einer Meldepflicht gegenüber Behörden, die wahrscheinlich in vielen Ländern Europas nun personell, aber auch technisch-organisatorisch deutlich aufgestockt werden. Selbst Plattformen überwachen sollen die zuständigen Behörden allerdings nicht. Hier würde sich für Deutschland zumindest auch die Frage des Grundsatzes der Staatsferne stellen, weswegen die Landesmedienanstalten auch wesentliche Aufsichtsbefugnisse für sich reklamieren und das Verwaltungsgericht Köln in einem aktuellen Verfahren eine Zuständigkeit des Bundesamts für Justiz kritisch sah, was ich teile. Nun soll ein neues Kontroll-Konstrukt etabliert werden, dass aus der EU-Kommission, einem European Digital Services Board und 27 nationalen Digital Services Coordinators besteht.“
Professorin für Politikwissenschaft, Universität Hamburg
„Der DSA ist eine äußerst wichtige EU-Verordnung, um die Macht großer Internet-Plattformen einzuhegen. Plattformen werden endlich EU-weit verbindlich verpflichtet, ihren Beitrag zur Inhalte-Moderation zu leisten. Damit soll Desinformation, Hassrede und Verschwörungstheorien Einhalt geboten werden, die toxischen Einfluss auf den gesellschaftlichen Diskurs haben. Es bleibt zu hoffen, dass die demokratiezersetzende Wirkung von Desinformation mit dem DSA eingeschränkt wird. Es ist nötig, dass die Plattformen sich ihrer gesellschaftspolitischen Verantwortung endlich bewusstwerden und entsprechend handeln.“
„Die Löschung illegaler nutzergenerierter Inhalte stellt eine Gratwanderung dar zwischen dem Schutz vulnerabler Gruppen und möglicher Einschränkung freier Meinungsäußerung bis hin zur Internetzensur. Es bleibt abzuwarten, ob hier eine rechtssichere Abgrenzung gelingt. Europa hat viele Sprachen und national unterschiedlichen Umgang mit Meinungsfreiheit. Bisher gibt es keine echte europäische Öffentlichkeit. Unterschiede in der Anwendung werden bleiben, aber es sollten nun jedenfalls hohe Mindeststandards europaweit gelten. Große Plattformen müssen die Nutzenden auch über gelöschte Inhalte und Sperren informieren und Beschwerdemöglichkeiten anbieten, was Korrekturen ermöglicht.“
„Positiv ist, dass Minderjährige vor gezielter Werbung, die auf Profilbildung basiert, geschützt werden. Bei Erwachsenen hätte man weitergehen können und die Profilbildung mit sensiblen Persönlichkeitsmerkmalen für personalisierte Werbung und manipulative Absichten (Dark Patterns) noch weiter einschränken können, wie es das Europäische Parlament verlangt hat.“
„Auch bei der Haftung der Plattformen bei Internet-Marktplätzen für illegale und unsichere Waren und Dienstleistungen hätte man weiter gehen können.“
Auf die Frage, inwiefern sich einschätzen lässt, ob die EU überhaupt Kapazitäten hat, die Vorschriften durchzusetzen:
„Die Durchsetzung der Verordnung und die Abstimmung zwischen nationaler und europäischer Ebene bleibt ein mögliches Einfallstor für die mangelnde Wirksamkeit der Verordnung im Sinne einer Verbesserung demokratischer Öffentlichkeit und Meinungsbildung im Internet. Hier bleiben viele Fragen zur Zuständigkeit nationaler oder von EU-Aufsichtsbehörden und Regeln zur Konsensbildung zwischen ihnen offen.“
„Die EU kann nur ein Referenzmodell sein für andere Staaten, wenn sie ihren Anspruch wirklich einlöst, Verbraucher:innen und Nutzende vor Desinformation und gefährlichen Produkten zu schützen. Dies wird in Drittstaaten aufmerksam verfolgt werden. Insofern bleibt die Herausforderung, dass die anspruchsvollen Regeln nicht nur im Gesetzestext stehen, sondern in der Praxis gelebt und durchgesetzt werden. Hier muss es laufende Beobachtung geben und auch den stärkeren Austausch mit Staaten im Globalen Süden, wie etwa Brasilien und Kenia, die ähnliche Gesetze auf den Weg gebracht haben.“
„Positiv ist, dass Transparenzpflichten festgeschrieben wurden, damit die eingesetzten Algorithmen der Anbieter bei Newsfeeds und anderen kuratierten Inhalten besser nachvollzogen werden können. Wirklich überprüfen werden können das nicht die Nutzer:innen selbst, sondern sie sind auf Vermittlung, Analyse und Aufklärung aus Wissenschaft und Zivilgesellschaft angewiesen. Daher sind die verbesserten Datenzugangsrechte für die Wissenschaft ein wichtiger Erfolg. Es bleibt allerdings abzuwarten, wie umfangreich die Plattformen dies in die Tat umsetzen und tatsächlich damit demokratische Rechenschaftspflichten erfüllen.“
„Der DSA ist ein Baustein im Verbund mit anderen EU-Verordnungen wie dem Digital Markets Act, dem Data Governance Act, dem Data Act, der KI-Verordnung und weiteren Gesetzesinitiativen, mit denen die EU sich als Regulierungs-Supermacht profilieren will. Ob die EU tatsächlich eine werte- und demokratiebasierte, vertrauenswürdige Digitalmacht mit internationaler Ausstrahlung werden kann, wird von der Kohärenz dieser Regelwerke miteinander und ihrer praktischen Anwendung abhängen. Es wäre wünschenswert, wenn die EU hier tatsächlich zum positiven Vorbild gegenüber dem libertären US-Plattformmodell und dem zum Totalitären tendierenden chinesischen Modell werden könnte. Um andere Staaten von diesem ‚dritten Weg‘ zu überzeugen, braucht es mehr internationalen Dialog.“
„Keine.“
„Interessenkonflikte liegen keine vor.“
„Interessenkonflikte bestehen keine.“
„Keine Interessenkollisionen.“
„Ich habe keine Interessenkonflikte. Werde weder von einer der großen Plattformen finanziell gefördert noch war oder bin ich Mitglied in wissenschaftlichen Beiräten u.ä. bei diesen GAFAM-Plattformen.“
Alle anderen: Keine Angaben erhalten.
Primärquellen
Europäisches Parlament (23.04.2022): Digital Services Act: agreement for a transparent and safe online environment. Pressemitteilung.
Europäischer Rat (23.04.2022): Digital Services Act: Council and European Parliament provisional agreement for making the internet a safer space for European citizens. Pressemitteilung.
Weiterführende Recherchequellen
Science Media Center (2022): Digital Markets Act zur Regulierung großer Digitalkonzerne. Rapid Reaction. Stand: 25.03.2022.
Science Media Center (2020): EU-Kommission schlägt neuen Rechtsrahmen für Plattformbetreiber vor. Rapid Reaction. Stand: 15.12.2020.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] ConPolicy: Innovatives Datenschutz-Einwilligungsmanagement. Projekt für das Bundesministerium der Justiz und für Verbraucherschutz.
Literaturstellen, die vom SMC zitiert wurden
[I] Obama B (22.04.2022): Disinformation Is a Threat to Our Democracy. Medium.
[II] Europäischer Rat (25.03.2022): Gesetz über digitale Märkte (DMA): Einigung zwischen Rat und Europäischem Parlament. Pressemitteilung.
[III] Breyer P (23.04.2022): Digitale Dienste-Gesetz: Industrie- und Regierungsinteressen setzen sich gegen digitale Bürgerrechte durch.
[IV] Satariano A (22.04.2022): E.U. Takes Aim at Social Media’s Harms With Landmark New Law. The New York Times.
Prof. Dr. Tobias Keber
Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien Stuttgart
Prof. Dr. Matthias Kettemann
Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), und Universitätsprofessor für Innovation, Theorie und Philosophie des Rechts, Universität Innsbruck, Österreich
Prof. Dr. Anne Riechert
Professorin für Datenschutzrecht und Recht in der Informationsverarbeitung, Frankfurt University of Applied Sciences
Prof. Dr. Björn Steinrötter
Juniorprofessor für IT-Recht und Medienrecht, Juristische Fakultät, Universität Potsdam
Prof. Dr. Tobias Gostomzyk
Professor für Medienrecht, Technische Universität Dortmund
Prof. Dr. Ingrid Schneider
Professorin für Politikwissenschaft, Universität Hamburg