Weiter zum Inhalt Skip to table of contents

Digital Services Act Neue Regeln für Onlineplattformen, aber wer setzt sie durch?

Von|
(Quelle: pixabay / pixel2013)

Im November 2022 wurde der „Digital Services Act“ (DSA) zur Plattformregulierung verabschiedet – zu deutsch „Digitale-Dienste-Gesetz“. Der DSA verspricht europaweit geltende Handlungsrichtlinien für Plattformen zum Umgang mit illegalen Inhalten. Dabei definiert er nicht, was als illegaler Inhalt oder auch Hate Speech gilt – das bleibt weiterhin den Mitgliedstaaten vorbehalten. Der DSA setzt vielmehr darauf, über EU-Standards für Meldewege, Transparenzberichte und Beschwerdemechanismen den Menschen bessere Möglichkeiten zu geben, sich gegenüber Plattformen Gehör zu schaffen. Dieses wünschenswerte Ziel ist aber nur zu erreichen, wenn die Einhaltung der Regeln bei den Plattformen auch überprüft wird. Eine wichtige Rolle bei dieser Aufsichtsaufgabe spielen in den Mitgliedsstaaten die „Digital Services Coordinators“. Nur: Wer wird diese neue Rolle ausfüllen?

Dr. Julian Jaursch ist Projektleiter „Policy / Plattformregulierung“ bei der „Stiftung Neue Verantwortung“ und arbeitet zur Stärkung digitaler Öffentlichkeiten. Er hat sich mit der Umsetzung des Digital Services Acts befasst. Mit ihm sprach Simone Rafael.

Belltower.News: Ein Gesetz ist nur so gut wie die Organe, die auf seine Umsetzung achten. Der DSA ist seit November 2022 in Kraft. Wie geht es weiter?

Julian Jaursch: Der DSA ist seit einigen Wochen in Kraft und wird ab 2023/2024 in der gesamten EU wirksam sein. Erklärtes Ziel der Gesetzgeber ist es, für ein „sicheres und transparentes Onlineumfeld“ zu sorgen. Menschen sollen ein besseres Verständnis für Plattformlogiken bekommen und dafür, wie Onlinewerbung funktioniert, außerdem bessere und EU-weit einheitliche Beschwerdemöglichkeiten. Auch soll es eine Aufsicht über die Geschäftspraktiken von Plattformen geben. Teil dieser Aufsichtsstruktur ist es, dass jedes EU-Land einen „Digital Services Coordinator“ (DSC) benennen muss. Dieser Koordinator ist die zentrale Beschwerdestelle zu allen DSA-Fragen, er übernimmt selbst einige wichtige Aufsichtsaufgaben und er ist die Schnittstelle zwischen unterschiedlichen Behörden auf deutscher und EU-Ebene. Deutschland – wie alle anderen Mitgliedsländer der EU auch – muss bis spätestens Februar 2024 seinen DSC benennen.

Muss dafür also eine neue Behörde geschaffen werden?

Nicht unbedingt, das können die Staaten selbst entscheiden. Es kann eine neue Behörde aufgebaut werden oder eine bestehende als DSC ausgewählt werden. Aus meiner Sicht wäre es langfristig sehr sinnvoll, in Deutschland eine neue, spezialisierte, unabhängige Agentur zu schaffen. Das ist allerdings unwahrscheinlich. Stattdessen ist geplant, auf bestehende Strukturen aufzusatteln. Auch das kann Vorteile haben, wenn es gut durchdacht ist. Zum Beispiel sind die Bundesnetzagentur und die Landesmedienanstalten im Gespräch. Wer auch immer DSC wird: Ganz wichtig ist eine gute Kommunikation zwischen unterschiedlichen Behörden, denn der DSA behandelt Themen aus verschiedenen Politikbereichen. Außerdem muss die Unabhängigkeit der Behörde sichergestellt sein. Genau mit diesem Thema wird sich am kommenden Mittwoch der Digitalausschuss des Bundestags befassen. 2023 wird dann ein Gesetzentwurf der Bundesregierung erwartet, in dem eine Behörde als Digital Services Coordinator benannt wird.

Das klingt sehr behördenlastig. Warum ist das auch ein Thema für die Zivilgesellschaft?

Weil es in Forschung und Zivilgesellschaft viele Menschen gibt, die sich schon seit Jahren mit Plattformen und damit verbundenen Risiken auseinandersetzen – von Hate Speech über Diskriminierung bis hin zu Privatsphärenschutz. Ihre Stimmen sollten unbedingt gehört werden, wenn es um Fragen der Plattformaufsicht geht. Wie steht es um die „trusted flagger“, also Menschen oder Organisationen, denen Vertrauen geschenkt wird, Hassinhalte kompetent und verantwortungsvoll zu melden? Wer bekommt Datenzugänge zu Plattformen, um zu forschen? Könnte das spätere Beschwerdemanagement beim Koordinator verbessert werden? Um solche Fragen zu diskutieren, sind strukturierte, kontinuierliche Austauschformate zwischen dem neuen Digital Services Coordinator und Zivilgesellschaft und Forschung dringend nötig. Das sollte von Anfang an als eine wichtige Säule des DSC angesehen werden und sich so auch im Gesetzentwurf widerspiegeln. Nur ein unabhängiger, gut vernetzter und gut ausgestatteter DSC kann zu einer Plattformaufsicht im öffentlichen Interesse beitragen und möglicher Einflussnahme aus Politik und Wirtschaft widerstehen.

Transparenzberichte gibt es schon im Netzwerkdurchsetzungsgesetz (NetzDG), bisher sehen wir aber selten Konsequenzen. Wie kann das mit den Berichten der Plattformen, die jetzt mit dem DSA verpflichtend sind, anders werden?

Plattformen müssen laut DSA über ihre Inhaltemoderation berichten. Da gibt es durchaus Parallelen zum NetzDG, das stimmt. Die Berichte sind öffentlich und müssen zum Beispiel Informationen zur Art der Inhaltemoderation, der Anzahl der Beschwerden und der Meldungen enthalten. Damit solche Berichte etwas bewirken, müssen sie ausgewertet werden. Hier gibt es sicher eine Rolle für Medien und Zivilgesellschaft, aber auch beim DSC sollten Kapazitäten und Motivation vorhanden sein, aktiv solche Berichte zu analysieren. Dafür ist Expertise aus unterschiedlichen Disziplinen wichtig, von technischen Fragen zu Inhaltemoderation über Menschenrechtsschutz bis hin zu Antidiskriminierung. Es wäre super, wenn der DSC solch interdisziplinäres Fachwissen aufbaut. Außerdem fände ich es sinnvoll, wenn es beim DSC datenwissenschaftliche und -analytische Expertise gäbe. Das ist nicht nur für die Auswertung von Berichten hilfreich, sondern auch wenn der DSC selbst mal eine Datenanfrage bei einer großen deutschen Onlineplattform stellen möchte, um zum Beispiel ein mögliches Risiko bei der algorithmischen Verbreitung von Inhalten zu untersuchen. Das ist nämlich mit dem DSA auch möglich.

Mehr Informationen gibt es im Policy-Brief „Empfehlungen für einen starken „Digital Services Coordinator““ der Stiftung Neue Verantwortung:

Weiterlesen

Eine Plattform der