DSA-Update mit Svea Windwehr: „Der Digital Services Act ist eine riesige Chance“
Vor einem halben Jahr ist der Digital Services Act (DSA) vollumfänglich in Kraft getreten. Konnten seitdem die Rechte der Nutzer*innen auf den großen digitalen Plattformen gestärkt werden? Gibt es noch ungenutzte Chancen? AufRuhr hat mit der der Digitalexpertin Svea Windwehr vom Center for User Rights gesprochen.
AufRuhr: Der DSA legt einheitliche Regeln zur Moderation von Inhalten auf Online-Plattformen in der EU fest. Was hat sich seit Inkrafttreten verändert – und: Was habe ich als Nutzerin davon?
Svea Windwehr: Für die größten Plattformen gilt der DSA sogar schon seit einem Jahr. An einigen Stellen können das auch die Nutzer*innen bemerken – zum Beispiel können sie auf Social Media nun zwischen einem von der Plattform kuratierten und einem chronologisch angeordneten Feed wählen. Viele Verpflichtungen des DSA wirken aber eher im Verborgenen, und nicht alles davon ist für Nutzer*innen leicht überprüfbar. Inwieweit Plattformen besseren Zugang zu Daten für die Forschung gewähren, ist beispielsweise etwas, das den meisten im täglichen Leben nicht auffällt.
Obwohl der DSA bereits seit Monaten gültig ist, fand die deutsche Umsetzung mit der Ernennung der Bundesnetzagentur als deutsche Aufsichtsbehörde (Digital Services Coordinator, DSC) erst einige Monate später statt. Wie kam es dazu?
Es gab eine lange, kritische Diskussion über die Gestaltung der Aufsicht, was viel mit dem Föderalismus in Deutschland zu tun hat. Die Regulierung von Plattformen war auf deutscher Seite schon vor dem DSA komplex: Bereits zuvor waren viele verschiedene Behörden für die Plattformen relevant und dienten als Ansprechpartner, wie die Landesmedienanstalten, das Bundesamt für Justiz und den Bundesbeauftragten für Datenschutz und Informationsfreiheit (BfDI). All das musste mit dem DSA in Einklang gebracht werden.
Wie ist der Stand in anderen EU-Ländern?
Noch nicht alle Mitgliedsstaaten haben den DSA umgesetzt – manche sind also „noch“ langsamer als Deutschland. Gerade die großen Mitgliedsländer waren aber insgesamt recht früh dran. Häufig wurde einfach die bereits bestehende Medienaufsichtsbehörde zum DSC ernannt, was wir durch die Aufgabenverteilung zwischen Bund und Ländern in Deutschland ja gar nicht kennen.
Svea Windwehr leitet das Center for User Rights bei der Gesellschaft für Freiheitsrechte. Zuvor war sie Teil des Public-Policy-Teams von Google Deutschland und hat dort Themen rund um das Netzwerkdurchsetzungsgesetz (NetzDG), den Digital Services Act, den Kinder- und Jugendschutz und die Regulierung von Künstlicher Intelligenz (KI) betreut. Als Stipendiatin des 11. Jahrgangs des Mercator Kollegs für internationale Aufgaben war Windwehr bei der Electronic Frontier Foundation sowie beim Bundesministerium für Arbeit und Soziales tätig.
Welche Rolle spielt die Zivilgesellschaft Ihrer Ansicht nach bei Umsetzung und Aufsicht des Digital Services Act?
Ich würde sagen, eine unterstützende und eine kritische. Auf der einen Seite ist in der Zivilgesellschaft viel Expertise vorhanden, gerade was die Moderation von Inhalten oder die Wahrung der Grundrechte von Nutzer*innen angeht. Es gibt viele Personen und Organisationen, die gute Einblicke darin haben, was auf den Plattformen passiert – und wo Grundrechte unter Druck geraten.
Auf der anderen Seite finde ich es wichtig, dass die Zivilgesellschaft die Durchsetzung kritisch begleitet, und sowohl die nationalen Aufsichtsbehörden als auch die Europäische Kommission zur Verantwortung zieht, wenn nötig. Was ich super finde: In Deutschland wird die Zivilgesellschaft durch den Beirat der nationalen Aufsichtsbehörde aktiv eingebunden und repräsentiert. Er setzt sich aus Vertreter*innen von Zivilgesellschaft, Wissenschaft und Wirtschaft zusammen und war keine Vorgabe des DSA, sondern ist eine deutsche Innovation. Ich halte es für sinnvoll, etwas ähnliches beim Zusammenschluss der nationalen Aufsichtsbehörden bei der Europäischen Kommission anzusiedeln, weil sie die meisten der großen Plattformen beaufsichtigt.
Wie sieht eine Online-Plattform aus, die Menschen dazu bringt, positive Interaktionen in den Vordergrund zu stellen?
Ist der DSA Ihrer Ansicht nach gelungen?
Der DSA schafft einen guten Ausgleich zwischen dem Schutz von Grundrechten und der Notwendigkeit, skalierbare Regeln für Unternehmen zu haben. Ich bin froh, dass viele Grundpfeiler des europäischen Rechtsrahmens erhalten geblieben sind, wie z.B. der Haftungsausschluss von Plattformen für nutzergenerierte Inhalte. Dieser vermeidet, dass Plattformen Anreize haben, mehr Inhalte zu löschen oder zu stark zu moderieren. In der Praxis wird sich jetzt zeigen, ob die Vorgaben des DSA ausreichen. Und: ob die Plattformen sich daranhalten.
Es gibt jedoch ein paar Stellen, an denen ich Missbrauchspotenziale sehe. Zum einen erhält die Europäische Kommission im Zuge des DSA viele neue Aufgaben und damit neue Macht; es gibt z.B. einen Krisenmechanismus, bei dem die Kommission im Falle von Krisen sehr große Online-Plattformen und Suchmaschinen dazu auffordern kann, bestimmte Maßnahmen zu ergreifen. Zudem sind Plattformen dazu verpflichtet, Nutzer*innendaten an Strafverfolgungsbehörden weiterzuleiten, wenn eine Straftat vermutet wird, die das Leben oder die Sicherheit von Personen in Gefahr bringen kann. Dabei bleibt jedoch unklar, in welchen Fällen genau Daten übermittelt werden sollen.
Angenommen, Sie hätten die volle Macht über die Gestaltung von Plattformen, Suchmaschinen, Marktplätzen und Co.: Wie würde die Online-Welt aussehen, wenn Sie sie frei gestalten könnten?
Generell muss Plattformdesign stärker im Fokus stehen. In den vergangenen Jahren ging es viel darum, wie wir z.B. mit Desinformation und Hass umgehen. Jetzt ist für mich die nächste große Frage: Wie sieht eine Online-Plattform aus, die Menschen dazu bringt, positive Interaktionen in den Vordergrund zu stellen? Ich würde Empfehlungssysteme weniger stark auf Engagement optimieren. Aktuell geht es um möglichst viel Interaktion, das tut uns, glaube ich, nicht gut. Es gibt immer wieder alarmierende Hinweise auf den Zusammenhang zwischen Social Media und psychischer Gesundheit. Gleichzeitig ist ein fair gestaltetes Empfehlungssystem, das der Gesellschaft guttut, extrem schwierig zu definieren – welche Inhalte sind wertvoll? Welche nicht? Wollen wir kuratierte Vorschläge, und wenn ja von wem?
Das alles sind subjektive Fragen, die sich nur schwer allgemeingültig beantworten lassen. Und ich würde den Datenzugang für Forschende verbessern. Zwar hilft der DSA dabei, aber Forscher*innen kommen weiterhin nur schwer an Daten – bei Anfragen verweisen die Unternehmen oftmals auf Geschäftsgeheimnisse. Aber als Gesellschaft haben wir ein Recht darauf zu verstehen, was im Hintergrund mit Nutzer*innendaten passiert.
Was wünschen Sie sich von den Plattformen, von der deutschen Aufsichtsbehörde und von der EU, um die Rechte von Nutzer*innen weiter zu stärken?
Der DSA ist eine riesige Chance, Plattformen sicherer zu gestalten. Von den Plattformen wünsche ich mir Offenheit, diese Chance zu verstehen – und sie ernst zu nehmen. Ich verstehe den Wunsch, die eigenen Dienste vor kritischen Nachfragen schützen zu wollen. Aber auch die Plattformen brauchen Feedback: Zum Teil wissen sie selbst nicht, was bei ihrem Produkt falsch läuft. Wir müssen uns daran gewöhnen, dass die Durchsetzung des DSA und die Weiterentwicklung von Nutzer*innenrechten und best practices ein interaktiver Prozess ist, in dem wir alle miteinander reden müssen. Und, dass ein einzelnes Gesetz nicht alles klärt.
Von der deutschen Aufsichtsbehörde wünsche ich mir, dass sie ihre Offenheit und ihr Interesse am Austausch mit der Zivilgesellschaft beibehält. Dazu wünsche ich mir Mut bei der Durchsetzung – auch, um neue Sachen auszuprobieren.
Ähnlich bei der Europäischen Kommission: Sie hat eine gigantische Aufgabe mit viel Verantwortung übernommen. Damit muss sie verantwortungsbewusst umgehen. Auch hier ist ein stetiger Austausch mit der Zivilgesellschaft zentral. Und zwar nicht nur, wenn es passt, sondern auch, wenn es unangenehm ist. Es sollte sich etablieren, dass Fehler gemacht werden können, der Austausch offen und vertrauensvoll ist, und dass Kritik geübt werden kann.
Center for User Rights
Das Center for User Rights wurde mit dem Ziel gegründet, den Digital Services Act durchzusetzen und Nutzer*innenrechte unter dem DSA zu stärken. Neben der Durchsetzung von Nutzer*innenrechten im Kontext von Inhaltemoderation fokussiert sich die Arbeit des Centers insbesondere auf den Zugang zu den Daten digitaler Plattformen für Forschende sowie auf die Gestaltung von Plattformen im Rahmen kollektiver Nutzer*innenrechte. Mithilfe von Beschwerden, Klagen und Policy-Arbeit setzt sich das Center for User Rights dafür ein, dass Online-Plattformen transparenter werden und Grundrechte wie die Meinungs-, Informations- und Wissenschaftsfreiheit achten.
Was kann ich tun, wenn ich digitale Gewalt erlebe oder meine Rechte online eingeschränkt werden?
Du kannst dich an Organisationen wie die Gesellschaft für Freiheitsrechte (GFF) wenden. Sie setzen sich für die Rechte von Nutzer*innen gegenüber Plattformen ein und können dich auch vor Gericht und gegenüber Behörden vertreten. Das geht auch anonym über das Kontaktformular des Center for User Rights.