Big Brother aus Brüssel

Fußgängerzone Straßenkennzeichnugng
Big Brother aus Brüssel
Autor: Julien Wilkens 21.06.2022

Es ist eine dramatische, eine bestürzende Zahl: Rund 85 Millionen Bilder und Videos mit kinder­porno­grafischem Material wurden vergangenes Jahr in der Europäischen Union gemeldet – und das ist wohl nur die Spitze des Eisbergs. Um Kinder im Netz vor Pädokriminellen zu schützen, hat die EU-Kommission vor Kurzem einen Gesetzes­entwurf vorgelegt. Die Folge der neuen Regeln ist eine möglichst umfassende Kontrolle von Chats. Kritiker*innen wie Ella Jakubowska von der Bürger­rechts­organisation European Digital Rights (EDRi) fürchten, dass dabei grund­legende Freiheits­rechte in der EU auf der Strecke bleiben und unsere Online­kommunikation sogar für Hacker*innen angreifbar wird, wie die Politik­beraterin im AufRuhr-Interview erläutert.

Die Kommission will den Schutz von Kindern vor Missbrauch, insbesondere durch die Weitergabe von Fotos und Videos im Netz, stärken. Doch Digital­rechts­aktivist*innen wie Sie laufen Sturm gegen den Gesetzes­entwurf. Warum?

Ella Jakubowska: Weil die vorgeschlagenen Maßnahmen in der jetzigen Form viel Schaden anrichten, ohne dass es Beweise dafür gibt, dass sie effektiv Kinder schützen. Unstrittig ist, dass Menschen, die Miss­brauchs­darstellungen von Kindern besitzen und verbreiten, von den Straf­behörden verfolgt werden müssen. Das Problem ist aber – und deshalb stehen wir bei EDRi dem Entwurf kritisch gegen­über –, dass es darum in dem Gesetzes­entwurf nicht geht: Wenn man sich den Text anschaut, müsste es korrekter­weise „Entwurf zur Plattform- und Service­provider-Regulierung“ heißen … und dieser hat letztlich das Potenzial, einen Apparat zur Massen­über­wachung zu schaffen. Stellen Sie sich vor: Jede Nachricht könnte potenziell gescannt werden! Das geht gegen grund­legende Prinzipien wie die Unschulds­vermutung. Die Polizei kann ja auch nicht einfach anlass­los jede Wohnung durch­suchen und hoffen, auf etwas Verbotenes zu stoßen. Das ist das Fundament unseres Rechts­staates.

Ella Jakubowska
Ella Jakubowska leitet die politische Arbeit von EDRi zur Verwendung von Gesichts­erkennung und Biometrie durch staatliche und private Akteurinnen und Akteure, insbesondere in Bezug auf das EU-Gesetz über künstliche Intelligenz (KI). Außerdem leitet sie die politische Arbeit von EDRi zur E-Privacy-Ausnahme zur Bekämpfung der Online­verbreitung von Material über sexuellen Miss­brauch von Kindern (CSAM) und den „Prüm II“-Vorschlag für den Informations­austausch der Straf­verfolgungs­behörden. © EDRi

Das klingt nach Big Brother aus Brüssel. Was genau fordert die Kommission denn, und an wen ist der Entwurf gerichtet?

Jakubowska: Der Entwurf bezieht sich letztlich auf alle unsere Online­aktivitäten, also das Teilen von Familien­fotos auf Cloud-Diensten, alle Chats via Apps bei WhatsApp, Facebook Messenger, Threema, Signal, Telegram und mehr. Alle Kommunikations­anbieter*innen sollen in einem ersten Schritt eine Risiko­analyse zum Kinder­schutz durch­führen. Also: Wie hoch ist das Risiko, dass Miss­brauchs­darstellungen von Kindern auf der Plattform verbreitet werden? Das klingt zunächst nach einer guten Idee. Aber: Die Unternehmen müssten auch beweisen, dass sie alles, wirklich alles dafür tun, um das zu unter­binden, also das Risiko quasi auf null drücken müssen. Sonst drohen ihnen ein Gerichts­verfahren und eine Strafe von bis zu sechs Prozent des weltweiten Umsatzes.

Der Staat als schützende Hand? Kinder vor Gewalt und Missbrauch bewahren, ... © stocksy
... das sind Aufgaben von Polizei, Justiz, Schulen, Sozial­dienste und der ganzen Gesellschaft © stocksy

Die Kommission spricht auch explizit von Client-Side-Scanning, also Über­prüfungen auf den Endgeräten der Anwender*innen selbst. Wie funktioniert das?

Jakubowska: Das Client-Side-Scanning ist eine Methode zur Tele­kommunikations­über­wachung, bei der die zu versendenden Dateien bereits vor der Ende-zu-Ende-Verschlüsselung auf dem Gerät nach Inhalten über­prüft werden. Sprich: Meine Nachrichten werden gelesen und bewertet, während ich sie tippe – oder eben ein Bild wird über­prüft –, noch bevor ich auf „Senden“ drücke. Das ist aus zwei Gründen mehr als problematisch. Zum einen geht dadurch mein Recht auf private und geheime Kommunikation komplett verloren. Und das ist schon sehr bedeutend! Zum anderen wird dadurch die Ende-zu-Ende-Verschlüsselung gefährdet (bei der nicht einmal das Unternehmen Zugriff auf den Inhalt der Nachrichten hat, A. d. R.). Denn Anbieter*innen müssten eine Hintertür einbauen, durch die die Daten für den Scan laufen müssen. Das ist gefährlich, denn durch diese Hinter­türen können Hacker*innen nicht nur Zugriff auf die Chats, sondern auch auf den Inhalt des gesamten Telefons erlangen.

Die Kommission hält dagegen, dass dies alles dem Schutze der Kinder diene …

Jakubowska: Das ist ein emotionales Thema. Aber: In dem Zusammenhang hat Europol schon erklärt, dass Kinder­porno­ringe zu den technisch erfahrensten Kriminellen gehören. Wieso will die Kommission einen Zugang zu all unseren Telefonen einbauen, eben auch zu denen von Kindern und Jugendlichen? Wie kann jemand voraus­sehen, was passieren wird? Dazu kommen natürlich eine Vielzahl staatlicher oder nicht staatlicher böswilliger Akteurinnen und Akteure, die sich Zugang zu den Telefonen von Oppositionellen, Journalist*innen oder Menschen­rechts­aktivist*innen verschaffen könnten. Die Tech-Community hat sich fast unisono gegen den Entwurf gestemmt. Solch eine Einigkeit ist eher selten.

Mädchen schaut aus Fenster
Kinder­rechts­organisationen gehen davon aus, dass 80 bis 90 Prozent der Täter*innen aus dem Kindes­umfeld kommen © unsplash

Die Kommission fordert auch, dass unbekanntes kinder­porno­grafisches Material erkannt wird – dass also eine künstliche Intelligenz das Urlaubs­foto am Strand mit den Kindern von Miss­brauchs­darstellungen unterscheidet. Wie funktioniert das?

Jakubowska: Gar nicht. Künstliche Intelligenz ist unglaublich schlecht darin, Kontext zu verstehen, und verschlüsselte Nachrichten können nicht gescannt werden und dabei sicher bleiben. EU-Innen­kommissarin Ylva Johansson wird nicht müde zu betonen, dass die Technik bis zum Inkraft­treten des Gesetzes schon aufgeholt haben würde. Ich vergleiche das gerne damit: Sie verabschieden ein Gesetz, wonach es keine Krebs­toten mehr geben kann. Und die Ärztinnen und Ärzte könnten juristisch dafür belangt werden – obwohl es noch keine Heilung für Krebs gibt. Genauso ist es bei der Chat­kontrolle. Ich bin beileibe keine große Verteidigerin der „Big Tech“-Unternehmen. Aber wir können doch nicht per Gesetz von ihnen etwas verlangen, was nicht möglich ist. Das ist einfach schlechte Gesetz­gebung …

Und was passiert, wenn diese Anbieter*innen nicht beweisen können, dass sie alles dafür getan haben, das Risiko zu eliminieren?

Jakubowska: Wenn die zuständige Behörde eines Mitglied­staates entscheidet, dass diese Maßnahmen nicht ausreichen, kann sie eine behördliche Anordnung, eine „detection order“, vor Gericht beantragen. Dann müsste beispiels­weise WhatsApp die Chats von allen Nutzer*innen in Deutschland kontrollieren. Hier ist der Entwurf einfach schwammig und schlecht gestaltet, denn es verführt die Unternehmen dazu, im Zweifel alle mehr zu überwachen!

Welche Mittel haben Kommunikations­unternehmen, um den Kinder­schutz zu erhöhen?

Jakubowska: Eine Möglichkeit, die die Kommission in ihrem Proposal nennt, ist eine Alters­kontrolle. Aber: Dafür müssten die Dienste letztlich die Identität aller ihrer Nutzer*innen erheben und speichern. Das würde das Ende der Anonymität im Netz bedeuten. Die ist aber für sehr viele Akteurinnen und Akteure immens wichtig: Denken wir an Oppositionelle in repressiven Staaten, an Whistle­blower*innen, Menschen­rechts­aktivist*innen, aber auch an Frauen, die nach Möglichkeiten eines Schwanger­schafts­abbruchs suchen in Ländern, in denen das verboten ist. Es gibt eine Menge legitimer Gründe, warum Menschen im Netz anonym sein möchten. Wenn aber das Alter kontrolliert werden muss, wird die Identität kontrolliert. Das darf nicht passieren. Stattdessen sollten die Unternehmen dafür sorgen, dass ihre Nutzenden die Möglichkeit haben, auf potenziell rechtswidriges Material hinzuweisen oder Alarm zu schlagen, wenn sie befürchten, dass ein bestimmtes Online­verhalten illegal sein könnte.

Wenn wir Kinder schützen wollen, müssen wir Polizei, Justiz, Schulen und Sozialdienste stärken

Ella Jakubowska, EDRi

Was ist denn schlecht daran, Plattformen wie Facebook, Telegram und Co. in die Pflicht nehmen?

Jakubowska: Die Sache ist ja die: Durch diesen Gesetzes­entwurf würden Plattformen nicht nur einen großen Anreiz zur Massen­über­wachung haben – um einer Strafe zu entgehen. Brüssel würde ihnen ja staatliche Aufgaben übertragen. Wollen wir wirklich, dass private Unternehmen entscheiden, was Kindes­miss­brauch ist und was nicht? Der Gesetzes­entwurf sieht auch vor, dass Unternehmen gezwungen werden könnten, Internet­seiten zu sperren. Es kann außerdem von ihnen verlangt werden, die Social-Media-Beiträge zu filtern, um nach illegalem Material zu suchen. Wollen wir wirklich, dass etwa große US-Unternehmen entscheiden dürfen, welche Aussagen online rechtens sind und welche nicht? Das sind grund­legende staatliche Aufgaben, die nicht privatisiert werden sollten. Wenn wir Kinder schützen wollen, müssen wir uns stattdessen darauf konzentrieren, die Institutionen zu stärken, die sie schützen sollen: Polizei, Justiz, Schulen und Sozial­dienste.

Gibt es eine Möglichkeit, die Verbreitung von Miss­brauchs­darstellungen von Kindern zu bekämpfen, ohne Freiheits­rechte zu opfern?

Jakubowska: Anfang des Jahres haben wir unsere zehn Grundsätze zum Schutz von Kindern im digitalen Zeitalter veröffentlicht. Darin betonen wir, dass Ermittlungen zum Online-Kindes­miss­brauch – wie bei jeder anderen schweren Straftat – gegen diejenigen gerichtet sein sollten, gegen die ein begründeter individueller Verdacht besteht, und zwar im Einklang mit der Rechts­staatlichkeit und mit den Prinzipien eines ordnungs­gemäßen Verfahrens. Unter solchen Umständen können Behörden natürlich das Recht auf Privatsphäre und bestimmte andere Rechte echter Verdächtiger einschränken, um Kinder zu schützen. Unabhängig davon, wie schrecklich das Problem ist, mit dem man sich befasst, bedeutet dies jedoch nicht, dass die Staaten um jeden Preis Maßnahmen ergreifen können. Es ist nicht nur für die demokratische Gesellschaft, sondern auch für die Justiz wichtig, sicher­zu­stellen, dass die Maßnahmen hin­reichend ziel­gerichtet, gerecht­fertigt und angemessen sind: Beweise, die außerhalb der Grenzen des Gesetzes gesammelt wurden, sind vor Gericht nicht zulässig. Nach Schätzungen von Kinder­rechts­organisationen stammen 80 bis 90 Prozent der Täter*innen aus dem Kindes­umfeld. Daher kann und sollte viel getan werden, um Kinder von vornherein vor diesem Verbrechen zu schützen und die Täter*innen vor Gericht zu bringen, ohne die Funktions­weise des Internets grund­legend zu unter­graben.


EDRi

European Digital Rights (EDRi) ist eine Vereinigung von Bürger­rechts­organisationen, die sich dem Daten­schutz und der Freiheit der Bürger*innen in der Informations­gesellschaft verschrieben hat.
https://edri.org/