Big Brother aus Brüssel
Es ist eine dramatische, eine bestürzende Zahl: Rund 85 Millionen Bilder und Videos mit kinderpornografischem Material wurden vergangenes Jahr in der Europäischen Union gemeldet – und das ist wohl nur die Spitze des Eisbergs. Um Kinder im Netz vor Pädokriminellen zu schützen, hat die EU-Kommission vor Kurzem einen Gesetzesentwurf vorgelegt. Die Folge der neuen Regeln ist eine möglichst umfassende Kontrolle von Chats. Kritiker*innen wie Ella Jakubowska von der Bürgerrechtsorganisation European Digital Rights (EDRi) fürchten, dass dabei grundlegende Freiheitsrechte in der EU auf der Strecke bleiben und unsere Onlinekommunikation sogar für Hacker*innen angreifbar wird, wie die Politikberaterin im AufRuhr-Interview erläutert.
Die Kommission will den Schutz von Kindern vor Missbrauch, insbesondere durch die Weitergabe von Fotos und Videos im Netz, stärken. Doch Digitalrechtsaktivist*innen wie Sie laufen Sturm gegen den Gesetzesentwurf. Warum?
Ella Jakubowska: Weil die vorgeschlagenen Maßnahmen in der jetzigen Form viel Schaden anrichten, ohne dass es Beweise dafür gibt, dass sie effektiv Kinder schützen. Unstrittig ist, dass Menschen, die Missbrauchsdarstellungen von Kindern besitzen und verbreiten, von den Strafbehörden verfolgt werden müssen. Das Problem ist aber – und deshalb stehen wir bei EDRi dem Entwurf kritisch gegenüber –, dass es darum in dem Gesetzesentwurf nicht geht: Wenn man sich den Text anschaut, müsste es korrekterweise „Entwurf zur Plattform- und Serviceprovider-Regulierung“ heißen … und dieser hat letztlich das Potenzial, einen Apparat zur Massenüberwachung zu schaffen. Stellen Sie sich vor: Jede Nachricht könnte potenziell gescannt werden! Das geht gegen grundlegende Prinzipien wie die Unschuldsvermutung. Die Polizei kann ja auch nicht einfach anlasslos jede Wohnung durchsuchen und hoffen, auf etwas Verbotenes zu stoßen. Das ist das Fundament unseres Rechtsstaates.
Das klingt nach Big Brother aus Brüssel. Was genau fordert die Kommission denn, und an wen ist der Entwurf gerichtet?
Jakubowska: Der Entwurf bezieht sich letztlich auf alle unsere Onlineaktivitäten, also das Teilen von Familienfotos auf Cloud-Diensten, alle Chats via Apps bei WhatsApp, Facebook Messenger, Threema, Signal, Telegram und mehr. Alle Kommunikationsanbieter*innen sollen in einem ersten Schritt eine Risikoanalyse zum Kinderschutz durchführen. Also: Wie hoch ist das Risiko, dass Missbrauchsdarstellungen von Kindern auf der Plattform verbreitet werden? Das klingt zunächst nach einer guten Idee. Aber: Die Unternehmen müssten auch beweisen, dass sie alles, wirklich alles dafür tun, um das zu unterbinden, also das Risiko quasi auf null drücken müssen. Sonst drohen ihnen ein Gerichtsverfahren und eine Strafe von bis zu sechs Prozent des weltweiten Umsatzes.
Die Kommission spricht auch explizit von Client-Side-Scanning, also Überprüfungen auf den Endgeräten der Anwender*innen selbst. Wie funktioniert das?
Jakubowska: Das Client-Side-Scanning ist eine Methode zur Telekommunikationsüberwachung, bei der die zu versendenden Dateien bereits vor der Ende-zu-Ende-Verschlüsselung auf dem Gerät nach Inhalten überprüft werden. Sprich: Meine Nachrichten werden gelesen und bewertet, während ich sie tippe – oder eben ein Bild wird überprüft –, noch bevor ich auf „Senden“ drücke. Das ist aus zwei Gründen mehr als problematisch. Zum einen geht dadurch mein Recht auf private und geheime Kommunikation komplett verloren. Und das ist schon sehr bedeutend! Zum anderen wird dadurch die Ende-zu-Ende-Verschlüsselung gefährdet (bei der nicht einmal das Unternehmen Zugriff auf den Inhalt der Nachrichten hat, A. d. R.). Denn Anbieter*innen müssten eine Hintertür einbauen, durch die die Daten für den Scan laufen müssen. Das ist gefährlich, denn durch diese Hintertüren können Hacker*innen nicht nur Zugriff auf die Chats, sondern auch auf den Inhalt des gesamten Telefons erlangen.
Die Kommission hält dagegen, dass dies alles dem Schutze der Kinder diene …
Jakubowska: Das ist ein emotionales Thema. Aber: In dem Zusammenhang hat Europol schon erklärt, dass Kinderpornoringe zu den technisch erfahrensten Kriminellen gehören. Wieso will die Kommission einen Zugang zu all unseren Telefonen einbauen, eben auch zu denen von Kindern und Jugendlichen? Wie kann jemand voraussehen, was passieren wird? Dazu kommen natürlich eine Vielzahl staatlicher oder nicht staatlicher böswilliger Akteurinnen und Akteure, die sich Zugang zu den Telefonen von Oppositionellen, Journalist*innen oder Menschenrechtsaktivist*innen verschaffen könnten. Die Tech-Community hat sich fast unisono gegen den Entwurf gestemmt. Solch eine Einigkeit ist eher selten.
Die Kommission fordert auch, dass unbekanntes kinderpornografisches Material erkannt wird – dass also eine künstliche Intelligenz das Urlaubsfoto am Strand mit den Kindern von Missbrauchsdarstellungen unterscheidet. Wie funktioniert das?
Jakubowska: Gar nicht. Künstliche Intelligenz ist unglaublich schlecht darin, Kontext zu verstehen, und verschlüsselte Nachrichten können nicht gescannt werden und dabei sicher bleiben. EU-Innenkommissarin Ylva Johansson wird nicht müde zu betonen, dass die Technik bis zum Inkrafttreten des Gesetzes schon aufgeholt haben würde. Ich vergleiche das gerne damit: Sie verabschieden ein Gesetz, wonach es keine Krebstoten mehr geben kann. Und die Ärztinnen und Ärzte könnten juristisch dafür belangt werden – obwohl es noch keine Heilung für Krebs gibt. Genauso ist es bei der Chatkontrolle. Ich bin beileibe keine große Verteidigerin der „Big Tech“-Unternehmen. Aber wir können doch nicht per Gesetz von ihnen etwas verlangen, was nicht möglich ist. Das ist einfach schlechte Gesetzgebung …
Und was passiert, wenn diese Anbieter*innen nicht beweisen können, dass sie alles dafür getan haben, das Risiko zu eliminieren?
Jakubowska: Wenn die zuständige Behörde eines Mitgliedstaates entscheidet, dass diese Maßnahmen nicht ausreichen, kann sie eine behördliche Anordnung, eine „detection order“, vor Gericht beantragen. Dann müsste beispielsweise WhatsApp die Chats von allen Nutzer*innen in Deutschland kontrollieren. Hier ist der Entwurf einfach schwammig und schlecht gestaltet, denn es verführt die Unternehmen dazu, im Zweifel alle mehr zu überwachen!
Welche Mittel haben Kommunikationsunternehmen, um den Kinderschutz zu erhöhen?
Jakubowska: Eine Möglichkeit, die die Kommission in ihrem Proposal nennt, ist eine Alterskontrolle. Aber: Dafür müssten die Dienste letztlich die Identität aller ihrer Nutzer*innen erheben und speichern. Das würde das Ende der Anonymität im Netz bedeuten. Die ist aber für sehr viele Akteurinnen und Akteure immens wichtig: Denken wir an Oppositionelle in repressiven Staaten, an Whistleblower*innen, Menschenrechtsaktivist*innen, aber auch an Frauen, die nach Möglichkeiten eines Schwangerschaftsabbruchs suchen in Ländern, in denen das verboten ist. Es gibt eine Menge legitimer Gründe, warum Menschen im Netz anonym sein möchten. Wenn aber das Alter kontrolliert werden muss, wird die Identität kontrolliert. Das darf nicht passieren. Stattdessen sollten die Unternehmen dafür sorgen, dass ihre Nutzenden die Möglichkeit haben, auf potenziell rechtswidriges Material hinzuweisen oder Alarm zu schlagen, wenn sie befürchten, dass ein bestimmtes Onlineverhalten illegal sein könnte.
Wenn wir Kinder schützen wollen, müssen wir Polizei, Justiz, Schulen und Sozialdienste stärken
Was ist denn schlecht daran, Plattformen wie Facebook, Telegram und Co. in die Pflicht nehmen?
Jakubowska: Die Sache ist ja die: Durch diesen Gesetzesentwurf würden Plattformen nicht nur einen großen Anreiz zur Massenüberwachung haben – um einer Strafe zu entgehen. Brüssel würde ihnen ja staatliche Aufgaben übertragen. Wollen wir wirklich, dass private Unternehmen entscheiden, was Kindesmissbrauch ist und was nicht? Der Gesetzesentwurf sieht auch vor, dass Unternehmen gezwungen werden könnten, Internetseiten zu sperren. Es kann außerdem von ihnen verlangt werden, die Social-Media-Beiträge zu filtern, um nach illegalem Material zu suchen. Wollen wir wirklich, dass etwa große US-Unternehmen entscheiden dürfen, welche Aussagen online rechtens sind und welche nicht? Das sind grundlegende staatliche Aufgaben, die nicht privatisiert werden sollten. Wenn wir Kinder schützen wollen, müssen wir uns stattdessen darauf konzentrieren, die Institutionen zu stärken, die sie schützen sollen: Polizei, Justiz, Schulen und Sozialdienste.
Gibt es eine Möglichkeit, die Verbreitung von Missbrauchsdarstellungen von Kindern zu bekämpfen, ohne Freiheitsrechte zu opfern?
Jakubowska: Anfang des Jahres haben wir unsere zehn Grundsätze zum Schutz von Kindern im digitalen Zeitalter veröffentlicht. Darin betonen wir, dass Ermittlungen zum Online-Kindesmissbrauch – wie bei jeder anderen schweren Straftat – gegen diejenigen gerichtet sein sollten, gegen die ein begründeter individueller Verdacht besteht, und zwar im Einklang mit der Rechtsstaatlichkeit und mit den Prinzipien eines ordnungsgemäßen Verfahrens. Unter solchen Umständen können Behörden natürlich das Recht auf Privatsphäre und bestimmte andere Rechte echter Verdächtiger einschränken, um Kinder zu schützen. Unabhängig davon, wie schrecklich das Problem ist, mit dem man sich befasst, bedeutet dies jedoch nicht, dass die Staaten um jeden Preis Maßnahmen ergreifen können. Es ist nicht nur für die demokratische Gesellschaft, sondern auch für die Justiz wichtig, sicherzustellen, dass die Maßnahmen hinreichend zielgerichtet, gerechtfertigt und angemessen sind: Beweise, die außerhalb der Grenzen des Gesetzes gesammelt wurden, sind vor Gericht nicht zulässig. Nach Schätzungen von Kinderrechtsorganisationen stammen 80 bis 90 Prozent der Täter*innen aus dem Kindesumfeld. Daher kann und sollte viel getan werden, um Kinder von vornherein vor diesem Verbrechen zu schützen und die Täter*innen vor Gericht zu bringen, ohne die Funktionsweise des Internets grundlegend zu untergraben.
EDRi
European Digital Rights (EDRi) ist eine Vereinigung von Bürgerrechtsorganisationen, die sich dem Datenschutz und der Freiheit der Bürger*innen in der Informationsgesellschaft verschrieben hat.
https://edri.org/