„Ein Algorithmus ist eine Welt der Wünsche“
Was haben digitale Menschenrechte mit Rassismus, Algorithmen und Sprache zu tun? Laurence Meyer vom Digital Freedom Fund (DFF) setzt sich dafür ein, dass alle Menschen weltweit die gleichen digitalen Rechte haben. Wie wir über digitale Technologien sprechen, entscheide darüber, ob Menschen ihre digitalen Rechte erkennen und einfordern würden, meint sie. Deshalb organisiert sie Workshops für europäische NGOs, die sich für soziale, wirtschaftliche und antirassistische Gerechtigkeit engagieren. AufRuhr spricht mit ihr über Sprache.
Frau Meyer, warum ist es wichtig, über Sprache zu sprechen?
Sprache ist das Medium für Verbindung, Austausch und Solidarität. Dadurch werden wir eine Gesellschaft. Sprache ist aber auch ein Weg, um andere Menschen auszuschließen. Wenn wir an die Kolonialzeit denken: Ein Teil des Kolonialismus bestand darin, einheimische Sprachen auszulöschen oder sie als primitiven Dialekt abzustempeln. Anstatt sie als eigenen Weg zu sehen, die Welt zu beschreiben und zu begreifen. Wenn wir über Sprache reden, müssen wir also auch über Vorherrschaft reden. Sprache trägt dazu bei, Hierarchien zu etablieren und zu stärken – damals wie heute.
Was bedeutet das fürs Sprechen über digitale Themen?
In der digitalen Sphäre tritt dieser Effekt sogar noch verstärkt auf. Viele Menschen haben das Gefühl: Wenn über digitale Themen gesprochen wird, verstehen sie nicht, worum es geht. Es ist eine elitäre Art zu sprechen. Die Formulierungen sind sehr technisch. Sie verschleiern das größere gesellschaftliche Thema. Wenn Sie beispielsweise über „automated decision making processes“ sprechen, denkt niemand, dass das etwas mit seinem oder ihrem Leben zu tun hat. Stellen Sie sich vor, Sie nutzen diesen englischen Begriff in einem Gespräch, das Sie auf Französisch, Deutsch, Suaheli oder Wolof führen. Mitten im Satz sagen Sie diesen Begriff, der furchtbar technisch ist und außerdem ein Begriff in einer fremden Sprache – der Sprache, die die digitale Sphäre zurzeit dominiert. Das fühlt sich in vielerlei Hinsicht fremd an. Und es hält die Menschen davon ab, sich mit dem eigentlichen Thema zu befassen. So kann Sprache verhindern, dass wir uns über unsere digitalen Menschenrechte bewusst werden.
Laurence Meyer ist Teamleiterin im Bereich Antirassismus und soziale Gerechtigkeit beim Digital Freedom Fund. Zuvor hat sie als parlamentarische Mitarbeiterin in der französischen Nationalversammlung gearbeitet. Die 34-Jährige lebt zurzeit in Berlin.
Was ist das eigentliche Thema dahinter?
Sprechen Sie nicht von „automated decision making processes“, sondern davon, wie diese automatisierten Entscheidungsprozesse Rassismus bei Polizeikontrollen verstärken. Wie sie zu Gewalt gegenüber Menschen an Landesgrenzen führen. Wie sie Hierarchien in der Verwaltung festigen und die Macht der Verwaltung über Bürger*innen verstärken. Wenn Sie mit konkreten Beispielen davon reden, merken die Menschen: Das Thema hat etwas mit ihnen zu tun. Wenn ein Algorithmus entscheidet, ob sie einen Kredit für einen Hauskauf bekommen, ob sie in einem Land bleiben dürfen oder nicht, ob sie ins Gefängnis müssen oder nicht, dann ist das ein Problem.
Bei Ihren Workshops „Talking Digital?“ – übersetzt: „Sprechen Sie digital?“ – machen Sie mit den Teilnehmer*innen die Übung „Wenn ich ein Algorithmus wäre“. Wie funktioniert das?
Bei den Onlineworkshops, die auf Englisch stattfinden, sollen die Teilnehmer*innen in verschiedenen Gruppen zuerst gemeinsam entscheiden: Welche nützliche, aber nervige Aufgabe würden sie am liebsten nie wieder in ihrem Leben selbst erledigen? Dann soll jede*r für sich beschreiben, welche Schritte nötig sind, um die Aufgabe zu erledigen. Und wann die Aufgabe ihrer Meinung nach erledigt ist. Was sich dabei herausgestellt hat: Im ersten Schritt ist es gar nicht leicht, sich in der Gruppe auf eine Aufgabe zu einigen, die alle loswerden wollen. Und im zweiten Schritt hat jede*r Teilnehmer*in eine andere Vorstellung davon, wann die Aufgabe zufriedenstellend erledigt ist und welche Schritte dafür nötig sind. Eine Gruppe hatte das Beispiel Kleider bügeln. Jede*r beschrieb eine etwas andere Weise, Kleider zu bügeln. Und am Ende sagten einige: Die Aufgabe ist erledigt, wenn das Hemd gebügelt ist. Andere widersprachen: Nein, das Hemd muss auch noch zusammengelegt werden.
Was zeigen Sie mit dieser Übung?
Ein Algorithmus ist nicht objektiv. Er ist im Grunde eine Welt der Wünsche. An irgendeinem Punkt denkt ein Mensch: Okay, diese Aufgabe will ich nicht mehr selbst übernehmen. Es wäre doch schön, wenn eine Maschine das täte. Dann ist die Frage: Was ist das für ein Mensch, der diese Entscheidung trifft? Was ist ihm wichtig? Man könnte behaupten: Es ist doch der Algorithmus, der entscheidet. Doch das stimmt nicht. Es entscheidet niemals nur die Maschine. Der Mensch dahinter entscheidet: Welche Aufgabe will er durch einen Algorithmus erledigen lassen, welche Schritte sind dafür nötig, wann ist die Aufgabe erledigt? Immer wird eine menschliche Wunschvorstellung mit diesem technologischen Werkzeug erfüllt.
Warum ist das ein Problem?
Denken wir an Algorithmen zur Gesichtserkennung. Erstens: Wer hat überhaupt bestimmt, dass es wichtig ist, Menschen auf der Straße zu erkennen? Zweitens: Wie entscheidet der Algorithmus, wer ein Mensch ist und wer nicht? Wer eine Frau ist und wer ein Mann? Wer hat entschieden, dass es nur diese beiden Geschlechter gibt? Entscheidet der Algorithmus auch über Hautfarbe und Nationalität? Die Menschen, die die Algorithmen entwickeln, haben nicht unbedingt Gender Studies studiert. Sie haben sich vermutlich nicht mit der Critical Race Theory (kritische Rassismustheorie) auseinandergesetzt. Sie sind nicht zwangsläufig Expert*innen im Bereich der sozialen Gerechtigkeit. In erster Linie haben sie Expertise im Bereich der Technologie. Sie dürfen diese weitreichenden gesellschaftlichen Entscheidungen treffen, nur weil sie wissen, wie man Maschinen baut.
Welche Werkzeuge bieten Sie neben den Workshops noch an, um Organisationen stark zu machen für die Kommunikation über digitale Rechte?
Wir arbeiten an einem „Talking Digital?“-Werkzeugkasten. Das wird eine Art Lexikon für alle, die an dem Thema interessiert sind. Dafür suchen wir Begriffe, die sehr technisch sind. Daneben stellen wir eine Definition, die den größeren Zusammenhang beschreibt. Wir wollen damit zeigen: Es gibt eine große Bandbreite, wie sich Begriffe verstehen lassen. Das soll zum Nachdenken anregen. Das Lexikon wird es online geben. Außerdem arbeiten wir an einer gedruckten Version.
Welche Begriffe erklären Sie in diesem Lexikon?
Ein Beispiel ist der Begriff biometrische Daten. Die rein technische Definition ist: Teile des Körpers wie der Fingerabdruck werden vermessen, aufgezeichnet und können später wiedererkannt werden. In ihrem hervorragenden Buch „Dark Matters“ beschreibt die US-amerikanische Wissenschaftlerin Simone Brown, wie der Begriff biometrische Daten zusammenhängt mit der Tradition, Menschen in der Zeit des transatlantischen Sklavenhandels zu kennzeichnen. Dieser historische Kontext zeigt eine ganz andere Perspektive auf: Es geht nicht einfach darum, Daten wie den Fingerabdruck aufzuzeichnen. Es geht darum, dem körperlichen Erscheinungsbild eine Bedeutung zuzuschreiben.
Der Weg zu einer digital gerechten Gesellschaft wird voraussichtlich noch ein sehr weiter sein. Wie motivieren Sie sich täglich aufs Neue dafür?
Der Zusammenhang von Rassismus und Digitalisierung ist ein wichtiges Thema für mich. Die Möglichkeit, beim DFF dieses Themenfeld aufzudecken und zu hinterfragen, motiviert mich. Ich hatte das Glück, beim DFF anzufangen, als Nani Jansen Reventlow Leiterin war. Sie war eine großartige Mentorin für mich. Außerdem bin ich meinem Team sehr dankbar. Es ist wichtig, sich mit Menschen zu verbinden, die verstehen, wie emotional herausfordernd die Arbeit an diesen Themen sein kann. Der Austausch ist extrem wertvoll.
Kommunikation und Netzwerkarbeit: Safeguarding Digital Rights for All
Die Initiative von European Digital Rights (EDRi) und Digital Freedom Fund (DFF) sensibilisiert Akteur*innen der Zivilgesellschaft für die Wechselwirkungen zwischen digitalen Technologien und bestehenden Benachteiligungen. Zugleich unterstützt sie Organisationen weltweit, die digitalisierungsbedingten Herausforderungen in ihren Kernthemen zu adressieren.
digitalfreedomfund.org/