„Ein Algorithmus ist eine Welt der Wünsche“

Autorin: Kirsten Lange 13.12.2022

Was haben digitale Menschen­rechte mit Rassismus, Algorithmen und Sprache zu tun? Laurence Meyer vom Digital Freedom Fund (DFF) setzt sich dafür ein, dass alle Menschen welt­weit die gleichen digitalen Rechte haben. Wie wir über digitale Technologien sprechen, entscheide darüber, ob Menschen ihre digitalen Rechte erkennen und einfordern würden, meint sie. Deshalb organisiert sie Workshops für europäische NGOs, die sich für soziale, wirtschaftliche und anti­rassistische Gerechtigkeit engagieren. AufRuhr spricht mit ihr über Sprache.

Frau Meyer, warum ist es wichtig, über Sprache zu sprechen?

Sprache ist das Medium für Verbindung, Austausch und Solidarität. Dadurch werden wir eine Gesellschaft. Sprache ist aber auch ein Weg, um andere Menschen aus­zu­schließen. Wenn wir an die Kolonialzeit denken: Ein Teil des Kolonialismus bestand darin, einheimische Sprachen aus­zu­löschen oder sie als primitiven Dialekt ab­zu­stempeln. Anstatt sie als eigenen Weg zu sehen, die Welt zu beschreiben und zu begreifen. Wenn wir über Sprache reden, müssen wir also auch über Vorherrschaft reden. Sprache trägt dazu bei, Hierarchien zu etablieren und zu stärken – damals wie heute.

Was bedeutet das fürs Sprechen über digitale Themen?

In der digitalen Sphäre tritt dieser Effekt sogar noch verstärkt auf. Viele Menschen haben das Gefühl: Wenn über digitale Themen gesprochen wird, verstehen sie nicht, worum es geht. Es ist eine elitäre Art zu sprechen. Die Formulierungen sind sehr technisch. Sie verschleiern das größere gesellschaftliche Thema. Wenn Sie beispiels­weise über „automated decision making processes“ sprechen, denkt niemand, dass das etwas mit seinem oder ihrem Leben zu tun hat. Stellen Sie sich vor, Sie nutzen diesen englischen Begriff in einem Gespräch, das Sie auf Französisch, Deutsch, Suaheli oder Wolof führen. Mitten im Satz sagen Sie diesen Begriff, der furchtbar technisch ist und außerdem ein Begriff in einer fremden Sprache – der Sprache, die die digitale Sphäre zurzeit dominiert. Das fühlt sich in vielerlei Hinsicht fremd an. Und es hält die Menschen davon ab, sich mit dem eigentlichen Thema zu befassen. So kann Sprache verhindern, dass wir uns über unsere digitalen Menschen­rechte bewusst werden.

Laurence Meyer
© Balla Mal Kassé

Laurence Meyer ist Team­leiterin im Bereich Anti­rassismus und soziale Gerechtigkeit beim Digital Freedom Fund. Zuvor hat sie als parlamentarische Mitarbeiterin in der französischen National­versammlung gearbeitet. Die 34-Jährige lebt zurzeit in Berlin.

Was ist das eigentliche Thema dahinter?

Sprechen Sie nicht von „automated decision making processes“, sondern davon, wie diese automatisierten Entscheidungs­prozesse Rassismus bei Polizei­kontrollen verstärken. Wie sie zu Gewalt gegenüber Menschen an Landes­grenzen führen. Wie sie Hierarchien in der Verwaltung festigen und die Macht der Verwaltung über Bürger*innen verstärken. Wenn Sie mit konkreten Beispielen davon reden, merken die Menschen: Das Thema hat etwas mit ihnen zu tun. Wenn ein Algorithmus entscheidet, ob sie einen Kredit für einen Haus­kauf bekommen, ob sie in einem Land bleiben dürfen oder nicht, ob sie ins Gefängnis müssen oder nicht, dann ist das ein Problem.

Laptop mit Webseite "You can't find your voice if you don't use it"
© Unsplash

Bei Ihren Workshops „Talking Digital?“ – übersetzt: „Sprechen Sie digital?“ – machen Sie mit den Teilnehmer*innen die Übung „Wenn ich ein Algorithmus wäre“. Wie funktioniert das?

Bei den Onlineworkshops, die auf Englisch statt­finden, sollen die Teilnehmer*innen in verschiedenen Gruppen zuerst gemeinsam entscheiden: Welche nützliche, aber nervige Aufgabe würden sie am liebsten nie wieder in ihrem Leben selbst erledigen? Dann soll jede*r für sich beschreiben, welche Schritte nötig sind, um die Aufgabe zu erledigen. Und wann die Aufgabe ihrer Meinung nach erledigt ist. Was sich dabei heraus­gestellt hat: Im ersten Schritt ist es gar nicht leicht, sich in der Gruppe auf eine Aufgabe zu einigen, die alle loswerden wollen. Und im zweiten Schritt hat jede*r Teilnehmer*in eine andere Vorstellung davon, wann die Aufgabe zufrieden­stellend erledigt ist und welche Schritte dafür nötig sind. Eine Gruppe hatte das Beispiel Kleider bügeln. Jede*r beschrieb eine etwas andere Weise, Kleider zu bügeln. Und am Ende sagten einige: Die Aufgabe ist erledigt, wenn das Hemd gebügelt ist. Andere wider­sprachen: Nein, das Hemd muss auch noch zusammen­gelegt werden.

Was zeigen Sie mit dieser Übung?

Ein Algorithmus ist nicht objektiv. Er ist im Grunde eine Welt der Wünsche. An irgendeinem Punkt denkt ein Mensch: Okay, diese Aufgabe will ich nicht mehr selbst über­nehmen. Es wäre doch schön, wenn eine Maschine das täte. Dann ist die Frage: Was ist das für ein Mensch, der diese Entscheidung trifft? Was ist ihm wichtig? Man könnte behaupten: Es ist doch der Algorithmus, der entscheidet. Doch das stimmt nicht. Es entscheidet niemals nur die Maschine. Der Mensch dahinter entscheidet: Welche Aufgabe will er durch einen Algorithmus erledigen lassen, welche Schritte sind dafür nötig, wann ist die Aufgabe erledigt? Immer wird eine menschliche Wunsch­vorstellung mit diesem technologischen Werkzeug erfüllt.

Warum ist das ein Problem?

Denken wir an Algorithmen zur Gesichtserkennung. Erstens: Wer hat überhaupt bestimmt, dass es wichtig ist, Menschen auf der Straße zu erkennen? Zweitens: Wie entscheidet der Algorithmus, wer ein Mensch ist und wer nicht? Wer eine Frau ist und wer ein Mann? Wer hat entschieden, dass es nur diese beiden Geschlechter gibt? Entscheidet der Algorithmus auch über Hautfarbe und Nationalität? Die Menschen, die die Algorithmen entwickeln, haben nicht unbedingt Gender Studies studiert. Sie haben sich vermutlich nicht mit der Critical Race Theory (kritische Rassismus­theorie) aus­einander­gesetzt. Sie sind nicht zwangs­läufig Expert*innen im Bereich der sozialen Gerechtigkeit. In erster Linie haben sie Expertise im Bereich der Technologie. Sie dürfen diese weitreichenden gesellschaftlichen Entscheidungen treffen, nur weil sie wissen, wie man Maschinen baut.

Neonlicht "What is your story?"
© Unsplash

Welche Werkzeuge bieten Sie neben den Workshops noch an, um Organisationen stark zu machen für die Kommunikation über digitale Rechte?

Wir arbeiten an einem „Talking Digital?“-Werkzeug­kasten. Das wird eine Art Lexikon für alle, die an dem Thema interessiert sind. Dafür suchen wir Begriffe, die sehr technisch sind. Daneben stellen wir eine Definition, die den größeren Zusammenhang beschreibt. Wir wollen damit zeigen: Es gibt eine große Bandbreite, wie sich Begriffe verstehen lassen. Das soll zum Nachdenken anregen. Das Lexikon wird es online geben. Außerdem arbeiten wir an einer gedruckten Version.

Welche Begriffe erklären Sie in diesem Lexikon?

Ein Beispiel ist der Begriff biometrische Daten. Die rein technische Definition ist: Teile des Körpers wie der Finger­abdruck werden vermessen, auf­gezeichnet und können später wieder­erkannt werden. In ihrem hervor­ragenden Buch „Dark Matters“ beschreibt die US-amerikanische Wissenschaftlerin Simone Brown, wie der Begriff biometrische Daten zusammen­hängt mit der Tradition, Menschen in der Zeit des trans­atlantischen Sklaven­handels zu kennzeichnen. Dieser historische Kontext zeigt eine ganz andere Perspektive auf: Es geht nicht einfach darum, Daten wie den Finger­abdruck auf­zu­zeichnen. Es geht darum, dem körperlichen Erscheinungs­bild eine Bedeutung zuzuschreiben.

Der Weg zu einer digital gerechten Gesellschaft wird voraussichtlich noch ein sehr weiter sein. Wie motivieren Sie sich täglich aufs Neue dafür?

Der Zusammenhang von Rassismus und Digitalisierung ist ein wichtiges Thema für mich. Die Möglichkeit, beim DFF dieses Themen­feld aufzudecken und zu hinter­fragen, motiviert mich. Ich hatte das Glück, beim DFF anzufangen, als Nani Jansen Reventlow Leiterin war. Sie war eine groß­artige Mentorin für mich. Außerdem bin ich meinem Team sehr dankbar. Es ist wichtig, sich mit Menschen zu verbinden, die verstehen, wie emotional heraus­fordernd die Arbeit an diesen Themen sein kann. Der Austausch ist extrem wertvoll.


Kommunikation und Netzwerk­arbeit: Safeguarding Digital Rights for All

Die Initiative von European Digital Rights (EDRi) und Digital Freedom Fund (DFF) sensibilisiert Akteur*innen der Zivil­gesellschaft für die Wechsel­wirkungen zwischen digitalen Technologien und bestehenden Benachteiligungen. Zugleich unter­stützt sie Organisationen welt­weit, die digitalisierungs­bedingten Heraus­forderungen in ihren Kern­themen zu adressieren.
digitalfreedomfund.org/