Facebook und Twitter durch Plattformräte regulieren

Autorin: Bettina Brakelmann 07.02.2023

Was User*innen auf Facebook, Instagram, Twitter, TikTok, LinkedIn und Co. sagen dürfen, bestimmen die Betreiber*innen durch ihre Algorithmen. Wirtschaftliche Interessen sind dabei oft wichtiger als demokratische Werte. Weil die Menschen gesellschaftliche und politische Debatten zunehmend in den sozialen Medien führen, ist das ein großes Problem. Warum Platt­form­räte daher eine Lösung sein könnten, soziale Medien besser zu kontrollieren, haben wir mit dem Digital­experten Matthias C. Kettemann diskutiert.

Sie haben sogar den Weg in den Koalitions­vertrag der Bundes­regierung gefunden: Platt­form­räte. Sie sollen helfen, große Social-Media-Plattformen demokratischer zu gestalten. Und einige Betreiber experimentieren bereits mit verschiedenen Formen solcher Social Media Councils, in denen Vertreter*innen aus der gesamten Bevölkerung sitzen.

Mit dem Digitalexperten und Professor für Innovation, Theorie und Philosophie des Rechts an der Universität Innsbruck, Matthias C. Kettemann, haben wir darüber gesprochen, wie Platt­form­räte idealer­weise aussehen, welche Befugnisse sie brauchen – und warum wir Elon Musk eigentlich dankbar sein müssten.

Herr Kettemann, warum brauchen wir Plattform­räte?

Matthias C. Kettemann: Weil die Demokratie gefährdet ist. Unser gesellschaftlicher Zusammen­halt braucht gemeinsames Reden über gemeinsame Werte und gemeinsame Ziele. Um diese Gespräche führen zu können, benötigen wir gesellschaftliche Räume. Diese fehlen im Internet weitest­gehend: Online sind wir fast nur in privaten Räumen unterwegs.

Meinen Studierenden veranschauliche ich diesen Unterschied gerne an folgendem Beispiel aus der analogen Welt: Stellt euch vor, ihr seid gegen zu hohen Fleisch­konsum und möchtet der Öffentlichkeit mitteilen: „Esst weniger Fleisch!“ Dürft ihr das auf dem Markt­platz mitten in der Stadt? Ja, natürlich, ihr meldet eine Demo an, und los geht’s. Wenn ihr das aber an einem Ort machen möchtet, wo die Menschen das Fleisch auch kaufen, wird’s schwierig. Wenn ihr im nächsten Supermarkt vor der Fleisch­theke ein Transparent entrollt, auf dem „Kauft weniger Fleisch“ steht, wird der*die Besitzer*in vermutlich zu euch sagen: „Raus hier, denn das ist ein privater Raum.“

Prof. Matthias C. Kettemann
© Universität Innsbruck 2022

Prof. Dr. Matthias C. Kettemann

forscht zu den Regeln der Macht und der Macht der Regeln im Internet und leitet Forschungs­programme am Leibniz-Institut für Medien­forschung und dem Humboldt-Institut für Internet und Gesellschaft.

Auch Plattformen wie Facebook, Twitter, TikTok und viele andere sind private Räume, die von Unternehmen beherrscht werden. Deren Führungs­kräfte bestimmen die Regeln und designen die Algorithmen. Sie entscheiden also, welche Inhalte wir sehen und vor allem, welche Inhalte diese verstärkt empfehlen. Dadurch prägen sie die Online­öffentlichkeit in großem Ausmaß.

Ein Beispiel: In den USA durften User*innen auf Facebook den Holocaust leugnen, bis es Mark Zuckerberg 2020 verbot, weil sich seine Einschätzung geändert hatte. Man durfte übrigens auch jahre­lang die Effektivität von Impfungen auf Facebook und Twitter leugnen. Dann kam Corona, die Gesundheits­gefahren wurden größer, und die Platt­formen haben diese Art von Behauptungen verboten. Nachdem Elon Musk Twitter im Oktober 2022 gekauft hat, hat er dieses Agreement kurzer­hand über Bord geworfen – nun darf jede*r auf Twitter wieder sagen, dass Impfen nichts bringt. Das ist viel Macht in den Händen von wenigen.

Da die Debatten über ganz entscheidende gesellschaftliche Fragen zu einem nicht geringen Teil ins Internet migriert sind, haben wir vom Projekt uns die Frage gestellt: Wie können wir die Onlinewelt demokratisieren und öffentliche Werte und Ziele in diese Diskurse hinein­bringen?

Unsere Antwort: Wir müssen die Regeln verbessern, nach denen die Onlineplattformen die Diskussionen beherrschen. Indem die Politik ihnen zum Beispiel eine Art Platt­form­parlament zur Seite stellt. Denn warum sollen nicht all jene Leute, die von den Entscheidungen, Filter- und Moderations­praktiken der Plattformen betroffen sind, bei der Entwicklung dieser Regeln und Praktiken mitbestimmen?

© stocksy

Einige Plattformen haben ja bereits solche Gremien zusammen­gestellt. Was halten Sie davon?

Kettemann: Facebook hat nach langem Vorlauf ein Oversight Board entwickelt, das dem Modell eines Expert*innenbeirates folgt. Also nicht als Platt­form­parlament mit User*innen, sondern bestückt mit Expert*innen – darunter eine Friedens­nobel­preis­trägerin, der Ex-Chef der britischen Tages­zeitung „The Guardian“ sowie Professor*innen aus der ganzen Welt. Sie helfen Facebook in Einzel­fällen, menschen­rechts­basierte Entscheidungen zu treffen, und fordern das Unternehmen etwa auf, die Algorithmen besser ein­zu­stellen und Regel­änderungen klarer zu kommunizieren. Das Oversight Board ist sicher nicht perfekt, aber ein Schritt in die richtige Richtung.

Geht Ihnen nicht der Hut hoch, wenn Sie sich das Verhalten von Elon Musk rund um den Twitter-Kauf anschauen?

Kettemann: Nein, eigentlich müssten wir ihm dankbar sein. Denn er zeigt uns, was passiert, wenn wir nicht auf mehr Demokratie, mehr Kontrolle, mehr Rechen­schafts­pflicht der Plattformen setzen. Wir sehen an diesem Beispiel, dass die Gewalten­teilung ein wichtiger Stand­pfeiler jeder demokratischen Ordnung ist. Es ist einfach richtig und wichtig, wenn sich verschiedene Gewalten gegen­seitig kontrollieren. Die meisten Plattformen haben zum Glück verstanden, dass sie auf mehr Gewalten­teilung und Mitbestimmung setzen müssen, um ihre Legitimität zu stärken. Musk zeigt uns, was passiert, wenn jemand seine Macht unkontrolliert ausnützt. Sein Verhalten ist letztendlich das beste Argument für eine Neuausrichtung der Plattformen an öffentlichen Werten und Zielen.

Es ist einfach richtig und wichtig, wenn sich verschiedene Gewalten gegen­­seitig kontrollieren.

Prof. Dr. Matthias C. Kettemann

Also macht die Idee der Plattformräte Schule?

Kettemann: Unbedingt! Die Zeit ist einfach reif für die Idee der Plattformräte. Sie hat ja nicht von ungefähr ihren Weg in den aktuellen Koalitions­vertrag gefunden. Darin steht konkret, dass die Regierung den Aufbau von Platt­form­räten voranbringen möchte. Unser Projekt (siehe Projektbox) ist aktuell das einzige, das weltweit untersucht, unter welchen Bedingungen Platt­form­demokratien funktionieren.

© stocksy

Wie gehen Sie konkret vor?

Kettemann: Wir haben zunächst ein Sounding Board eingerichtet, eine Art Beirat deutscher Stakeholder aus Zivil­gesellschaft und Politik, zum Beispiel Vertreter*innen der Ministerien und des Bundestages. Inzwischen hatten wir schon mehrere Meetings, und sowohl die Ministerien als auch der Gesetz­geber sind sehr gespannt auf unsere Ergebnisse. Auf deren Grundlage können alle Beteiligten darüber nachdenken, wie sich die Idee der Platt­form­räte in Deutschland umsetzen lässt.

Das Projekt hat vier Teile, die wir Clinics nennen. Wir haben jeweils zehn Expert*innen aus vier Kontinenten – Europa, Asien, Afrika und Amerika – zusammen­gerufen und ihnen konkrete Recherche­aufträge zu verschiedenen Aspekten der Online­demokratie gegeben. Da geht es beispielsweise um Platt­formräte in Asien oder die Erfahrungen mit dem Beirat zur Künstlichen Intelligenz in Finnland. Oder wie lokale Gemeinschaften in Afrika, wenn sie noch nicht einmal Internet­zugang haben, in diese Beiräte integriert werden können. Zu solchen Themen produzieren unsere Forschenden Analysen, die wir sammeln, die wichtigsten Punkte zusammen­fassen und sie für Öffentlichkeit und Politik entsprechend aufbereiten.

Die europäische Clinic ist im Dezember zu Ende gegangen, die anderen drei sind im Januar gestartet. Erste Ergebnisse werden wir voraus­sichtlich im März herausgeben.

Können Sie schon ein bisschen spoilern?

Kettemann: Ja, gerne. Die Idee, dass Plattformen sich stärker an demokratische Werte halten müssen, ist ganz zentral und zukunftsträchtig. Es wird nicht ausreichen, die sozialen Medien allein extern zu kontrollieren, etwa durch die neuen europäischen Digital­gesetze wie den Digital Services Act (DSA). Wir zeigen, dass die Plattformen sich über­legen müssen, wie sie die Nutzer*innen stärker in die Entwicklung von Regeln und Algorithmen integrieren können.

Ein anderer wichtiger Aspekt ist übrigens, dass sehr viele Leute weder das Internet noch die Plattformen nutzen. Und dennoch sind sie von der Art und Weise, wie online kommuniziert wird, betroffen. Wir müssen ein Modell finden, auch diese Menschen irgendwie in Platt­form­räte einzu­beziehen.

So scheint ein Mischmodell aus Expert*innen und parlamentarischen Elementen sinnvoll zu sein. Auch zeichnet sich ab, dass regionale Lösungen zweck­dienlich sind. Alle Regionen der Welt haben unterschiedliche Heraus­forderungen. Auch die Sprache spielt eine Rolle: Es zeichnet sich ab, dass die Erhöhung der Sprach­kompetenz von Moderator*innen sehr wichtig ist. Die kulturelle, die linguistische Dimension muss aber auch stark in den Platt­formräten repräsentiert sein. Dem Oversight Board von Facebook wird aktuell zu Recht der Vorwurf gemacht, dass es sehr westlich, sehr juristisch, sehr an der englischen Sprache orientiert sei. Das ist schlecht, weil Facebook jetzt schon bedeutend mehr Moderations­ressourcen auf Englisch und in anderen westlichen Sprachen einsetzt. Bei der zukünftigen Besetzung dieser Räte muss es Ziel sein, eine derartige Diskriminierung zu vermeiden.

Wie lassen sich die Regeln eines Plattformrates durchsetzen?

Kettemann: Die Durchsetzungs­frage ist ein ganz wichtiger Punkt. Sie setzt voraus, dass die Plattformen mitmachen. Aber die Betreiber*innen erkennen die Zeichen der Zeit und sehen, dass sie sich für mehr Mitbestimmung öffnen müssen. In der Regel rennen wir da offene Türen ein, nur Fragen der Bindungs­kraft und der konkreten Umsetzung sind oft noch strittig.

Es wird vermutlich auf eine Selbstverpflichtung der Plattformen hinaus­laufen, einfach weil sie als Eigentümer dieser privaten Räume ihr Hausrecht ausüben. Ich denke, ein Plattformrat wird beratende und helfende Funktionen übernehmen, ohne bis in die Details hinein zu regulieren.


Plattform://Demokratie

Können Plattformräte dafür sorgen, dass öffentliche Interessen und demokratische Werte in den Regel­setzungs­prozessen von Plattformen berücksichtigt werden? Ja. Aber wie? Mit dieser Fragen beschäftigen sich die Forschenden am Leibniz-Institut für Medien­­forschung und am Alexander von Humboldt Institut für Internet und Gesellschaft. In dem breit angelegten Projekt „Plattform://Demokratie: Plattformräte als Instrument der demokratischen Rückbindung hybrider Online-Ordnungen“ suchen 50 Forschende derzeit weltweit nach Best-Practice-Modellen.

www.hiig.de/project/plattform-demokratie