Content-Moderation: „Mensch und Maschine müssen als Team funktionieren“

Content-Moderation: „Mensch und Maschine müssen als Team funktionieren“
Autorin: Elisabeth Krainer 01.04.2025

Meta-Gründer Mark Zuckerberg und X-Chef Elon Musk sind sich einig: Zu viel Moderation in den sozialen Netz­werken – etwa das automatisierte Löschen von extre­mis­tischen Inhalten oder Desin­formation – schränkt die Meinungs­­frei­heit ein. Auf der Plattform X wurden bereits 2022 diverse Sicherheits­­richt­­linien zurück­gefahren. Auch Meta hat seine Faktenchecks durch externe Prüfer*innen Anfang 2025 abgeschafft. Der Rechts­­wissen­schaft­ler und Digital­­experte Matthias Kettemann hält dagegen: „Die Antwort auf schlechte Moderation ist nicht weniger, sondern bessere Moderation.“ Wie Künstliche Intelligenz (KI) Inhalte auf Social Media sinnvoll moderieren kann und an welcher Stelle es noch Menschen braucht, erklärt er im Interview mit AufRuhr.

Herr Kettemann, Content-Moderation sorgt dafür, dass verbotene Inhalte in den sozialen Medien gesperrt oder gelöscht werden. Was sagen Sie zu den Kehrt­wenden von Musk und Zuckerberg?
Ich finde die Entscheidungen von Musk und Zuckerberg problematisch, denn sie werden dazu führen, dass sich die Stimmung in den sozialen Netz­werken verschlechtert. Meta hat die Zusammenarbeit mit externen Fakten­checker*innen beendet. Stattdessen können Nutzer*innen sogenannte „Community Notes“, also subjektive Einschätzungen an Beiträge anheften. Auf X wird das bereits seit Längerem umgesetzt. Wenn gewollt, könnte Automatisierung durch KI hier gegensteuern: Bei Hassrede oder Dickpics braucht es nicht 50.000 Moderator*innen für eine Arbeit, die eine Maschine erledigen könnte.

Welche gesetzlichen Vorgaben gelten für Content-Moderation?
Der Digital Services Act (DSA) verpflichtet große Plattformen dazu, systematisch zu bewerten, welche Risiken von ihren eigenen Regeln und ihrer Modera­tions­praxis ausgehen. Das sorgt für Konflikte. Zuckerberg meint etwa, auf Meta sei in der Vergan­gen­heit zu viel moderiert und dadurch die Meinungs­frei­heit beschnitten worden. Dass zu streng moderiert wurde, harmlose Inhalte und Konten also gesperrt oder gelöscht wurden, stimmt auch zum Teil. Trotzdem versuchen wir, den Plattformen durch unsere Arbeit zu vermitteln: Die Antwort auf schlechte Moderation ist nicht weniger Moderation, sondern bessere.

Prof. Matthias C. Kettemann
© Universität Innsbruck 2022

Prof. Dr. Matthias Kettemann

Matthias Kettemann ist Rechts­­wissen­schaft­ler und Digital­experte. Am Institut für Theorie und Zukunft des Rechts der Universität Innsbruck hat er die Professur für Innovation, Theorie und Philo­sophie des Rechts inne. Am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) leitet er außerdem die Forschungs­gruppe „Globaler Konstitutionalismus und das Internet“, zuletzt das Forschungs­projekt „Plattform://Demokratie“ und aktuell die Forschungsprojekte „Völkerrecht des Netzes“ und „Human in the Loop?“ sowie das DSA Forschungsnetzwerk.

Die Antwort auf schlechte Moderation ist nicht weniger Moderation, sondern bessere.

Matthias Kettemann, Rechts­­wissen­schaft­ler und Digital­experte

Braucht es für Content-Moderation überhaupt noch Menschen?
Ja, denn jede Form der digitalen Kommuni­kation braucht Regeln – und jemanden, der sie durchsetzt. Automatisierte Systeme wie KI helfen, große Mengen an Inhalten schnell zu moderieren. Doch sie ersetzen den Menschen nicht. Entscheidend ist also ihr Zusammen­­spiel: Maschinen übernehmen einen Großteil des Filterns und des Moderierens – und Menschen stellen sicher, dass die Entscheidungen richtig sind, und korrigieren sie gegebe­nen­falls.

Content Moderation
Content-Moderation ist ein komplexer Prozess. Umso wichtiger, dass Menschen den Überblick behalten. © Unsplash

Reicht es nicht aus, dass ein Mensch die finale Entscheidung einer KI im letzten Schritt freigibt?
Das wäre in etwa so, als würden Eltern erst mit der Erziehung beginnen, wenn ihre Kinder 18 Jahre alt sind. Sie sehen dann zwar die größten Probleme, können ein bisschen korrigieren, aber nichts Grund­legendes mehr ändern. Das halte ich für unter­komplex. Die Frage, wie Mensch und Maschine zusammen­­arbeiten können, muss bereits beim Design des Systems gestellt werden. Andernfalls besteht die Gefahr, Bias der Automatisierung nicht mehr erkennen zu können.

Was ist mit einer solchen Automation Bias gemeint?
Wir Menschen lassen uns gerne Entschei­dungen abnehmen. Deshalb neigen wir dazu, automa­tisierte Entscheidungen nicht zu hinter­fragen. Schaue ich mir den Output eines Systems an, hat es bereits hundertmal davor entschieden. Deshalb müssen wir als Forschende genauer hinschauen: Wie kommen die Entscheidungen zustande? Welche Parameter fließen ein? Wie kommuniziert das System, und wie präsentiert es seine Ergebnisse?

Gibt es Beispiele, bei denen die Content-Moderation von Mensch und Maschine schon gut läuft?
Ja, bei der Moderation terroristischer Inhalte. Plattformen müssen hier blitz­schnell entscheiden und Bilder oder Videos entfernen. Menschen sind dabei eher zu Beginn des Prozesses beteiligt. Sie müssen definieren, was ein terroristisches Bild ausmacht. Auch bei Desinformation funktioniert die Moderation zum Teil gut. Das liegt jedoch weniger an den Inhalten, sondern daran, dass Mensch und KI die Absender*innen als Teil von Desin­formations­­kam­pagnen erkennen.

Wenn sie wollten, könnten die Plattformen ihre Moderations­systeme viel schärfer einstellen.

Matthias Kettemann, Rechts­­wissen­schaft­ler und Digital­experte

Wie funktioniert das?
Postet ein Account zum Beispiel jeden Tag um Punkt 9 Uhr, kann das verdächtig sein. Oder wenn innerhalb von Sekunden Posts abgesetzt werden. Dann handelt es sich meistens um einen Bot. So schnell ist kein Mensch. Diese Merkmale sollten von Menschen definiert werden, sodass Maschinen sie erkennen. Dieses Prinzip heißt „Content Moderation at Scale“, also hoch­skalierte Moderation.

Sind automatisierte Systeme groß angelegten Desinfor­mations­­kampagnen überhaupt gewachsen?
Technisch gesehen gibt es kein Skalie­rungs­­problem. Wenn sie wollten, könnten die Platt­­formen ihre Moderations­systeme viel schärfer einstellen. Doch sie tun es nicht. Der Grund? Kosten und der politische Zeit­geist. Eine striktere Moderation könnte Werbe­kunden verprellen und Nutzer*innen abschrecken.

Content Moderation
Wie Content moderiert wird, formt auch unsere Wahrnehmung der Außenwelt. © Unsplash

Es ist also eine Frage des Wollens und nicht des Könnens?
Genau. Immer dann, wenn Platt­formen etwas nicht wollen, tun sie so, als könnten sie nicht. Umso wichtiger ist es deshalb, dass in der Politik und bei der Gesetz­­gebung Expert*innen beteiligt sind, die sich mit den technischen Hinter­­gründen auskennen und der Argumentation der Platt­­form­­besitzer*innen etwas entgegen­setzen können.

Was wünschen Sie sich, um das Thema Content-Moderation von Mensch und Maschine weiter nach vorne zu bringen?
Ich wünsche mir eine sinnvolle Debatte. Aktuell ist es schwierig, sachlich über Content-Moderation zu sprechen. Die einen sagen, es wird zu viel zensiert. Die anderen sagen, wir haben zu viel Hass­rede und Desinfor­mation im Netz. Von alldem stimmt ein bisschen. Aber keines dieser Probleme ist unüber­windbar. Der DSA hat eine solide Grund­lage gelegt, aber hinsichtlich dem Thema Content-Moderation finden sich darin eher vage Anweisungen. Was wir also brauchen, ist mehr Zusammen­arbeit zwischen der Wissenschaft, den Plattformen und der Politik, damit Content-Moderation gerecht, transparent und effizient wird. Mensch und Maschine sind dabei keine Gegen­spieler, sondern müssen als Team funktionieren.


Human in the Loop?

Das Forschungs­projekt „Human in the Loop? Autonomie und Automation in sozio-technischen Systemen“ untersucht, wie eine aktive Einbindung des Menschen einen Unterschied in automa­tisier­ten Entschei­dungs­­prozessen bewirken kann. Die zentralen Fragen lauten dabei: Wie sollte eine sinnvolle Inter­aktion zwischen Mensch und Maschine gestaltet sein? Welche Rolle spielen menschliche Entschei­dungen bei der Quali­täts­­sicherung von automa­tisierten Entscheidungen? Und wie können wir sicher­­stellen, dass diese Interaktion nicht nur rechts­sicher, sondern auch transparent und nach­voll­zieh­bar ist?

https://www.hiig.de/project/human-in-the-loop/