Hassreden – wie beeinflussen soziale Medien Wahl­kämpfe in Europa?

Grafitti "Fake"
Hassreden – wie beeinflussen soziale Medien Wahl­kämpfe in Europa?
Autor: Marcel Grzanna 27.06.2023

Immer mehr Menschen informieren sich vor Wahlen in den sozialen Medien. Die Nicht­regierungs­organisation Democracy Reporting Inter­national (DRI) untersucht im Rahmen ihres Projektes „access://democracy“ Diskurse vor bedeutenden Urnen­gängen in Europa. DRI-Programm­managerin Heather Thompson erklärt im Gespräch mit AufRuhr, weshalb die Beobachtung der Online­diskurse so wichtig ist.

Frau Thompson, im Rahmen des drei­jährigen Projektes „access://democracy“ untersucht und analysiert Ihre Organisation den Online­diskurs zu insgesamt sechs europäischen Wahlen. Die Parlaments­wahlen in Polen im Herbst 2023 machen den Anfang. Weshalb ist die Wahl dort so wichtig?

Heather Thompson: Polen ist ein wichtiger Akteur in Zentral­europa. Uns interessiert das grundsätzliche Diskurs­klima im Land und welche Argumente dabei ausgetauscht werden. Wir nehmen eine Risiko­bewertung der Wahl vor. Das heißt: Mit unseren polnischen Partnern wollen wir die wichtigsten Narrative rund um Hassrede und Desinformation verstehen – und verfolgen, wie sie sich in den sozialen Medien vor und während der Wahl verbreiten. Ein großes Thema ist für viele Pol*innen natürlich die massiven Defizite bei der Rechts­staatlichkeit. Was Menschen­rechte angeht, ist zudem die Diskriminierung der LGBTQIA-Community (Anm. d. Red.: „lesbian“, „gay“, „bisexual“, „transsexual“, „queer“, „intersexual“ und „asexual/aromantic“) eine wachsende Herausforderung. Auch die Rechte zur Abtreibung sind extrem eingeschränkt.

Heatther Thompson
© Zhihao Zhong

Als Programmmanagerin leitet Heather Thompson die strategische und programmatische Arbeit des DRI-Teams für digitale Demokratie weltweit. Sie ist verantwortlich für den Aufbau von Verbindungen in die digitale Technologie­gemeinschaft und setzt sich für Lösungen für Zivil­gesellschaft, Privat­unternehmen und Regierungen ein.

Um die Einflussnahme in sozialen Medien zu bewerten, müssen Sie wissen, wo diese statt­findet. Wie behält Ihre Organisation angesichts der technologischen Dynamik den Anschluss?

Tatsächlich ist das im Rahmen jeder Wahl­beobachtung eine Heraus­forderung. Denn es gibt nicht nur die rasche Weiter­entwicklung von Technologie, auch unsere Arbeits­bedingungen ändern sich ständig. Zum Beispiel hat Elon Musk Twitter seit seiner Übernahme auf den Kopf gestellt. Dann schränkte das US-amerikanische Unternehmen Meta den Zugang zu seinen Daten ein, sowohl für Forscher*innen als auch für zivil­gesellschaftliche Organisationen. Die Kurz­videos von TikTok wurden plötzlich enorm populär und werden deshalb in Sachen Meinungs­bildung instrumentalisiert. Damit wir sinnvoll forschen können, müssen wir deshalb genau entscheiden, was wir beobachten wollen, ob es technisch möglich ist und aus welchem Grund.

Welche Konsequenzen haben sogenannte Deepfakes, die durch frei zugängliche KI-Anwendungen in die Welt gesetzt werden?

Das ist eine sehr wichtige Frage. Noch sind die Technologien relativ neu und spielten bisher bei keiner großen Wahl eine wichtige Rolle. Aber wir gehen davon aus, dass sich mithilfe KI-generierter Deepfakes in hohem Maße Verwirrung stiften und Desinformation streuen lässt.

Deepfake "Pabst Franziskus in Balanciaga"
Nein, der Papst ist nicht unter die hippen Influencer*innen gegangen – dieses Foto ist ein Fake, eine Fälschung. Deepfakes werden so genannt, weil sie durch Deep Learning entstehen, eine Form von Künstlicher Intelligenz – und weil sie eben gefälscht sind. KI-Systeme wie „Midjourney“ können auf Anweisung („Prompt“ genannt) der Benutzer*in praktisch jedes beliebige Bild erzeugen. © Reddit/trippy_art_special

Lügen und Hassrede kennen wir auch im analogen Wahlkampf. Wieso spielen die sozialen Medien bei der Einfluss­nahme auf Wahlen eine so wichtige Rolle?

Die politische Einflussnahme der sozialen Medien nimmt stetig zu. Sie sind besonders für jüngere Menschen eine zunehmend relevante Informations­quelle. Die klassischen Medien sind zwar weiterhin wichtig, aber der politische Diskurs verlagert sich zunehmend in die digitale Welt. Dort sind die klassischen Medien aber weniger präsent. Einzelne Politiker*innen oder Parteien sprechen natürlich ihre potenziellen Wähler*innen viel lieber direkt an. Um viele Menschen künftig in demokratische Prozesse integrieren zu können, müssen die Online­diskurse genau beobachtet werden. Zum einen als Instrument, um die Wählerschaft und die öffentliche Stimmung zu verstehen. Zum anderen, weil dieser Pfeiler die traditionelle Wahl­beobachtung ergänzen kann.

Sind vor allem junge Menschen das Ziel von Desinformation und Hassrede?

Nein, aber weil sie tendenziell mehr Zeit online verbringen als ältere Menschen, sind sie Inhalten automatisch verstärkt ausgesetzt. Daher sehen wir auch eine wachsende Gefahr vor allem für Minder­jährige, die solchen Inhalten konstant ausgeliefert sind. Das kann zu Verwirrung oder Politik­verdrossenheit führen und sogar ihrer mentalen Gesundheit schaden. Wir wollen das Bewusstsein für diese Problematik stärken und damit die oft unerfahrenen Nutzer*innen der sozialen Medien schützen.

Deepfake "Festnahme Donald Trump"
Noch ein Beispiel für Deepfake: Der frühere US-Präsident Donald Trump wird verhaftet. Noch gibt es Auffälligkeiten in solchen Fälschungen, etwa unnatürlich wirkende Hände – oder „Artefakte“ genannte Störungen im Bild. Aber die KI-Systeme werden immer besser. © Twitter

Und weshalb werden Desinformation und Hassrede überhaupt in die Welt gesetzt?

Desinformation und Hassrede werden oft als eine Art billiges Mittel genutzt, um Wahlen zu gewinnen. Anstatt sich auf Ideen für wirtschaftlichen Wohlstand oder reale Sicherheits­bedenken zu konzentrieren, entscheiden sich viele Politiker*innen und Parteien dafür, soziale Spannungen zu schüren. Das war schon vor den sozialen Medien der Fall, aber mit ihnen können sie jetzt weiter und schneller verbreitet werden. Einfacher gesagt: Desinformation und Hassrede sind Mittel, um Stimmen für die eigene Position zu gewinnen oder der Reputation der Gegner*innen zu schaden. Starke Abgrenzung schärft zudem das eigene Profil.

Welche Konsequenzen sind konkret zu befürchten?

Es gibt mehrere drastische Konsequenzen. So beobachten wir, dass sich ein Teil der Gesellschaft dem politischen Diskurs entzieht – und zwar aus Angst vor dem Hass­rede in den sozialen Medien. Gerade Frauen verzichten deswegen oft auf jedwedes politische Engagement. Bürger*innen können von der Teilnahme an Wahlen abgehalten werden. Und nicht zu vergessen ist die extreme Polarisierung, die den demokratischen Prozess abwürgen kann.

Gerade Frauen verzichten wegen Hass­rede oft auf jedwedes politische Engagement.

Heather Thompson

Wie gehen Sie methodisch vor?

Wir sammeln Daten und werten diese quantitativ und qualitativ aus. Wir bedienen uns zum Beispiel quantitativer Methoden wie Zählungen. Und genauso ermitteln wir Erkenntnisse über Einstellungen. Wir sind in der Lage, Hundert­tausende von Beiträgen auf Facebook, Twitter oder Telegram zu analysieren. Mithilfe von Algorithmen des maschinellen Lernens ermitteln wir ein Stimmungsbild von Wahlen und identifizieren die am häufigsten diskutierten Themen. Am Ende können wir verstehen, welche Diskurse durch welche Narrative beeinflusst werden.

Und was machen Sie mit Ihren Erkenntnissen?

Wir veröffentlichen die Ergebnisse, um mehr Transparenz zu schaffen. So sind soziale Medien weniger eine Blackbox. Und wir beraten politische Entscheidungs­träger*innen und Betreiber von Plattformen. Auf der Grundlage unserer Erkenntnisse können Gesetze zum besseren Schutz der Bürger*innen angepasst werden. Wir wollen die Plattformen zudem dabei unterstützen, Mittel und Wege zur Identifikation und Vorbeugung von Desinformation und Hassrede zu entwickeln.

Die Betreiber der großen Plattformen werden in der Europäischen Union jetzt durch den Digital Services Act (DSA) – das Gesetz für digitale Dienste – gesetzlich dazu verpflichtet, Forscher*innen bestmögliche Unterstützung zu gewähren. Was bedeutet das?

Daten sind das Herzstück der Geschäftsmodelle von Plattformen. Der DSA sorgt für Transparenz und verpflichtet diese, Forscher*innen einen besseren Zugang zu Daten zu gewähren. Wie sich das in der Praxis genau umsetzen lässt, wird derzeit diskutiert. Dabei geht es nicht nur um die akademische Forschung, sondern auch um die Arbeit zivil­gesellschaftlicher Organisationen. Die Plattformen müssen im Rahmen des DSA auch offenlegen, wie sie konkret gegen falsche Inhalte und Hassrede vorgehen und wie sie systemischen Risiken auf den Plattformen vorbeugen.

Das Gesetz ist erst seit Ende vergangenen Jahres in Kraft. Haben Sie schon einen ersten Eindruck?

Der DSA ist zunächst einmal ein guter Anfang. Er trägt die Regulierungs­macht der EU in sich und verpflichtet die Plattformen zur Zusammen­arbeit, um weiterhin in der EU tätig sein zu können. Widersetzen sich die Plattformen, gefährden sie ihr Geschäft in der EU. Das werden sie wohl nicht tun. Dabei regelt der DSA illegale Inhalte und bietet einen einheitlichen Ansatz für die gesamte EU, in deren Mitglieds­staaten der Grad an Meinungs­freiheit durchaus unterschiedlich sein kann. Wir sind guter Dinge, dass die Forschung und damit die Gesellschaft vom DSA profitieren werden.


Democracy Reporting International

Democracy Reporting International (DRI) wurde 2006 von einer inter­nationalen Gruppe von Expert*innen für demokratische Regierungsführung und Wahlen gegründet. Sie erkannte eine Lücke in einem Bereich, der von großen zwischen­staatlichen Organisationen und kommerziellen Beratungs­unternehmen dominiert wurde. Also gründete sie eine nicht­staatliche, unabhängige Organisation, die demokratische Entwicklungen analysiert und schnell und flexibel zu verfassungs- und wahl­rechtlichen Rahmen­bedingungen berät.
www.democracy-reporting.org