Hassreden – wie beeinflussen soziale Medien Wahlkämpfe in Europa?
Immer mehr Menschen informieren sich vor Wahlen in den sozialen Medien. Die Nichtregierungsorganisation Democracy Reporting International (DRI) untersucht im Rahmen ihres Projektes „access://democracy“ Diskurse vor bedeutenden Urnengängen in Europa. DRI-Programmmanagerin Heather Thompson erklärt im Gespräch mit AufRuhr, weshalb die Beobachtung der Onlinediskurse so wichtig ist.
Frau Thompson, im Rahmen des dreijährigen Projektes „access://democracy“ untersucht und analysiert Ihre Organisation den Onlinediskurs zu insgesamt sechs europäischen Wahlen. Die Parlamentswahlen in Polen im Herbst 2023 machen den Anfang. Weshalb ist die Wahl dort so wichtig?
Heather Thompson: Polen ist ein wichtiger Akteur in Zentraleuropa. Uns interessiert das grundsätzliche Diskursklima im Land und welche Argumente dabei ausgetauscht werden. Wir nehmen eine Risikobewertung der Wahl vor. Das heißt: Mit unseren polnischen Partnern wollen wir die wichtigsten Narrative rund um Hassrede und Desinformation verstehen – und verfolgen, wie sie sich in den sozialen Medien vor und während der Wahl verbreiten. Ein großes Thema ist für viele Pol*innen natürlich die massiven Defizite bei der Rechtsstaatlichkeit. Was Menschenrechte angeht, ist zudem die Diskriminierung der LGBTQIA-Community (Anm. d. Red.: „lesbian“, „gay“, „bisexual“, „transsexual“, „queer“, „intersexual“ und „asexual/aromantic“) eine wachsende Herausforderung. Auch die Rechte zur Abtreibung sind extrem eingeschränkt.
Als Programmmanagerin leitet Heather Thompson die strategische und programmatische Arbeit des DRI-Teams für digitale Demokratie weltweit. Sie ist verantwortlich für den Aufbau von Verbindungen in die digitale Technologiegemeinschaft und setzt sich für Lösungen für Zivilgesellschaft, Privatunternehmen und Regierungen ein.
Um die Einflussnahme in sozialen Medien zu bewerten, müssen Sie wissen, wo diese stattfindet. Wie behält Ihre Organisation angesichts der technologischen Dynamik den Anschluss?
Tatsächlich ist das im Rahmen jeder Wahlbeobachtung eine Herausforderung. Denn es gibt nicht nur die rasche Weiterentwicklung von Technologie, auch unsere Arbeitsbedingungen ändern sich ständig. Zum Beispiel hat Elon Musk Twitter seit seiner Übernahme auf den Kopf gestellt. Dann schränkte das US-amerikanische Unternehmen Meta den Zugang zu seinen Daten ein, sowohl für Forscher*innen als auch für zivilgesellschaftliche Organisationen. Die Kurzvideos von TikTok wurden plötzlich enorm populär und werden deshalb in Sachen Meinungsbildung instrumentalisiert. Damit wir sinnvoll forschen können, müssen wir deshalb genau entscheiden, was wir beobachten wollen, ob es technisch möglich ist und aus welchem Grund.
Welche Konsequenzen haben sogenannte Deepfakes, die durch frei zugängliche KI-Anwendungen in die Welt gesetzt werden?
Das ist eine sehr wichtige Frage. Noch sind die Technologien relativ neu und spielten bisher bei keiner großen Wahl eine wichtige Rolle. Aber wir gehen davon aus, dass sich mithilfe KI-generierter Deepfakes in hohem Maße Verwirrung stiften und Desinformation streuen lässt.
Lügen und Hassrede kennen wir auch im analogen Wahlkampf. Wieso spielen die sozialen Medien bei der Einflussnahme auf Wahlen eine so wichtige Rolle?
Die politische Einflussnahme der sozialen Medien nimmt stetig zu. Sie sind besonders für jüngere Menschen eine zunehmend relevante Informationsquelle. Die klassischen Medien sind zwar weiterhin wichtig, aber der politische Diskurs verlagert sich zunehmend in die digitale Welt. Dort sind die klassischen Medien aber weniger präsent. Einzelne Politiker*innen oder Parteien sprechen natürlich ihre potenziellen Wähler*innen viel lieber direkt an. Um viele Menschen künftig in demokratische Prozesse integrieren zu können, müssen die Onlinediskurse genau beobachtet werden. Zum einen als Instrument, um die Wählerschaft und die öffentliche Stimmung zu verstehen. Zum anderen, weil dieser Pfeiler die traditionelle Wahlbeobachtung ergänzen kann.
Sind vor allem junge Menschen das Ziel von Desinformation und Hassrede?
Nein, aber weil sie tendenziell mehr Zeit online verbringen als ältere Menschen, sind sie Inhalten automatisch verstärkt ausgesetzt. Daher sehen wir auch eine wachsende Gefahr vor allem für Minderjährige, die solchen Inhalten konstant ausgeliefert sind. Das kann zu Verwirrung oder Politikverdrossenheit führen und sogar ihrer mentalen Gesundheit schaden. Wir wollen das Bewusstsein für diese Problematik stärken und damit die oft unerfahrenen Nutzer*innen der sozialen Medien schützen.
Und weshalb werden Desinformation und Hassrede überhaupt in die Welt gesetzt?
Desinformation und Hassrede werden oft als eine Art billiges Mittel genutzt, um Wahlen zu gewinnen. Anstatt sich auf Ideen für wirtschaftlichen Wohlstand oder reale Sicherheitsbedenken zu konzentrieren, entscheiden sich viele Politiker*innen und Parteien dafür, soziale Spannungen zu schüren. Das war schon vor den sozialen Medien der Fall, aber mit ihnen können sie jetzt weiter und schneller verbreitet werden. Einfacher gesagt: Desinformation und Hassrede sind Mittel, um Stimmen für die eigene Position zu gewinnen oder der Reputation der Gegner*innen zu schaden. Starke Abgrenzung schärft zudem das eigene Profil.
Welche Konsequenzen sind konkret zu befürchten?
Es gibt mehrere drastische Konsequenzen. So beobachten wir, dass sich ein Teil der Gesellschaft dem politischen Diskurs entzieht – und zwar aus Angst vor dem Hassrede in den sozialen Medien. Gerade Frauen verzichten deswegen oft auf jedwedes politische Engagement. Bürger*innen können von der Teilnahme an Wahlen abgehalten werden. Und nicht zu vergessen ist die extreme Polarisierung, die den demokratischen Prozess abwürgen kann.
Gerade Frauen verzichten wegen Hassrede oft auf jedwedes politische Engagement.
Wie gehen Sie methodisch vor?
Wir sammeln Daten und werten diese quantitativ und qualitativ aus. Wir bedienen uns zum Beispiel quantitativer Methoden wie Zählungen. Und genauso ermitteln wir Erkenntnisse über Einstellungen. Wir sind in der Lage, Hunderttausende von Beiträgen auf Facebook, Twitter oder Telegram zu analysieren. Mithilfe von Algorithmen des maschinellen Lernens ermitteln wir ein Stimmungsbild von Wahlen und identifizieren die am häufigsten diskutierten Themen. Am Ende können wir verstehen, welche Diskurse durch welche Narrative beeinflusst werden.
Und was machen Sie mit Ihren Erkenntnissen?
Wir veröffentlichen die Ergebnisse, um mehr Transparenz zu schaffen. So sind soziale Medien weniger eine Blackbox. Und wir beraten politische Entscheidungsträger*innen und Betreiber von Plattformen. Auf der Grundlage unserer Erkenntnisse können Gesetze zum besseren Schutz der Bürger*innen angepasst werden. Wir wollen die Plattformen zudem dabei unterstützen, Mittel und Wege zur Identifikation und Vorbeugung von Desinformation und Hassrede zu entwickeln.
Die Betreiber der großen Plattformen werden in der Europäischen Union jetzt durch den Digital Services Act (DSA) – das Gesetz für digitale Dienste – gesetzlich dazu verpflichtet, Forscher*innen bestmögliche Unterstützung zu gewähren. Was bedeutet das?
Daten sind das Herzstück der Geschäftsmodelle von Plattformen. Der DSA sorgt für Transparenz und verpflichtet diese, Forscher*innen einen besseren Zugang zu Daten zu gewähren. Wie sich das in der Praxis genau umsetzen lässt, wird derzeit diskutiert. Dabei geht es nicht nur um die akademische Forschung, sondern auch um die Arbeit zivilgesellschaftlicher Organisationen. Die Plattformen müssen im Rahmen des DSA auch offenlegen, wie sie konkret gegen falsche Inhalte und Hassrede vorgehen und wie sie systemischen Risiken auf den Plattformen vorbeugen.
Das Gesetz ist erst seit Ende vergangenen Jahres in Kraft. Haben Sie schon einen ersten Eindruck?
Der DSA ist zunächst einmal ein guter Anfang. Er trägt die Regulierungsmacht der EU in sich und verpflichtet die Plattformen zur Zusammenarbeit, um weiterhin in der EU tätig sein zu können. Widersetzen sich die Plattformen, gefährden sie ihr Geschäft in der EU. Das werden sie wohl nicht tun. Dabei regelt der DSA illegale Inhalte und bietet einen einheitlichen Ansatz für die gesamte EU, in deren Mitgliedsstaaten der Grad an Meinungsfreiheit durchaus unterschiedlich sein kann. Wir sind guter Dinge, dass die Forschung und damit die Gesellschaft vom DSA profitieren werden.
Democracy Reporting International
Democracy Reporting International (DRI) wurde 2006 von einer internationalen Gruppe von Expert*innen für demokratische Regierungsführung und Wahlen gegründet. Sie erkannte eine Lücke in einem Bereich, der von großen zwischenstaatlichen Organisationen und kommerziellen Beratungsunternehmen dominiert wurde. Also gründete sie eine nichtstaatliche, unabhängige Organisation, die demokratische Entwicklungen analysiert und schnell und flexibel zu verfassungs- und wahlrechtlichen Rahmenbedingungen berät.
www.democracy-reporting.org