Wahlmanipulation in Deutschland: „Wir müssen auf alles gefasst sein“

Smartphones, die Wahlkampf-Beiträge in den Sozialen Medien zeigen
Wahlmanipulation in Deutschland: „Wir müssen auf alles gefasst sein“
Autorin: Diana Laarz 14.01.2025

Digitale Desinformationskampagnen sind eine Gefahr für demokratische Wahlen. Doch welche Rolle spielen die sozialen Medien und Künstliche Intelligenz (KI) dabei? Mit Blick auf die anstehenden Bundes­tags­wahlen erklärt Mauritius Dorn, Co-Leiter des Projektes AHEAD.tech beim ISD Germany, wie Algorithmen sozialer Plattformen Desinformation begünstigen.

Herr Dorn, gibt es ein aktuelles Beispiel, wie Wahlen durch digitale Technologien manipuliert wurden?

Bei der letzten Präsidentschafts­wahl in den USA hat eine Gruppe namens „Storm-1516“ gefälschte Videos, Bilder und Dokumente generiert. Diese Inhalte wurden dann mittels sogenanntem „Information Laundering“, also einer Art Informations­wäsche, in der breiten Öffentlichkeit platziert. Dafür gab die Gruppe die Informationen beziehungs­weise die Inhalte an Influencer*innen oder Nachrichten­seiten weiter, die diese dann verbreiteten.

Wer steht hinter der Gruppe „Storm-1516“?

Wir wissen, dass die Gruppe „Storm-1516“ in Verbindung zum Kreml steht. Durch das Information Laundering versucht sie, ihre Spuren zu verwischen.

Mauritius Dorn
© Boris Streubel

Mauritius Dorn ist Director of Public Affairs beim Institute for Strategic Dialogue (ISD) Germany. Er koordiniert digital­politische Empfehlungen und leitet das Projekt AHEAD.tech.

Welche Fake News spielten im US-Wahlkampf eine Rolle?

Der Begriff Fake News wird vor allem in den USA – maßgeblich von Donald Trump – als Kampf­begriff eingesetzt. In Deutschland sprechen wir deshalb lieber von Desinformationen und Fehl­informationen. Fehl­informationen sind irre­führende Inhalte, die unbeabsichtigt verbreitet werden. Zum Beispiel ein Social-Media-Post, den Nutzer*innen spontan geteilt haben, damit aber keinen Schaden anrichten wollten. Desinformationen hingegen werden mit Absicht hergestellt und verbreitet. Im US-Wahlkampf wurden sie unter anderem genutzt, um die Kandidatin Kamala Harris zu delegitimieren – etwa mit Informationen über einen angeblichen Auto­unfall, bei dem sie Fahrerinnenflucht begangen haben soll.

Welches übergeordnete Ziel verfolgen diese Manipulationen?

Es geht dabei um Macht und Einfluss­nahme. Aus den internen Dokumenten einer anderen Gruppe, der „Social Design Agency (SDA)“, wissen wir, wie koordiniert solche Manipulationen ablaufen. Die Gruppe SDA ist direkt vom Kreml beauftragt und arbeitet mit konkreten Zielen und Kenn­zahlen. Über Deutschland heißt es dort zum Beispiel, dass das Land destabilisiert und seine Unter­stützung für die Ukraine verringert werden soll. Gemessen werden diese Ziele an der Zunahme der Zukunfts­angst und der Zustimmung für die AfD.

Bundeskanzler Olaf Scholz mit Ehefrau Britta Ernst im Deutschen Bundestag
Desinformation als Gefahr für die Demokratie: Die Politik gerät in Zugzwang. © Picture Alliance

Steckt immer Russland hinter solchen Aktionen?

Nein, es gibt unterschiedliche Akteure, die ein Interesse daran haben, Wahlen zu beeinflussen. Der deutsche Verein „Ein Prozent“ beispiels­weise. Er ist als rechts­extremistisch eingestuft und ruft Social-Media-Nutzer*innen dazu auf, die Wahlen in Deutschland zu beobachten. Dabei entsteht der Eindruck, es bestehe eine akute Gefahr für Wahl­fälschungen. Schluss­endlich trägt das zu einer Grund­skepsis gegen­über dem Staat und der freiheitlichen Demokratie bei.

Mauritius Dorn
Mauritius Dorn in seinem Büro in Berlin. © Boris Streubel

Sie haben eben Social Media angesprochen: Ist Wahl­manipulation über die sozialen Medien einfacher geworden?

Die Anbieter der sozialen Medien verhindern sie jeden­falls nicht ausreichend. Die Platt­formen wie Facebook, X oder TikTok sind primär so entwickelt, dass sie auf wirtschaftliche Interessen ein­zahlen. Die Inhalte generieren möglichst viel Aufmerksamkeit, damit Nutzer*innen lange auf der Plattform bleiben, viel interagieren und viel Werbung sehen. Das kann bedeuten, dass politische Inhalte einiger Parteien durch die Algorithmen häufiger verbreitet werden als andere. Besonders populistische Parteien nutzen emotionalisierte Inhalte, um Aufmerksamkeit zu gewinnen und die journalistischen Regeln etablierter Medien zu umgehen.

Wie lässt sich so etwas nachweisen?

Im Projekt AHEAD.tech haben wir uns den Algorithmus von TikTok im Zusammen­hang mit der Land­tags­wahl in Brandenburg im September 2024 angeschaut. Dafür haben wir zehn Persona-Konten mit bestimmten Merkmalen nachgebildet und trainiert. Unsere Ergebnisse zeigen, dass die politische Ausrichtung der Konten beeinflusst, wie divers die parteipolitischen Inhalte sind, die angezeigt werden. Konten von rechts positionierten Personas werden hauptsächlich Inhalte mit AfD-Bezug ausgespielt. Konten, die der politischen Mitte und der Linken zugeordnet werden, bekommen Videos aller untersuchten Parteien angezeigt.

Bevorzugt der TikTok-Algorithmus also die AfD?

Unsere Analyse zeigt, dass Inhalte mit AfD-Nennung mit insgesamt 75 Videos am häufigsten in den Daten vertreten waren und bei neun von zehn Konten ausgespielt wurden. Am zweit­häufigsten war eine SPD-Nennung enthalten, in insgesamt 35 Videos, die acht von zehn Konten ausgespielt wurden. Es ist jedoch schwer zu sagen, wie groß der Einfluss des Empfehlungs­systems letztlich ist. Um das beurteilen zu können, benötigen wir weiter­führende Informationen von TikTok, insbesondere bisher nicht öffentliche Daten zu den Klassifizierungs­merkmalen für Inhalte.

Wie können Sie an diese Daten gelangen?

Unser Projekt AHEAD.tech dient dazu, genau diese Frage zu beantworten. Wir möchten zur Durch­setzung des Digital Services Act (DSA) beitragen. Unter anderem verpflichtet der DSA in Artikel 40 Absatz 4 die großen Plattformen dazu, zugelassenen Forschenden einen Zugang zu nicht öffentlichen Daten zu gewähren. Dazu gehören beispielsweise personen­bezogene Daten der Nutzer*innen und Daten, die die Geschäfts­interessen der Platt­formen schützen. Indem wir ethische Standards einhalten, erhoffen wir uns, einen solchen Zugang zu bekommen.

Im Februar 2025 wird in Deutschland ein neuer Bundestag gewählt. Welche Arten der Manipulation erwarten Sie?

Wenn wir zurückschauen, sehen wir, was uns erwartet. Bei den vergangenen Wahlen weltweit wurde mit unter­schiedlichen Inhalts­gattungen und manipulativen Techniken experimentiert, um gesellschaftliche Spannungen und Ängste anzukurbeln oder demokratische Institutionen zu delegitimieren. Mal sind es gefälschte Nachrichten­seiten oder Websites von Ministerien, mal eine angebliche Whistleblowerin, die mithilfe einer KI erstellt wurde. Oder ein analoges Graffiti, das irgendwo an die Wand gesprüht und dann schnell online verbreitet wird. Bei solchen Kampagnen werden die Schwach­stellen der Platt­form­systeme gezielt ausgenutzt. Immer wieder werden auch Influencer*innen über verdeckte Finanzierungen eingebunden. Wir müssen auf alles gefasst sein und gemeinsame Analyse- und Abwehr­mechanismen aufbauen.


AHEAD.tech

Angesichts der Umsetzung des Digital Services Act wird das Projekt AHEAD.tech eine verfeinerte Methode zur Erforschung systemischer Risiken für Wahlen entwickeln und zielgerichtete Minderungs­maßnahmen erarbeiten. Dabei geht es vornehmlich um die Identifikation von Risiken auf audio­visuellen Diensten wie etwa TikTok oder YouTube. Hierfür beabsichtigt das Projekt, die Möglichkeiten des DSA-Daten­zugangs zu nutzen.

https://isdgermany.org/projekt-ahead-tech/