Wahlmanipulation in Deutschland: „Wir müssen auf alles gefasst sein“

Digitale Desinformationskampagnen sind eine Gefahr für demokratische Wahlen. Doch welche Rolle spielen die sozialen Medien und Künstliche Intelligenz (KI) dabei? Mit Blick auf die anstehenden Bundestagswahlen erklärt Mauritius Dorn, Co-Leiter des Projektes AHEAD.tech beim ISD Germany, wie Algorithmen sozialer Plattformen Desinformation begünstigen.
Herr Dorn, gibt es ein aktuelles Beispiel, wie Wahlen durch digitale Technologien manipuliert wurden?
Bei der letzten Präsidentschaftswahl in den USA hat eine Gruppe namens „Storm-1516“ gefälschte Videos, Bilder und Dokumente generiert. Diese Inhalte wurden dann mittels sogenanntem „Information Laundering“, also einer Art Informationswäsche, in der breiten Öffentlichkeit platziert. Dafür gab die Gruppe die Informationen beziehungsweise die Inhalte an Influencer*innen oder Nachrichtenseiten weiter, die diese dann verbreiteten.
Wer steht hinter der Gruppe „Storm-1516“?
Wir wissen, dass die Gruppe „Storm-1516“ in Verbindung zum Kreml steht. Durch das Information Laundering versucht sie, ihre Spuren zu verwischen.

Mauritius Dorn ist Director of Public Affairs beim Institute for Strategic Dialogue (ISD) Germany. Er koordiniert digitalpolitische Empfehlungen und leitet das Projekt AHEAD.tech.
Welche Fake News spielten im US-Wahlkampf eine Rolle?
Der Begriff Fake News wird vor allem in den USA – maßgeblich von Donald Trump – als Kampfbegriff eingesetzt. In Deutschland sprechen wir deshalb lieber von Desinformationen und Fehlinformationen. Fehlinformationen sind irreführende Inhalte, die unbeabsichtigt verbreitet werden. Zum Beispiel ein Social-Media-Post, den Nutzer*innen spontan geteilt haben, damit aber keinen Schaden anrichten wollten. Desinformationen hingegen werden mit Absicht hergestellt und verbreitet. Im US-Wahlkampf wurden sie unter anderem genutzt, um die Kandidatin Kamala Harris zu delegitimieren – etwa mit Informationen über einen angeblichen Autounfall, bei dem sie Fahrerinnenflucht begangen haben soll.
Welches übergeordnete Ziel verfolgen diese Manipulationen?
Es geht dabei um Macht und Einflussnahme. Aus den internen Dokumenten einer anderen Gruppe, der „Social Design Agency (SDA)“, wissen wir, wie koordiniert solche Manipulationen ablaufen. Die Gruppe SDA ist direkt vom Kreml beauftragt und arbeitet mit konkreten Zielen und Kennzahlen. Über Deutschland heißt es dort zum Beispiel, dass das Land destabilisiert und seine Unterstützung für die Ukraine verringert werden soll. Gemessen werden diese Ziele an der Zunahme der Zukunftsangst und der Zustimmung für die AfD.


Steckt immer Russland hinter solchen Aktionen?
Nein, es gibt unterschiedliche Akteure, die ein Interesse daran haben, Wahlen zu beeinflussen. Der deutsche Verein „Ein Prozent“ beispielsweise. Er ist als rechtsextremistisch eingestuft und ruft Social-Media-Nutzer*innen dazu auf, die Wahlen in Deutschland zu beobachten. Dabei entsteht der Eindruck, es bestehe eine akute Gefahr für Wahlfälschungen. Schlussendlich trägt das zu einer Grundskepsis gegenüber dem Staat und der freiheitlichen Demokratie bei.

Sie haben eben Social Media angesprochen: Ist Wahlmanipulation über die sozialen Medien einfacher geworden?
Die Anbieter der sozialen Medien verhindern sie jedenfalls nicht ausreichend. Die Plattformen wie Facebook, X oder TikTok sind primär so entwickelt, dass sie auf wirtschaftliche Interessen einzahlen. Die Inhalte generieren möglichst viel Aufmerksamkeit, damit Nutzer*innen lange auf der Plattform bleiben, viel interagieren und viel Werbung sehen. Das kann bedeuten, dass politische Inhalte einiger Parteien durch die Algorithmen häufiger verbreitet werden als andere. Besonders populistische Parteien nutzen emotionalisierte Inhalte, um Aufmerksamkeit zu gewinnen und die journalistischen Regeln etablierter Medien zu umgehen.
Wie lässt sich so etwas nachweisen?
Im Projekt AHEAD.tech haben wir uns den Algorithmus von TikTok im Zusammenhang mit der Landtagswahl in Brandenburg im September 2024 angeschaut. Dafür haben wir zehn Persona-Konten mit bestimmten Merkmalen nachgebildet und trainiert. Unsere Ergebnisse zeigen, dass die politische Ausrichtung der Konten beeinflusst, wie divers die parteipolitischen Inhalte sind, die angezeigt werden. Konten von rechts positionierten Personas werden hauptsächlich Inhalte mit AfD-Bezug ausgespielt. Konten, die der politischen Mitte und der Linken zugeordnet werden, bekommen Videos aller untersuchten Parteien angezeigt.
Bevorzugt der TikTok-Algorithmus also die AfD?
Unsere Analyse zeigt, dass Inhalte mit AfD-Nennung mit insgesamt 75 Videos am häufigsten in den Daten vertreten waren und bei neun von zehn Konten ausgespielt wurden. Am zweithäufigsten war eine SPD-Nennung enthalten, in insgesamt 35 Videos, die acht von zehn Konten ausgespielt wurden. Es ist jedoch schwer zu sagen, wie groß der Einfluss des Empfehlungssystems letztlich ist. Um das beurteilen zu können, benötigen wir weiterführende Informationen von TikTok, insbesondere bisher nicht öffentliche Daten zu den Klassifizierungsmerkmalen für Inhalte.
Wie können Sie an diese Daten gelangen?
Unser Projekt AHEAD.tech dient dazu, genau diese Frage zu beantworten. Wir möchten zur Durchsetzung des Digital Services Act (DSA) beitragen. Unter anderem verpflichtet der DSA in Artikel 40 Absatz 4 die großen Plattformen dazu, zugelassenen Forschenden einen Zugang zu nicht öffentlichen Daten zu gewähren. Dazu gehören beispielsweise personenbezogene Daten der Nutzer*innen und Daten, die die Geschäftsinteressen der Plattformen schützen. Indem wir ethische Standards einhalten, erhoffen wir uns, einen solchen Zugang zu bekommen.
Im Februar 2025 wird in Deutschland ein neuer Bundestag gewählt. Welche Arten der Manipulation erwarten Sie?
Wenn wir zurückschauen, sehen wir, was uns erwartet. Bei den vergangenen Wahlen weltweit wurde mit unterschiedlichen Inhaltsgattungen und manipulativen Techniken experimentiert, um gesellschaftliche Spannungen und Ängste anzukurbeln oder demokratische Institutionen zu delegitimieren. Mal sind es gefälschte Nachrichtenseiten oder Websites von Ministerien, mal eine angebliche Whistleblowerin, die mithilfe einer KI erstellt wurde. Oder ein analoges Graffiti, das irgendwo an die Wand gesprüht und dann schnell online verbreitet wird. Bei solchen Kampagnen werden die Schwachstellen der Plattformsysteme gezielt ausgenutzt. Immer wieder werden auch Influencer*innen über verdeckte Finanzierungen eingebunden. Wir müssen auf alles gefasst sein und gemeinsame Analyse- und Abwehrmechanismen aufbauen.
AHEAD.tech
Angesichts der Umsetzung des Digital Services Act wird das Projekt AHEAD.tech eine verfeinerte Methode zur Erforschung systemischer Risiken für Wahlen entwickeln und zielgerichtete Minderungsmaßnahmen erarbeiten. Dabei geht es vornehmlich um die Identifikation von Risiken auf audiovisuellen Diensten wie etwa TikTok oder YouTube. Hierfür beabsichtigt das Projekt, die Möglichkeiten des DSA-Datenzugangs zu nutzen.