Desinformation entlarven mit PLURV
Der Klimawandel ist menschengemacht – darin sind sich Klimawissenschaftler*innen einig. Dennoch leugnen einige Menschen diese Tatsache und verbreiten aktiv falsche und irreführende Informationen. Der Kognitionspsychologe John Cook nimmt diese Desinformationsstrategien seit Jahren auseinander und hat die häufigsten im Konzept „PLURV“ zusammengefasst. Wie entlarvt man „Rosinenpickerei“ und „unerfüllbare Erwartungen“?
„Es ist seit Tagen eiskalt, wie passt das zur Erderwärmung?“ „Das Klima hat sich schon immer verändert!“ „Klimaforscher*innen sind doch alle voreingenommen.“ Das sind nur drei von vielen Argumenten, mit denen Menschen die Erkenntnisse der Klimaforschung in Zweifel ziehen. Wer mit Wissenschaft und deren Arbeitsweisen vertraut ist, den machen sie spontan erst einmal: sprachlos. Denn sie scheinen aus einem völlig anderen System von Logik und Kausalität zu stammen. Das ist nicht immer Zufall, sondern häufig Strategie.
Einer, der sich mit genau diesen Strategien und den dazugehörigen Mythen beschäftigt, ist John Cook. Er forscht am Center for Climate Change Communication der George Mason University in Virginia in den USA. Indirekt hat der eine oder die andere möglicherweise schon von ihm gehört, denn 2013 wurde er mit seiner sogenannten 97-Prozent-Studie weltberühmt. Darin analysierte Cook rund 12.000 einschlägige Fachartikel aus der Klimawissenschaft und fand heraus: 97,1 Prozent der Autor*innen stimmen dem Konsens zu, dass die Erderwärmung vom Menschen verursacht wird. Das Paper nutzte unter anderem der ehemalige US-Präsident Barack Obama als Beleg dafür, dass es in der Wissenschaft keine Debatte über diese Grundsatzfrage gibt – sondern eine große Einigkeit.
Alles eine Frage der Identität
Umso spannender ist die Frage, aus welchen Gründen Leugner*innen diese belegte Tatsache immer wieder bestreiten. „Menschen sind kompliziert, daher gibt es natürlich eine ganze Menge von Gründen“, erzählt John Cook. „Eine Metastudie zur Frage nach den Treibern für das Leugnen zeigte: Politische Zugehörigkeit und politische Ideologie sind die zwei häufigsten.“ Politische Einflussnahme verfüge über eine sehr große Macht, unsere Einstellung zum Klimawandel zu steuern. Sie sei sogar noch viel stärker an der Art und Weise beteiligt, wie wir unsere Meinung bilden, als beispielsweise der Bildungsgrad. Daher sei es auch keine Überraschung, dass sich unter den Leugner*innen auch Akademiker*innen tummeln. Steigt man noch etwas tiefer in die Dynamik ein, stößt man laut John Cook auf einen Zusammenhang: „Wenn man zum Beispiel gegen eine Maßnahme zum Klimaschutz ist, ist die Chance größer, dass man das ursprüngliche Problem, also den menschengemachten Klimawandel, als solches nicht anerkennt“, erklärt der Kognitionswissenschaftler. Die Wissenschaft bedrohe dann nämlich die eigenen politischen Überzeugungen und damit auch die gesamte Identität. Die mögliche Folge: Man wird misstrauisch und manchmal eben sogar zum aktiven Leugner, zur aktiven Leugnerin. „Analog zur Klimawissenschaft kann man diese Prozesse aktuell auch beim Thema Covid-19 sehr gut ablesen.“
Rhetorische Methoden des Leugnens
Noch etwas lässt sich an den vorgebrachten Einwänden gegen die Corona-Maßnahmen erkennen: Die Art und Weise der Argumentation folgt bestimmten Mustern, die Cook aus dem Bereich Klimawandel kennt. Seit 2007 sammelt er sie systematisch auf seiner Website Skeptical Science. Knapp 200 typische Argumente hat er ermittelt. Die fünf populärsten rhetorischen Methoden, die von jeglichen Wissenschaftsleugner*innen eingesetzt werden, hat er unter dem Kürzel „FLICC“ zusammengefasst. F steht dabei für „Fake experts“ und meint Pseudo-Expert*innen; L für „Logical fallacies“, also Logikfehler; I für „Impossible expectations“, das heißt unerfüllbare Erwartungen; C für „Cherry picking“, also Rosinenpickerei, und das zweite C für „Conspiracy theories“, die Verschwörungserzählungen. Auf Deutsch hat sich das Konzept unter der Abkürzung „PLURV“ verbreitet (Pseudo-Expert*innen, Logische Trugschlüsse, Unerfüllbare Erwartungen, Rosinenpickerei, Verschwörungsmythen).
Fake experts (Pseudo-Expert*innen)
Wissenschaftsleugner*innen beziehen sich auf Menschen oder Institutionen, deren Meinungen und Argumente in ihr Weltbild passen. Dabei sind diese Menschen oder Institutionen aber überwiegend unqualifiziert. Häufig werden die vermeintlichen Leute vom Fach aber als aufgeblähte Minderheit präsentiert. Oder sie werden in Pro-Kontra-Debatten gezielt mit seriösen Wissenschaftler*innen zusammengebracht, damit der Eindruck entsteht, ihre Meinung sei valide und hätte Diskussionsbestand.
Logical fallacies (Logikfehler)
Manche Menschen nutzen Argumente, die auf den zweiten Blick unlogisch sind. Das beginnt damit, aus korrekten Informationen absichtlich falsche Schlüsse zu ziehen. Oder irreführende Vergleiche anzuwenden, nur weil sich zwei Dinge in einem Teilaspekt ähneln. Oft wird auch die Person hinter dem Argument angegriffen, um das Gesagte zu entwerten – eine sogenannte Ad-hominem-Attacke. Oder es wird etwas weggelassen, ein relevanter Aspekt einfach verschwiegen, damit die eigene Aussage schlüssig erscheint.
Impossible expectations (unerfüllbare Erwartungen)
Wie der Name schon sagt, verlangen Wissenschaftsleugner*innen von der Forschung Dinge, die sie unmöglich erfüllen kann – zum Beispiel allein deshalb, weil Forschung Zeit und Geld braucht und den Gesetzmäßigkeiten der Natur und des jeweiligen Untersuchungsgegenstands unterliegt. Die realitätsferne Erwartungshaltung legen die Menschen dann in ihrer Argumentation als Maßstab an und lassen die Wissenschaft als unfähig oder langsam erscheinen.
Cherry picking (Rosinenpickerei)
Die Rosinenpickerei setzt auf das Prinzip Lücke. Bei dieser Strategie werden Informationen absichtlich nicht vollständig wiedergegeben. Denn nur in lückenhafter Form passen sie zur eigenen Position. Statt einer breiten Informationsbasis dient hier das isolierte Einzelbeispiel als Legitimation. Unbequemes wird einfach ausgeblendet. Oder man stoppt die Informationsaufnahme und -suche, sobald alles perfekt passt.
Conspiracy theories (Verschwörungserzählungen)
Diese Strategie ist ein Fass ohne Boden, denn Verschwörungen leben vom Geheimnis. Und geheime Machenschaften lassen sich überall vermuten und zu einer Erzählung ausweiten. Einzelpersonen oder ganzen verdeckten Bündnissen wird dabei zum Beispiel unterstellt, absichtlich Informationen oder Beweise zu fälschen oder im Auftrag einer bestimmten Gruppe oder Person auf bestimmte Art und Weise zu handeln.
Der nervige Onkel
Wer diese Strategien verinnerlicht und in den Äußerungen von Gegenredner*innen erkennen kann, nimmt Letzteren zumindest im eigenen Empfinden den Wind aus den Segeln. Eine sachliche Diskussion mit dem Ziel, mit Fakten zu überzeugen, sei laut Cook aber häufig dennoch schwierig. Er selbst beiße sich daran ebenfalls regelmäßig die Zähne aus. Trotzdem bliebe er in Gesprächen empathisch und geduldig, aber auch beharrlich – ein Weg, den er empfiehlt. Besonders dann, wenn man mit eine*r Leugner*in freundschaftlich oder familiär eng verbunden ist und Wert darauf legt, die Beziehung nicht zu gefährden. Um die eigene Ausdauer mit dem berühmten „verschrobenen Onkel“ mit kruden Theorien zu trainieren, eignet sich John Cooks App „Cranky Uncle“. Sie schult die Wachsamkeit gegenüber den typischen rhetorischen Tricks der Leugner*innen. Genutzt wird sie mittlerweile auch in Schulen in den USA, Cook erweitert sie zu diesem Zweck ständig.
Doch immerzu empathisch zu sein ermüdet und frustriert. Kontra geben und gleichzeitig überzeugen – geht das nicht? Einen Versuch kann man mit Analogien unternehmen, also Entsprechungen in einem anderen Zusammenhang. Mit ihnen kann man die falsche Logik verdeutlichen. John Cook erinnert sich an ein Gespräch mit seinem Vater über Schusswaffenkriminalität: „Mein Vater sagte, es wäre sinnlos, den Waffenbesitz gesetzlich zu regulieren, denn Kriminelle würden sich sowieso nicht an Gesetze halten“, erzählt er. „Ich entgegnete, das wäre das Gleiche, wie den Verkehr nicht mehr zu regulieren, weil sich Gesetzesbrecher*innen im Straßenverkehr auch nicht an Regeln halten würden.“ Sein Vater war sprachlos. „Zum ersten Mal in seinem Leben“, lacht John Cook. „Allerdings war das ein Zufallstreffer, denn eine solche nachvollziehbare Analogie griffbereit zu haben ist wirklich selten.“
Kritisches Denken in der Schule fördern
Wirksamer wäre es möglicherweise, das Problem in einem größeren Rahmen anzugehen, nämlich Klimawissen und kritisches Denken schon in der Schule besser zu fördern. Besonders gut eigne sich dafür laut John Cook das sogenannte „misconception-based learning“ – Lernen basierend auf Missverständnissen und Fehlannahmen. In der Bildungsforschung habe sich dieser Ansatz als sehr viel effektiver erwiesen als ein rein faktenbasierter Unterricht. Gerade in den USA, wo Ex-Präsident Donald Trump das Leugnen von wissenschaftlichen Tatsachen salonfähiger gemacht habe, sei der Fokus auf Bildung in dieser Hinsicht wichtig. „Zwei Dinge würde ich mir von Joe Biden wünschen“, sagt Cook auf Nachfrage. „Erstens, dass er ausdauernd genug ist, um bessere Klimaschutzgesetze durch den Kongress zu bringen, und zweitens die nötige Zeit, Anstrengung und Finanzierung, um Klimabildung und kritisches Denken landesweit zu fördern.“
klimafakten.de
Um die Debatte über die besten Wege für den Klimaschutz konstruktiv führen zu können, müssen die grundlegenden Fakten stimmen. Darauf zielt die von der Stiftung Mercator geförderte Organisation klimafakten.de ab, indem sie die komplexen Ergebnisse der Klimaforschung verständlich aufbereitet und dabei offene Fragen und kritische Einwände aufnimmt.
www.klimafakten.de