KI wird politisiert. Ein HHU-Forscher erklärt, warum.

KI wird politisiert. Ein HHU-Forscher erklärt, warum.
Autor: Marcel Grzanna 01.08.2023

Florian Flaßhoff von der Heinrich-Heine-Universität in Düsseldorf gehört zu jenen Forscher*innen, die den Diskurs über künstliche Intelligenz in die breite Öffentlichkeit tragen wollen. Die Gesellschaft habe ein Interesse daran, die Risiken neuer Technologien verstehen und einschätzen zu können, so der Kommunikations­wissenschaftler. Hilfreich dabei sind frei zugängliche KI-Modelle wie ChatGPT, die das Interesse an den neuen Anwendungen geweckt haben.

Herr Flaßhoff, markiert ChatGPT aus Ihrer Sicht einen Kippmoment in der öffentlichen Wahrnehmung von künstlicher Intelligenz?

Florian Flaßhoff: Das ist zumindest eine plausible Hypothese, von der wir natürlich noch nicht wissen, ob sie zutrifft. Im Dezember 2021 hat die Mehrheit der Befragten in einer unserer Umfragen KI entweder mit dem Bild eines Industrie­roboters oder dem eines humanoiden Roboters verbunden. Die sind aber noch nicht Teil unseres Alltags, und die falsche Schluss­folgerung daraus kann dann sein, dass KI und ihr Einfluss auf unsere Gesellschaft lediglich eine Heraus­forderung der Zukunft oder der Industrie seien. ChatGPT sorgt jetzt aber für eine schnelle und breite Wahrnehmung des Themas in der Bevölkerung. Viele Menschen haben die Technologie bereits selbst genutzt und sind überrascht, wie leistungs­fähig sie ist. All das dringt gerade durch in die journalistische und gesellschaftliche Ebene.

Wie könnte das den Umgang mit KI verändern?

Das ist noch nicht absehbar. Wir entwickeln gerade erst eine konkrete Idee davon, was mit dieser Technologie möglich sein wird – welchen Nutzen sie uns bringt und vor allem welche Risiken damit verbunden sind. Aus der reinen Nutzer*innen­perspektive ist das nur schwer in Gänze zu bewerten. Hier überwiegt im ersten Moment eher der Nutzen, den mir die KI-Anwendung liefert. Risiken, die vielleicht auch erst deutlich später und eher subtil eintreten können, rücken in den Hinter­grund. Wir haben uns daher die umgekehrte Frage gestellt: Was macht die Nutzung von ChatGPT mit der Meinung der Menschen gegen­über KI? Dazu haben wir gerade eine Experimental­studie durchgeführt, bei der wir Studierende mehrmals innerhalb von vier Wochen ChatGPT nutzen lassen haben, um zu sehen, wie sich das auswirkt.

Und wie wirkt sich die Nutzung von ChatGPT aus?

Wir haben gerade erst mit der Daten­analyse begonnen. Was ich aber sagen kann: Die Nutzung führt tatsächlich dazu, dass unsere Proband*innen danach deutlich solutionistischer eingestellt sind. Sprich, sie gehen stärker davon aus, dass KI die Lösung für Probleme sein wird, die eigentlich zutiefst soziale beziehungs­weise gesellschaftliche Probleme sind. Sie glauben also zum Beispiel stärker, dass KI für mehr Bildungs­gerechtigkeit sorgen oder die Kluft zwischen Arm und Reich verringern wird. Solche Einstellungen können durchaus problematisch sein, da sie das Politische „technisieren“.

Florian Flaßhoff
© Kristian Scheffler

Florian Flaßhoff studierte empirische Medien- und Kommunikations­forschung sowie Global Mass Communication an der Universität Leipzig. Praktische Erfahrung sammelte er in Kommunikations­agenturen und in der Markt- und Sozial­forschung. Seit 2022 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl KMW I des Instituts für Sozial­wissenschaften an der Heinrich-Heine-Universität Düsseldorf.

Mit dem Projekt Meinungs­monitor Künstliche Intelligenz wollen das Bochumer Center for Advanced Internet Studies (CAIS) und die Heinrich-Heine-Universität den öffentlichen KI-Diskurs verständlicher machen und mehr Akteur*innen einbeziehen. Warum?

Die tragende Idee ist es, allen gesellschaftlichen Bereichen alternative Perspektiven auf künstliche Intelligenz zu ermöglichen. Das Meinungs­bild, das sich im Laufe der vergangenen Jahre zur KI in der breiten Öffentlichkeit entwickelt hat, ist geprägt von den jeweiligen Sicht­weisen derer, die KI nutzen. Also zum Beispiel aus einem wirtschaftlichen Blickwinkel, der seinerseits immer die Gewinn­maximierung zum Ziel hat. Das prägt die Wahrnehmung von KI, aber es wird der Pluralität, in der KI tatsächlich zum Einsatz kommt, überhaupt nicht gerecht.

Derzeit führen Florian Flaßhoff und seine Kolleg*innen eine Experimental­studie durch: Student*innen nutzen mehrmals innerhalb von vier Wochen ChatGPT und werden dann dazu befragt.
Derzeit führen Florian Flaßhoff und seine Kolleg*innen eine Experimental­studie durch: Student*innen nutzen mehrmals innerhalb von vier Wochen ChatGPT und werden dann dazu befragt. © Getty Images

Weshalb ist das problematisch?

Wir beobachten einen Trend zur Politisierung der KI, also einen steigenden Grad an öffentlicher Aufmerksamkeit, gepaart mit einer wachsenden Polarisierung der Debatte und entsprechender Resonanz darauf. Wenn aber die Wahrnehmung eines Themas von einer bestimmten Perspektive geprägt ist, dann besteht die Gefahr, dass Einzel­meinungen verallgemeinert werden. Mögliche Risiken können marginalisiert oder über­sehen werden. Das ist keine gute Basis, um politische Stoß­richtungen fest­zu­legen.

Das Projekt will helfen, die KI demokratie- und sozial­verträglich in unseren Alltag zu integrieren. Wie soll das gelingen?

Indem wir Daten generieren, die aufzeigen, unter welchen Bedingungen die Debatte um und über KI geführt wird. Die Untersuchung stützt sich auf drei Säulen. Zum einen wollen wir über den Projekt­zeit­raum ein konkretes Bild zeichnen, was die Bevölkerung überhaupt weiß und denkt über KI. Dann schauen wir uns den Diskurs in den sozialen Medien an, namentlich auf Twitter, um herauszufinden, wer die maßgeblichen Stimmen in der Debatte sind. Drittens analysieren wir die Berichterstattung der reich­weiten­stärksten Print- und Online­medien zum Thema. Diese Daten stellen wir verschiedenen Akteur*innen zur Verfügung, damit deren politische Strategien im Umgang mit KI auf einer rationalen Einschätzung basieren.

Als Gesellschaft haben wir ein Interesse daran, die Risiken neuer Technologien zu verstehen und einschätzen zu können.

Was sind denn die Referenz­punkte für Demokratie- und Sozial­verträglichkeit?

In Sachen Demokratie ist immer die politische Willens­bildung die Grundlage. Als Gesellschaft haben wir ein Interesse daran, die Risiken neuer Technologien zu verstehen und einschätzen zu können. Nur dann kann eine Strategie aus allen demokratisch generierten Interessen entwickelt werden, und wir laufen weniger Gefahr, von Partikular­interessen diktiert zu werden. Was die Sozial­verträglichkeit angeht, steht immer der Mensch im Mittel­punkt – wenn zum Beispiel infolge neuer Technologien Arbeits­plätze wegfallen. Da stellt sich die Frage, bis zu welchem Grad das für eine Gesellschaft gesund ist. Nehmen Sie die Algorithmen, die Ihnen in den sozialen Medien nicht zufällig neue Inhalte vorschlagen, sondern Interessen kanalisieren. Das kann in perfider Art genutzt werden, wenn wir zum Beispiel an den Fall Cambridge Analytica und Facebook rund um die US-Wahlen 2016 denken, und liegt somit nicht unbedingt im gesellschaftlichen Interesse.

ChatGPT wurde im November letzten Jahres gelaunched und hat innerhalb der ersten fünf Tage bereits 1 Millionen User angezogen – mittlerweile nutzen monatlich 1 Milliarde User*innen die KI. Es gibt aber viele Anbieter.
ChatGPT wurde im November letzten Jahres gelaunched und hat innerhalb der ersten fünf Tage bereits 1 Millionen User*innen angezogen – mittlerweile nutzen monatlich 1 Milliarde User*innen die KI. Es gibt aber viele Anbieter*innen. © unsplash

Nach über drei Jahren biegen Sie jetzt auf die Ziellinie des Projekts ein. Durch die Entwicklung von frei zugänglichen KI-Modellen wie ChatGPT wurden die Karten noch einmal neu gemischt.

Wir beobachten eine drastische Zunahme der Medien­bericht­erstattung. Zuletzt ist die Zahl der Artikel, die sich vorder­gründig mit KI beschäftigen und deswegen in unsere Statistik einbezogen werden, monatlich um ein Vielfaches auf zuletzt 674 Beiträge im Mai 2023 angestiegen. Das dynamisiert die Debatte und schafft in der Bevölkerung eine größere Wahrnehmung. Schauen Sie auf den Aspekt der Bildung: ChatGPT kann Arbeit übernehmen, die eigentlich von Studierenden oder Schüler*innen erledigt werden muss. Deswegen wächst jetzt eine Angst, dass die Bewertungs­kriterien in der Bildung neu justiert werden müssen.

Kürzlich warnten Technologie-Investoren wie Tesla-Chef Elon Musk oder OpenAI-CEO Sam Altman vor den Gefahren der KI. Wie wichtig sollten wir diese Warnungen nehmen?

Ich glaube, die Motivation hinter diesen Warnungen hat wenig mit der sozial­verträglichen Entwicklung von KI zu tun – auch wenn das vorder­gründig behauptet wird. Diese Stimmen folgen eher dem Interesse, dass schnellst­möglich reguliert wird, um Investitions­sicherheit zu erhalten. Nichts­desto­trotz: Mögliche Gefahren, die mit dieser Groß­technologie einhergehen, sollten wir in jedem Fall öffentlich diskutieren, wenn es um Regulierung geht.

Inwieweit sind wir als Gesellschaft bereit, uns einem Oligopol der Digital­konzerne auszuliefern? Da wünsche ich mir in Zukunft mehr Regulierung, da die Konzerne KI einsetzen und einsetzen werden, mit denen sehr viele Menschen auf die ein oder andere Art in Kontakt kommen.

Auch daher ist unser Projekt von großer Bedeutung; weil es hilft, Aufklärung zu schaffen. Andere Akteur*innen hingegen dürften an Regulierung nämlich nicht interessiert sein, weil sie ihre Wettbewerbs­fähigkeit bedroht sehen. Deren Argumente einordnen zu können und zu verstehen, aus welcher Perspektive sie kommen, verstehen wir als Demokratie- und Sozial­verträglichkeit.

Fürchten Sie persönlich die Kraft der KI, die in manchen Szenarien sogar die Zerstörung der Menschheit prognostiziert?

Ich persönlich fürchte sie nicht. Aber wir sollten der Debatte über solche Szenarien nicht ausweichen. Was ich mich aber frage, ist, inwieweit wir als Gesellschaft bereit sind, uns einem Oligopol der Digital­konzerne auszuliefern. Da wünsche ich mir in Zukunft mehr Regulierung, da sie KI einsetzen und einsetzen werden, mit denen sehr viele Menschen auf die ein oder andere Art in Kontakt kommen.


Center for Advanced Internet Studies

In einer Forschungs­partnerschaft zwischen der Heinrich-Heine-Universität Düsseldorf und dem Center for Advanced Internet Studies (CAIS) erforscht ein Team von Kommunikations- und Sozial­wissenschaftler*innen die Konstitution und Veränderung öffentlicher sowie in den Medien veröffentlichter Meinungen zu KI. Das Projekt wird von der Stiftung Mercator gefördert.

www.cais-research.de/forschung/memoki/