KI wird politisiert. Ein HHU-Forscher erklärt, warum.
Florian Flaßhoff von der Heinrich-Heine-Universität in Düsseldorf gehört zu jenen Forscher*innen, die den Diskurs über künstliche Intelligenz in die breite Öffentlichkeit tragen wollen. Die Gesellschaft habe ein Interesse daran, die Risiken neuer Technologien verstehen und einschätzen zu können, so der Kommunikationswissenschaftler. Hilfreich dabei sind frei zugängliche KI-Modelle wie ChatGPT, die das Interesse an den neuen Anwendungen geweckt haben.
Herr Flaßhoff, markiert ChatGPT aus Ihrer Sicht einen Kippmoment in der öffentlichen Wahrnehmung von künstlicher Intelligenz?
Florian Flaßhoff: Das ist zumindest eine plausible Hypothese, von der wir natürlich noch nicht wissen, ob sie zutrifft. Im Dezember 2021 hat die Mehrheit der Befragten in einer unserer Umfragen KI entweder mit dem Bild eines Industrieroboters oder dem eines humanoiden Roboters verbunden. Die sind aber noch nicht Teil unseres Alltags, und die falsche Schlussfolgerung daraus kann dann sein, dass KI und ihr Einfluss auf unsere Gesellschaft lediglich eine Herausforderung der Zukunft oder der Industrie seien. ChatGPT sorgt jetzt aber für eine schnelle und breite Wahrnehmung des Themas in der Bevölkerung. Viele Menschen haben die Technologie bereits selbst genutzt und sind überrascht, wie leistungsfähig sie ist. All das dringt gerade durch in die journalistische und gesellschaftliche Ebene.
Wie könnte das den Umgang mit KI verändern?
Das ist noch nicht absehbar. Wir entwickeln gerade erst eine konkrete Idee davon, was mit dieser Technologie möglich sein wird – welchen Nutzen sie uns bringt und vor allem welche Risiken damit verbunden sind. Aus der reinen Nutzer*innenperspektive ist das nur schwer in Gänze zu bewerten. Hier überwiegt im ersten Moment eher der Nutzen, den mir die KI-Anwendung liefert. Risiken, die vielleicht auch erst deutlich später und eher subtil eintreten können, rücken in den Hintergrund. Wir haben uns daher die umgekehrte Frage gestellt: Was macht die Nutzung von ChatGPT mit der Meinung der Menschen gegenüber KI? Dazu haben wir gerade eine Experimentalstudie durchgeführt, bei der wir Studierende mehrmals innerhalb von vier Wochen ChatGPT nutzen lassen haben, um zu sehen, wie sich das auswirkt.
Und wie wirkt sich die Nutzung von ChatGPT aus?
Wir haben gerade erst mit der Datenanalyse begonnen. Was ich aber sagen kann: Die Nutzung führt tatsächlich dazu, dass unsere Proband*innen danach deutlich solutionistischer eingestellt sind. Sprich, sie gehen stärker davon aus, dass KI die Lösung für Probleme sein wird, die eigentlich zutiefst soziale beziehungsweise gesellschaftliche Probleme sind. Sie glauben also zum Beispiel stärker, dass KI für mehr Bildungsgerechtigkeit sorgen oder die Kluft zwischen Arm und Reich verringern wird. Solche Einstellungen können durchaus problematisch sein, da sie das Politische „technisieren“.
Florian Flaßhoff studierte empirische Medien- und Kommunikationsforschung sowie Global Mass Communication an der Universität Leipzig. Praktische Erfahrung sammelte er in Kommunikationsagenturen und in der Markt- und Sozialforschung. Seit 2022 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl KMW I des Instituts für Sozialwissenschaften an der Heinrich-Heine-Universität Düsseldorf.
Mit dem Projekt Meinungsmonitor Künstliche Intelligenz wollen das Bochumer Center for Advanced Internet Studies (CAIS) und die Heinrich-Heine-Universität den öffentlichen KI-Diskurs verständlicher machen und mehr Akteur*innen einbeziehen. Warum?
Die tragende Idee ist es, allen gesellschaftlichen Bereichen alternative Perspektiven auf künstliche Intelligenz zu ermöglichen. Das Meinungsbild, das sich im Laufe der vergangenen Jahre zur KI in der breiten Öffentlichkeit entwickelt hat, ist geprägt von den jeweiligen Sichtweisen derer, die KI nutzen. Also zum Beispiel aus einem wirtschaftlichen Blickwinkel, der seinerseits immer die Gewinnmaximierung zum Ziel hat. Das prägt die Wahrnehmung von KI, aber es wird der Pluralität, in der KI tatsächlich zum Einsatz kommt, überhaupt nicht gerecht.
Weshalb ist das problematisch?
Wir beobachten einen Trend zur Politisierung der KI, also einen steigenden Grad an öffentlicher Aufmerksamkeit, gepaart mit einer wachsenden Polarisierung der Debatte und entsprechender Resonanz darauf. Wenn aber die Wahrnehmung eines Themas von einer bestimmten Perspektive geprägt ist, dann besteht die Gefahr, dass Einzelmeinungen verallgemeinert werden. Mögliche Risiken können marginalisiert oder übersehen werden. Das ist keine gute Basis, um politische Stoßrichtungen festzulegen.
Das Projekt will helfen, die KI demokratie- und sozialverträglich in unseren Alltag zu integrieren. Wie soll das gelingen?
Indem wir Daten generieren, die aufzeigen, unter welchen Bedingungen die Debatte um und über KI geführt wird. Die Untersuchung stützt sich auf drei Säulen. Zum einen wollen wir über den Projektzeitraum ein konkretes Bild zeichnen, was die Bevölkerung überhaupt weiß und denkt über KI. Dann schauen wir uns den Diskurs in den sozialen Medien an, namentlich auf Twitter, um herauszufinden, wer die maßgeblichen Stimmen in der Debatte sind. Drittens analysieren wir die Berichterstattung der reichweitenstärksten Print- und Onlinemedien zum Thema. Diese Daten stellen wir verschiedenen Akteur*innen zur Verfügung, damit deren politische Strategien im Umgang mit KI auf einer rationalen Einschätzung basieren.
Als Gesellschaft haben wir ein Interesse daran, die Risiken neuer Technologien zu verstehen und einschätzen zu können.
Was sind denn die Referenzpunkte für Demokratie- und Sozialverträglichkeit?
In Sachen Demokratie ist immer die politische Willensbildung die Grundlage. Als Gesellschaft haben wir ein Interesse daran, die Risiken neuer Technologien zu verstehen und einschätzen zu können. Nur dann kann eine Strategie aus allen demokratisch generierten Interessen entwickelt werden, und wir laufen weniger Gefahr, von Partikularinteressen diktiert zu werden. Was die Sozialverträglichkeit angeht, steht immer der Mensch im Mittelpunkt – wenn zum Beispiel infolge neuer Technologien Arbeitsplätze wegfallen. Da stellt sich die Frage, bis zu welchem Grad das für eine Gesellschaft gesund ist. Nehmen Sie die Algorithmen, die Ihnen in den sozialen Medien nicht zufällig neue Inhalte vorschlagen, sondern Interessen kanalisieren. Das kann in perfider Art genutzt werden, wenn wir zum Beispiel an den Fall Cambridge Analytica und Facebook rund um die US-Wahlen 2016 denken, und liegt somit nicht unbedingt im gesellschaftlichen Interesse.
Nach über drei Jahren biegen Sie jetzt auf die Ziellinie des Projekts ein. Durch die Entwicklung von frei zugänglichen KI-Modellen wie ChatGPT wurden die Karten noch einmal neu gemischt.
Wir beobachten eine drastische Zunahme der Medienberichterstattung. Zuletzt ist die Zahl der Artikel, die sich vordergründig mit KI beschäftigen und deswegen in unsere Statistik einbezogen werden, monatlich um ein Vielfaches auf zuletzt 674 Beiträge im Mai 2023 angestiegen. Das dynamisiert die Debatte und schafft in der Bevölkerung eine größere Wahrnehmung. Schauen Sie auf den Aspekt der Bildung: ChatGPT kann Arbeit übernehmen, die eigentlich von Studierenden oder Schüler*innen erledigt werden muss. Deswegen wächst jetzt eine Angst, dass die Bewertungskriterien in der Bildung neu justiert werden müssen.
Kürzlich warnten Technologie-Investoren wie Tesla-Chef Elon Musk oder OpenAI-CEO Sam Altman vor den Gefahren der KI. Wie wichtig sollten wir diese Warnungen nehmen?
Ich glaube, die Motivation hinter diesen Warnungen hat wenig mit der sozialverträglichen Entwicklung von KI zu tun – auch wenn das vordergründig behauptet wird. Diese Stimmen folgen eher dem Interesse, dass schnellstmöglich reguliert wird, um Investitionssicherheit zu erhalten. Nichtsdestotrotz: Mögliche Gefahren, die mit dieser Großtechnologie einhergehen, sollten wir in jedem Fall öffentlich diskutieren, wenn es um Regulierung geht.
Inwieweit sind wir als Gesellschaft bereit, uns einem Oligopol der Digitalkonzerne auszuliefern? Da wünsche ich mir in Zukunft mehr Regulierung, da die Konzerne KI einsetzen und einsetzen werden, mit denen sehr viele Menschen auf die ein oder andere Art in Kontakt kommen.
Auch daher ist unser Projekt von großer Bedeutung; weil es hilft, Aufklärung zu schaffen. Andere Akteur*innen hingegen dürften an Regulierung nämlich nicht interessiert sein, weil sie ihre Wettbewerbsfähigkeit bedroht sehen. Deren Argumente einordnen zu können und zu verstehen, aus welcher Perspektive sie kommen, verstehen wir als Demokratie- und Sozialverträglichkeit.
Fürchten Sie persönlich die Kraft der KI, die in manchen Szenarien sogar die Zerstörung der Menschheit prognostiziert?
Ich persönlich fürchte sie nicht. Aber wir sollten der Debatte über solche Szenarien nicht ausweichen. Was ich mich aber frage, ist, inwieweit wir als Gesellschaft bereit sind, uns einem Oligopol der Digitalkonzerne auszuliefern. Da wünsche ich mir in Zukunft mehr Regulierung, da sie KI einsetzen und einsetzen werden, mit denen sehr viele Menschen auf die ein oder andere Art in Kontakt kommen.
Center for Advanced Internet Studies
In einer Forschungspartnerschaft zwischen der Heinrich-Heine-Universität Düsseldorf und dem Center for Advanced Internet Studies (CAIS) erforscht ein Team von Kommunikations- und Sozialwissenschaftler*innen die Konstitution und Veränderung öffentlicher sowie in den Medien veröffentlichter Meinungen zu KI. Das Projekt wird von der Stiftung Mercator gefördert.