Wann ist Künstliche Intelligenz gerecht?

Roboter
Wann ist Künstliche Intelligenz gerecht?
Autorin: Svea Eckert 22.09.2022

Anwendungen der Künstlichen Intelligenz (KI) sorgen bereits heute für Milliarden­umsätze – drohen aber zugleich, Grundrechte zu verletzen. Wie lässt sich das verhindern, und wie profitieren möglichst viele Menschen nach­haltig von den neuen Systemen des Maschinellen Lernens? Ein Team von Forscher*innen aus Cambridge und Bonn sucht gemeinsam Antworten und verrät Svea Eckert, wie es normative Leitplanken für den Einsatz von KI entwickeln will.

Kanta Dihal, Aimee van Wynsberghe, Stephen Cave: Sie starten ein großes gemeinsames Forschungs­projekt. Besonders ist die inter­nationale Zusammen­arbeit zwischen den Universitäten Bonn und Cambridge. Um was geht es bei Ihrem Projekt „Wünschens­werte Digitalisierung“?

Stephen Cave: Wir wollen die Auswirkungen von Künstlicher Intelligenz auf grund­legende Werte wie Menschen­würde, Gleichheit, Schutz von Minderheiten und natürlich auch auf Nachhaltigkeit unter­suchen. Im Zentrum des Projektes steht, was das in der Praxis bedeutet. Es ist dringend erforderlich, dass wir uns diesem Thema widmen: Es geht nicht nur um die Folgen dieser Technologie auf unsere Gesellschaft, sondern aktuell auch darum, wie wir auf europäischer Ebene im Rahmen des „AI-Act“ Künstliche Intelligenz gesetzlich regulieren. Der AI-Act wird unter anderem vorschreiben, dass Anwender*innen berücksichtigen müssen, ob und wie Maschinelles Lernen Grundwerte beeinflusst.

Kanta Dihal: Einerseits wird sich das Team in Bonn mit der Frage beschäftigen, welche gemeinsamen Werte Menschen unterschiedlicher Kulturen haben und worüber sie sich einig sind. Es geht darum, eine Idee von KI und Ethik zu entwickeln, die inter­national gilt. Anderer­seits wissen wir auch, dass Menschen in den verschiedenen Teilen der Welt Technologie unterschiedlich verstehen und nutzen. Deshalb sind auch lokale Vereinbarungen, Absprachen und Richtlinien so wichtig. Diesen Aspekt untersuchen wir in Cambridge.

Dr. Stephen Cave
© Leverhulme Centre for the Future of Intelligence, University of Cambridge

Dr. Stephen Cave ist Direktor des Leverhulme Centre for the Future of Intelligence der Universität Cambridge. Er promovierte an der Hochschule in Philosophie und ging dann zum britischen Außen­ministerium, wo er als politischer Berater und Diplomat an inter­nationalen Vertrags­verhandlungen beteiligt war. Cave spricht und schreibt über philosophische und wissen­schaftliche Themen – unter anderem in der „New York Times“, „The Atlantic“ und in Fernseh- und Radio­sendungen auf der ganzen Welt. Seine Forschungs­interessen konzentrieren sich derzeit auf das Wesen, die Darstellung und die Steuerung von KI.

Aimee van Wynsberghe: Außerdem überprüfen wir einige der bereits durch­geführten Studien zum Thema CO2-Emissionen, die durch den Einsatz von Künstlicher Intelligenz entstehen. Wir hoffen, mit unserer Forschung die politische Entscheidungs­findung zu unter­stützen, aber auch den akademischen Bereich stärken zu können. Außerdem ist es Teil des Projektes, die Wirtschaft zu erreichen, um Standards zu entwickeln.

Künstliche Intelligenz

Grundlegend ist Alan Turings Werk „Computing Machinery and Intelligence“ von 1950. In seinem Aufsatz stellt er folgende Frage: „Können Maschinen denken?“ Turing entwickelte einen Test, der als „Turing-Test“ bekannt ist und bei dem ein Mensch versucht, zwischen einer Computer- und einer menschlichen Antwort zu unterscheiden. Unter Künstlicher Intelligenz verstehen die meisten Informatiker*innen heute Formen des Maschinellen Lernens auf Basis von künstlichen neuronalen Netzen. Entwickler*innen trainieren diese Netze mit bekannten Daten, etwa mit Abermillionen Bildern von Katzen. Das Programm kann anschließend in einem unbekannten Foto eine Katze erkennen. Andere Beispiele sind die Gesichts- oder Spracherkennung. Allerdings sind diese Systeme nicht perfekt und hängen stark von der Qualität der Trainingsdaten ab.

Alan Turing
Alan Turing, ca. 1938 © gemeinfrei
Aimee van Wynsberghe
© privat

Dr. Aimee van Wynsberghe ist Alexander von Humboldt-Professorin für Angewandte Ethik der Künstlichen Intelligenz an der Universität Bonn. Sie ist Direktorin des Instituts für Wissenschaft und Ethik und des Sustainable AI Lab in Bonn. Außerdem ist sie Co-Direktorin der Foundation for Responsible Robotics und Mitglied der Hoch­rangigen Experten­gruppe für Künstliche Intelligenz der Europäischen Kommission. Sie ist Gründungs­redakteurin der inter­nationalen Fach­zeit­schrift „AI and Ethics“ und Mitglied des Global Future Council on Artificial Intelligence for Humanity des Welt­wirtschafts­forums. Van Wynsberghe ist Autorin des Buches „Healthcare Robots: Ethics, Design and Implementation“. In jeder ihrer Funktionen arbeitet sie daran, die ethischen Risiken auf­zu­zeigen, die mit der aufkommenden Robotik und KI verbunden sind.

Einblicke in die Blackbox

Das klingt spannend. Bevor wir näher darauf eingehen, lassen Sie uns klären: Was ist Künstliche Intelligenz eigentlich?

Aimee van Wynsberghe: Künstliche Intelligenz ist zunächst einmal ein Ober­begriff. Es geht um eine Maschine, die Formen von Intelligenz aufweist. Und dann gibt es eine Vielzahl verschiedener Methoden, die helfen, das zu erreichen. Die Frage ist: Kann der Algorithmus ein Muster selbst­ständig erkennen, ohne dass wir ihm sagen, welches Muster er erkennen soll? Die Antwort ist: Ja, das kann er. Es wirkt beinahe so, als ob diese Intelligenz die menschliche Intelligenz fast über­steigt. Und wir scheinen nicht klug genug zu sein, um sie zu verstehen – oder zumindest jetzt noch nicht. Daher kommt der Begriff „Blackbox“.

Welche Probleme gibt es heute, und über was müssen wir in Zukunft sprechen?

Kanta Dihal: Zunächst werden riesige Daten­mengen benötigt. Oft werden zum Trainieren von Künstlicher Intelligenz bestehende Datensätze, das heißt inklusive der Ungerechtigkeit der Gesellschaft, verwendet. Diese sind häufig von den Vor­urteilen der Personen beeinflusst, die diese Informationen zusammen­gestellt haben.

Aimee van Wynsberghe: Wir dürfen auch nicht vergessen, dass jede Art Künstlicher Intelligenz auch eine physische Komponente besitzt. Das sind zum Beispiel die Daten­zentren mit ihren Servern, auf denen die Algorithmen laufen. Sie benötigen viel Strom, was für CO2-Emissionen sorgt, wenn die Elektrizität nicht mit erneuerbarer Energie produziert wurde. Dazu kommen Mineralien, die zum Beispiel in Rechnern und Batterien verbaut werden, außerdem Wasser für die Kühlung.

Technologie wird häufig als neutral verkauft, ist sie aber nicht. Ich denke, wir müssen die Werte verstehen, die in diesen Anwendungen stecken.

Dr. Stephen Cave, Direktor des Leverhulme Centre for the Future of Intelligence der Universität Cambridge

KI ist ein mächtiges Werkzeug

Was bedeutet das für unsere Gesellschaft – neben dem Aspekt der Umwelt­verschmutzung?

Stephen Cave: Zunächst einmal ist Künstliche Intelligenz eine enorm leistungs­fähige Technologie. Es gibt viele gute Seiten. Ich kaufe zum Beispiel oft die Bücher, die Amazon mir empfiehlt. Genauso hilft Maschinelles Lernen in Kranken­häusern, Krebs­diagnosen zu verbessern. Aber wir müssen auch darüber nach­denken, wie sich KI auf unser Leben und unsere Gesellschaft auswirkt. Und wir müssen uns fragen, ob die Algorithmen mit unseren Werten über­ein­stimmen. Es gibt zum Beispiel eine sehr interessante Studie, die zeigt, wie einfach es für die Google-Suche ist, die politischen Ansichten der Menschen zu manipulieren. Dies kann von Seiten der beteiligten Unternehmen völlig unbeabsichtigt sein, kann aber dennoch große Auswirkungen haben.

Kanta Dihal
© Mike Thornton

Dr. Kanta Dihal ist Senior Research Fellow am Leverhulme Centre for the Future of Intelligence der Universität Cambridge. Ihre Forschung konzentriert sich auf wissen­schaftliche Narrative, insbesondere solche, die aus Konflikten hervor­gehen. Derzeit leitet sie das Projekt „Wünschens­werte Digitalisierung“. Sie ist Mit­heraus­geberin der Bücher „Global AI Narratives“ (2020) und „Imagining AI“ (2023) und hat das Welt­wirtschafts­forum, das britische Oberhaus und die Vereinten Nationen beraten.

Kann es ethische KI geben?

Sollten wir deshalb über das Konzept ethischer KI nachdenken?

Aimee van Wynsberghe: Ich denke nicht, dass es so etwas wie ethische KI gibt, also dass heutige Formen Maschinellen Lernens selbst über eine moralische Denk­fähig­keit verfügen. Es geht vielmehr um das Verfahren, mit denen die Algorithmen erstellt wurden. Sind Daten­erfassung und Training transparent? Gibt es Mechanismen, die es ermöglichen, in den Prozess zu schauen und ihm zu vertrauen?

Kanta Dihal: Viele Unternehmen haben bereits ethische Grundsätze auf­gestellt, ebenso wie einige Staaten und Nationen. In anderen Fällen befassen sich Gesetze speziell mit bestimmten Arten dieser Technologien, zum Beispiel mit der Gesichtserkennung, die ja einige Probleme mit sich bringt. Am Ende ist es eine Kombination aus beidem: Einerseits müssen wir uns darüber im Klaren sein, was wir mit einer bestimmten Technologie überhaupt wollen. Und von dieser Basis aus können wir uns dann mit spezifischen Technologien und Anwendungen befassen.

Wie Suchmaschinen Wahl­präferenzen beeinflussen können

Im Jahr 2015 zeigten Wissen­schaftler*innen des Cambridge Center for Behavioral Studies, dass Internet-Suchrankings einen erheblichen Einfluss auf die Wahl­entscheidungen von Nutzer*innen haben, weil diese höher eingestuften Ergebnissen mehr vertrauen und eher auf diese klicken als auf Ergebnisse mit niedrigeren Rängen. Die Ergebnisse der Experimente zeigten, dass verzerrte Such­rankings die Präferenzen unentschlossener Wähler*innen um 20 Prozent oder mehr verändern können.

Der Mensch im Zentrum

Und wie sieht das in der Praxis aus?

Stephen Cave: Wir sollten uns daran erinnern, dass hinter KI immer Menschen stecken, die Computer verwenden, um Entscheidungen zu treffen, und wir sollten uns fragen, wann und wie wir das für eine gute Idee halten. Wenn zum Beispiel Ärzt*innen in einem Krankenhaus mithilfe eines Systems bestimmte Patient*innen nach Prioritäten ordnen, müssen wir sehr genau fragen, wie die Algorithmen das tun und welche Interessen­gruppen beteiligt waren. Wir müssten das auch über einen langen Zeitraum hinweg beobachten, um zu erkennen, ob sich negative Folgen ergeben. Technologie wird häufig als neutral verkauft, ist sie aber nicht. Ich denke, wir müssen die Werte verstehen, die in diesen Anwendungen stecken. Dabei soll dieses Forschungs­projekt helfen.


Wünschenswerte Digitalisierung/Desirable Digitalisation: Rethinking AI for Just and Sustainable Futures

Wie verändert KI unsere Vorstellungen von Menschsein und Werten? Welche gesellschaftlichen Strukturen und Menschen­bilder prägen aktuell die Technologie­entwicklung? In diesem inter­nationalen Projekt arbeiten Forscher*innen an den Universitäten Bonn und Cambridge an grund­legenden Frage­stellungen im Zusammen­hang von KI, Werten und Menschen­bildern. Das Ziel sind normative Leit­planken für die Entwicklung und den Einsatz von KI und Wege für ihre praktische Anwendung.
www.desirableai.com/events/kick-off