Wann ist Künstliche Intelligenz gerecht?

Anwendungen der Künstlichen Intelligenz (KI) sorgen bereits heute für Milliardenumsätze – drohen aber zugleich, Grundrechte zu verletzen. Wie lässt sich das verhindern, und wie profitieren möglichst viele Menschen nachhaltig von den neuen Systemen des Maschinellen Lernens? Ein Team von Forscher*innen aus Cambridge und Bonn sucht gemeinsam Antworten und verrät Svea Eckert, wie es normative Leitplanken für den Einsatz von KI entwickeln will.
Kanta Dihal, Aimee van Wynsberghe, Stephen Cave: Sie starten ein großes gemeinsames Forschungsprojekt. Besonders ist die internationale Zusammenarbeit zwischen den Universitäten Bonn und Cambridge. Um was geht es bei Ihrem Projekt „Wünschenswerte Digitalisierung“?
Stephen Cave: Wir wollen die Auswirkungen von Künstlicher Intelligenz auf grundlegende Werte wie Menschenwürde, Gleichheit, Schutz von Minderheiten und natürlich auch auf Nachhaltigkeit untersuchen. Im Zentrum des Projektes steht, was das in der Praxis bedeutet. Es ist dringend erforderlich, dass wir uns diesem Thema widmen: Es geht nicht nur um die Folgen dieser Technologie auf unsere Gesellschaft, sondern aktuell auch darum, wie wir auf europäischer Ebene im Rahmen des „AI-Act“ Künstliche Intelligenz gesetzlich regulieren. Der AI-Act wird unter anderem vorschreiben, dass Anwender*innen berücksichtigen müssen, ob und wie Maschinelles Lernen Grundwerte beeinflusst.
Kanta Dihal: Einerseits wird sich das Team in Bonn mit der Frage beschäftigen, welche gemeinsamen Werte Menschen unterschiedlicher Kulturen haben und worüber sie sich einig sind. Es geht darum, eine Idee von KI und Ethik zu entwickeln, die international gilt. Andererseits wissen wir auch, dass Menschen in den verschiedenen Teilen der Welt Technologie unterschiedlich verstehen und nutzen. Deshalb sind auch lokale Vereinbarungen, Absprachen und Richtlinien so wichtig. Diesen Aspekt untersuchen wir in Cambridge.

Dr. Stephen Cave ist Direktor des Leverhulme Centre for the Future of Intelligence der Universität Cambridge. Er promovierte an der Hochschule in Philosophie und ging dann zum britischen Außenministerium, wo er als politischer Berater und Diplomat an internationalen Vertragsverhandlungen beteiligt war. Cave spricht und schreibt über philosophische und wissenschaftliche Themen – unter anderem in der „New York Times“, „The Atlantic“ und in Fernseh- und Radiosendungen auf der ganzen Welt. Seine Forschungsinteressen konzentrieren sich derzeit auf das Wesen, die Darstellung und die Steuerung von KI.
Aimee van Wynsberghe: Außerdem überprüfen wir einige der bereits durchgeführten Studien zum Thema CO2-Emissionen, die durch den Einsatz von Künstlicher Intelligenz entstehen. Wir hoffen, mit unserer Forschung die politische Entscheidungsfindung zu unterstützen, aber auch den akademischen Bereich stärken zu können. Außerdem ist es Teil des Projektes, die Wirtschaft zu erreichen, um Standards zu entwickeln.
Künstliche Intelligenz
Grundlegend ist Alan Turings Werk „Computing Machinery and Intelligence“ von 1950. In seinem Aufsatz stellt er folgende Frage: „Können Maschinen denken?“ Turing entwickelte einen Test, der als „Turing-Test“ bekannt ist und bei dem ein Mensch versucht, zwischen einer Computer- und einer menschlichen Antwort zu unterscheiden. Unter Künstlicher Intelligenz verstehen die meisten Informatiker*innen heute Formen des Maschinellen Lernens auf Basis von künstlichen neuronalen Netzen. Entwickler*innen trainieren diese Netze mit bekannten Daten, etwa mit Abermillionen Bildern von Katzen. Das Programm kann anschließend in einem unbekannten Foto eine Katze erkennen. Andere Beispiele sind die Gesichts- oder Spracherkennung. Allerdings sind diese Systeme nicht perfekt und hängen stark von der Qualität der Trainingsdaten ab.


Dr. Aimee van Wynsberghe ist Alexander von Humboldt-Professorin für Angewandte Ethik der Künstlichen Intelligenz an der Universität Bonn. Sie ist Direktorin des Instituts für Wissenschaft und Ethik und des Sustainable AI Lab in Bonn. Außerdem ist sie Co-Direktorin der Foundation for Responsible Robotics und Mitglied der Hochrangigen Expertengruppe für Künstliche Intelligenz der Europäischen Kommission. Sie ist Gründungsredakteurin der internationalen Fachzeitschrift „AI and Ethics“ und Mitglied des Global Future Council on Artificial Intelligence for Humanity des Weltwirtschaftsforums. Van Wynsberghe ist Autorin des Buches „Healthcare Robots: Ethics, Design and Implementation“. In jeder ihrer Funktionen arbeitet sie daran, die ethischen Risiken aufzuzeigen, die mit der aufkommenden Robotik und KI verbunden sind.
Einblicke in die Blackbox
Das klingt spannend. Bevor wir näher darauf eingehen, lassen Sie uns klären: Was ist Künstliche Intelligenz eigentlich?
Aimee van Wynsberghe: Künstliche Intelligenz ist zunächst einmal ein Oberbegriff. Es geht um eine Maschine, die Formen von Intelligenz aufweist. Und dann gibt es eine Vielzahl verschiedener Methoden, die helfen, das zu erreichen. Die Frage ist: Kann der Algorithmus ein Muster selbstständig erkennen, ohne dass wir ihm sagen, welches Muster er erkennen soll? Die Antwort ist: Ja, das kann er. Es wirkt beinahe so, als ob diese Intelligenz die menschliche Intelligenz fast übersteigt. Und wir scheinen nicht klug genug zu sein, um sie zu verstehen – oder zumindest jetzt noch nicht. Daher kommt der Begriff „Blackbox“.
Welche Probleme gibt es heute, und über was müssen wir in Zukunft sprechen?
Kanta Dihal: Zunächst werden riesige Datenmengen benötigt. Oft werden zum Trainieren von Künstlicher Intelligenz bestehende Datensätze, das heißt inklusive der Ungerechtigkeit der Gesellschaft, verwendet. Diese sind häufig von den Vorurteilen der Personen beeinflusst, die diese Informationen zusammengestellt haben.
Aimee van Wynsberghe: Wir dürfen auch nicht vergessen, dass jede Art Künstlicher Intelligenz auch eine physische Komponente besitzt. Das sind zum Beispiel die Datenzentren mit ihren Servern, auf denen die Algorithmen laufen. Sie benötigen viel Strom, was für CO2-Emissionen sorgt, wenn die Elektrizität nicht mit erneuerbarer Energie produziert wurde. Dazu kommen Mineralien, die zum Beispiel in Rechnern und Batterien verbaut werden, außerdem Wasser für die Kühlung.
Technologie wird häufig als neutral verkauft, ist sie aber nicht. Ich denke, wir müssen die Werte verstehen, die in diesen Anwendungen stecken.
KI ist ein mächtiges Werkzeug
Was bedeutet das für unsere Gesellschaft – neben dem Aspekt der Umweltverschmutzung?
Stephen Cave: Zunächst einmal ist Künstliche Intelligenz eine enorm leistungsfähige Technologie. Es gibt viele gute Seiten. Ich kaufe zum Beispiel oft die Bücher, die Amazon mir empfiehlt. Genauso hilft Maschinelles Lernen in Krankenhäusern, Krebsdiagnosen zu verbessern. Aber wir müssen auch darüber nachdenken, wie sich KI auf unser Leben und unsere Gesellschaft auswirkt. Und wir müssen uns fragen, ob die Algorithmen mit unseren Werten übereinstimmen. Es gibt zum Beispiel eine sehr interessante Studie, die zeigt, wie einfach es für die Google-Suche ist, die politischen Ansichten der Menschen zu manipulieren. Dies kann von Seiten der beteiligten Unternehmen völlig unbeabsichtigt sein, kann aber dennoch große Auswirkungen haben.

Dr. Kanta Dihal ist Senior Research Fellow am Leverhulme Centre for the Future of Intelligence der Universität Cambridge. Ihre Forschung konzentriert sich auf wissenschaftliche Narrative, insbesondere solche, die aus Konflikten hervorgehen. Derzeit leitet sie das Projekt „Wünschenswerte Digitalisierung“. Sie ist Mitherausgeberin der Bücher „Global AI Narratives“ (2020) und „Imagining AI“ (2023) und hat das Weltwirtschaftsforum, das britische Oberhaus und die Vereinten Nationen beraten.
Kann es ethische KI geben?
Sollten wir deshalb über das Konzept ethischer KI nachdenken?
Aimee van Wynsberghe: Ich denke nicht, dass es so etwas wie ethische KI gibt, also dass heutige Formen Maschinellen Lernens selbst über eine moralische Denkfähigkeit verfügen. Es geht vielmehr um das Verfahren, mit denen die Algorithmen erstellt wurden. Sind Datenerfassung und Training transparent? Gibt es Mechanismen, die es ermöglichen, in den Prozess zu schauen und ihm zu vertrauen?
Kanta Dihal: Viele Unternehmen haben bereits ethische Grundsätze aufgestellt, ebenso wie einige Staaten und Nationen. In anderen Fällen befassen sich Gesetze speziell mit bestimmten Arten dieser Technologien, zum Beispiel mit der Gesichtserkennung, die ja einige Probleme mit sich bringt. Am Ende ist es eine Kombination aus beidem: Einerseits müssen wir uns darüber im Klaren sein, was wir mit einer bestimmten Technologie überhaupt wollen. Und von dieser Basis aus können wir uns dann mit spezifischen Technologien und Anwendungen befassen.
Wie Suchmaschinen Wahlpräferenzen beeinflussen können
Im Jahr 2015 zeigten Wissenschaftler*innen des Cambridge Center for Behavioral Studies, dass Internet-Suchrankings einen erheblichen Einfluss auf die Wahlentscheidungen von Nutzer*innen haben, weil diese höher eingestuften Ergebnissen mehr vertrauen und eher auf diese klicken als auf Ergebnisse mit niedrigeren Rängen. Die Ergebnisse der Experimente zeigten, dass verzerrte Suchrankings die Präferenzen unentschlossener Wähler*innen um 20 Prozent oder mehr verändern können.
Der Mensch im Zentrum
Und wie sieht das in der Praxis aus?
Stephen Cave: Wir sollten uns daran erinnern, dass hinter KI immer Menschen stecken, die Computer verwenden, um Entscheidungen zu treffen, und wir sollten uns fragen, wann und wie wir das für eine gute Idee halten. Wenn zum Beispiel Ärzt*innen in einem Krankenhaus mithilfe eines Systems bestimmte Patient*innen nach Prioritäten ordnen, müssen wir sehr genau fragen, wie die Algorithmen das tun und welche Interessengruppen beteiligt waren. Wir müssten das auch über einen langen Zeitraum hinweg beobachten, um zu erkennen, ob sich negative Folgen ergeben. Technologie wird häufig als neutral verkauft, ist sie aber nicht. Ich denke, wir müssen die Werte verstehen, die in diesen Anwendungen stecken. Dabei soll dieses Forschungsprojekt helfen.
Wünschenswerte Digitalisierung/Desirable Digitalisation: Rethinking AI for Just and Sustainable Futures
Wie verändert KI unsere Vorstellungen von Menschsein und Werten? Welche gesellschaftlichen Strukturen und Menschenbilder prägen aktuell die Technologieentwicklung? In diesem internationalen Projekt arbeiten Forscher*innen an den Universitäten Bonn und Cambridge an grundlegenden Fragestellungen im Zusammenhang von KI, Werten und Menschenbildern. Das Ziel sind normative Leitplanken für die Entwicklung und den Einsatz von KI und Wege für ihre praktische Anwendung.
www.desirableai.com/events/kick-off