AI Act erklärt: Wie die EU Künstliche Intelligenz regulieren will

binär Code
AI Act erklärt: Wie die EU Künstliche Intelligenz regulieren will
Autorin: Bettina Brakelmann 18.04.2023

Wie kann Künstliche Intelligenz transparenter, fairer und sicherer werden? Die EU will mit ihrer KI-Verordnung – dem Artificial Intelligence Act, kurz AI Act – eine an ethischen Grundsätzen orientierte Regulierung schaffen, ohne dabei Innovationen wie ChatGPT zu bremsen. Expertin Nikolett Aszódi von der NGO AlgorithmWatch beantwortet die wichtigsten Fragen.

Die EU will Künstliche Intelligenz (KI) regulieren. In den Verhandlungen wird der große Interessen­konflikt deutlich: Auf der einen Seite stehen führende Tech-Konzerne, die Verbote fürchten, und auf der anderen Seite kämpfen Verfechter*innen der Grund­rechte für ethische Standards in algo­rithmischen Systemen. Denn immer häufiger begegnen uns automatisierte Entscheidungen in fast allen Lebens­bereichen. Unternehmen setzen sie zum Beispiel in Bewerbungs­prozessen ein, etwa bei von einer KI entwickelten Fragen im Vor­stellungs­gespräch. Und in den sozialen Medien entscheiden Algorithmen schon längst, was uns angezeigt wird. Doch wie Künstliche Neuronale Netze und andere Formen des maschinellen Lernens ihre Entscheidungen treffen, wird häufig nicht offen­gelegt. Deshalb arbeitet die EU an einem der ersten Gesetze welt­weit, das KI in allen Lebens­bereichen regulieren soll: dem Artificial Intelligence Act (AI Act). Das Besondere: Dieser regelt nicht nur den Einsatz­bereich von KI, sondern gilt über­greifend für alle Einsatz­bereiche.

Nikolett Aszódi ist Policy & Advocacy Managerin bei AlgorithmWatch.
Nikolett Aszódi ist Policy & Advocacy Managerin bei AlgorithmWatch. © Adrian Groß

Aktuell wird der Gesetzesvorschlag der Europäischen Kommission von 2021 in den einzelnen Mitglied­staaten, im Europäischen Rat und im Europäischen Parlament kontrovers diskutiert. Kein Wunder, denn die KI-Verordnung sorgt für Zündstoff. Die politischen und wirtschaftlichen Interessen aller Mitglied­staaten unter einen Hut zu bekommen, erfordert eine hohe Kompromiss­bereitschaft. Für AufRuhr beantwortet Nikolett Aszódi, Expertin für algorithmische Entscheidungs­systeme bei der Nicht­regierungs­organisation AlgorithmWatch, die wichtigsten Fragen rund um den AI Act der EU.

Worum geht es beim AI Act?

Das übergeordnete Ziel dieser Verordnung sind einheitliche Vorgaben für die Verwendung von KI-Systemen innerhalb der Europäischen Union. Sie soll dafür sorgen, dass diese Anwendungen nicht gegen Grundrechte verstoßen und keine negativen Auswirkungen auf die Sicherheit und Gesundheit von Menschen haben. Dabei folgt das Gesetz einem risikobasierten Ansatz: Künstliche Systeme und ihre Anwendungen müssen Anforderungen erfüllen, die auf dem von ihnen wahrgenommenen Risikoniveau basieren. Geplant ist auch eine EU-Datenbank, in der Hochrisiko-KI-Systeme registriert werden, die in Bereichen wie Strafverfolgung, Einstellungsverfahren oder Grenzkontrolle zum Einsatz kommen.

Ob menschliche oder Künstliche Intelligenz – beide machen Fehler.
Ob menschliche oder Künstliche Intelligenz – beide machen Fehler. © Getty Images

Wo liegen die Risiken von KI-Systemen?

Bedenklich sind KI-Systeme, die versuchen, aus dem Aussehen und Verhalten von Menschen Rückschlüsse zu ziehen. Nikolett Aszódi, Policy & Advocacy Managerin bei AlgorithmWatch, erklärt: „Wann immer KI-Systeme eine gesellschaftliche Relevanz haben – also Vorhersagen über uns und Entscheidungen über unser Leben treffen –, sollten wir vorsichtig sein: Sind diese KI-Werkzeuge wirklich zur Lösung komplexer Aufgaben fähig? Funktionieren sie fehlerlos? Verletzen sie unsere Grundrechte, oder schaden sie unserer Sicherheit oder Gesundheit? Und auch: Wer profitiert von der Anwendung eines KI-Systems? Sind es einzelne Menschen, die Gesamtgesellschaft oder vielleicht bestimmte Big-Tech-Unternehmen oder staatliche Institutionen?“

AlgorithmWatch befürchtet, dass der AI Act die Anforderungen an KI-Systeme hauptsächlich aus technischer Sicht festlegt. Aszódi: „Technisch kann man ein perfekt funktionierendes System schaffen, das dennoch diskriminierend ist, wenn es unverhältnismäßig auf eine Gruppe der Gesellschaft abzielt.“ Generell mahnt die Expertin zur Vorsicht, eben weil KI-Systeme nicht fehlerfrei funktionierten: „Algorithmische Systeme werden zunehmend in allen Lebensbereichen eingesetzt – allerdings oft auf sehr undurchsichtige Weise. Vor allem wenn sie wichtige Entscheidungen über unser Leben treffen. Aber wenn die von diesen Systemen getroffenen Entscheidungen oder Vorhersagen auf fehlerhaften, unsinnigen oder verzerrten Daten beruhen, haben sie erhebliche Auswirkungen.“

Was bedeutet der risikobasierte Ansatz des AI Acts?

Die KI-Systeme sollen je nach Risikopotenzial einer Anwendung (unannehmbar, hoch, gering, minimal) verboten werden, bestimmten Transparenzregeln und Maßnahmen zur Risikominderung unterliegen oder keine Auflagen haben – so eine umfassende EU-weite Regelung, die KI für die gesamten Sektoren reguliert, gibt es noch nicht. Ein Risiko ist zum Beispiel unannehmbar, wenn es eine klare Bedrohung der Menschenrechte, Sicherheit oder Gesundheit darstellt. KI-Systeme, die besonders schützenswerte personenbezogene Daten verarbeiten, etwa im Bereich der Justiz und Medizin, tragen ein hohes Risiko.

Beispiele für unannehmbare Risiken gibt es einige. So sind in dem Gesetzesentwurf KI-Systeme für das sogenannte Social Scoring durch Regierungen verboten, das Menschen nach einem Punktesystem beurteilt wie etwa in China. Oder bestimmte Fälle von KI-Systemen zur biometrischen Fernidentifizierung von Personen im öffentlichen Raum. Mitglieder des Europäischen Parlamentes wollen zudem vorausschauende Polizeiarbeit (Predictive Policing) verbieten. Hierüber herrscht jedoch Uneinigkeit: Das EU-Parlament möchte derzeit das Aufspüren von Menschen mithilfe von Bilderkennungssystemen in Echtzeit verbieten, jedoch nachträglich erlauben. Das Bundesjustizministerium spricht sich dafür aus, die Bilderkennungssysteme für bestimmte Zwecke der Sicherheitsbehörden (Bekämpfung von Terroranschlägen, Aufspüren von Täter*innen, die per europäischem Haftbefehl gesucht werden) zuzulassen. Kritiker*innen wie zum Beispiel AlgorithmWatch-Geschäftsführer Matthias Spielkamp befürchten eine Massenüberwachung im öffentlichen Raum und sehen darin eine Gefahr für die Demokratie. Vorausschauende Polizeiarbeit verletzt ihrer Ansicht nach die menschliche Würde, verstößt gegen die Unschuldsvermutung und birgt ein hohes Diskriminierungsrisiko. Denn: Die Algorithmen errechnen aus Statistiken der Vergangenheit die Wahrscheinlichkeit von Verbrechen in einem Stadtviertel – schnell geraten so alle Bewohner*innen unter Generalverdacht.

Big Brother is watching you – die Vision des totalen Überwachungsstaates könnte durch unregulierte KI-Systeme wahr werden.
Big Brother is watching you – die Vision des totalen Überwachungsstaates könnte durch unregulierte KI-Systeme wahr werden. © Getty Images

Wo liegen die Chancen des AI Acts?

Die große Chance der KI-Verordnung liegt darin, sinnvolle Regeln zu finden, um Menschen vor Schäden durch KI-Systeme zu schützen, mehr Transparenz zu schaffen und demokratische Werte in die Regulierung des Marktes mit einfließen zu lassen. Mit einem solchen Gesetz käme Europa eine Vorreiterrolle zu. Nikolett Aszódi: „Es ist sehr wahrscheinlich, dass weltweit andere Länder den AI Act als Vorlage nutzen und seine Ansätze übernehmen. Damit hätte die EU einen Standard gesetzt, an dem sich andere Staaten orientieren könnten.“

Künstliche Intelligenz soll den Menschen dienen – nicht umgekehrt. Deshalb plant die EU mit dem AI Act die Verwendung von KI-Systemen zu regulieren.
Künstliche Intelligenz soll den Menschen dienen – nicht umgekehrt. Deshalb plant die EU mit dem AI Act die Verwendung von KI-Systemen zu regulieren. © iStock

Wie ist der aktuelle Stand der KI-Verordnung?

Im April 2021 veröffentlichte die EU-Kommission den ersten Gesetzesvorschlag, der von dort zu den Verhandlungen ins Parlament und in den Rat ging. Im April 2022 wurde der Entwurfsbericht vorgelegt: 3.000 Änderungswünsche hatten Mitglieder des Europäischen Parlamentes da bereits eingebracht, die zu einem Kompromissänderungsantrag zusammengefügt wurden. Der Europäische Rat hat im Dezember 2022 seine Version der sogenannten allgemeinen Ausrichtung – sozusagen als Grundlage für die späteren Verhandlungen – verabschiedet. Das Europäische Parlament arbeitet aktuell noch an einer eigenen Fassung. Sobald eine Mehrheit diese angenommen hat, beginnen die Verhandlungen – der sogenannte Trilog – zwischen Parlament, Rat und Kommission. Wenn diese Gremien sich geeinigt haben, kann das Gesetz verabschiedet werden.

Für alle Beteiligten ist es ein langer demokratischer Prozess mit Kompromissen, bitteren Pillen und Zugeständnissen, um verschiedene Interessen auf den kleinsten gemeinsamen Nenner zu bringen.

Wen betrifft der AI Act?

Zuerst einmal die knapp 447 Millionen Menschen, die in den 27 Ländern der EU leben und KI-Systeme nutzen, anbieten oder entwickeln. Außerdem jede private oder öffentliche Einrichtung, die Formen des maschinellen Lernens in der EU in Verkehr bringt oder sie einsetzt. Das gilt auch für Unternehmen in Nicht-EU-Ländern, die für den EU-Markt produzieren.

Was ist KI im Sinne dieses Gesetzes?

Im ursprünglichen Entwurf ist die Definition von KI recht weit gefasst. Sie ist eine „Software, die (…) im Hinblick auf eine Reihe von Zielen, die von Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, in dem sie interagieren“.

AlgorithmWatch stemmt sich gegen aktuelle Bestrebungen, KI auf maschinelles Lernen zu beschränken. Die NGO fasst es so zusammen: Jede*r kann sich in etwa vorstellen, was mit KI gemeint ist: Computersysteme, die ungefähr so denken wie Menschen. Ein genaueres Verständnis ist nach allgemeiner Ansicht die Sache von Fachkundigen. Aus Sicht von Expert*innen stellt sich KI deutlich anders dar: Systeme, die dem menschlichen Denken vergleichbar sind, eine sogenannte starke KI, gibt es nicht. Für „schwache“ KI gibt es dagegen keine verbindliche Definition. Der Begriff KI wird so willkürlich und für so unterschiedliche Verfahren benutzt, dass man immer nachfragen sollte, wie das Verfahren funktioniert. AlgorithmWatch bemängelt am AI Act außerdem, dass die KI-Verordnung der EU allein nicht ausreichen wird, um beim Einsatz dieser Systeme die Rechte der Beschäftigten zu sichern. Die NGO hat deshalb eine Studie zu KI im Personalwesen veröffentlicht.

Hat der AI Act Auswirkungen auf ChatGPT und Co.?

ChatGPT ist – wie Microsoft Bing oder Google Bard – eine von vielen Anwendungen im Bereich der sogenannten Generativen Künstlichen Intelligenz (generative AI). Diese generiert neue Daten und verwendet sie zum Beispiel zum Erstellen von Bildern oder Texten. Man spricht in diesem Zusammen­hang auch von maschinellem Lernen beziehungsweise von Large-Language-Modellen (Sprach­modellen). Inwieweit die KI-Verordnung deren Entwicklung und Anwendung regeln wird und welcher Risiko­kategorie sie angehören werden, ist noch nicht abschließend geklärt.

Wie wird die KI-Verordnung durch­gesetzt?

Ein noch einzurichtendes „European Artificial Intelligence Board“ der Mitglied­staaten wird für die Durch­setzung und Überwachung des AI Acts zuständig sein. Es soll Behörden benennen, die die Einhaltung der Regeln auf mitglied­staatlicher Ebene kontrollieren. Bei Verstößen drohen empfindliche Bußgelder, die sich nach Art und Schwere des jeweiligen Vergehens richten und bis zu einer Höhe von 30 Millionen Euro gehen können. Ein Schadens­ersatz für Betroffene ist bislang nicht vorgesehen.

AlgorithmWatch

AlgorithmWatch ist eine gemein­nützige Organisation aus Berlin mit dem Ziel, algorithmische Entscheidungs­findungen zu beobachten und einzuordnen. Besonders die, die eine gesellschaftliche Relevanz haben – die also entweder menschliche Entscheidungen vorhersagen oder diese für den Menschen automatisiert treffen.

algorithmwatch.org