Algorithmen mit Moral

Autor: Matthias Klein 13.01.2021

Die Digitalisierung wirft viele ethische Fragen auf. Es seien keine neuen Regeln gefragt, sagt der Medienrechtler Wolfgang Schulz. Es gehe vielmehr darum, bekannte Normen konkreter zu fassen und anzuwenden. Dabei werde ein Problem deutlich: „Wir wissen als Gesellschaft oft gar nicht, was wir wollen.“

Online-Portale, soziale Medien oder Messenger: Die Digitalisierung hat unser Leben in den vergangenen Jahren sehr verändert. Wie wirkt sich das auf die Grundlagen unseres Zusammenlebens aus, Herr Schulz?

Wolfgang Schulz: Zunächst muss man feststellen, dass Digitalisierung wirklich alle Gesellschaftsbereiche betrifft. Ob Gesundheit, Bildung, die demokratische Verständigung oder die Frage, wie sich Familien organisieren – alles ist von der Digitalisierung betroffen. Daraus ergibt sich eine Herausforderung: Gesellschaft ist bisher so organisiert, dass bestimmte Institutionen bestimmte Leistungen für die Gesellschaft erbringen.

Das wird durch die Digitalisierung an vielen Stellen erschüttert. Wir sehen das besonders deutlich bei den traditionellen Medien, die immer noch ausgesprochen wichtig sind. Daneben tritt aber die Kommunikation auf neuen Plattformen wie den sozialen Medien, die auch eine große Bedeutung hat. Die Plattformen erleichtern uns, Informationen aus aller Welt zu bekommen. Ihnen sind aber mediale Selektionsmechanismen fremd, Informationen sind nicht nach Gesellschaftsrelevanz sortiert und gewichtet.

Welche ethischen Probleme kommen dadurch auf uns zu?

Schulz: Im Bereich Digitalisierung wird gerade viel über Ethik gesprochen. Manche verstehen Ethik so, dass die individuelle Moral die Schwierigkeiten einhegen soll.

© Leibniz-Institut für Medienforschung | Hans-Bredow-institut

Wolfgang Schulz

Prof. Dr. Wolfgang Schulz ist Direktor des Leibniz-Instituts für Medienforschung |Hans-Bredow-Institut und des Humboldt Institut für Internet und Gesellschaft. Er ist Forschungsdirektor des Projekts “Ethik der Digitalisierung – Von Prinzipien zu Praktiken”

Das sehen wir anders. Es geht um übergeordnete Regeln. Das Recht muss und wird eine wichtige Rolle spielen. Es reicht aber anders als in anderen Bereichen nicht aus. Daneben müssen wir ganz neue Aspekte berücksichtigen, zum Beispiel dass manche Technologien durch ihr Design bestimmte Handlungen nahelegen – die Technik selbst ist normativ.

Wir sehen tastende Versuche, die Regelungen so anzupassen, dass neue Phänomene einbezogen werden.

Lassen Sie uns zunächst über das Recht sprechen. Nun ist die Digitalisierung schon einige Jahre in vollem Gange – wie weit sind wir als Gesellschaft bei den rechtlichen Regeln fortgeschritten?

Schulz: Wir sehen tastende Versuche, die Regelungen so anzupassen, dass neue Phänomene einbezogen werden. Das stößt zum Teil aber an systematische Grenzen. Ich nehme wieder das Beispiel der Medien. Deutschland ist relativ weit, Plattformen wie Suchmaschinen oder soziale Medien in die Medienregulierung einzubeziehen. Aber es gibt Grenzen. Über die Plattformen bekommen User Zugriff auf die Inhalte aus der ganzen Welt. Das sind nicht nur Medienberichte, sondern auch Informationen von Wikipedia, von Behörden oder Forschungsinstituten und unzähligen mehr. Mit dem Medienrecht allein kommt man da nicht weit.

Wie kann die Gesellschaft darauf reagieren?

Schulz: Zunächst ist wichtig zu sehen: Wer hat eigentlich an welcher Stelle welche Verantwortung? Da sind die großen Tech-Unternehmen, die die Situation prägen. Da sind aber auch wir alle mit den Kompetenzen, die wir bereits haben oder die wir noch erwerben müssen. Und dann geht es darum, wie das Recht die Entwicklung unterstützen kann. Nehmen Sie als Beispiel das Thema Desinformation. Es gibt die Sorge, Falschinformationen könnten sich auf demokratische Wahlen auswirken. Das Problem kann man nicht einfach mit einem Gesetz lösen, also Falschinformationen schlicht verbieten. Man muss sich auch anschauen: Was muss jeder an Kompetenzen erwerben, um erkennen zu können, ob eine Information richtig ist oder nicht? Die nächste Frage ist: Was können Unternehmen machen, ohne alle Informationen inhaltlich zu bewerten? Sie könnten beispielsweise warnen, dass es Zweifel an der Richtigkeit von bestimmten Meldungen gibt. Oft wird nur über das Löschen der Inhalte diskutiert.

Wie kann denn eine Ethik der Digitalisierung aussehen?

Schulz: Der Prozess der Digitalisierung gibt Anlass, sich sehr grundlegend über ethische Grundfragen zu unterhalten. Das bedeutet nicht, dass wir andere Regeln brauchen als die normativen Regeln, die es bereits gibt. Sondern wir müssen die alten Regeln anschauen und fragen, wie man sie auslegen muss, damit sie ein Leben in Freiheit unter den Bedingungen der Digitalisierung ermöglichen. Wir haben uns ja auf zahlreiche Regeln verständigt, zum Beispiel die Menschenrechte, in Deutschland die Grundrechte. Wir sollten für das Digitale keine eigene Ordnung daneben stellen.

© Getty Images

In der digitalen Welt spielen international agierende Konzerne wie Google oder Facebook weltweit eine besondere Rolle. Kann man sie überhaupt auf ethische Prinzipien verpflichten, die ja zumindest teilweise von Land zu Land unterschiedlich sind?

Schulz: Am Anfang steht die Überlegung, auf welche gemeinsamen Standards wir uns überhaupt einigen können. Und dann geht es darum, wie diese auf den Plattformen global umgesetzt werden können. Wo es nicht möglich oder sinnvoll ist, geht es darum, kulturelle und rechtliche Besonderheiten umzusetzen. Das ist möglich, das passiert bereits. Die internationalen Konzerne setzen ihre Regeln keinesfalls überall gleichermaßen durch. Es gibt Technik, die dafür sorgt, dass Inhalte, die in Deutschland verboten sind, für deutsche User gar nicht verfügbar sind. Social Media Plattformen haben jedenfalls Anhaltspunkte, wo ein*e Nutzer*in sitzt, und können Inhalte entsprechend ausspielen. Aus meiner Sicht sollten wir aber verhindern, dass nur noch das online verfügbar ist, was überall auf der Welt rechtmäßig ist, denn dann bleibt nur noch ein sehr kleiner Ausschnitt des Weltwissens – schließlich gibt es ja auch sehr restriktiv agierende Staaten. Das bedeutet: Wir brauchen einen sehr kleinteiligen Prozess, um das immer wieder auszuhandeln. Aber einfacher geht es nicht.

Sie sprechen den Einsatz von Technik an, um Inhalte zu steuern. Welche Rolle spielen Normen und Werte beim Einsatz solcher algorithmischer Systeme?

Schulz: Bei der Entwicklung von Technologie müssen Normen schon mitgedacht werden. Dafür müssen die Entwickler*innen mit denen viel stärker in Kontakt treten, die sich mit ethischen Fragen auseinandersetzen. Das kann funktionieren. Inzwischen gibt es zahlreiche Initiativen. In der Tech-Community wächst auch das Bewusstsein dafür. Aber man darf nicht vergessen: Vielfach geht es eigentlich nicht um die Technologie an sich, sondern die ökonomischen Kräfte dahinter sind entscheidend. Das kann dazu führen, dass Dialog nicht ausreicht, sondern Standards mit rechtlichen Mitteln durchgesetzt werden müssen.

Die Zugänglichkeit von Wissen hat sich unglaublich erhöht.

Wie kann das konkret aussehen?

Schulz: Eine Möglichkeit ist, die Grenzen des Einsatzes von Technologie zu beschreiben. Ich nenne ein Beispiel: Auch die ausgefeilteste Technologie kann momentan den Inhalt von Kommunikation auf Plattformen wie sozialen Medien nicht verstehen. Deshalb kommt es vor, dass eine ironische Bemerkung falsch zugeordnet und dann automatisch gelöscht wird. Nun könnte man festschreiben, dass die Technologie Kommentare nicht automatisch löschen darf. Oder es müssen Mechanismen zur Verfügung stehen, dass sich User über die Entscheidung beschweren können – und es dann die Möglichkeit gibt, das Löschen zu revidieren.

Hinzu kommt wie eben gesagt, normative Aspekte bereits bei der Gestaltung mitzudenken. Und da tritt interessanterweise das Problem auf, dass wir als Gesellschaft oft gar nicht genau formulieren können, was wir eigentlich wollen. Ein Beispiel: Viele nutzen technische Systeme bei der Jobsuche. Sie bekommen Vorschläge für interessante Stellen. Frauen werden dann eher typische „Frauenberufe“ angezeigt. Das liegt daran, dass Frauen statistisch gesehen eher nach diesen Stellen suchen. Das System ist also nicht schlecht. Aber man kann normativ sagen: Das wollen wir nicht, das vertieft Stereotype. Aber wie soll der Algorithmus stattdessen aussehen? Das ist gar nicht einfach zu sagen. Hier geht es nicht um eine technische Umsetzung, sondern um Normen. Und das ist eine sehr spannende Entwicklung: Die neue Technik zwingt uns als Einzelne und als Gesellschaft, uns zu fragen, was wir eigentlich wollen. Können wir die Maßstäbe so konkret beschreiben, dass wir sie in Technik einschreiben können?

Das heißt, dass wir aus Ihrer Sicht dringend eine gesellschaftliche Debatte darüber brauchen?

Schulz: Definitiv. Im Augenblick gibt es diese jedenfalls nicht systematisch. Es gibt auch keine Plattform dafür. Wir müssen schauen, dass wir diese ethischen Normen ausformulieren. Wenn es keine Verständigung darüber gibt, setzt jeder, der Technik neu baut, diese nach seinen Vorstellungen ein. Eine Möglichkeit wäre übrigens auch, verschiedene Optionen einzurichten und den Usern zu überlassen, welche Version sie benutzen möchten. Also wollen sie beispielsweise die Stellen angezeigt bekommen, für die sich viele Frauen interessieren? Oder wollen sie alle Stellen in einem Bereich sehen?

Wir haben nun über viele Probleme gesprochen – wo sehen Sie Chancen?

Schulz: Die Zugänglichkeit von Wissen hat sich unglaublich erhöht. Wenn Sie wissen wollen, was der amerikanische Präsident wirklich gesagt hat, haben sie durch die Digitalisierung viel einfachere Möglichkeiten, das herauszufinden.

Das gerät manchmal vor dem Hintergrund der ganzen Probleme in Vergessenheit. Für Demokratien ist ein zweiter Punkt wichtig. Die Hürde, sich in politische Prozesse jedenfalls punktuell einzubringen, ist viel niedriger als früher. Deshalb werden nicht alle Menschen auf einmal politisch, aber sie haben viel mehr und einfachere Möglichkeiten. Wie bei vielen Aspekten der Digitalisierung gilt auch hier: Es ist noch viel mehr möglich, als bislang umgesetzt ist. Wir stehen noch am Anfang.

Ethik der Digitalisierung

Das internationale Forschungsprojekt “Ethik der Digitalisierung – Von Prinzipien zu Praktiken” hat das Ziel, Antworten auf Herausforderungen im Spannungsfeld von Ethik und Digitalisierung zu entwickeln. Es steht unter der Schirmherrschaft des Bundespräsidenten Frank-Walter Steinmeier.

Projektpartner sind das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG), das Berkman Klein Center an der Harvard University, der Digital Asia Hub und das Leibniz-Institut für Medienforschung | Hans-Bredow-Institut.


www.hiig.de/project/ethik-der-digitalisierung/