Sollen Algorithmen reguliert werden?

02.01.2017

Unfälle von selbstfahrenden Autos, die Rückfallwahrscheinlichkeit von Verbrechern berechnen und durch Nachrichtenfilter beeinflusste Wahlen. Müssen Staaten aufpassen?

(Aus "Horizonte" Nr. 111 Dezember 2016)​​​

 

Ja, sagt Markus Ehrenmann von Swisscom.

Die gegenwärtigen Fortschritte bei der Verarbeitung grosser Datenmengen ("big data") und beim maschinellen Lernen sind nicht immer nur von Vorteil. Manche Algorithmen benachteiligen Menschen schon heute und müssen daher reguliert werden.

Wenn zum Beispiel ein selbstfahrendes Auto auf der Strasse ein Hindernis erkennt, muss der Steueralgorithmus entscheiden, ob er das Leben der Passagiere aufs Spiel setzt oder unbeteiligte Passanten auf dem Trottoir gefährdet. Der Bordcomputer übernimmt Entscheidungen, die bisher Menschen übernommen haben. Es obliegt dem Staat zu klären, wer für die Folgen der automatischen Entscheidung die Verantwortung übernehmen muss ("algorithmic accountability"). Andernfalls würde unser Rechtssystem ausgehebelt. In manchen US-Bundesstaaten unterstützen Programme die Festlegung von Strafmassen für Verurteilte. Damit lassen sich die Rückfallrate und die Gefängniskosten reduzieren – im Mittel. Im Einzelfall hingegen können die Urteile der Entscheidungsalgorithmen verheerend falsch sein. Zum Beispiel wenn die Hautfarbe oder ein Wohnort als Eingangsgrösse benutzt wird.

So liefert die Suche nach den Begriffen "professional hairstyle" und "unprofessional hairstyle" mit der US-amerikanischen Google-Variante einmal Bilder hellhäutiger und einmal farbiger Frauen ("algorithmic bias"). Die Datenbasis, aufgrund der die Algorithmen entscheiden, ist nicht immer korrekt. Selbst mit einer grossen Zahl von Texten als Grundlage können kulturelle Faktoren nicht eliminiert werden. Stereotype diskriminieren. Dazu kommt, dass Daten immer vergangenheitsbezogen sind und daher nur begrenzt Aussagen über die Zukunft zulassen.

Menschen haben das Recht auf eine Erklärung zu Entscheidungen, die sie betreffen. Und sie haben das Recht, nicht diskriminiert zu werden. Deshalb müssen wir in der Lage sein, die Entscheidungsfindung der Algorithmen selbst nachvollziehen zu können und gegebenenfalls korrigierend einzugreifen. Das betrifft auch die Ranking-Mechanismen der grossen sozialen Netzwerke. Das gefährliche dabei ist nicht die tendenziöse Auswahl von Medienberichten, sondern dass die Funktionsweise des Systems verborgen bleibt. Öffentliche und private Organisationen arbeiten bereits an Lösungen, um die Verzerrungen von Algorithmen zu beheben ("debiasing"), und an Modellen zur Überwachung von Algorithmen. Auch wenn die grossen Vorteile der Innovation im Bereich der künstlichen Intelligenz nicht abgewürgt werden dürfen, müssen unsere Rechte geschützt werden. Der Data Privacy Act der EU, der 2018 in Kraft treten soll, ist eine mass- und sinnvolle Regelung.

Markus Ehrenmann ist leitender Architekt im Bereich künstliche Intelligenz bei Swisscom in Bern.

 

Nein, sagt Mouloud Dey vom Unternehmen SAS.

Es wäre notwendig, Algorithmen, die sich auf problematische Weise verwenden lassen, überhaupt überprüfen zu können. Aber es gilt zu vermeiden, dass Regulierungen die Kreativität ersticken und die Forschung behindern. Vorschriften müssen dosiert sein und dürfen nicht zu früh eingreifen. Es ist wichtig, kreativen Köpfen genügend Freiraum für ihre Arbeit zu lassen, ohne ihnen a priori schlechte Absichten zu unterstellen, und vor einem Eingreifen die konkrete Anwendung eines Algorithmus zu bewerten. Im Allgemeinen ist nicht das Informatikprogramm problematisch, sondern die Art, wie es eingesetzt wird.

Oft wird mit dem Finger auf einen Algorithmus gezeigt, der scheinbar mysteriös, böswillig und autonom ist. Doch es gilt die ganze Verantwortungskette zu berücksichtigen, vom Programmierer über Managerentscheide bis hin zum Nutzer. Wir wollen ja nicht alles im Keim ersticken: Ein Algorithmus, der für eine umstrittene Anwendung entwickelt wurde – etwa eine militärische Drohne –, kann auch für andere, klar nützliche und bedenkenlose Zwecke eingesetzt werden. Man kann die Art kritisieren, wie Google mit unseren Daten umgeht. Trotzdem wäre es unglaublich schade gewesen, die Entwicklung dieses Unternehmens vor 20 Jahren mit dem Argument zu blockieren, dass zuerst und a priori Fragen im Zusammenhang mit der Privatsphäre und dem Datenschutz zu klären seien. Die Beschränkung problematischer Anwendungen erfordert nicht zwingend neue Gesetze. Nehmen Sie als Beispiel Pokémon Go: Die bestehende Gesetzgebung untersagt mir bereits das Spielen in einer unverantwortlichen Weise, die andere gefährdet.

Eine Regulierungsbehörde zu schaffen wäre schwierig: Sie würde die Innovation behindern, ihre Arbeit wäre ausserordentlich kompliziert, und sie würde immer hoffnungslos hinterherhinken, weil sich die Technologie so schnell entwickelt. Der Anwender trägt auch eine Verantwortung. Ich arbeite in der Informatik, habe mich aber entschieden, auf Facebook zu verzichten, weil mich der Nutzen nicht überzeugt. Dagegen bin ich bei LinkedIn, obwohl sich die verwendeten Algorithmen nicht grundsätzlich unterscheiden.

Es ist wichtig, den Bürgerinnen und Bürgern ein Recht auf Einsicht in die Algorithmen zu gewähren, von denen sie betroffen sind. Aber um realistisch zu sein: Normalsterbliche sind kaum in der Lage, deren Funktionsweise selber zu überprüfen. Letztlich sind sie dabei auf Dritte angewiesen. Die Selbstregulierung des Marktes hat in diesem Bereich Aussicht auf Erfolg, weil die Kunden sehr nahe an den Unternehmen sind und starken Druck ausüben können. Die Unternehmen müssen ihre Verantwortung wahrnehmen und die vorgesehene Verwendung der von ihnen entwickelten Systeme genau erklären. Um es noch einmal zu betonen: Problematisch ist allenfalls die Verwendung, nicht das Programm an sich.

Mouloud Dey ist Director Innovation & Business Solutions beim Unternehmen SAS France und Mitglied des wissenschaftlichen Beratungsausschusses des Data ScienceTech Institute in Sophia Antipolis (Nizza).

Aufgezeichnet von Daniel Saraga.