Was Algorithmen und Menschenrechte miteinander zu tun haben

Foto: Alexander Johmann / CC BY-SA 2.0

Immer mehr Bereiche unseres Lebens werden durch Algorithmen beeinflusst oder sogar gesteuert. Oft gibt es keine Transparenz darüber, wie diese Algorithmen funktionieren, was sie bewirken oder wer sie einsetzt. Der Politikwissenschaftler Ben Wagner findet das bedenklich.

iRights.Media: Herr Wagner, was haben Algorithmen mit Menschenrechten zu tun?

Ben Wagner: In unserer Gesellschaft sind wir von Geräten umgeben, die nur noch im Zusammenhang mit einer Internetverbindung und einem automatisierten Verfahren im Hintergrund funktionieren. Es gibt viele Beispiele, die zeigen, dass Algorithmen tief im Leben der Menschen eingebettet sind, von der Entscheidung über eine Kreditvergabe in der Bank bis zu automatisierten Systemen in der öffentlichen Verwaltung oder im Straßenverkehr. Angesichts dieser hohen Alltagspräsenz muss man sich die Frage stellen, in welchen Einsatzbereichen von Algorithmen unsere Grundrechte betroffen sind und ob ein automatisierter Entscheidungsprozess den Anforderungen von Menschenrechten entsprechen kann.

Welche Menschenrechte können denn betroffen sein?

Ein Beispiel ist unser Recht auf freie Meinungsäußerung. Ob das gewahrt wird, hängt in verschiedenen Fällen von algorithmischen Entscheidungen ab. Wenn etwa von Onlineplattformen wie Facebook oder Youtube Inhalte entfernt werden sollen, ist es im Moment so, dass ein Teil des Entscheidungsprozesses automatisiert erfolgt. Es ist aber unklar, was dabei maschinell passiert, und ob und an welcher Stelle ein Mensch in Erscheinung tritt und entscheidet, was gelöscht wird und was nicht. Im Umkehrschluss führt das auch dazu, dass man bei der Meldung von Inhalten, die gegen Grundrechte verstoßen, zum Beispiel, weil sie zu Gewalt aufrufen, nicht sicher sein kann, ob man überhaupt einen Menschen mit seiner Beschwerde erreicht. Hier geht es also nicht nur um Äußerungsrechte, sondern auch um die Prozesse, die es ermöglichen oder verhindern, von diesen Rechten Gebrauch zu machen.

Gibt es weitere Beispiele?

Ein anderer Bereich, in dem große Probleme bestehen, ist unsere Privatsphäre. Wenn ich bestimmte Inhalte auf einen Server irgendwo in der Welt hochlade, wird gerne so getan, als ob der im Nirgendwo existieren würde, dabei ist es einfach nur der Computer eines anderen Menschen. In dieser sogenannten Cloud werden dann Algorithmen zur Analyse meiner Daten eingesetzt, zum Beispiel, um herauszufinden, ob darunter urheberrechtswidrige Inhalte existieren. Die Nutzer solcher Cloud-Dienste wissen meist gar nicht darüber Bescheid, dass ihre privaten Daten so durchleuchtet werden. Das ist einerseits also eine Herausforderung für das Recht auf Privatsphäre. Außerdem kann es in Fällen von Urheberrechtsverletzungen auch zu automatisierten Löschungen kommen. Dann sind die Daten einfach weg und Nutzer, die sich fragen, wie das passiert ist, bekämen die saloppe Antwort: „Der Algorithmus hat halt gesagt, die Daten waren illegal.“

Die automatisierte Verarbeitung von privaten Daten ist vor allem dann problematisch, wenn den Nutzern gar nicht klar ist, was dort passiert. Sie sollten Bescheid wissen und auch die Kontrolle darüber haben, was mit ihren Daten geschieht. Wir brauchen eine gesellschaftliche Debatte, um zu definieren, in welchen Fällen solche Verfahren zu massiven Problemen für die Gewährleistung von Menschenrechten führen.

Und diese Debatte ist ein erster Schritt, um die von Ihnen beschriebenen Probleme zu lösen?

Ja. Und gleichzeitig gibt es auch hier eine Herausforderung durch Algorithmen. Unsere kollektive Meinungsbildung kann durch verschiedene automatisierte Prozesse bewusst beeinträchtigt werden. Wahlen sind dafür ein aktuelles und geeignetes Beispiel. Zum einen lassen sich mit Hilfe von Algorithmen gezielt Menschen aus bestimmten Nutzergruppen über Online-Anzeigen dazu auffordern, wählen zu gehen, und das in Tausenden von Fällen. Wenn dies nur bei den Anhängern einer bestimmten Partei durchgeführt wird, bei politisch anders Gesinnten aber nicht, kann dies den Ausgang der Wahl maßgeblich beeinflussen. Zum anderen gibt es sogenannte „Social Bots.“ Das sind Systeme, die auf Social-Media-Plattformen so wahrgenommen werden sollen, als wären es Menschen. Diese Bots betreiben dann Wahlkampf über automatisierte Äußerungen, ohne dass klar wäre, wer dahintersteckt oder dass es sich eben nicht um echte Personen handelt, die sich da äußern. Wenn Social Bots in großer Zahl eingesetzt werden, könnten auch diese ein Wahlergebnis verzerren. Für solche Fähigkeiten sollte es keinen Markt geben. Wenn einzelne Akteure so mächtig werden, dass sie mit ihren Algorithmen Wahlen beeinflussen können, dann ist das ein Problem für die demokratische Selbstbestimmung.

Sie haben jetzt Probleme für Meinungsäußerung, Privatsphäre und demokratische Meinungsbildung identifiziert. Wie lassen sich diese Herausforderungen bewältigen?

Für all diese Aspekte ist Transparenz eine grundlegende Notwendigkeit, um überhaupt erkennen und beurteilen zu können, wo eventuell Probleme vorliegen. Das heißt aber nicht, dass jetzt alle Algorithmenentwickler ihre Arbeit öffentlich machen sollen. Wir brauchen eine kontextabhängige Transparenz. Wer ein besonders mächtiger Akteur ist, muss auch besonders transparent sein, wenn die Effekte der eingesetzten Algorithmen entsprechend bedeutend für Personen oder unsere Gesellschaft sind. Weniger mächtige Akteure sollten aber nicht die gleichen Transparenzanforderungen erfüllen müssen, zum Beispiel sollten Forscher und Innovatoren nicht in ihrer Freiheit eingeschränkt werden, neue Anwendungen auszuprobieren. Hier wäre eine Abstufung sinnvoll, die sich an der Verantwortung der Akteure orientiert. Dort, wo Beeinträchtigungen von Menschenrechten möglich oder sogar wahrscheinlich sind, sollten wir genauer hinsehen!

Wie kann das funktionieren?

Wenn Entscheidungen eine gewisse Relevanz für die Betroffenen haben, dann reicht es nicht mehr, generell anzugeben „so und so viel Prozent unserer Entscheidungen werden so und so getroffen.“ Da muss schon ein Stück weit der Entscheidungsprozess öffentlich und nachvollziehbar dargestellt werden. Die Rolle von automatisierten Systemen muss dabei ganz deutlich aufgezeigt werden. Trotzdem ist diese Frage nur schwer mit einer generellen Aussage zu beantworten, weil es so viele verschiedene Situationen gibt, in denen Algorithmen verwendet werden. Zum Beispiel muss man natürlich gucken, wo Transparenz überhaupt hilfreich ist. Bei dem Einsatz von Werbe-Bots im Wahlkampf wäre eine Kennzeichnungspflicht durchaus sinnvoll. In anderen Fällen kann Transparenz aber auch kontraproduktiv sein. So wird ein Spam-Filter, dessen Algorithmus und Funktionsweise öffentlich bekannt sind, leicht zu umgehen sein, weil Menschen, die Spam verschicken möchten, sich die Filterkriterien genau ansehen können. Man sollte also immer den Kontext in Betracht ziehen. Im Allgemeinen wie auch speziell im Bereich der Menschenrechte entstehen durch Algorithmen und Automatisierung verschiedene neue Herausforderungen, auf die wir entsprechend verschiedene angepasste Antworten brauchen.

Das Interview führte Eike Gräf.

Ben Wagner

Ben Wagner

Dr. Ben Wagner ist Politik- und Sozialwissenschaftler. Er ist Direktor des Centre of Internet & Human Rights (CIHR) an der Europa-Universität Viadrina in Frankfurt (Oder). In seiner Forschung befasst er sich mit Veränderungen von Kommunikation, digitalen Rechten und der Rolle des Internet in der Außenpolitik.

Foto: Moa Nilsson
Ben Wagner

Letzte Artikel von Ben Wagner (Alle anzeigen)