Für eine gerechte Kultur des „Onlife“

Foto: jarts / Photocase

Algorithmen prägen immer mehr unsere Gesellschaft – von der Kreditentscheidung bis zur Krankenversicherung. Damit wir als Bürger weiterhin über unser Gemeinwesen entscheiden und an ihm mitwirken können, bedarf es einer neuen digitalen Ethik.

Digitale Ethik nimmt die fundamentalen Transformationen in den Blick, die die digitalen Medien mit sich bringen. Die Digitalisierung – die „vierte Revolution“ wie der italienische Philosoph Luciano Floridi sie nennt – verändert unsere Gesellschaft tiefgreifend und unumkehrbar. Ihre Auswirkungen sind vergleichbar mit den Umwälzungen der Industrialisierung im 19. Jahrhundert oder der Erfindung des Buchdrucks im 15. Jahrhundert. Algorithmen, Internet der Dinge und Big Data sind Schlüsselworte für diesen gravierenden Evolutionsschritt, mit dem sich unser Denken, Handeln und Werteverständnis neu justiert.

Bei Algorithmen geht es um die abstrakte Beschreibung eines Problems in einer Sprache, die maschinell verarbeitet werden kann und bei der zwischen der Ein- und Ausgabe eine vordefinierte, endliche Zahl von Einzelschritten abgearbeitet wird. Algorithmen legen etwa die Preisgestaltung beim Online-Kauf oder den Versicherungsbeitrag fest; sie bestimmen, welche Treffer bei Internetsuchen oben stehen und welche Begriffe die Autocomplete-Funktion ergänzt; sie prognostizieren, wie wahrscheinlich die Rückzahlung eines Kredites ist (im Fachjargon Scoring). In sozialen Netzwerken filtern sie Darstellungen von Nacktheit heraus und sie werden wohl auch eingesetzt, um Inhalte, die terroristische Akte verherrlichen, automatisiert zu löschen. Oftmals handelt es sich dabei um proprietäre Algorithmen, das heißt, es ist nicht vollständig transparent, wie sie funktionieren und welche Kriterien mit welcher Gewichtung einfließen.

Algorithmen und Ethik

Die Digitalisierung birgt einerseits Chancen, wie zum Beispiel einen noch nie dagewesenen globalen Austausch von Informationen und eine ungehinderte grenzüberschreitende Kommunikation. Nutzer können über das Internet aktiv und ohne Zugangsbarrieren an der öffentlichen Kommunikation teilnehmen. Dadurch erfüllt das Netz eine urdemokratische Funktion und Wirkung – die Partizipationsmöglichkeiten und die Souveränität des Nutzers werden gestärkt. Viele Angebote im Internet erhöhen nicht zuletzt auch die Bequemlichkeit der Lebensführung des Einzelnen, ob beim Shopping, Online-Banking oder Dating.

Doch diese Bequemlichkeit hat ihren Preis. Die digitale Revolution bringt Risiken mit sich. So haben sich die Rahmenbedingungen für die Privatsphäre gravierend verändert. Niemals zuvor wurden mehr persönliche und private Informationen erfasst: Bei der Nutzung digitaler Dienste und Endgeräte und in einer zunehmend digitalisierten Umwelt, in der auch Haushaltsgeräte mit dem Internet verbunden sind – das sogenannte Internet of Things –, hinterlassen und generieren wir unablässig meist unbewusst persönliche Daten. Das Wissen und die Macht zwischen Anbieter und Nutzer ist dabei ungleich verteilt: Weder wissen die Nutzer, welche Daten in Kontext genutzt werden noch ist ihnen klar, welche Risiken mit der Datafizierung und Algorithmisierung des Alltagslebens verbunden sind. Luciano Floridi prägte dafür den Begriff „Onlife“ – in dem die Unterscheidung zwischen online und offline keine Rolle mehr spielt, da beide miteinander verschmolzen sind. Diese Risiken sind sehr viel umfassender, als die meisten Menschen ahnen dürften, wie unter anderen Marc Goodman in seinem letzten Buch „Future Crimes: Everything Is Connected, Everyone Is Vulnerable and What We Can Do About It“ eindringlich und analytisch darlegt.

Ziel einer angewandten digitalen Ethik ist es, in einem solchen Kontext den Erwerb einer wertebezogenen Medienkompetenz zu fördern. Damit ist die Befähigung verbunden, Medien und mediales Handeln bewerten, Folgen abschätzen und verantwortungsbewusst handeln zu können. Ein besonderes Wissens- und Kompetenzgefälle besteht hinsichtlich Algorithmen, die man als Kernelement des Betriebssystems der digitalen Gesellschaft verstehen kann. Aus Sicht der digitalen Ethik stellt sich dabei besonders die Frage, wie ein „gelingendes Leben“ im digitalen Zeitalter aussehen soll. Welche Konsequenzen hat es, wenn Alltagsroutinen und -gewohnheiten zunehmend von Algorithmen bestimmt werden? Wie ändert sich das Menschenbild, und damit der Blick des Menschen auf sich selbst, wenn Netznutzer permanent die Datenbanken und ihre Algorithmen füttern? Wie freiwillig ist die digitale Selbstvermessung (vom Soziologen Stefan Selke als „Lifelogging“ bezeichnet) noch, wenn dahinter ein nicht zu verleugnender Zwang steht, der der Vorrangstellung der Wirtschaft in unserer Gesellschaft gehorcht?

Wenn der Einzelne nicht mehr kontrollieren kann, wer was in welchem Zusammenhang über ihn weiß, beeinträchtigt dies nicht nur seine Handlungsfreiheit, sondern auch das Gemeinwohl, da ein freiheitlich demokratisches Gemeinwesen darauf angewiesen ist, dass seine Bürger selbstbestimmt an ihm mitwirken können. Um diese demokratische Kontrolle ausüben zu können, müssen letztlich die Parameter und Kategorien, auf denen die Algorithmen aufbauen, offengelegt werden.

Algorithmen und Recht

Die Algorithmisierung wesentlicher Bereiche der Gesellschaft wirft die Frage auf, ob und wie weit Regulierungsbedarf besteht. Das lässt sich bejahen, wenn „errechnete“ Ergebnisse mit grundlegenden Werten unser Gesellschaft nicht übereinstimmen. Ein Beispiel: Wenn Autoversicherungen geschlechtsspezifische versicherungsmathematische Faktoren anwenden würden, müsste das beispielsweise bedeuten, dass Frauen weniger für ihre Autoversicherung zahlen müssten als Männer, da sie – statistisch gesehen jedenfalls – vorsichtiger Auto fahren. So zu verfahren wäre allerdings nach Auffassung des Europäischen Gerichtshofs mit dem Diskriminierungsverbot nicht vereinbar, wie das EuGH auch in einem Urteil von 2011 dargelegt hat. Der Grundsatz der Gleichheit von Frauen und Männern dürfe nicht untergraben werden.

Vor allem dort, wo Algorithmen die Funktion eines Gatekeepers zum Zugang zu Informationen zukommt, liegt der Regulierungsbedarf auf der Hand. Beispiele dafür sind die Autocomplete-Funktion bei Suchanfragen zu persönlichkeitsrechtsrelevanten Informationen oder Entscheidungen zur Kreditvergabe im Sinne von Scoring. Mit mehr Transparenz als Regulierungsziel könnte auch einer unterschwelligen Universalisierung von Wertevorstellungen sowie des Rechts entgegengewirkt werden. Zu einer Universalisierung durch Algorithmen kommt es im Beispiel der sozialen Netzwerke dadurch, dass die Dienste vornehmlich US-amerikanischem Recht unterliegen und dessen bisweilen sehr fragwürdige Definitionen zu Grunde legen. Das Gesagte betrifft beispielsweise Einschränkungen zur Darstellung von Nacktheit.

Will man Algorithmen regulieren, bedarf es neben einer klaren Definition des Regulierungsgegenstands zunächst der Entscheidung, welche Art der Regulierung sachadäquat ist – klassisch hoheitlich, hoheitlich organisierte Selbstregulierung oder private Selbstregulierung. Gegebenenfalls müssen die Algorithmen je nach Gefährdungstypologie unterschiedlich bewertet werden. Die in den Berechnungsprozess zulässigerweise einfließenden Kriterien könnten dann über eine Positiv- oder eine Negativliste geregelt werden. Abschließend oder über einen offen formulierten Katalog würden dann solche Kriterien aufgezählt, die in den Berechnungsprozess aufgenommen werden müssen, oder es würden Kriterien bestimmt, die auf keinen Fall einfließen dürfen.

Fünf Punkte für eine Ethik der Algorithmen

Wir brauchen in Europa eine Ethik der Algorithmen, die eine gerechte Kultur und ein rechtmäßiges Fundament des „Onlife“ garantiert. Eine entsprechende Agenda müsste ein Fünf-Punkte-Programm enthalten:

1. Förderung der Medienkompetenz des Einzelnen im Bereich Privatsphäre und Datenschutz
2. verantwortungsvolle Politik,
3. Förderung von risikoarmen Technologien (sogenannte privacy enhancing technologies, privacy by design) und entsprechender Geschäftsmodelle,
4. regulierte Selbstkontrolle auf der Basis verbindlicher Regeln (zum Beispiel durch einen Big-Data-Kodex) und präziser gefasster rechtlicher Normen,
5. ein öffentlich-rechtliches soziales Online-Netzwerk.

Petra Grimm, Tobias O. Keber & Oliver Zöllner

Petra Grimm ist Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien Stuttgart und Leiterin des Instituts für Digitale Ethik (IDE). Sie ist Mitherausgeberin der Schriftenreihe Medienethik.

Tobias O. Keber ist Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft an der Hochschule der Medien Stuttgart. Er ist Vorsitzender des Wissenschaftlichen Beirats der Gesellschaft für Datenschutz und Datensicherheit (GDD) sowie Leiter des Instituts für Digitale Ethik (IDE).

Oliver Zöllner ist Professor für empirische Medienforschung und Soziologie der Medien- kommunikation an der Hochschule der Medien Stuttgart und Honorarprofessor an der Universität Düsseldorf. 2013 war er Mitgründer und ist Leiter des Instituts für Digitale Ethik (IDE) an der Hochschule der Medien.

Letzte Artikel von Petra Grimm, Tobias O. Keber & Oliver Zöllner (Alle anzeigen)