Ein Netz der Selbstbestimmung, Vielfalt und Teilhabe

Foto: a_sto / Photocase

Im Mittelpunkt steht der Mensch, keine Algorithmen. Der Bundesminister der Justiz und für Verbraucherschutz Heiko Maas setzt sich dafür ein, das Grundgesetz und sein Menschenbild als Richtschnur für unser Handeln zu sehen – auch in der digitalen Welt.

iRights.Media: Digitale Tools und Anwendungen bestimmen unser tägliches Leben. Dabei ist all das, was wir online schreiben, oder die Webseiten, die wir ansehen, nicht mehr nur unsere Privatsache. Die Anbieter lesen mit und die Telekommunikationsunternehmen speichern die Verbindungen. Wie kann dabei das Recht auf informationelle Selbstbestimmtheit und die Privatsphäre noch geschützt sein?

Heiko Maas: Der digitale Fußabdruck jedes Einzelnen wird jeden Tag größer. Profile werden immer exakter. Eine Anonymisierung von Daten wird angesichts der vielfältigen Möglichkeiten, Daten wieder miteinander zu verknüpfen, immer schwieriger. Das zeigen auch die jüngsten Enthüllungen über Millionen von Internetnutzern, die mit Browser-Plugins für vermeintlich sichereres Surfen getrackt wurden.

Gerade deshalb gilt: Es ist das Recht jedes Einzelnen, über seine digitale Identität selbst zu bestimmen – ein Grundrecht, garantiert vom Grundgesetz und der EU-Grundrechtecharta. Digitale Souveränität besitzt nur derjenige, der bewusst und freiwillig in die Verarbeitung seiner persönlichen Daten einwilligen kann und über jede Verarbeitung verständlich informiert wird. Die häufig anzutreffenden ellenlangen Datenschutzerklärungen sind davon noch weit entfernt.

Die Datenschutz-Grundverordnung, die ab Mai 2018 gilt, ist ein großer Schritt zu einem effektiveren Datenschutz: Sie bringt endlich einheitliche Standards für alle, die auf dem europäischen Markt Dienstleistungen und Produkte anbieten. Sie stärkt die Transparenz und die Rechte der Betroffenen gegenüber den Datenverarbeitern, etwa mit dem Recht auf Vergessenwerden und dem Recht auf Datenportabilität. Und sie sorgt dafür, dass Datenschutzverstöße künftig sehr teuer werden können – mit Bußgeldern von bis zu vier Prozent des weltweiten Jahresumsatzes eines Unternehmens. Ich bin sicher: Die Datenschutz-Grundverordnung wird für einen bewussteren Umgang mit Daten und eine stärkere Durchsetzung des Datenschutzrechts sorgen.

Halten Sie ein Recht auf Eigentum an den eigenen Daten für eine gute Idee? Welche Daten sind einem Menschen überhaupt eigen?

Die Diskussion um ein Dateneigentum ist in der Wissenschaft in vollem Gang. Ich verfolge sie sehr aufmerksam. Ob sie dazu führen wird, dass der Gesetzgeber aktiv werden muss, ist noch nicht abzusehen. Das Datenschutzrecht garantiert ja bereits, dass jeder im Grundsatz selbst entscheiden kann, wer welche Daten zu welchen Zwecken über ihn verarbeiten darf. Es gibt dem Einzelnen Instrumente in die Hand, andere an einer rechtswidrigen Verarbeitung seiner Daten zu hindern. Aber natürlich ist Eigentum hier nicht im klassischen Sinn als exklusives Recht zu verstehen: Persönliche Informationen sind, wie das Bundesverfassungsgericht sagt, „Abbild sozialer Realität“. Sie stehen im Spannungsfeld zwischen dem Persönlichkeitsschutz des Einen und der Informations- oder wirtschaftlichen Freiheit des Anderen.

Unsere Onlineumgebung ist in vielen Fällen an unsere Datenprofile angepasst, ohne dass wir verstehen können, wie dies funktioniert. Das sind personalisierte Suchergebnissen, personalisierte Werbung, personalisierte Video-Inhalte. Muss sich Personalisierung abschalten lassen, um zu verhindern, dass unser Verhalten im Internet fremdgeleitet wird?

Die Personalisierung von Angeboten und Informationen kann auf der einen Seite Vorteile für die Verbraucherinnen und Verbraucher bringen. Informationen und Angebote können effizienter und kundenfreundlicher werden, der Informationsaufwand für den einzelnen Nutzer kann reduziert werden. Auf der anderen Seite werden erhebliche Informationsasymmetrien ausgenutzt und die Angebote und der Markt werden intransparenter. Die Personalisierung der eigenen Online-Umgebung ist weniger problematisch, wenn ich diese als Nutzer erkennen, prüfen, steuern und eben auch abschalten kann.

Durch eine Personalisierung dürfen sich keine Nachteile für Verbraucher ergeben, insbesondere keine Diskriminierung, Manipulation und Einschränkung der Wahlfreiheit. Dies sind für mich Fragen des Datenschutz- und Wettbewerbsrechts, die hier auch heute schon ansetzen. Trotzdem müssen wir darüber diskutieren, wie wir die Selbstbestimmung im Netz breiter verankern. Nutzer des Internet dürfen nicht in ihrer Handlungs- und Entscheidungsfreiheit beeinträchtigt werden, insofern sind Transparenz und Wahlfreiheit entscheidend – und damit auch eine Abschaltmöglichkeit.

Algorithmenbasierte Entscheidungen spielen eine immer größere Rolle in allen möglichen Bereichen – Lernsoftware, Verkehrsmanagement, Bewerbungen und so weiter. Welche Algorithmen sind aus Verbraucherschutzperspektive von Bedeutung? Welche Herausforderungen sehen Sie dabei?

Algorithmen sind fester Bestandteil der digitalen Welt; ohne sie ist unsere vernetzte Welt kaum vorstellbar. Algorithmen sind grundsätzlich kein Teufelszeug, aber in bestimmten Zusammenhängen können sie tief in unser aller Leben eingreifen, was vielen heute noch nicht in allen Konsequenzen bewusst ist. Wer aufgrund seiner Daten von Algorithmen manipuliert oder diskriminiert wird, erlebt schnell die Schattenseiten der Digitalisierung.

Es gibt für mich klare Grenzen automatisierter Entscheidungen. Alles andere liefe darauf hinaus, dass wir uns zum Objekt elektronischer Datenverarbeitungen degradieren lassen. Es muss insbesondere sichergestellt sein, dass das Datenschutzrecht eingehalten wird, die verwendeten Daten zutreffend sind und die Logik des Algorithmus die getroffenen Aussagen und Zusammenhänge wirklich rechtfertigt. Auch sind aussagekräftige Informationen über den Algorithmus und die Konsequenzen für die Nutzer wichtig.

Für mich ist der Zusammenhalt und der Pluralismus einer Gesellschaft in Frage gestellt, wenn nur noch Algorithmen darüber entscheiden, ob und welche Verträge wir bekommen, was wir im Netz wann sehen dürfen, wer zu uns passt, was für uns gut ist und welchen Preis wir dafür zu zahlen haben. Das ist nicht mein Bild unserer digitalen Zukunft. Ich will ein Netz der Selbstbestimmung, Vielfalt und Teilhabe. Und dem haben sich Algorithmen unterzuordnen. In diesem Zusammenhang habe ich mich für eine digitale Werteordnung stark gemacht und dabei die Möglichkeit eines Algorithmen-TÜVs thematisiert. An diesem Thema bleiben wir dran.

Big-Data-Analysen versprechen Erkenntnisgewinne für bessere Entscheidungen in verschiedenen Bereichen, auch in der öffentlichen Verwaltung. Welche rechtsstaatlichen Anforderungen an Transparenz und Anfechtbarkeit sind nötig?

Mir ist angesichts der zahlreichen, längst realen Gefährdungen unserer Freiheit ein offener Diskurs über die ethischen Fragen der Digitalisierung, gerade im Zusammenhang mit Big Data und Profiling sehr wichtig. An diesem Diskurs haben aber bestimmte Netzprotagonisten kein Interesse, weil sie um ihre Geschäftsmodelle und um Macht und Einfluss fürchten. Aus diesem Grund scheuen sie auch jede Transparenz, die aber Grundvoraussetzung für jeden kritischen Dialog ist.

Unser Datenschutzrecht fordert schon heute diese Transparenz – aber eben nur auf dem Papier. Vieles spielt sich nach wie vor im Verborgenen ab oder wird verklausuliert in Datenschutzerklärungen versteckt. Die Angebotsvielfalt des Netzes nimmt jeden Tag zu – seine Transparenz leider nicht. Diese Diskrepanz müssen wir schleunigst aufbrechen, denn es ist nicht hinnehmbar, wenn Netzanspruch- und Netzwirklichkeit weiter auseinanderdriften. Vorschläge hierzu liegen auf dem Tisch. Ich bin zu einer Diskussion bereit.

Was staatliche Entscheidungen angeht, die auf Big-Data-Analysen beruhen: Der Vorschlag, solche genau zu begründen, spiegelt nicht mehr als den rechtsstaatlichen Grundsatz wider, dass Verwaltungsentscheidungen stets zu begründen sind. Hier kommt aber eine immer wichtiger werdende Frage hinzu: Wie weit wollen und dürfen wir Entscheidungen Maschinen überlassen? Ich meine, dass zumindest eine nachteilige Entscheidung nicht allein von einer Software getroffen werden darf. Das gilt erst recht für staatliche Entscheidungen. Eine richtige Entscheidung muss nicht nur effizient, sondern auch gerecht sein. Hier geht es um demokratische Legitimität, um Nachvollziehbarkeit und um Rechtsschutz.

Durch die Digitalisierung eröffnen sich neue Möglichkeiten für die Menschheit, etwa autonome Waffensysteme oder selbstfahrende Autos, in denen digitale Technologie über Leben und Tod entscheiden könnte. Welche ethischen Fragen halten Sie in naher Zukunft für wichtig?

Durch die extrem schnelle Entwicklung neuer digitaler Techniken werden in Zukunft noch weitere Fragen hinzukommen, die wir uns im Augenblick noch gar nicht vorstellen können. Dem müssen wir uns stellen. Mit unserem Grundgesetz und dem zugrundeliegenden Menschenbild haben wir aber eine gute Richtschnur, mit der wir auch zukünftige ethische Fragen zur technischen Entwicklung beantworten können. Die Würde des Menschen ist unantastbar, heißt es in Artikel 1. Dies bedeutet auch, dass die Menschen nicht zum bloßen Objekt gemacht werden dürfen. Maschinen haben keine eigene Ethik und empfinden keine Empathie. Daher dürfen wir die Entscheidung über Leben und Tod nicht Maschinen überlassen. An der Diskussion über das automatisierte Fahren und über Fragen der strafrechtlichen Verantwortlichkeit und der zivilrechtlichen Haftung beteiligen wir uns durch eine eigene Projektgruppe im Ministerium.

Das Interview führte Philipp Otto.

Heiko Maas

Heiko Maas

Heiko Maas, geboren 1966, studierte Rechtswissenschaften an der Universität des Saarlandes und legte die juristischen Staatsexamina ab. 1994 wurde er erstmals in den Landtag des Saarlandes gewählt. 1996 war er Staatssekretär und von 1998 bis 1999 Minister für Umwelt, Energie und Verkehr des Saarlandes. 2012 wurde er Minister für Wirtschaft, Arbeit, Energie und Verkehr des Saarlandes. Seit 17. Dezember 2013 ist er Bundesminister der Justiz und für Verbraucherschutz.

Foto: Werner Schuering
Heiko Maas