Roboter mit Gewissen

Foto: DLR German Aerospace Center / CC BY 2.0

Roboter können Leben retten – und sie können Leben kosten. Immer mehr werden sie zu einem Teil unseres Alltags. Sind wir dafür bereit?

Im Juli dieses Jahres sorgt eine Nachricht aus dem Kasseler VW-Werk für Aufsehen: Ein Roboter hat einen Menschen getötet. ABC News, die Financial Times und CNN berichten. Während der Einrichtung einer Maschine wurde der Handwerker von einer Maschine gegen eine Metallwand gedrückt. Er erlag wenig später seinen Verletzungen.

Bei normalen Arbeitsunfällen ist das mediale Interesse nicht so hoch. Roboter sind immer noch ein Spezialfall. Mit Staunen und Argwohn zugleich liest man von den Entwicklungen und von den Unglücken. Und man stellt sich Fragen. Fragen wie: Was sind eigentlich Roboter?

Im Grunde ist ein Roboter eine technische Apparatur, die üblicherweise dazu dient, dem Menschen mechanische Arbeit abzunehmen. Roboter können sowohl stationäre als auch mobile Maschinen sein und werden von einer Software gesteuert. Diese Software besteht aus mehr oder weniger komplexen Algorithmen, die auf interne oder externe Datenbanken zugreifen oder die Daten in Echtzeit mit Hilfe von Sensoren oder Kameras selbst sammeln. Die neuen Daten, Fotos, Stimmen oder Töne sind Grundlage eines lernenden und sich weiterentwickelnden Systems, der sogenannten künstlichen Intelligenz.

Der lernende Prozess ist eine Simulation des intelligenten, menschlichen Lern- und Reaktionsverhaltens, das ebenfalls mit vorhandenem Wissen, durch logische Herleitung und Abstraktion Probleme erkennt und löst. Nicht nur die Industrie und Logistikbranche setzen mittlerweile Roboter ein. Zunehmend dringen die Maschinen auch in den häuslichen Bereich vor. Service- oder Haushaltsroboter übernehmen Aufgaben des täglichen Lebens, etwa Staubsaugen, Rasenmähen oder Fensterputzen. Der Grillbot übernimmt das Würstchengrillen, Roobi ist ein Selfie-Roboter, der automatisch die richtige Einstellung wählt und dann auslöst. Manchmal sind es Spielereien, aber oft steht die Arbeitserleichterung im Vordergrund.

Erstaunlich sind die Entwicklungen in der Medizin. Roboter finden Einsatz in der Chirurgie, in der Pflege oder bei der Diagnostik. Erkundungsroboter oder Kameradrohnen helfen im Katastrophenfall. Sie können an Orte geschickt werden, die gefährlich oder schwer zugänglich sind, oder zur Bombenentschärfung eingesetzt werden. Die Beurteilung eines Waldbrandes, die Messung der Radio-aktivität in Luft und Boden: Aufgaben, die der Mensch zum Glück nicht mehr selbst ausführen muss.

Auf einem ganz anderen Blatt stehen Kriegsroboter. Diese selektieren und eliminieren Ziele und Personen – mit und oft auch ohne menschliche Intervention. Seit dem ersten Drohneneinsatz der USA im Jahr 2004 in Pakistan sind laut dem Bureau of Investigative Journalism bis heute 3.341 Menschen durch Drohnen getötet worden. Und der Großteil der Angriffe fällt in die Amtszeit des Friedensnobelpreisträgers Barack Obama: Während seiner Präsidentschaft hat er 373 dieser Drohneneinsätze genehmigt, bei denen 2.825 Menschen gezielt getötet wurden.

Aus Science-Fiction wird Realität

Künstliche Intelligenz muss kein Gehäuse, keine Greifarme oder Räder haben. Sie kann auch scheinbar körperlos daherkommen. Alle Suchmaschinen basieren auf selbstlernenden Algorithmen. Siri, Google Now und Cortana simulieren echte Kommunikation. Und auch die basiert auf künstlicher Intelligenz: Muster erkennen, abgleichen und statistisch erwartbare Antworten geben.

Viele Jahre lang galt die volle Konzentration der Forschung und Entwicklung vollautonomer Systeme. Die Technik, die Software, die Machbarkeit standen im Vordergrund. Aus Science Fiction wird langsam Realität. Was aber, wenn die künstliche Intelligenz Fehler macht? Wenn sie Leben, Gesundheit und Eigentum von Menschen gefährdet. Ist unsere Rechtsordnung auf diese Innovationen vorbereitet? Haftet dann der Hersteller, der für die Entwicklung, Fertigung und Bedienungsanleitung zuständig ist? Oder der Arbeitgeber als Betreiber der Maschine, der vielleicht nicht für eine geeignete Umgebung gesorgt oder die Sicherheit und Schulung der Mitarbeiter vernachlässigt hat? Oder war es am Ende die Wartungsfirma, die ein wichtiges Update der Software vergessen hat? Das Produkthaftungsgesetz sieht eigentlich eine verschuldensunabhängige Haftung des Herstellers vor.

Diese Regel gilt jedoch genau dann nicht, wenn davon auszugehen ist, dass der Fehler, der den Schaden verursacht hat, noch nicht bestand, als der Hersteller das Produkt in den Verkehr gebracht hat. Künstliche Intelligenz kommt aber nicht fertig aus dem Werk. Sie ist darauf angelegt, weiter zu lernen. Daher greift die Beweislastumkehr des Produkthaftungsgesetztes zum Schutz des Nutzers hier womöglich nicht.

Auch wenn der Hersteller keinerlei Fehler macht, kann die Entwicklung der künstlichen Intelligenz je nach Grad der Autonomie eine Abfolge an neuen – vielleicht fehlerhaften – Handlungen entwickeln. Der Fehler kann dann auf die Nutzung oder Weiterentwicklung der künstlichen Intelligenz zurückzuführen sein. Auch wenn das Produkthaftungsgesetz im Einzelfall nicht greifen würde, übernehmen in der Regel die Hersteller die Haftung, um die Akzeptanz der neuen Technologie nicht zu gefährden.

Durch den Einsatz von Robotern werden auch Persönlichkeitsrechte berührt. Künstliche Intelligenz ist auf ständige Wahrnehmung und Verwertung der Umgebungsinformation durch Sensoren, Kameras und Mikrophone angewiesen. Auch auf diese Datenerhebungen und Verarbeitungen ist der Datenschutz anwendbar. Das Recht am eigenen Bild gilt auch bei Aufnahmen durch Roboter.

Ein weiterer Fall, in dem heutige rechtliche Vorschriften an ihre Grenzen zu stoßen scheinen, sind vollautonome Fahrzeuge. Deutschland und viele andere Staaten haben im Jahr 1968 das sogenannte Wiener Abkommen unterzeichnet – und haben dessen Regelungen in ihrem jeweiligen nationalen Recht umgesetzt. Das Abkommen besagt, dass Fahrzeuge ganz ohne Fahrer nicht am öffentlichen Verkehr teilnehmen dürfen. Und eine Änderung der Straßenverkehrsordnung würde zunächst eine Änderungen des internationalen Rechts benötigen.

Ende März 2014 gab es schon eine erste Überarbeitung des Abkommens, seitdem sind autonome Systeme, die die Führung eines Fahrzeuges beeinflussen, dann zulässig, wenn sie jederzeit vom Fahrer überstimmt oder abgeschaltet werden können. Völlig autonom ist das Auto also nicht, da der Fahrer weiterhin die Verantwortung trägt und das System überwachen muss.

An anderer Stelle muss das Recht erweitert werden, damit keine Strafbarkeitslücke entsteht: Paragraph 142 Strafgesetzbuch stellt das unerlaubte Entfernen vom Unfallort unter Strafe. Der Fahrzeugführer darf sich nach einem Unfall nicht der Identifizierung und Aufklärung des Vorfalls entziehen. Bei vollautomatisierten Fahrzeugen ist aber zu keinem Zeitpunkt ein Fahrzeugführer am Unfallort anwesend.

Immer wieder stellt sich die Frage: Wer haftet, wenn weit und breit kein Mensch in Sicht ist, dem die Maschine oder das Auto gehört? Wäre eine Roboterregistrierstelle die Lösung – einer Identifikationsnummer für jeden Roboter? Viele Fragen lassen sich mit vorhandenem Recht lösen, einige Normen müssen aber angepasst, nachjustiert oder geändert werden. Das ist der normale Lauf der Gesetzgebung. Ein völlig neues Roboterrecht brauchen wir aber nicht.

„Die letzte Erfindung der Menschheit“

Auf einer wesentlich abstrakteren Ebene geht es darum, ob Roboter eine eigene Rechtsnatur haben oder ob es richtig ist, sie juristisch wie Tiere zu bewerten. Gibt es bald schuldfähige humanoide Roboter, die vor Gericht stehen und sich verteidigen?

Nicht nur Juristen werden sich in den kommenden Jahren mit diesen Fragen beschäftigen müssen. Es gibt vielfältige Kritik an der gegenwärtigen Entwicklung der künstlichen Intelligenz, nicht etwa nur von Kulturpessimisten oder Innovationsskeptikern, sondern von den Experten selbst. Stephen Hawking, Elon Musk und rund 1.000 weitere Experten auf dem Gebiet der künstlichen Intelligenz haben in diesem Jahr in einem offenen Brief vor der Geschwindigkeit der Entwicklung gewarnt und Forschungsprioritäten vorgeschlagen. Sie empfehlen, die Forschung nicht nur auf die Weiterentwicklung der künstlichen Intelligenz zu fokussieren, sondern auch auf die Sicherheit, die Beherrschbarkeit und vor allem auf den positiven Nutzen für die Gesellschaft. Als logische Folge dessen seien intelligente Waffensysteme von Beginn an zu verhindern und zu ächten. Ein Wettrüsten mit Kriegsrobotern dürfe man nicht zulassen.

In ihrem Brief stellen die alamierten Experten fest, dass den führenden Unternehmen auf dem Gebiet die Gefahren durchaus bewusst sind, sie aber glauben, diese Risiken kontrollieren zu können. Die Unterzeichner sind skeptisch und betonen, man müsse das Thema viel ernsthafter und entschlossener angehen. Der Physiker Stephen Hawking warnt davor, die künstliche Intelligenz zu unterschätzen. „Es könnte die letzte Erfindung der Menschheit werden, wenn man nicht lernt, mit den Risiken umzugehen.“

Zugegeben: Kaum eine andere Entwicklung ist spannender zu beobachten. Die Robotik verdient eine rege und differenzierte Diskussion und vor allem eine rechtzeitige Gestaltung des Zusammenlebens von Mensch und Roboter. Eine Anpassung in alle Richtungen: Heute ist sie noch möglich.

Ramak Molavi

Ramak Molavi

Ramak Molavi ist Rechtsanwältin bei iRights.Law mit den Schwerpunkten Informationstechnologie und Computerspiele. Sie ist Head of Legal bei Gameduell in Berlin. In Ihrem Blog „Level Up Law“ behandelt sie aktuelle Themen zu Games, IT, Big Data und Drohnen.

Foto: David Jacob
Ramak Molavi

Letzte Artikel von Ramak Molavi (Alle anzeigen)