Ein Polizeiroboter tötete erstmals einen Attentäter. Und mit einem selbstfahrenden Auto passierte erstmals ein tödlicher Unfall. Über Robotik und Recht.
Ein Heckenschütze erschießt fünf Polizisten, neun weitere Menschen sind schwer verletzt und der Attentäter hat sich in einem Parkhaus verschanzt. Das ist das Problem, vor dem Polizeichef David O. Brown am 7. Juli in Dallas steht. Er löst es auf eine Weise, die bis zu diesem Zeitpunkt nur von militärischen Aktionen bekannt ist: Ein Roboter wird zum Attentäter geschickt. Er sprengt ihn in die Luft.
Aus Sicht von Strafrechtsprofessorin Susanne Beck wäre so etwas in Deutschland nicht möglich. "Noch nicht." Die Coburgerin ist Wissenschaftlerin an der Universität Hannover und deutschlandweit einer der wenigen Experten für Robotik und Recht. Normalerweise ist es eine Notwehrsituation, wenn ein Polizist einen Menschen tötet. Doch kann ein Roboter in Notwehr handeln?
Was Roboter können
Kann ein Roboter überhaupt "handeln"? Ja. Es gibt heute autonome Maschinen, die so programmiert sind, dass sie in diesem Rahmen selbstständig handeln. Der "Andros", der in Dallas eingesetzt wurde, war aber nur ein ferngesteuertes Roboter-Fahrzeug. Den Auslöser für die Sprengung im Parkhaus drückte ein Polizist. Ist das anders zu bewerten, als wenn der Attentäter durch einen Scharfschützen auf dem Dach ausgeschaltet worden wäre? "Der sogenannte finale Rettungsschuss fällt juristisch unter den Begriff der Notwehr oder Nothilfe", erklärt Beck. Es geht nicht nur darum, sich selbst zu retten, sondern auch andere. Theoretisch kann ein Roboter Nothilfe leisten.
Der psychologische Unterschied
Allerdings muss das mildestmögliche Mittel eingesetzt werden. Und das ist im Fall Dallas zumindest zweifelhaft, denn wenn der Andros nah genug für die Sprengung herankam, hätte er wohl auch Tränengas, eine Blendgranate oder Betäubungsmittel transportieren können. Das ginge nach deutschem Recht. "Es ist nicht viel anders, als wenn ein Betäubungsmittel hineingeworfen wird." Der Einsatz ferngesteuerter Mechanismen ist nicht verboten. Aber sie dürften hierzulande wohl nicht benutzt werden, um Menschen zu töten.
"Es ist psychologisch ein Unterschied, ob Sie das Opfer sehen, oder ob Sie nur auf einen Bildschirm schauen." Vielleicht will der Täter gerade aufgeben, vielleicht werden Unbeteiligte gefährdet. "Die Unsicherheit, ob man über eine Maschine die gesamte Situation wirklich einschätzen kann, wäre in Deutschland ein rechtliches Hindernis. Zumindest heute noch." Die Bereiche Robotik und künstliche Intelligenz entwickeln sich rasant.
Erlaubtes Risiko: Es gibt Opfer ohne Täter
Beck hat 2010 an der Uni Würzburg als Mitarbeiterin die Forschungsstelle "Robot-Recht" mitbegründet. Damals wurden die Forscher belächelt. Sie beschäftigten sich mit Fragen wie der Haftung bei einem Unfall eines autonomen Transport-Rollstuhls, der selbstständig zu einem eingegebenen Ziel fährt. "Das war sehr futuristisch", erinnert sich die 38-Jährige. "Themen wie Medizinrobotik, aber auch Prothesen werden in der Forschung stark gefördert. Die Entwicklung wird immer schneller. Da werden Rechtsfragen immer wichtiger." Techniker suchen Rat bei Ethikern und Juristen, wollen sicher sein, dass sie richtig handeln und nicht strafrechtlich haftbar gemacht werden. "Es gibt juristisch ein ,erlaubtes Risiko'. Das bedeutet, dass etwas passieren kann, ohne dass jemand schuld ist." Bei einer autonom handelnden Maschine ist es unmöglich, jedes mögliche Einzelereignis einzuplanen. Und die IT-Branche könnte einpacken, würden die Firmen für alle Folgen haftbar gemacht.
Auto und Ethik
Im Mai kam es zum ersten Mal zu einem tödlichen Unfall mit einem Pkw der Marke Tesla, der im Autopilot-Modus fuhr. Noch umgeht der Hersteller die Haftungsfrage, indem er den Autopilot als "Beta-Version" verkauft. Der Fahrer muss die Kontrolle behalten. Zahlreiche Internetvideos zeigen allerdings Tesla-Fahrer, die während der Fahrt Karaoke singen, Kreuzworträtsel lösen oder anderen Unfug zur Schau stellen. Menschliche Schwäche. Die totale Selbstüberschätzung oder ein Komplex, Angst, Aggressivität, Übermüdung - eine Maschine ist frei davon. "Ein autonom fahrendes Auto kann sicherer sein als ein Mensch am Steuer", betont Beck. "Das Auto wird nie betrunken sein. Und es wird auch nicht auf die Idee kommen, einem anderen nachzujagen, der es überholt hat."
Gedankenspiel: Herr über Leben und Tod
Aber das Auto ist auch nicht imstande, Verantwortung zu übernehmen. Die damit verbundenen rechtlichen Probleme ergeben in der Zuspitzung makabere Gedankenspiele, die das Fahrzeug zum Herren über Leben und Tod machen. Was ist, wenn sich die Kollision mit einem Fußgänger nicht vermeiden lässt - auf der einen Seite ein Kind, auf der anderen eine Oma. Soll ein mathematischer Algorithmus entscheiden, wohin das Auto lenkt? In der Praxis werde es solch eindeutige Situationen, in denen Leben gegen Leben steht, kaum geben. Wenn aber doch: "Dann sind das so starke Dilemmata, die binnen eines Augenblicks entschieden werden: Bisher hält sich der Gesetzgeber da raus." Das geht nicht mehr, wenn der Programmierer des Autopiloten eine Entscheidung treffen muss. "Die Maschine darf nicht wissen, ob ein Kind oder eine alte Frau vor ihr steht. Sonst würde das Leben qualitativ bewertet werden. Das geht nicht!"
Nötig sei ein Abwägen von Gefahren und Wahrscheinlichkeiten. Das können Maschinen gut berechnen. Und doch ist's kompliziert. Wenn ein Radler einen Helm trägt und ein anderer nicht, ist klar, wo das Risiko bei einem Zusammenstoß größer wäre - aber welche Konsequenz soll der Autopilot daraus ziehen? Sollen Radfahrer dafür bestraft werden, dass sie Helm tragen? "So weit wird es nicht kommen", sagt die Juraprofessorin. "Aber solche Gedankenexperimente können hilfreich sein bei der Frage, wohin wir gehen wollen, in welche Forschungsbereiche wir investieren wollen." Es wird neue Produkte geben, es wird autonome Maschinen geben, auch selbstständige Waffen. Ohne Angst, ohne Aggressivität - ohne Erbarmen. Je eigenständiger eine Waffe, desto schwieriger wird die Frage nach dem Verantwortlichen, nach Schuld und Sühne.
Kampf gegen den Terror
Die Zivilgesellschaft hat bei so etwas ethische Bedenken. Dennoch hält Beck es nicht für unvorstellbar, dass im zivilen Bereich autonome Waffen eingesetzt werden: gegen Terroristen. Die Situation in Dallas kam dem schon nahe. "So etwas fällt unter ziviles Recht, aber Attentäter werden in einer Weise als Feinde wahrgenommen, wie wir es sonst nur vom Krieg kennen." Und Militärs sind weniger zimperlich in solchen Fragen. "Problem bei einer autonomen Waffe, die ihr Ziel selbstständig erkennt, ist, dass vorm Einsatz getestet werden muss, ob die Technik funktioniert." Wie sieht die Versuchsreihe bei einer Tötungsmaschine aus?
Terminator oder Nummer 5?
Die Robot-Rechtlerin weiß, dass solche Szenarien den Menschen Sorge bereiten. Als Susanne Beck in den 1980er Jahren in Coburg aufwuchs, prägten Filme wie "Terminator" und "Nummer 5 lebt" das Bild autonomer Maschinen: "ganz gefährlich oder ganz putzig". Bis heute werde das Verhältnis Mensch - Maschine meist polarisierend dargestellt. "Man muss differenzieren. Ich denke, wir werden Maschinen haben, die komplex sind. So komplex wie der Mensch - ", kurz überlegt die Professorin, dann schiebt sie hinterher: "Komplex. Aber auf eine andere Art."
Lesen Sie hier einen kleinen Überblick über den Weg der Maschinen zur Selbstständigkeit: von Mini-Panzern in Bamberg bis zum selbstfahrenden Auto.