zur Navigation springen

Politik

08. Dezember 2016 | 03:15 Uhr

Interview mit Roboter-Ethikerin : Wie fahren wir nach dem Tesla-Crash? Die moralische Frage des Auto-Piloten

vom
Aus der Onlineredaktion

Vielleicht bestellen wir die Unfallopfer-Selektion unseres Autos bald per Katalog, mahnt die Philosophin Janina Sombetzki. Doch der ethische Diskurs zum autonomisierten Fahren kommt nicht in die Gänge.

Die Autobranche und Entwickler von Roboterwagen-Technologie wie Google oder Tesla versprechen, dass selbstfahrende Fahrzeuge den Verkehr viel sicherer machen und dass die Zahl der Todesfälle drastisch sinken wird. Doch an die sprunghaften Fortschritte der künstlichen Intelligenz haften sich ethische wie moralische Fragen. Es geht bei der Programmierung eines Fahrzeugs im Zweifelsfall um eine Entscheidung um Leben und Tod. Welche Prinzipien werden in Zukunft darüber entscheiden, wem in unvermeidbaren Unfall-Szenarien der Tod winkt? Wieviel Autonomie geben wir Robotern in hybriden Systemen? Und wer trägt bei Fehlern die Verantwortung? Über Fragen wie diese haben wir uns mit der Technik-Philosophin und Roboter-Ethikerin Dr. Janina Sombetzki, die an den Universitäten Wien und Kiel forscht, unterhalten.

 

In den USA ist ein Mann gestorben, weil er mit einem automatisierten Fahrsystem des Elektroauto-Herstellers Tesla gefahren ist, das die weiße Wand eines Lkw nicht erkannt hatte. Wenn ein Roboter bzw. ein autonomisiertes System einen Schaden verursacht, wer trägt dann die Verantwortung?

Es ist entscheidend, von welcher Art Verantwortung die Rede ist – man kann ja zwischen moralischer, politischer, strafrechtlicher, gesellschaftlicher, ästhetischer und vielen anderen Arten von Verantwortung differenzieren.

Wie bewerten Sie es?

Aus meiner Sicht sind die Ingenieure und Programmiererer für die Gewährleistung der Einhaltung der Standard-Fahrroutine zuständig; im Sinne eines fehlerfreien Funktionierens und der Sicherheit des Autos. Doch so lange es noch einen Fahrer gibt – selbst dann, wenn er gar nicht selbst fährt –, bleibt dieser für die moralischen Entscheidungen des Fahrzeugs verantwortlich. Deshalb, weil ein Fahrsystem die Bedingungen für moralische Akteursfähigkeit noch nicht in hinreichendem Maße mitbringt.

Der Mensch ist also grob gesagt verantwortlich, dadurch, dass er die Maschine und Kollisionsvermeidungsassistenten in Betrieb setzt…

Genau. Die moralische Verantwortung dieses hybriden Systems wird insofern zwischen Auto und Fahrerin geteilt, als der Wagen selbst, abhängig von seinem Grad an Autonomie und moralischer Sensitivität, bis auf Weiteres ausschließlich für die Standard-Fahrparameter verantwortlich ist. Der Fahrer ist für die moralisch relevanten Entscheidungen des Autos verantwortlich, die nicht durch die Straßenverkehrsordnung abgedeckt werden.

Da dem Auto selbst mit großer Wahrscheinlichkeit bis auf weiteres keine genuine Moralfähigkeit zuzuschreiben ist, werden Entscheidungen moralischer Natur noch für eine sehr lange Zeit den menschlichen Akteuren vorbehalten bleiben – sowohl den Fahren wie auch der Gesellschaft.

<p>Janina Sombetzki beschäftigt sich mit technisch-philosophischen Fragen.</p>

Janina Sombetzki beschäftigt sich mit technisch-philosophischen Fragen.

Foto: Nils Hofmann

Der „neue“ Verkehr wird nunmehr prinzipiengeleitet sein. Das könnte auch im deutschen Strafrecht einiges aufwirbeln. Auch der deutsche Rechtsgrundsatz, dass das im Notfall jede Gewichtung von Menschenleben untersagt ist, scheint möglicherweise nicht zukunftsfähig. Ist die Frage nach dem „richtigen“ und dem „falschen“ Opfer überhaupt philosophisch bzw. demokratisch lösbar?

Was sich grundsätzlich ändert, ist, dass wir bei automatisierten Fahrassistenzsystemen die Entscheidung über Leben und Tod – über wessen Leben und wessen Tod – und über „Richtig“ und „Falsch“ im Vorhinein treffen. Wobei es nicht um ein generelles „Richtig“ oder „Falsch“ geht, das sich in irgendeiner Form validieren oder messen ließe, wenn zum Beispiel immer das Leben der 18-Jährigen gegenüber dem Leben der 80-Jährigen geschützt wird. Sondern es handelt sich um ethische Fragen, auf die es unterschiedliche Antworten gibt und nicht „eine richtige“ und demgegenüber „viele falsche“ Antworten haben und auf die die Menschen auch sehr unterschiedlich antworten. Wir müssen uns nun zuerst die Frage stellen, ob wir das überhaupt wollen, dass Maschinen in den fraglichen Situationen diese Entscheidung umsetzen. Befürworter von autonomen Fahrassistenzsystemen glauben, dass das weniger Unfälle zur Folge hat. In einem zweiten Schritt müssen wir – dringend – öffentlich darüber diskutieren, welche moralischen Entscheidungen wir für akzeptabel halten und welche evtuell nicht. Falls sich darin die rechtlichen Gegebenheiten als veränderungswürdig herausstellen, können auch Grundprinzipien des Strafrechts fallen. Aber ich bin keine Juristin. Erst in einem dritten Schritt können die automatisierten Fahrassistenzsysteme mit den fraglichen Prinzipien ausgestattet werden. Die moralische Verantwortung bleibt so allerdings in jedem Fall bei der Fahrerin oder dem Fahrer.

Wie kann eine Transportmaschine mit künstlicher Intelligenz moralische Verantwortlichkeit erlangen?

In dem Maße, in dem autonome Fahrassistenzsysteme weiter entwickelt werden, werden sie immer fähiger, eine gegebene Situation unter den moralischen Prinzipien des moralisch verantwortlichen Akteurs zu analysieren. Auf diese Weise werden sie Schritt für Schritt immer besser darin, diese Prinzipien auf reale Straßenverkehrssituationen zu übertragen. Da Fälle wie bei dem verunglückten Tesla kein spontanes Nachdenken gestatten, sind etwaige moralische Entscheidungen des Fahrers zuvor zu treffen – etwa in Form der Erstellung eines moralischen Profils; vielleicht über einen Fragebogen oder mit Hilfe eines Programms. Es erscheint plausibel, dass diese moralischen Settings über eine elektronische Identifikation gesichert werden; wie ein elektronischer Schlüssel oder über das Smartphone der Wagenbesitzer.

Heißt das, dass Automarken in Zukunft auch in dem Krisen-Situationsverhalten ihrer Roboter werben, sie ethisch personalisieren werden wie Farbe und Musikanlage? Nach dem Motto: „ich kaufe einen XY, der schützt im Zweifelsfall mich, dann den Fußgänger, dann den Radfahrer?“  

So in etwa. Ich halte es für möglich, dass es beim Auto-Kauf einen komplexen Fragenkatalog geben wird, mithilfe dessen die Kunden über den Ausgang ihrer Unfälle im Vorweg bestimmen können. So ein moralisches Profil ist in jedem Fall notwendig, wenn wir wirklich wollen, dass autonome Fahrassistenzsysteme an unserer Stelle in Situationen entscheiden, in denen noch nicht einmal wir Menschen einhellig Antwort gegeben würden. So könnte es sein, dass man pauschal ganze Fragenblöcke überspringen kann, wenn zum Beispiel die Antwort immer auf den Schutz der eigenen Unversehrtheit zielt. Ich würde dafür plädieren, dass die Autohersteller und -vertreiber – insbesondere die IT-Abteilungen, die für die Programmierung der autonomen Fahrmechanismen zuständig sind – ein ethisches Training zu absolvieren haben, um in der Lage zu sein, die potenziell moralisch relevanten Situationen zu antizipieren, zu identifizieren und angemessene Interfaces zu entwickeln, die verlässlich die moralischen Überzeugungen der Fahrer aufgreifen. Darüber hinaus ist ein breit geführter sozialer Diskurs vonnöten, um ein Bewusstsein für solche Dilemma-Situationen und die Herausforderungen, die mit ihnen einhergehen, zu schaffen und die Fahrzeugbesitzer und Teilnehmer am Straßenverkehr auf ihre moralische Verantwortung vorzubereiten.

Sollten Roboter als juristische Person anerkannt werden?

Obwohl ich mich nicht gut genug mit dem Konzept der juristischen Person auskenne – nein, bislang noch nicht. Es wäre nicht möglich, ein oder mehrere konkrete Verantwortungssubjekte für „die“‘ Verantwortung im Straßenverkehr auszumachen, da diese viel zu umfassend ist, als dass eine Person oder eine geringe Anzahl Einzelner dafür Rede und Antwort stehen könnte. Verantwortung für den Straßenverkehr kann in einem Fall die Sicherheit der am Straßenverkehr beteiligten Menschen bedeuten, in einem anderen Verständnis die Verantwortung dafür, schnell und effizient von A nach B zu gelangen, vielleicht aber auch die ästhetische Gestaltung von Straßenverlauf und Bürgersteigen mit Beeten und in noch einem anderen Fall die Verantwortung dafür, dass die moralischen und ethischen Herausforderungen, die mit einer Beteiligung am Straßenverkehr einhergehen, diskutiert werden.

Momentan wird ein autonomes Fahrassistenzsystem, da es nur in einem als äußerst schwacher Verantwortungsakteur identifizierbar ist, die Subjektposition einer Verantwortlichkeit innerhalb des Verantwortungsnetzwerkes „Verantwortung im Straßenverkehr“ nicht besetzen können, da es immer potenziell qualifiziertere Verantwortungssubjekte gibt – konkret: die Fahrer. Allerdings ist denkbar, es als Verantwortungsobjekt und als Adressat in eine oder mehrere der Verantwortlichkeiten dieses Verantwortungsnetzwerkes einzubinden. Interessanter – aus Sicht der Verantwortungstheoretikerin – wird das Ganze noch, sobald wir nicht eindeutig funktional verantwortliche artifizielle Systeme entwickeln, die gegebenenfalls auch die Subjektposition innerhalb einer Verantwortlichkeit besetzen und in einer fernen posthumanistischen Zukunft vielleicht sogar die Rolle der Instanz übernehmen.

Wie sollte aus Ihrer Sicht damit umgegangen werden, wenn Roboter Fehlentscheidungen treffen?

Ich denke, das ergibt sich bereits ganz gut aus dem zuvor Gesagten. Im Fall einer Fehlfunktion ist das fragliche Modell natürlich aus dem Verkehr zu ziehen – im wörtlichen Sinn, wenn es um autonome Fahrassistenzsysteme geht, im übertragenen Sinn im Fall von Industrie- und Servicerobotern. Man könnte etwas überspitzt sagen, dass es sich dann um ein künstliches Pendant zur menschlichen Bestrafung handelt, wenn man einen Roboter ausschaltet, um ihn zu überholen.

zur Startseite

von
erstellt am 05.Jul.2016 | 05:59 Uhr

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Themen zu diesem Artikel:

Diskutieren Sie mit.

Leserkommentare anzeigen