Wer entscheidet über Leben und Tod bei Unfällen mit selbstfahrenden Autos?

Programmierte Todesfolge: Selbstfahrende Autos und Unfälle
Keine Kommentare

Immer mehr intelligente Systeme beeinflussen unseren Alltag. Die Beschäftigung mit den potenziellen moralischen Implikationen von Entscheidungen solcher Systeme wirft Fragen auf: Zu wessen Nachteil entscheidet ein selbstfahrendes Auto im Fall eines Unfalls? Eine Frage von Leben oder Tod für Fahrgast oder Fußgänger – wie entscheiden Sie sich?

Bevor wir uns den selbstfahrenden Autos widmen, betrachten wir erst einmal ein einfacheres Beispiel: Chatbots können sich ganz schön unvorhersehbar verhalten. Das haben wir im Frühjahr dieses Jahres erlebt. Nicht immer tun künstliche Intelligenzen (genau) das, was ihre Entwickler vorgesehen haben; nicht immer entspricht die Programmierung eines Systems den realen Anforderungen, denen es ausgesetzt sein wird. Und: Nicht immer entsteht daraus ein moralisch korrektes Verhalten.

Tay, Microsofts Chatbot mit der Persönlichkeit einer jungen Frau, überstand nicht einmal einen Tag auf Twitter, bevor er damit anfing, rassistische Äußerungen zu reproduzieren. Es war eine Art von User-Input, der nicht bei der Programmierung bedacht wurde. Somit war es der Faktor Mensch, an dem der Chatbot scheiterte.

Vom Chat auf die Straße

Schlussendlich stellt der Fall des Chatbots Tay aber kein großes Problem dar. Wer rassistische Äußerungen eines Chatbots nicht akzeptabel findet, greift ein und löscht die entsprechenden Inhalte wieder aus dem lernenden System. Auch im Kontext selbstfahrender Autos kann der Fahrer natürlich noch eingreifen, wenn er mit dem Verhalten des Autos unzufrieden ist – oder doch nicht? In vielen Fällen entscheidet das Auto viel schneller als der Mensch es könnte und verhindert dadurch sogar Unfälle. Zumeist geht das gut aus, alle bleiben unverletzt. Aber was ist, wenn doch einmal etwas passiert? Wie würde eine moralisch korrekte Handlung eines selbstfahrenden Autos aussehen?

Ein selbstfahrendes Auto ist nun natürlich kein Chatbot und wird entsprechend intensiver auf die reale Welt vorbereitet. Und doch handelt es sich um ein lernendes System, das noch nicht perfekt ist und es nie sein wird. Manchmal können selbst die Entwickler autonomer Fahrssysteme nicht ganz genau sagen, woran ein smartes Auto einen Menschen erkennt – und wann nicht mehr. Insofern können vom technischen Versagen über den menschlichen Fehler bis hin zur Lücke in der Programmierung zahlreiche Faktoren zu einem Unfall führen, der den Tod eines oder aller Beteiligten unvermeidlich macht.

Vorprogrammierte Todesfolgen?

Anders als bei Tay darf es sich bei einer solchen Situation aber nicht grundlegend um ein nicht bedachtes Szenario handeln.Und genau hier wird es kompliziert: Autos müssen auf Unfälle vorbereitet sein – somit muss aus einem sicheren Büro heraus eine potenzielle Entscheidung über Leben und Tod auf der Straße getroffen werden. Ganz neu ist dieses Problem nicht; schon heute werden Handlungsrichtlinien für Krisenfälle herausgegeben, die implizieren, Menschen sterben zu lassen, um andere zu retten. Die betreffen uns aber ganz praktisch gedacht nur selten. Bei selbstfahrenden Autos sieht das wahrscheinlich schon bald anders aus.

Die Moral Machine

Wen töten die selbstfahrenden Autos also, und wen retten sie, wenn die Bremsen ausfallen? Diese Frage kann jeder in diversen Varianten im Rahmen des Projekts „Moral Machine“ selbst beantworten: Sollen die selbstfahrenden Autos die Insassen um jeden Preis schützen oder eher Außenstehende retten? Ist es von Bedeutung, ob jemand bei Rot über die Ampel geht? Wie wichtig ist der soziale Status einer Person für ihr Recht zu überleben? Natürlich wäre in manchen Fällen, die die Moral Machine vorschlägt, eine dritte Option denkbar, die alle beteiligten retten könnte – aber was ist, wenn es die nicht gibt? Wie würden Sie entscheiden?

Jeder Teilnehmer der Moral Machine bekommt am Ende seine eigene Auswertung im Vergleich zum Durchschnitt aller Teilnehmer angezeigt. Meine persönliche Auswertung bescheinigt mir eine starke utilitaristische Neigung: Das größte Glück der größten Zahl soll geschützt werden – je weniger Menschen zu Schaden kommen, desto besser, unabhängig davon, ob sie sich innerhalb des Autos oder außerhalb davon befinden. Und: Ich opfere vom sicheren Computer aus eiskalt jeden Hund, der mir vor das selbstfahrende Auto läuft, um die Menschen darin zu retten. Darin stimme ich allerdings nicht mit dem Durchschnitt der Teilnehmer überein, die eher auch mal zugunsten des Tieres entscheiden. Außerdem ist der soziale Status der zu rettenden Menschen für mich recht irrelevant: Jeder wird gerettet, egal ob Obdachloser oder Akademiker.

Ich oder du? Die Gretchenfrage

Meine persönliche Sichtweise ist allerdings grundsätzlich gar nicht so ungewöhnlich: Eine Studie, beruhend auf ähnlichen Fallbeispielen wie den derzeit in der Moral Machine durchspielbaren, fand heraus, dass die meisten Menschen utilitaristisch handeln würden. Sie würden so viele Menschen wie möglich retten und dazu auch die Fahrzeuginsassen opfern – aber nicht, wenn sie selbst im Auto sitzen müssten. Auch das ist nur allzu menschlich. Was bedeutet das aber nun für die Programmierung der Autos? Wie sollten sich Hersteller entscheiden: Für Autos, die der Kunde kaufen möchte oder für Autos, die so viele Leben wie möglich retten?

Die meisten von uns werden in der nahen Zukunft nicht in die Verlegenheit kommen, ein selbstfahrendes Auto zu kaufen; auch die Frage nach der moralischen Ausrichtung der Programmierung eines Autos wird uns beim Kauf noch lange nicht gestellt werden. Zurzeit überwiegt wohl für die meisten Kunden auch das grundlegend gesenkte Unfallrisiko. Und doch bleibt die Frage bestehen, was passieren soll, wenn was passiert.

Ich kann und will keine abschließende Antwort auf die Frage geben, wer darüber entscheiden darf, wie ein Auto programmiert werden sollte, wann es ausreichend getestet wurde und wie die Programmierung am Ende auszusehen hat. Und doch sind es diese und ähnliche Fragen, die wir uns stellen müssen, wenn wir über die zunehmende Automatisierung im IoT sprechen. Immer mehr Daten werden erfasst, immer mehr Bereiche werden automatisiert. Welche Entscheidungen überlassen wir bereitwillig der Maschine; wo verläuft die Grenze der Privatsphäre, über die kein IoT-Device hinausgehen sollte – und wie weitreichend dürfen die Entscheidungen sein, die Unternehmen für uns treffen?

Selbstfahrende Autos: Wer darf darüber entscheiden, wer getötet wird?

View Results

Loading ... Loading ...

 

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -