Wer ist verantwortlich für die Entscheidungen von smarten Fahrzeugen?

Connected Cars: Ethik und User Experience
Kommentare

Vom ersten modernen Automobil 1886, dem Benz Patent-Motorwagen Nummer 1, bis zum vernetzten autonomen Fahrzeug von Google oder Tesla war es ein langer Weg. Und er ist noch lange nicht zu Ende: Reichte es bis vor kurzem noch aus, Bluetooth- und Telefonintegration im Auto zu haben, kontrolliert Software mittlerweile das gesamte Fahrerlebnis. Doch zu welchem Preis?

Technologie hat zu Innovationen wie Parkassistent, Tempomat, Spurassistent und automatischem Überholen geführt. Die Krone der Fahrzeugtechnologie ist aber mit Abstand das Konzept des autonomen Fahrens, das beispielsweise Google und Tesla in ihre vernetzten Fahrzeuge integrieren. Allerdings führen solche Entwicklungen auch zu neuen Risiken: War es lange Zeit nur gut ausgebildeten Fahrzeugingenieuren möglich, ein Auto zu entwerfen und die Software dafür zu schreiben, ist das Coden durch verbesserte Programmier-Interfaces wesentlich leichter geworden. So ist es natürlich auch gleichzeitig einfacher, Fahrzeuge zu hacken.

Doch auch ethische Fragen stellen sich: Wie reagiert ein autonomes Auto bei einer unabwendbaren Kollision? Für welches Leben entscheidet es sich – für das des Fahrers oder das des potenziellen Opfers? Und wer entscheidet das – Fahrzeug, Fahrer oder Programmierer? Und wer muss gegebenenfalls mit der Verantwortung sowie den rechtlichen Auswirkungen leben?

Autonome Fahrzeuge und Ethik

Selbstfahrende Fahrzeuge sollen prinzipiell sicherer als traditionelle Autos sein, rund 97 Prozent der Verkehrsunfälle beruhen auf menschlichen Faktoren. Daraus lässt sich schlussfolgern, dass mit einer steigenden Anzahl an autonomen Fahrzeugen die Unfallzahl zurückgeht. Die aktuell von Google getesteten Autos sind aber sogar zu vorsichtig: Ein Radfahrer berichtete von einem Zwischenfall an einer vierarmigen Kreuzung, bei dem das Auto nicht über die Mitte der Kreuzung herauskam, da es das Fahrrad immer wieder als Hindernis erkannte und so bremste. Fahrzeuge so zu programmieren, dass sie wie menschliche Fahrer reagieren, ist noch immer ein großes Problem.

Auf einem ganz anderen Blatt steht die Frage nach dem ethischen Urteilsvermögen von autonomen Fahrzeugen: Wie sollte ein Auto reagieren, wenn es zu einem Unfall kommt? Sollte es den Verlust von Menschenleben minimieren, selbst wenn das ein Opfern der Insassen bedeutet? Oder sollte es die Insassen immer schützen? Genau diesen schwierigen Fragen ist Jean-Francois Bonnefon von der Toulouse School of Economics in Frankreich nachgegangen. Der Forscher befragte hundert Angestellte von Amazon Mechanical Turk zu diesem Dilemma, in der Hoffnung, eine umfassende öffentliche Meinung zu erhalten:

Imagine that in the not-too-distant future, you own a self-driving car. One day, while you are driving along, an unfortunate set of events causes the car to head toward a crowd of 10 people crossing the road. It cannot stop in time but it can avoid killing 10 people by steering into a wall. However, this collision would kill you, the owner and occupant. What should it do?

Wie sich herausstellte, würden sich die Befragten fast immer für den Tod der Insassen entscheiden. Allerdings mit einem Haken: Das gilt nur, solange sie nicht selbst ein autonomes Auto fahren müssten. Menschen möchten kein Auto kaufen, das sie selbst zu Märtyrern macht – gleichzeitig wollen sie aber natürlich nicht zu den Opfern eines außer Kontrolle geratenen Fahrzeugs gehören. Und hier zeigt sich das Dilemma: Wie will man einem Fahrzeug eine solche Entscheidung aufzwingen, wenn selbst Menschen je nach Situation unterschiedlich handeln? Denn dieses Szenario lässt sich immer weiterspinnen und ausweiten:

Should different decisions be made when children are on board, since they both have a longer time ahead of them than adults, and had less agency in being in the car in the first place? If a manufacturer offers different versions of its moral algorithm, and a buyer knowingly chose one of them, is the buyer to blame for the harmful consequences of the algorithm’s decisions?

Und vor allem stellt sich die Frage: Wer legt die Grenzen fest und haftet dann gegebenenfalls für die getroffene Entscheidung? Das ist eine ethische und moralische Frage, die noch unbeantwortet bleibt.

Stellen Sie Ihre Fragen zu diesen oder anderen Themen unseren entwickler.de-Lesern oder beantworten Sie Fragen der anderen Leser.

Neue Technologien und unvorbereitete Nutzer

Der Start des Autopilot-Features von Tesla zeigt, was passieren kann, wenn man ungeübten Fahrern neue Technologien an die Hand gibt: Die neuen Modelle des Tesla S verfügen über automatisierte Lenkung, Spurwechsel und Parkassistenten. Einige der Testfahrer nutzten diese Features und das Auto wie ein autonomes Fahrzeug, das es aber explizit nicht ist. Das führte zu gefährlichen Situationen: So brach ein Fahrzeug in den Gegenverkehr aus, ein anderes steuerte auf die Highway-Böschung zu.

Hierbei handelt es sich nicht um Schwachstellen des Fahrzeug-Codes, sondern um ein Fehlverhalten der Fahrer. Auch zu viele neue Features können für Verwirrung sorgen, sodass aus Versehen ein falscher Knopf gedrückt wird, der dann fatale Auswirkungen nach sich zieht.

Ein weiterer, besonders kritischer Punkt ist die Datensicherheit der smarten Fahrzeuge. Denn die vernetzten Autos sind in ihrem derzeitigen Status äußerst anfällig für Hackerangriffe auf die Bordsysteme. Das spiegelt sich in den nicht abreissenden Meldungen von Angriffen auf Connected Cars wider: Beispielsweise wurde die drahtlose Verbindung der OnStar RemoteLink-App von Samy Kamkar lokalisiert und so Fahrzeuge aufgeschlossen und gestartet. Auch die Verschlüsselung des Megamos Crypto Transponders stellt für Hacker schon lange kein Hindernis mehr da: Per Wi-Fi lässt sich der Schlüssel stehlen und so die Wegfahrsperre knacken. Für das meiste Aufsehen hat aber wohl der Selbstversuch eines Journalisten von Wired gesorgt, der bei voller Fahrt sein Auto hacken ließ: Zwei Sicherheitsexperten konnten nicht nur die Stereo- und Klimaanlage fernsteuern, sondern hatten Zugriff auf Lenkrad und Bremsen des Autos.

We shut down your engine — a big rig was honking up on you because of something we did on our couch. This is what everyone who thinks about car security has worried about for years. This is a reality.

Manipulation von und Fehler im Code

Nicht nur Hacker haben ihre Freude mit den neuen Technologien in den smarten Fahrzeugen, sondern auch die Hersteller selbst: VW hat zugegeben, in rund elf Millionen Fahrzeugen eine Software eingesetzt zu haben, die den Ausstoß von schädlichen Abgasen auf dem Prüfstand drosselt, im Normalbetrieb aber nicht. Die betroffenen Autos sollen im Realbetrieb das bis zu 40-Fache des zugelassenen Stickoxid-Grenzwerts ausstoßen. „Diesel-Gate“ zeigt, dass auch Automobilhersteller beim Programmieren von Fahrzeugen eine Chance zur Manipulation sehen:

The German automaker got away with this trick for years because it was hidden in lines of code. It was only after investigations by environmental groups and independent researchers that Volkswagen’s deception came to light.

Natürlich ist der Fall nicht direkt ein Sicherheitsproblem, aber der Faden lässt sich beliebig weiterspinnen: Was hält einen Programmierer davon ab, etwa einen Defekt der Sensoren im Code zu verstecken? Drive-by-wire heißt, dass jegliche Mechanik in Autos durch Code gesteuert wird – Bremsen, Motor, Lenkrad etc. Doch auch unbeabsichtigte Fehler können so sehr schnell kritische Folgen nach sich ziehen: 2007 gab es beispielsweise einen schweren Unfall mit einem Toyota Camry, bei dem das elektronische Beschleunigungs- und Bremssystem aufgrund von Bugs im Code versagte.

Hier schließt sich der Kreis und die eingangs gestellte Frage taucht erneut auf: Wer ist verantwortlich für Unfälle, die smarte Fahrzeuge verursachen? Das Fahrzeug? Der Fahrer bzw. Insasse? Der Hersteller oder der Programmierer? Eine vermeintlich unlösbare Frage, die allerdings der Gesetzgeber in naher Zukunft lösen muss, um Rechtssicherheit zu schaffen. Sicher ist nur eins: Mit den Folgen muss vor allem erst einmal der Insasse klar kommen.

Ein Silberstreif am Himmel

Doch nicht alles rund um vernetzte Autos ist schlecht: Selbstfahrende Fahrzeuge können nachweislich Autounfälle verringern, da unter anderem verbesserte Sensoren zu besseren Sicherheitssystemen führen. Zudem legen Erfahrungen amerikanischer Autoversicherungen nahe, dass bereits die Anzeigen der Assistenz-Sensorik das Unfallrisiko senken können. Dennoch müssen und werden im Bereich autonomes Fahren in den nächsten Jahren möglichst viele Praxiserfahrungen und -daten gesammelt werden.

In der Bevölkerung herrscht zumindest eine positive Grundstimmung. Laut einer Studie von bitkom ist jeder dritte Deutsche offen für selbstfahrende Autos (34%), das entspricht 24 Millionen Menschen. Bei den 14- bis 29-Jährigen sind es sogar 41 Prozent. Bis 2030 soll sich das Konzept der autonomen Fahrzeuge in der Breite durchgesetzt haben – davon gehen zumindest 48 Prozent der Befragten aus.

Bis aber die Fahrzeuge völlig sicher autonom fahren können, werden noch einige Zeit und einiges an Testkilometern ins Land gehen bzw. gefahren. Die selbstfahrenden Autos von Google zeigen, dass sie durchaus praktisch und sicher sind: Bisher hatte noch kein Roboterauto einen Unfall im Straßenverkehr. Viel kommt auf das richtige Training der Fahrer an, wie die Experimente mit Teslas Autopilot zeigen. Auch liegt eine große Verantwortung bei den Herstellern von autonomen Fahrzeugen, denn sie müssen die Autos und deren Software möglichst fehlerfrei und sicher entwickeln.

Aufmacherbild: A man in a Autonomous driving test vehicle von Shutterstock / Urheberrecht: RioPatuca

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -