Du willst unseren News-Alarm?
Yeah, kriegst Du! Trage hier Deine E-Mailadresse ein.

Super, das hat funktioniert!

Wir haben Dir eine E-Mail an die angegebene Adresse geschickt. Schau gleich nach und folge den Anweisungen in der E-Mail.

×
16. Februar 2018

Autonomes Fahren: Technik vs Ethik

Wer entscheidet beim autonomen Fahren, ob der Passagier oder andere Verkehrsteilnehmer beim Crash geschützt werden?

Caschys Blickwinkel über selbstfahrende Autos

2018 - wir können Autos ins All schießen, schaffen es aber nicht, dass Züge pünktlich abfahren oder ankommen. Züge könnten allerdings sowieso in Zukunft überflüssig werden, immerhin werden uns seit Jahren autonome Fahrzeuge versprochen, die das gesamte Verkehrswesen auf den Kopf stellen werden.

Autonome Fahrzeuge kannte man früher nur aus TV-Serien, heute kann man ihnen bereits auf Teststrecken begegnen und selbst am normalen Straßenverkehr nehmen sie bereits unter Aufsicht teil. Die Entwicklung konzentriert sich dabei hauptsächlich auf die Erkennung von Verkehrssituationen und die Kommunikation der Fahrzeuge untereinander.

Die ethische Frage: Das Trolley-Problem

Ein wichtiger Aspekt fehlt auf dem Weg zum autonomen Fahrzeug allerdings noch - der ethische. Wenn kein Fahrer mehr an Bord eines Fahrzeugs ist, muss im Zweifelsfall ein Computer entscheiden, ob er in einer Gefahrensituation die Passagiere des Fahrzeugs oder andere Verkehrsteilnehmer schützt, wenn ein Crash unvermeidlich ist.

Das sogenannte Trolley-Problem findet sich auch in diesem Zusammenhang. Sollte man damit nichts anfangen können: Man stelle sich vor, es gibt 2 Strecken, fährt ein Zug auf der eigentlich geplanten Strecke weiter, fallen ihm 5 Menschen zum Opfer.

Auf einer Alternativstrecke würde es nur ein Opfer geben. Die große Frage: Greift man ein und tötet durch das Eingreifen bewusst eine Person oder lässt man den Zug wie geplant fahren und nimmt 5 Opfer in Kauf, ohne dabei aber aktiv eingegriffen zu haben.

Und das autonome Fahren?


Copyright: Von McGeddon - Eigenes Werk, CC-BY-SA 4.0

Bei einem autonomen Fahrzeug stellt sich die Problematik sehr ähnlich dar. Im Falle eines unausweichlichen Crashs muss das Fahrzeug entscheiden: Schütze ich meine Passagiere oder schütze ich etwaige Passanten? Eine Lösung haben die Entwickler solcher Fahrzeuge bislang nicht, sie wird aber benötigt.

Mit dem Problem beschäftigen sich nun Philosophen, sie entwickeln Algorithmen, die auf den verschiedenen ethischen Ansätzen der Problemlösung basieren. So besagt grob heruntergebrochen zum Beispiel der Utilitarismus, dass alle Leben gleich viel wert sind. Passagiere des Fahrzeugs also den gleichen Stellenwert haben wie der Fußgänger.

Es gibt aber auch Ansätze, die den Passagier des Fahrzeugs höher schätzen als das Wohlergehen anderer Beteiligter. Ein Algorithmus auf dieser Annahme basierend würde also eher den Passagier als andere schützen.

Eigenes Leben schützen oder nicht?

Beispiel: Das autonome Fahrzeug rast auf einen LKW zu, kann nicht mehr rechtzeitig bremsen (und weiß dies natürlich auch). Nun muss entschieden werden: Weicht das Fahrzeug aus und nimmt dabei einen Motorradfahrer mit, der auf der Ausweichspur ist oder wird das Leben des Passagiers riskiert und der Crash ohne Korrektur verursacht.

Nicholas Evans ist Philosophie-Professor und beschäftigt sich nun mit genau diesem Thema. Entwickelt werden Algorithmen, die auf verschiedenen ethischen Modellen basieren. Welche dabei moralisch vertretbar sind, liegt immer im Auge des Betrachters. Das ergeben eben diese verschiedenen Modelle.

Was die Forschung der Philosophen aber auch an das Tageslicht bringen wird: Wie sich die verschiedenen Modelle dann in Zahlen niederschlagen werden. Es ist durchaus möglich, dass die Anzahl der Opfer bei verschiedenen Modellen gleich ist, nur ändern sich eben die Auswahl der Opfer. Diese müssen quasi einem Wert zugeordnet werden.

Es bleibt ein Dilemma

Da stellt sich dann die moralische Frage, was schlimmer ist. 30 Opfer, die bereits über 60 Jahre alt sind oder 30 Opfer, die vielleicht Anfang 20 sind. Moralisch vertretbar wäre beides, das kommt nur darauf an, welches System der Einzelne eben als richtig ansieht.

Evans ist der Meinung, dass es in dieser Hinsicht kein richtig oder falsch gibt, deshalb gibt er auch keine Empfehlung, nach welchem Modell man hier entscheiden sollte. Die Aufgabe der Philosophen ist es aktuell nur, die Algorithmen anhand der verschiedenen Modelle zu entwickeln, um verwertbare Zahlen zu den jeweiligen Entscheidungen zu haben.

Autonomes Fahren: Einer muss entscheiden

Dennoch bleibt natürlich, dass sich irgendwann einmal einer entscheiden muss, nach welchem Prinzip autonome Fahrzeuge dann entscheiden, welche Personen zu gefährden sind. Interessant wäre sicher auch ein Ansatz, der praktisch die verschiedenen ethischen Ansätze im Einzelfall zufällig auswählt.

Während diese Frage tatsächlich geklärt werden muss, bevor die autonomen Fahrzeuge in Massen auf die Straße kommen, ist eins allerdings auch sicher: Mit autonomen Fahrzeugen wird es im Straßenverkehr weniger Opfer geben, denn menschliches Versagen, eine der häufigsten Unfallursachen, kann dann ausgeschlossen werden.

Das macht die moralische Entscheidung in unausweichbaren Fällen allerdings auch nicht leichter.

Caschy

Dortmunder im Norden. Blogger, Freund gepflegter Technik, BVB-Maniac. Auch zu finden bei Twitter, Google+ , Facebook, XING und youtube

Themen dieses Artikels
Du willst alle aktuellen News per Mail? Dann trage dich in den NEWS-ALARM ein.

Mein Onlineservice

Änderungen und Anpassungen an Ihrem Tarif und Ihren Daten können Sie unkompliziert jederzeit über den Onlineservice durchführen.

Zum Onlineservice
  

Bestellhotline

040 34 8585 100

Mo - Fr08:00 - 20:00 Uhr
Sa09:00 - 17:30 Uhr

Service-Hotline

040 34 8585 300

Mo - Fr08:00 - 22:00 Uhr
Sa - So09:00 - 17:30 Uhr

040 34 8585 305

Mo - Fr08:00 - 20:00 Uhr
Sa09:00 - 17:30 Uhr
  

klarmobil.de auf facebook

facebook.com/klarmobilDE
  

klarmobil.de auf twitter

  

klarmobil.de auf youtube

youtube.de/klarmobilDE
  

klarmobil.de auf instagram

instagram.com/klarmobil.de