Sie sind auf Seite 1von 2

Essay- Ethik und autonomes Fahren

Niemand muss sterben

Weltweit entwickelt sich die Digitalisierung der Mobilität. Das autonome Fahren ist ein
Beispiel dafür. Die vollautomatisierten Systeme können alle Aufgaben, die ein
Mensch machen muss, meistern- sie wechseln selbstständig die Fahrbahnspur,
bremsen und lenken, ganz ohne menschliches Eingreifen. Jedoch können komplexe
Probleme entstehen. Beispielsweise, ob das Auto in schweren Unfallsituationen
ethisch handeln kann oder wer im Zweifelsfall sterben muss- ein Kind oder drei
Erwachsene? Und die wichtigste Frage: Darf das Auto überhaupt irgendeine Wahl
treffen?

Ich möchte noch einmal wiederholen: Warum soll man das Fahrzeug programmieren,
damit es ethisch in einer Unfallsituation handelt? Wir alle halten den Menschen als
die einzige Schöpfung, die denken und selbst entscheiden kann. Die Maschine soll
keine moralische Vernunft besitzen. Auf diese Weise werden solche brisanten
Fragen vermieden wie: Wessen Leben ist am wertvollsten? Meiner Meinung nach
muss niemand sterben. Das selbstfahrende Auto soll nur bremsen und den Spur
wechseln und eine Verantwortung für tausende Leben nicht übernehmen. Im
Zweifelsfall soll der Fahrer in die Lenkung eingreifen und selbst die Entscheidung
treffen.

Um meine Meinung zu begründen, möchte ich jetzt Beispiele für die Unterstützung
meiner Ansicht erläutern.

Erstens, das Trolley- Problem ist eine klassische Fragestellung der Ethik. Es geht um
ein Zug, der mit hoher Geschwindigkeit auf eine Weiche zufährt und nicht mehr
bremsen kann. Auf dem Gleis sind fünf Menschen festgebunden. Auf dem
Nachbargleis ist nur eine Person festgebunden. Man kann eingreifen, die Weiche
umzustellen und damit eine Person opfert, um fünf gerettet zu werden. Die Frage
ist:“Soll man eingreifen?“. Bei diesem Fall kann ich bestätigen, dass solche
Situationen in der Realität unmöglich sind. Warum werden diese Personen überhaupt
festgebunden? Es ist einfach unsinnig. Jedoch gibt es eine Kehrseite- eine Ethik-
Debatte wird provoziert. Im Prinzip gibt es zwei Lager. Einerseits ist ein utilitarischer
Zugang- wie der britische Philosophe Jeremy Bentham sagte: Der Gesamtschade
soll minimiert werden, eine Aufrechnung soll stattfinden, der größte Nutzen bestimmt
werden, und dann dementsprechend gehandelt werden. Andererseits steht die
Sichtweise gegenüber, bei der mit Verweis auf Immanuel Kant betont wird: Wir
sollten ethische Prinzipien folgen z.B “Du sollst nicht töten!“. Solche
Gedankenexperimente sind ein Nachweis für die Sinnlosigkeit der Implementierung
ethischer Algorithmen, die das Leben aufsummieren.

Eine weitere Behauptung sind die drei berühmten Robotergesetzen vom Schriftsteller
Isaac Asimov: 1. Ein Roboter darf kein menschliches Wesen Schaden zufügen oder
durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt
wird.

2. Ein Roboter muss dem ihm von einem mächtigen Wesen gegebenen Befehlen
gehorchen, es sei denn, dies würde das Erste Robotergesetz verletzen.

3. Ein Roboter muss seine Existenz schützen, es sei denn, dies würde das Erste
oder Zweite Robotergesetzt verletzen .

Die Regeln von Isaac Asimov wurden ursprünglich nicht mit der Intention entwickelt,
einen Lösungsvorschlag für ethisch programmierte Roboter zu repräsentieren,
sondern um die Fehler diese Idee aufzuzeigen. Aus diesen Gründen denke ich, dass
eine Ethik für selbstfahrende Autos nutzlos ist. Als Erste, die Unfallsituationen, wie im
Trolley- Problem, sind in der realen Welt unmöglich. Zweitens, ein Roboter
beziehungsweise ein Roboterauto, darf ein menschliches Wesen nicht töten. Es ist
eine Warnung vor der potentiellen Entwicklung des Eigenlebens des Autos. Niemand
will die Ereignisse im Film “I, Robot“ in der Realität sehen, oder?

Zusammenfassend lässt sich sagen, dass für das Gelingen des autonomen Fahrens
eine Anpassung der rechtlichen Rahmenbedingungen von größer Bedeutung ist. Der
Bericht der Ethik-Kommission für automatisiertes und vernetztes Fahren im Juni
2017, der durch den Bundesminister für Verkehr und digitale Infrastruktur eingesetzt
wurde, ist nur den ersten Schritt dafür. Die 20 ethische Regeln sind eine gute
Voraussetzung für die Weiterentwicklung autonomer Fahrzeuge. Jedoch meine ich ,
dass der Fahrer in schweren Unfallsituationen die Lenkung übernehmen darf, um
ethische Algorithmen vermieden zu werden. Ich bin sicher, dass die autonome Autos
dabei helfen würden, dass viel weniger Menschen auf der Straße getötet werden.

Das könnte Ihnen auch gefallen