Sie sind auf Seite 1von 3

Kommentar

Hilft uns die “Moral Maschine“ weiter?

Liebe Redakteure der Deutschen Welle,

Ich habe Ihre Meinungen zum Thema “Autonome Autos“ über das Online-Spiel
„Moral Maschine“ mit großem Interesse gelesen. Frau Samantha Baker, Herr Abbany
Zulfikar, Herr Alexander Freund, Herr Dillon Conor und Herr Fabion Schmidt haben
verschiedene Ansichten erläutert und ich möchte auch Stellung dazu nehmen.

Frau Baker meint, dass die vorprogrammierten moralischen Entscheidungen uns vor
den Risiken der menschlichen Dummheit beschützen können. Solche Meinung
vertritt auch Herr Conor, der die Ergebnisse einer furchtbaren Statistik darstellt. Jeder
vierte Unfall in den USA wird durch unerlaubte Handynutzung am Steuer verursacht.
Beide sind empört, dass man sich oft übermüdet, krank, mit Alkohol, Medikamenten
oder illegalen Drogen hinters Steuer sitzt. Zudem möchte man eine SMS schicken
und gleichzeitig Fast Food essen.

Ich stimme dieser Meinung zu. Und ich möchte hinzufügen, dass einer der
wichtigsten Gründe für die Unterstützung des autonomen Fahrens das menschliche
Versagen ist. Eine Studie des Kfz-Direktversicherers DA Direkt bestätigt, dass 90%
aller Unfälle in Deutschland durch menschliches Versagen passieren. Jeder zweite
isst und trinkt am Steuer. Darüber hinaus führt jeder sechste ein Telefongespräch
während die Fahrt. Die Tatsache, dass menschliche Fehler einen so großen Anteil
an den Unfallursachen haben, ist eine Voraussetzung für die weitere Entwicklung
des automatisierten Fahrens. Ich kann aus eigener Erfahrung sagen, dass ich viele
Fahrer in meiner Heimat sehe, die beim Fahren mit dem Telefon beschäftigt sind.
Durch diese unbedachten Handlungen kann eine Gefahr nicht nur für die Maschine,
sondern auch für die anderen Straßenverkehrsteilnehmer entstehen.

Ich komme jetzt nun zu einer anderen Meinung, die mein Interesse geweckt hat. Herr
Zulfikar hat gesagt, dass ein gesamt gesellschaftlicher Konsens, welche moralische
Entscheidungen im Zweifelsfall beim autonomen Fahren getroffen werden müssen,
unmöglich ist. Er denkt, dass die Weltherrschaft, also, die Technologieindustrie, die
Gesellschaft nach diesen wichtigen moralischen Entscheidungen nicht fragen wird.
Er nennt als Beispiel der Dotcom-Blase der späten 90er Jahren. Als Dotcom-Blase
wird jene Spekulationsblase bezeichnet, die im Jahr 2000 weltweit, jedoch vor allem
in Industrieländern, zu erheblichen Vermögensverlusten im Bereich der New-
Economy führte.

Nach meiner persönlichen Einschätzung, welche Regeln für Konfliktfälle, die


moralische Abwägungen erfordern, in die Entscheidungsmodule automatisierter
Fahrzeuge einprogrammiert werden, soll dabei nicht diktatorisch, sondern so weit wie
möglich durch eine gesellschaftliche Konsensbildung nach ausführlicher öffentlicher
Diskussion festgelegt werden. Am besten sollen aber die Konfliktsituationen
vermieden werden, weil das Auto keine moralische Vernunft besitzen darf.

Und nun zu den nächsten Überlegungen. Herr Freund provoziert mit seiner Meinung,
dass das Online-Spiel “Moral Maschine“ eine skandalöse und unwissenschaftliche
Studie ist. Er ist der Meinung, dass die Kriterien dieses Experiments rassistisch und
fragwürdig sind.

Hier kann man sich mit der zweiten Seite des Problems beschäftigen. Einerseits, das
Online-Spiel beruht auf Diskriminierung. Beispielsweise, der Asiate würden lieber der
Alte als die Kinder retten. Der Grund dafür ist, dass man in diesen Ländern mehr
Respekt vor älteren Gesellschaftsmitgliedern hat. Ich stimme der Ansicht von Herrn
Freund zu, weil eine Studie mit restriktiven Möglichkeiten für eine Antwort keine
Entwicklung der Frage “Wer soll das Auto retten?“ gelingt.

Andererseits, ist “Moral Maschine“ein der ersten solche Spiele, das das Problem der
moralischen Entscheidungen beim autonomen Fahren aufgreift. Es provoziert eine
Ethik-Debatte, ob eine Maschine moralische Algorithmen braucht oder nicht. Das ist
das wichtigste Ziel des Projekts von MIT-Institut - eine gesellschaftliche Debatte und
eine offene Diskussion anzuregen. Ohne diktatorische Entscheidungen.

Ich werde nun die letzte Ansicht erörtern. Herr Schmidt denkt, dass die
Implementierung moralischen Entscheidungen in den selbstfahrenden Autos
unrealistisch ist. Autonom fahrende Fahrzeuge können mit ihren Sensoren erkennen,
ob irgendetwas eine Kollision herbeiführt oder nicht, und entsprechend reagieren-
meistens mit einer sicheren Vollbremsung. Ich stimme der Meinung zu, dass die
Programmierung sich im Wesentlichen auf Bremsen, Spurhalten und möglicherweise
Ausweichen beschränkt.
Meines Erachtens ist eine Ethik für die selbstfahrenden Autos nicht nur nutzlos,
sondern auch unmöglich, weil man nicht alle mögliche Unfallsituationen vorhersehen
kann. Stattdessen soll man im Zweifelsituationen eingreifen können und die Lenkung
übernehmen. Man kann die menschlichen Instinkte nutzen und so mehr wie möglich
Menschen retten. Über Moral soll es nicht diskutiert weden, weil nur der Mensch in
der Lage ist, moralische Entscheidungen zu treffen. Das selbstfahrende Auto soll
restrikt werden, nur diese Manöver zu unternehmen, die sicher für den Mensch sind.

Als Zusammenfassung möchte ich sagen, dass die fünf Meinungen von ihrem Artikel
unterschiedliche Positionen beschreiben und mir bei der Erstellung meines Vortrags
geholfen haben. Vielen Dank dafür!

Das könnte Ihnen auch gefallen