Finden Sie Ihren nächsten buch Favoriten

Werden Sie noch heute Mitglied und lesen Sie 30 Tage kostenlos
Programmierte Ethik (Telepolis): Brauchen Roboter Regeln oder Moral?

Programmierte Ethik (Telepolis): Brauchen Roboter Regeln oder Moral?

Vorschau lesen

Programmierte Ethik (Telepolis): Brauchen Roboter Regeln oder Moral?

Länge:
166 Seiten
1 Stunde
Herausgeber:
Freigegeben:
Oct 14, 2016
ISBN:
9783957880819
Format:
Buch

Beschreibung

Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen uns an den Umgang mit den neuen Mitbewohnern unserer Lebenswelt gewöhnen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert oder anerzogen werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren oder in der Luft fliegen. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.

Muss für intelligente Maschinen eine eigene Ethik entworfen werden? Müssen sie als digitale Personen verstanden werden? Können Maschine überhaupt moralische Wesen sein und sich moralisch entscheiden? Oder wird die Ethik der Maschinen letztlich immer die Ethik des Programmierers sein? Und wenn autonome Maschinen Pflichten haben, müssen ihnen dann auch Rechte gewährt werden?

Die Autoren des eBooks gehen diesen philosophischen Fragen der Technik nach, die sich angesichts der schnellen Entwicklung der Künstlichen Intelligenz und der autonomen Maschinen aufdrängen: Prof. Dr. Catrin Misselhorn (Wissenschaftstheorie und Technikphilosophie, Direktorin des Instituts für Philosophie der Universität Stuttgart); Prof. Dr. Oliver Bendel (Maschinenethik am Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz); Prof. Dr. Raúl Rojas (Künstliche Intelligenz und Robotik an der FU Berlin); Hans-Arthur Marsiske (Philosoph und Wissenschaftsjournalist); Patrick Spät (Journalist und Buchautor); Florian Rötzer (Journalist und Philosoph).
Herausgeber:
Freigegeben:
Oct 14, 2016
ISBN:
9783957880819
Format:
Buch

Ähnlich wie Programmierte Ethik (Telepolis)

Ähnliche Bücher

Ähnliche Artikel

Buchvorschau

Programmierte Ethik (Telepolis) - Heise Medien

Impressum

Hg.: Forian Rötzer

Programmierte Ethik

Brauchen Roboter Regeln oder Moral?

Herausgeber der Reihe: Florian Rötzer

Titelfoto: Frankhöffner. Lizenz: CC-BY-SA-3.0

Umschlaggestaltung & Herstellung: Michael Schuberthan

ISBN 978-3-95788-081-9 (V1)

Copyright © 2016 Heise Medien GmbH & Co. KG, Hannover

Die vorliegende Publikation ist urheberrechtlich geschützt. Alle Rechte vorbehalten.

Die Verwendung der Texte und Abbildungen, auch auszugsweise, ist ohne die schriftliche Zustimmung des Verlags urheberrechtswidrig und daher strafbar. Dies gilt insbesondere für die Vervielfältigung, Übersetzung oder die Verwendung in elektronischen Systemen.

Alle Informationen in diesem Buch wurden mit größter Sorgfalt kontrolliert. Weder Herausgeber, Autor noch Verlag können jedoch für Schäden haftbar gemacht werden, die in Zusammenhang mit der Verwendung dieses Buches stehen.


Heise Medien GmbH & Co. KG

Karl-Wiechert-Allee 10

30625 Hannover

Inhaltsverzeichnis

Titel

Impressum

Vorwort

Catrin Misselhorn

Moral in künstlichen autonomen Systemen?

Drei Ansätze der Moralimplementation bei künstlichen Systemen

Oliver Bendel

Überlegungen zu moralischen und unmoralischen Maschinen

Neben die Moralphilosophie als Menschenethik ist im 21. Jahrhundert die Maschinenethik getreten

Hans-Arthur Marsiske

Roboter brauchen Rechte

Alles andere wäre blauäugig und verantwortungslos

Florian Rötzer

Moralisches Dilemma für autonome Fahrzeuge und ihre Nutzer

Die meisten Menschen finden utilitaristische Regeln zur Minimierung von Opfer gut, würden aber Autos mit solchen Algorithmen nicht kaufen wollen

Florian Rötzer

Über die Moral der Maschinen und eine programmierte Ethik

Der Philosoph und Wirtschaftsinformatiker Oliver Bendel zu Maschinen als einem merkwürdigen neuen Subjekt der Moral

Raúl Rojas

Brauchen Roboter Emotionen?

Auf lange Sicht werden wir keine mitfühlenden Roboter haben

Raúl Rojas

Oma wird nicht überfahren

Bei Vorträgen über autonome Fahrzeuge wird fast immer gefragt, ob im Fall der Fälle das fahrerlose Auto eher die alte Frau als das kleine Kind überfahren würde. Können Roboterautos ethische Entscheidungen treffen? Sollten sie?

Raúl Rojas

Fahrzeuge sind keine Spielzeuge

Es war nur eine Frage der Zeit bis Teslas Autopilot Opfer reklamieren würde.

Florian Rötzer

Pentagon drängt auf Entwicklung und Einführung autonomer Systeme

Der Defense Science Board (DSB) hat einen Bericht und Empfehlungen für die Autonomie im militärischen Bereich veröffentlicht - autonome Kampfsysteme werden nicht wirklich behandelt

Florian Rötzer

US-Verteidigungsminister: Niemals volle Autonomie für Kampfroboter

In der Third Offset Strategy soll unter anderem die Entwicklung autonomer Systeme vorangetrieben werden, um die technische Überlegenheit der USA zu sichern

Florian Rötzer

Autonome militärische Systeme ersetzen zunehmend menschliche Entscheidung

Nach einem Bericht über die weltweite Entwicklung von autonomen Systemen für das Militär sind neben den USA, Russland und China auch Frankreich und Deutschland führend

Florian Rötzer

Wenn intelligente, lernende Roboter sich nicht immer optimal verhalten

Wie kann man lernende Roboter bei Gefahren stoppen, ohne unerwünschtes Verhalten anzulernen?

Oliver Bendel

Die Sexroboter kommen

Die Frage ist nur, wie und wann

Stefan Höltgen

Wer gesehen wird, hat schon verloren

Der neue Dokumentarfilm Krieg & Spiele versucht die Beziehungen zwischen Drohnentechnologie, Robotik, KI und Computerspielen zu zeigen

Patrick Spät

Dumme KI

Die Künstliche Intelligenz Tay von Microsoft setzte rassistische und sexistische Kommentare in die Welt - und zeigt die Grenzen der Technik

Fußnoten

Vorwort

Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen uns an den Umgang mit den neuen Mitbewohnern unserer Lebenswelt gewöhnen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert oder anerzogen werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren oder in der Luft fliegen. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.

Muss für intelligente Maschinen eine eigene Ethik entworfen werden? Müssen sie als digitale Personen verstanden werden? Können Maschine überhaupt moralische Wesen sein und sich moralisch entscheiden? Oder wird die Ethik der Maschinen letztlich immer die Ethik des Programmierers sein? Und wenn autonome Maschinen Pflichten haben, müssen ihnen dann auch Rechte gewährt werden?

Die Autoren des eBooks gehen diesen philosophischen Fragen der Technik nach, die sich angesichts der schnellen Entwicklung der Künstlichen Intelligenz und der autonomen Maschinen aufdrängen: Prof. Dr. Catrin Misselhorn (Wissenschaftstheorie und Technikphilosophie, Direktorin des Instituts für Philosophie der Universität Stuttgart); Prof. Dr. Oliver Bendel (Maschinenethik am Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz); Prof. Dr. Raúl Rojas (Künstliche Intelligenz und Robotik an der FU Berlin); Hans-Arthur Marsiske (Philosoph und Wissenschaftsjournalist); Stefan Höltgen (Medienwissenschaft an der Humboldt-Universität); Patrick Spät (Journalist und Buchautor); Florian Rötzer (Journalist und Philosoph).

Catrin Misselhorn

Moral in künstlichen autonomen Systemen?

Drei Ansätze der Moralimplementation bei künstlichen Systemen

Können künstliche Systeme moralisch handeln?

Die Forderung, Maschinen sollten moralisch werden, ist in aller Munde. Die Autoindustrie arbeitet mit Hochdruck an automatischen Fahrsystemen und Daimler-Chef Zetsche forderte unlängst, endlich die ethische Debatte über selbstfahrende Autos zu beginnen. Und auch im Bereich des Militärs und der Pflege gibt es viele Anwendungsmöglichkeiten für Maschinen mit moralischen Fähigkeiten. Die Entwicklung der Maschinenethik gehört daher zu den drängendsten Forschungsfragen im Bereich der KI, wie auch ein 2015 veröffentlichter und von einer Vielzahl namhafter Wissenschaftler unterschriebener offener Brief des Future of Life Institute bezeugt.

Aber kann man künstlichen Systemen überhaupt die Fähigkeit zum moralischen Entscheiden und Handeln zuschreiben? Können sie als moralische Akteure gelten? Diese Frage lässt sich in zwei Teilaspekte aufteilen (Misselhorn 2013): Zum einen die Frage, ob autonome Systeme überhaupt zum Handeln in der Lage sind und, zum anderen die Frage, ob die Handlungen künstlicher Akteure als moralisch charakterisiert werden können.

Damit das Verhalten eines künstlichen Systems als Handlung gelten kann, darf es weder vollständig von externen Faktoren bestimmt sein, noch darf es auf ein reines Reiz-Reaktions-Schema zurückgehen. Die Problematik der grundsätzlichen Handlungsfähigkeit lässt sich innerhalb der philosophischen Handlungstheorie entlang zweier Achsen beschreiben: der Fähigkeit, sich im eigenen Verhalten an Gründen zu orientieren, sowie der Fähigkeit, als selbstursprüngliche Quelle des eigenen Tuns zu fungieren (Misselhorn 2013). Beide Fähigkeiten müssen als graduelle Attribute begriffen werden, d.h. sie kommen verschiedenen Arten von Akteuren in unterschiedlichem Maße zu (Misselhorn 2015).

Die erste Achse (Orientierung an Gründen) hängt eng mit der Möglichkeit zusammen, Infor-mationen zu verarbeiten (Stahl 2004). Dem klassischen Humeschen Modell der Handlungsfähigkeit zufolge besteht der Grund einer Handlung in der Kopplung einer Überzeugung mit einer Pro-Einstellung. Eine Pro-Einstellung ist die Haltung, die ein Akteur gegenüber einem bestimmten Sachverhalt einnimmt, und die ihn zum Handeln motiviert, z.B. der Wunsch, etwas zu erreichen. Eine klassische Handlungserklärung nach diesem Schema ist etwa: Ich gehe in die Bibliothek, weil ich ein bestimmtes Buch ausleihen möchte und der Überzeugung bin, dass es in der Bibliothek vorhanden ist. Manche Philosophen nehmen an, dass zusätzlich noch Intentionen vorliegen müssen, die zur planmäßigen Umsetzung eines Paares aus Meinung und Wunsch führen (Bratman 1984).

Meinungen, Pro-Einstellungen und Intentionen können als symbolische Repräsentationen analysiert werden, die einem System entweder Tatsachen vorstellen oder Sachverhalte, die hervorgebracht oder vermieden werden sollen. Diese symbolischen Repräsentationen können im gespeichert werden und spielen eine kausale Rolle bei der Hervorbringung von Verhalten. Wenn ein System Repräsentationen besitzt, die eine analoge Funktion zu mentalen Zuständen bei Menschen haben, ist das System in dieser Hinsicht funktional äquivalent zu menschlichen Akteuren. Die ist insbesondere bei künstlichen Systemen der Fall, die anhand des sog. BDI-Modells konstruiert werden (BDI = Belief-Desires-Intentions).

Diese Systeme operieren anhand der Manipulation symbolischer Repräsentationen, die analog zu mentalen Repräsentationen sind. Sie verfügen über Repräsentationen, die angeben, wie sich die Dinge in der Welt verhalten. Diese sind funktional äquivalent mit Überzeugungen. Darüber hinaus besitzen sie auch motivationale Zustände, die spezifizieren, wie die Welt beschaffen sein sollte, die funktional äquivalent mit Pro-Einstellungen sind. Schließlich können sie Intentionen bilden, die die Form von Plänen annehmen. Ein solches System verfügt über Informationsverarbeitungsmechanismen, die es dazu veranlassen, die Welt zu verändern, wenn sie nicht so ist, wie sie beschaffen sein sollte. Diese Bedingungen sind nach gängiger philosophischer Auffassung für eine basale Form des Handelns aus Gründen hinreichend (List und Pettit 2011).

Im Hinblick auf die zweite Achse, die die Handlungsfähigkeit eines Systems bestimmt (Selbstursprünglichkeit), besitzen artifizielle Systeme drei entscheidende Eigenschaften. Zum einen verfügen sie über die Kapazität, auf Stimuli mit einer Zustandsänderung zu reagieren (interactivity), zum anderen können sie unter bestimmten Umständen einen inneren Zustand ohne äußeren Reiz ändern (autonomy); und schließlich sind sie sogar in der Lage, die Art und Weise zu verändern, wie auf einen Reiz reagiert wird (adaptivity) (Floridi & Sanders 2004).

Zusammengenommen können künstliche Systeme mit diesen drei Eigenschaften einen Grad an Selbstursprünglichkeit erreichen, der das zweite Kriterium der Handlungsfähigkeit erfüllt. Künstlichen Systemen lässt sich daher Handlungsfähigkeit im

Sie haben das Ende dieser Vorschau erreicht. Registrieren Sie sich, um mehr zu lesen!
Seite 1 von 1

Rezensionen

Was die anderen über Programmierte Ethik (Telepolis) denken

0
0 Bewertungen / 0 Rezensionen
Wie hat es Ihnen gefallen?
Bewertung: 0 von 5 Sternen

Leser-Rezensionen