Sie sind auf Seite 1von 3

INTERNET

ROBOTER-ETHIK

Brauchen wir Roboterschutz-Gesetze?


Die Wissenschaftlerin Kate Darling erforscht, warum Menschen Mitleid fr Roboter haben. Eines ihrer Ergebnisse: Wir sollten Roboter schtzen, wie wir es mit Tieren tun.
VON Johannes

Wendt | 10. Mai 2013 - 14:49 Uhr


CC BY 2.0 Gregor Fischer/re:publica

Roboterforscherin Kate Darling bei re:publica 2013

Ein Minenroboter ist eine Maschine, die Minen sprengt, im Zweifel indem er darauf tritt. Das ist die effektivste Art, eine Mine zu entschrfen. Aus Sicht des Roboters ist es kein Problem, wenn er dabei kaputt geht, Maschinen knnen ersetzt werden. Doch Menschen sind nicht rational, Menschen fhlen. Vor einigen Jahren fhrten Forscher auf dem Yuma-Testgelnde in Arizona der amerikanischen Armee einen neuen Minensuchroboter vor . Insektengleich stakste er mit seinen sechs Beinen ber den Boden. Immer, wenn er auf eine Mine trat, lste er sie aus. Dass er dabei nach und nach seine Gliedmaen verlor, war die Idee. Der Wissenschaftler, Mark Tilden, war begeistert, dass seine Maschine sogar funktionierte, als sie nur noch ein Bein hatte. Ein Oberst der US-Army stoppte den Test jedoch entrstet. Er konnte den Anblick des verbeulten Roboters, der sich auf einem Bein durch die Landschaft zog, nicht ertragen. Der Test sei unmenschlich, sagte er. Er hatte Mitleid. Kate Darling ist Wissenschaftlerin am Massachusetts Institute of Technology (MIT) und hat in einem Vortrag bei der Konferenz re:publica das Beispiel des Minensuchroboters erzhlt. Sie versucht die Frage zu beantworten, unter welchen Umstnden Roboter derlei Gefhle auslsen. Ihr Arbeitsfeld nennt sie Roboter-Ethik. Darling hat dazu ein Experiment entwickelt. Sie lie ihre Probanden eine Stunde lang mit einem sen Dino-Roboter spielen. Anschlieend gab sie ihnen die Anweisung, den Roboter zu zerstren. Die meisten weigerten sich. "Eine Teilnehmerin umklammerte den Dino und entfernte die Batterie. Als ich fragte, warum sie das tue, erklrte sie, dem Roboter sollten Schmerzen erspart bleiben", sagt Darling. Eine Studie der Universitt Duisburg kam vor einigen Wochen zu einem hnlichen Ergebnis. Auch dort war es ein Pleo, ein Spielzeug-Dino, der geqult wurde; auch dort zeigten die Probanden Gefhle fr den Roboter. Der Begriff zu diesem Phnomen heit Anthropomorphismus und meint, dass wir Gegenstnden und Tieren menschliche Eigenschaften zuschreiben. Deutlich zeigt sich das in Kinderbchern. Dort sind Bren, Hasen und Fchse oft mit menschlichen Zgen dargestellt. Sie laufen aufrecht, tragen Hosen und ahmen menschliche Mimik nach.

INTERNET
Wir tun das, bei Tieren genau wie bei den Robotern, eben weil wir Menschen sind und menschlich bleiben wollen, glaubt Darling. Die Objekte mssen dazu nicht aussehen wie Menschen. Allerdings funktioniert es dann umso besser. Es genge jedoch, wenn sie autonomes Verhalten zeigen oder wenn sie kommunizieren knnen, sagt Darling. Ein Roboter kann etwa ber die Mimik oder das Anschmiegen mit einem Menschen Kontakt aufnehmen. Das lse meist automatisch eine Projektion aus. Dank der sozialen Interaktion findet der Mensch eigene Eigenschaften im Roboter wieder. Maschinen, die so agieren, nennt sie social robots , soziale Roboter. Das Phnomen betrifft nicht nur Menschen, die wenig Erfahrung mit solchen Gerten haben. Kaum jemand scheint sich dem entziehen zu knnen. "Am MIT haben wir beobachtet, dass selbst Roboter-Entwickler ihre Maschinen vermenschlichen." Wir reagieren so, selbst wenn wir sicher wissen, dass es keine lebenden Wesen sind. Roboter-Ethik wird in der Literatur seit vielen Jahren thematisiert. Do Androids Dream of Electric Sheep? , fragte Philip K. Dick 1968 in seinem Roman, der die Vorlage fr den Film Blade Runner war. Darin ttet ein Kopfgeldjger im Auftrag der Polizei Androiden, menschlich aussehende Roboter. Er zerbricht an seinem Job, weil er sich mit seinen Opfern, die Maschinen sind, identifiziert. Emotionen seien es, die uns zu Menschen machten, fand Dick. Wenn es uns bedrckt, Roboter zu qulen, sollten wir es nicht tun Darling hat eine Theorie, warum unsere Emotionen uns dazu bringen, unsere Eigenschaften auf Gegenstnde zu bertragen. Wir tun es, um menschlich zu bleiben, glaubt sie. Ihre Parallele ist der Tierschutz. "Warum schtzen wir Tiere wirklich?", fragt sie. "Ist die Tatsache, dass sie Schmerzen empfinden, der wahre Grund?" Denn wenn er es wre, mssten wir alle Tiere gleichermaen schtzen und nicht einige davon hegen und unter Naturschutz stellen und andere essen. Ihre Theorie: Beim Tierschutz gehe es nicht primr um Tiere, sondern um Menschen. Wir schtzen Dinge, die uns an uns selbst erinnern, weil wir uns selbst schtzen wollen. Beim Tierschutz gehe es vor allem darum, Verhalten zu bestrafen, das in einem anderen Zusammenhang auch fr Menschen gefhrlich sein knnte. Wir seien, sagt sie, zutiefst der berzeugung, dass wer Tiere qult, kein guter Mensch sein kann. Und das Qulen von Tieren rufe Schmerzen auch in uns selbst hervor und sei wohl auch deshalb sanktioniert. "Wenn es uns so bedrckt, einen Pleo zu qulen, sollten wir es mglicherweise einfach nicht tun", sagt Darling. Fr sie, die auch Juristin ist, stellt sich daher die Frage, ob es nicht entsprechende RoboterRechte brauche . "Gesetze sind eine soziale Entscheidung, wie wir unser Leben gestalten wollen. Wenn wir nicht wollen, dass Pferde und Katzen geqult werden, verbieten wir das." Eine hnliche Entscheidung werde auch bei Robotern bevorstehen, die mit uns sozial
2

INTERNET
interagieren. "Es geht nicht darum, die Objekte zu schtzen", sagt Darling. "Es geht darum, die Werte unserer Gesellschaft und uns selbst zu schtzen."
COPYRIGHT:

ZEIT ONLINE

ADRESSE: http://www.zeit.de/digital/internet/2013-05/roboter-ethik-kate-darling