Sie sind auf Seite 1von 98

Robotik und Recht

18
Karsten Gaede

Künstliche Intelligenz –
Rechte und Strafen für Roboter?

Plädoyer für eine Regulierung künstlicher Intelligenz


jenseits ihrer reinen Anwendung

Nomos
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Robotik und Recht

Herausgegeben von

Prof. Dr. Dr. Eric Hilgendorf, Universität Würzburg


Prof. Dr. Susanne Beck, LL.M., Universität Hannover

Band 18

https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Prof. Dr. Karsten Gaede

Künstliche Intelligenz –
Rechte und Strafen für Roboter?

Plädoyer für eine Regulierung künstlicher Intelligenz


jenseits ihrer reinen Anwendung

Nomos

https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in
der Deutschen Nationalbibliografie; detaillierte bibliografische
Daten sind im Internet über http://dnb.d-nb.de abrufbar.
ISBN 978-3-8487-5880-7 (Print)
ISBN 978-3-7489-0012-2 (ePDF)

1. Auflage 2019
© Nomos Verlagsgesellschaft, Baden-Baden 2019. Gedruckt in Deutschland. Alle Rechte,
auch die des Nachdrucks von Auszügen, der fotomechanischen Wiedergabe und der
Übersetzung, vorbehalten. Gedruckt auf alterungsbeständigem Papier.

https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Im Andenken an Erhard Egon Winfried Gaede

https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorwort

Die vorliegende Schrift gibt die zum Teil überarbeitete und vertiefte An-
trittsvorlesung wieder, die ich am 1. Februar 2019 an der Bucerius Law
School in Hamburg gehalten habe.
Den Herausgebern der Reihe, der Kollegin Susanne Beck und dem Kol-
legen Eric Hilgendorf danke ich herzlich für die Aufnahme in die Schrif-
tenreihe „Robotik und Recht“, die beide früh gemeinsam mit dem Nomos-
Verlag begründet haben. Dem Verlag danke ich ebenso für die Aufnahme
in die Reihe und die sehr gute Betreuung der Schrift. Wolfgang Wohlers
bin für eine hilfreiche Durchsicht einer frühen Fassung des Vortrages sehr
verbunden.
Auch in Hamburg wurde die Schrift, deren Fehler allein auf den Verfas-
ser zurückfallen, durch Literaturrecherchen und das Gegenlesen früherer
Fassungen unterstützt. Für diese Hilfe danke ich herzlich Marc Bittner, An-
na Einhaus, Jessica Krüger, Oscar Laitzsch, Maximilian Münster, Ruth San-
der, Tanessa Trojandt, Annika Vahlenkamp, Lucas Walker und Julius Wei-
dig.
Mein Vorhaben, mich über die Inhalte der Abhandlung hinaus in die
Thematik der künstlichen Intelligenz einzuarbeiten, hat mehr Raum ein-
genommen, als ich es mir vorgestellt hatte. Ich hoffe sehr, dass das Ergeb-
nis die gemeinsame Zeit etwas wieder aufwiegt, die meine Frau Goya, mei-
ne Tochter Helena und ich selbst hierdurch verloren haben.

Hamburg, im März 2019 Karsten Gaede

7
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorbemerkung

Die vorliegende Schrift gibt die zum Teil überarbeitete und vertiefte An-
trittsvorlesung wieder, die der Verfasser am 1. Februar 2019 an der Buceri-
us Law School in Hamburg unter dem Titel „Die Mensch-Maschine –
Rechte und Strafen für Roboter“ gehalten hat. Mit dieser Vorlesung möch-
te der Verfasser seine Verbundenheit mit einem besonderen Ort akademi-
scher Freiheit zum Ausdruck bringen. Der Grundcharakter des Vortrages
wurde beibehalten.
In der Schriftfassung wäre es denkbar gewesen, zum Beispiel die Darle-
gungen zu Grundkonzepten wie der Menschenwürde oder den Strafgrün-
den auszubauen. Dies ist jedoch zum einen deshalb nicht geschehen, weil
bereits wissenschaftliches Schrifttum zur Verfügung steht, das eine Ausein-
andersetzung mit abweichenden Positionen leistet. Zum anderen und vor
allem zielen meine Ausführungen darauf ab, die dominant auf aktuelle
oder bereits absehbare Anwendungen ausgerichtete Debatte zur Regulie-
rung der künstlichen Intelligenz (KI) zu erweitern. Hieran soll sich die
überarbeitete Schriftfassung orientieren. Zum Beispiel mag sich die Einor-
dung einer starken künstlichen Intelligenz als Träger moralischer und so-
dann juridischer Rechte zwar weiter bestreiten lassen, indem ein anderes,
wenngleich nicht vorherrschendes Konzept der Menschenwürde vorgetra-
gen oder neu entwickelt wird. Schon die hier geltend gemachten Gründe
sollten aber zeigen, dass eine gravierende und nicht notwendigerweise rein
verbale Auseinandersetzung für den Fall der Schaffung einer starken künst-
lichen Intelligenz unausweichlich wäre. In diesem Sinne verzichtet die Ab-
handlung auch darauf, sich mit denkbaren und implizit abgelehnten An-
sätzen im Einzelnen auseinanderzusetzen, die eine lediglich an den Men-
schen angelehnte, moralisch grundsätzlich abgestufte Position der spekula-
tiven Mensch-Maschine verfechten. Die Frage, ob die verbleibenden phä-
nomenologischen Unterschiede zwischen dem Menschen und einer fort-
entwickelten künstlichen Maschine in der Ausdifferenzierung des „Rechts
auf Rechte“ im Rahmen einer freiheitlichen Koexistenz zu Differenzierun-
gen führen müssen, ist zwar zu stellen. Dies gilt insbesondere für die po-
tentiell unendliche Lebensdauer der Maschine, der eine allenfalls, aber
auch immerhin, durch moderne Medizin (und Nanotechnologie) verlän-
gerte endliche menschliche Lebensspanne gegenübersteht. Solche und an-
dere Fragen vertiefen aber zum einen nur den Bedarf, frühzeitig über die

9
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorbemerkung

Entwicklung einer starken künstlichen Intelligenz nachzudenken. Zum


anderen ist es nach den Darlegungen dieser Arbeit vorzugswürdig, die gel-
tend gemachten Unterschiede jenseits der in ihnen liegenden „natürli-
chen“ Zustandsbeschreibung auf dem Boden der moralischen Subjektstel-
lung zu beleuchten. Letztlich sollte es jeweils allein darauf ankommen, ob
und inwiefern die geltend gemachten Unterschiede normative Differenzie-
rungen tragen, während eine pauschale, überschießende Abqualifizierung
im Hinblick auf phänomenologische Unterschiede nur scheinbar zu einer
angemessenen Zurücksetzung der Mensch-Maschine führen kann.
Ferner setzt der spekulative Themenzugang den Erörterungen im Detail
Grenzen. Die vorgelegte Schrift fordert zwar ein, die Möglichkeit einer
starken künstlichen Intelligenz in die derzeit entwickelte Regelungsstrate-
gie zur künstlichen Intelligenz einzubeziehen. Sie reflektiert aber, dass et-
wa in Fragen der subjektiven Unrechts- bzw. Schuldzurechnung oder auch
hinsichtlich etwaiger Tatbestände, die rechtsgefährdenden autonomen Sys-
temen entgegentreten könnten, eine techniksensible Normkonstruktion
zu wählen wäre. Die Abhandlung unternimmt nicht den Versuch, schein-
bar alle denkbaren Varianten einer selbstbewussten künstlichen Intelligenz
sogleich im Detail „durchzuspielen“ und zum Beispiel mit näheren Thesen
zu Vorsatz oder Fahrlässigkeit zu versehen. Zumal die technische Entwick-
lung nach den öffentlich verfügbaren Informationen nennenswerte Schrit-
te von einer substanziellen künstlichen Intelligenz entfernt ist und demzu-
folge auch die zu durchdenkenden fortgeschrittenen Techniken bzw. Auto-
nomiephänomene noch vage bleiben, beschränken sich die Ausführungen
insoweit bewusst darauf, eine Debatte zu Grundfragen aufzunehmen. Da-
mit bleibt indes richtig, dass die Abhandlung nicht weniger Fragen auf-
wirft als sie selbst beantwortet. Fragen, inwiefern zukünftige technische
Fortschritte, die nicht bis zu dem hier diskutierten Gedankenexperiment
führen, vermittelnde Lösungen wie die rein rechtstechnische Konstruktion
eines Personenstatus oder einen dritten Status bzw. einen Status als moral
patient nach sich ziehen sollten, bleiben Anschlussarbeiten vorbehalten.
Darüber hinaus ist beispielhaft vorab anzumerken, dass angrenzende
und zum Teil überaus intrikate Fragen nicht stets aufgegriffen worden
sind. Wer es für plausibel erachtet, dass eine künstliche Intelligenz Inhaber
moralischer Rechte im bisherigen vollen, nicht durch begriffliche Erweite-
rungen veränderten Sinne sein kann, wird etwa auch die Frage jedenfalls
nicht von vornherein abweisen können, inwiefern Entwicklungsstadien
künstlicher Intelligenz in Anlehnung an den für Menschen gedachten Le-
bensschutz Gegenstand moralischer Schutzansprüche sind. Diese unter
dem Aspekt des Leidens von Prototypen bereits anklingende Debatte wird

10
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorbemerkung

hier indes nicht zusätzlich verfolgt, zumal in der aufgegriffenen Darlegung


der Ansprüche der starken künstlichen Intelligenz ihre Prämisse liegt.
Ebenso greift der Text die Rechtsstellung von Cyborgs nicht auf, obschon
nicht zu verkennen ist, dass die im Vergleich fortgeschritteneren Enhance-
ment-Ansätze als Brücke dienen könnten, um die Annahmen zu ethischen
und rechtlichen Positionen künstlicher Intelligenz fortzuentwickeln.
Soweit die Abhandlung negative Szenarien durchdenkt, handelt es sich
um eine Auswahl, die indes für sich in Anspruch nimmt, vergleichsweise
konservativ aktuelle Entwicklungsstränge wie das „Internet der Dinge“ auf
der Basis einer fehlbaren künstlichen Intelligenz fortzudenken. Die Nega-
tivszenarien bleiben bewusst exemplarisch, weil es der Arbeit nicht darum
geht, alarmistisch den Eindruck eines mehr oder weniger datierten Unter-
gangs oder einer Versklavung der Menschheit an die Wand zu malen. Ent-
sprechend werden weitere, etwa von Bostrom oder anderen Autoren erwo-
gene und bis hin zur Herrschaft der Maschinen/Superintelligenzen fortge-
dachte Szenarien nicht zusätzlich ausgebreitet. Wenngleich die Debatte
um das Fernziel der Entwicklung künstlicher Intelligenz auch von dieser
Arbeit angeregt werden soll, will sie doch nicht dazu dienen, die Anwen-
dung bzw. Nutzung künstlicher Intelligenz zu verteufeln. Die für sich ge-
nommen bereits erheblichen Probleme der Anwendung (schwacher)
künstlicher Intelligenz reichen schon heute von der Sicherheit des Dilem-
mata begünstigenden Straßenverkehrs, der drohenden Entmenschlichung
der Pflege, der sozial unverträglichen Revolution des Arbeitsmarktes, über
Datenerhebungen und -auswertungen bis hin zu ungekannten Abhängig-
keiten der nutzenden Menschen. All diese und andere Probleme sollten
nicht in einem Klima der diffusen Angst vor künstlicher Intelligenz bewäl-
tigt werden. Um aber diesen von KI-Forschern geteilten Wunsch zu reali-
sieren, sollten die demokratischen Gemeinwesen gerade nicht – wie bisher
– den Eindruck aufkommen lassen, dass sie die Erforschung der künstli-
chen Intelligenz allein anwendungs- und marktorientiert beobachten und
regulieren, sie langfristig aber dahintreiben lassen und dem Zufall über-
antworten. Demokratische Gemeinwesen sollten das Phänomen der künst-
lichen Intelligenz auch zukunftsgerichtet durchdenken, selbst wenn die
hypothetische Schaffung eines künstlichen und gar fühlenden Bewusst-
seins tatsächlich ein zu ausgreifendes Ziel der Menschheit sein sollte.

11
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Inhaltsverzeichnis

A. Einführung 15

B. Künstliche Intelligenz – Data ante portas? 19


I. Status quo 19
II. Ziele und Visionen 23

C. Speziesrechte für die starke künstliche Intelligenz? 31


I. Menschenrechte – warum eigentlich? 32
1. Selbstbestimmung und Erkenntnis des anderen 32
2. Postulat und Potentialität 35
II. Menschenrechte – warum eigentlich nicht? 36
1. Vorranganspruch und menschlicher Speziesismus 36
a) Schöpfung und Natur 38
b) Anleihe am Verbot des Klonens 39
c) Nützlichkeit und ursprüngliche Offenheit 41
2. Prämisse der Erkenntnis und Anerkennung fremder
Vernunft 42
3. Neue Differenzierungsgründe: Emotionalität und
Empathie 44
a) Neubegründung der Würde 45
b) Skepsis und mögliche Bestätigung 46
4. Feststellungskriterien 49
a) Turing 49
b) Über Turing hinaus 50
5. Kreationsansprüche? 53

D. Strafbefugnisse und -prämissen 57


I. Dürfen wir künstliche Intelligenz bestrafen? 57
1. Strafe 59
2. Gegenüber der starken künstlichen Intelligenz 62

13
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Inhaltsverzeichnis

II. Strafe für Roboter: Was müssen wir heute tun? 65


1. Können wir Roboter bestrafen? 66
a) Geeignete und angemessene Strafübel 66
b) Durchsetzbarkeit der Strafe 67
2. Regulierungsbedarf 69
a) Notwendige Ergänzungen 69
b) Berechtigte Warnungen? 75
3. Regulierungsbedarf im Einzelnen 75
a) Mögliche regulatorische Maßnahmen 76
b) Demokratische Rückbindung der Grundfrage 79
4. Strafrechtliche Absicherung 81

E. Thesen 85

Literatur 87

14
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung

Da mich die Bucerius Law School schon eine Weile kennt, musste ich für
die Antrittsvorlesung kein Thema wählen, mit dem ich meine alltägliche
Arbeit umreiße. Ich habe mich von Neugier leiten lassen. Ich habe ein un-
orthodoxes Thema gewählt, das nicht auf den ersten Blick praktisch ausge-
richtet ist.
Mein Thema betrifft die künstliche Intelligenz1. Fällt dieses Stichwort,
zerfällt auch der juristische Zuhörerkreis schnell in zwei Gruppen mit un-
terschiedlichen spontanen Assoziationen:
Die erste Gruppe sieht Chancen über Chancen. KI-Optimisten erwarten
nicht zuletzt enorme ökonomische Vorteile, die Start-ups global realisie-
ren. Wer auf die Zeichen der Zeit mit Bedenken reagiert und vertieft über
Haftung und Sicherheit nachsinnt, findet hier wenig Gehör. Wer nach frei-
gesetzten Menschen fragt,2 traut sich vielleicht einfach nicht zu, der Erste
und Beste zu sein.
Die zweite Gruppe sieht Gefahren über Gefahren. KI-Pessimisten sagen
uns nicht nur im Kontext autonomer Waffensysteme3 den Untergang oder
die Versklavung der Menschheit4 voraus. Sie wollen ungern darüber nach-

1 Zum Ursprung des Begriffs im Sinne seiner wissenschaftlichen Thematisierung


siehe die Schilderungen zur „Dartmouth-Konferenz“ John McCarthys etwa bei Rus-
sell/Norvig, Artificial Intelligence, S. 17 f.; Lenzen, Künstliche Intelligenz, S. 21 ff.
2 Zur Debatte um die Revolutionierung der Arbeitswelt siehe etwa Lenzen, Künstli-
che Intelligenz, S. 11, 196 ff.; Eberl, Smarte Maschinen, S. 232 ff.
3 Siehe etwa den Expertenaufruf zur Schaffung eines Verbots von tödlich wirkenden
autonomen Waffensystemen, denen die konkrete Entscheidung über Tod und Le-
ben überlassen würde, Autonomous Weapons: an Open Letter from AI & Robotics
Researchers, https://futureoflife.org/open-letter-autonomous-weapons/; im Wesent-
lichen auch der von zahlreichen KI-Forschern und KI-Unternehmern gezeichnete
Open Letter to the United Nations Convention on Certain Conventional Weapons
https://www.dropbox.com/s/g4ijcaqq6ivq19d/2017%20Open%20Letter%20to%20t
he%20United%20Nations%20Convention%20on%20Certain%20Conventional%2
0Weapons.pdf?dl=0; Schäfer (https://www.faz.net/aktuell/wirtschaft/kuenstliche-int
elligenz/wie-kriegsroboter-vollautomatisch-ueber-leben-und-tod-entscheiden-15609
267.html).
4 Siehe für entsprechende Gefahrenwarnungen/-vorhersagen bereits 1993 Vinge, The
Coming Technological Singularity, S. 1 ff.: Ära der Menschen werde durch den Ein-
tritt der technologischen Singularität beendet. Zu weiteren Stellungnahmen, die
nicht von KI-Forschern kommen, Elon Musk (https://www.theguardian.com/techno

15
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung

denken, ob wir Menschen uns nicht einmal mehr auf neue Technik, zum
Beispiel durch ihre Regulierung, einstellen können und erinnern bisweilen
gar an Zeitgenossen der ersten Eisenbahnen.5
Ich werde an dieser Stelle nicht den Einsatz künstlicher Intelligenz in
autonomen Fahrzeugen6 oder in Form juristischer Analyse- oder Entschei-
dungsalgorithmen7 in den Mittelpunkt stellen. Ich habe an der Bucerius
Law School die Freiheit, dass ich nicht nur drittmittelnahen Themen nach-
jagen muss, so spannend, wichtig und erörterungsbedürftig aktuell nahe-
liegende KI-Einsätze auch meines Erachtens sind. Ich werde ebenso wenig

logy/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat):
„artificial intelligence […] our biggest existential threat“; Stephen Hawking (https://
www.ft.com/content/9943bee8-7a25-11e4-8958-00144feabdc0 – Interview Financial
Times 2.12.2014): Warnung vor unvorhersehbaren Konsequenzen der KI-For-
schung („real danger in the not-too-distant future“), Verdrängung des Menschen
infolge langsamer biologischer Evolution und/oder Eintritt einer technologischen
Katastrophe; warnend auch Bostrom, Superintelligence – Paths, Dangers, Strategies:
Intelligenzexplosion, von der die Zukunft der Menschheit abhängen wird, wie der-
zeit die Zukunft der Tiere von uns abhängt. Einen „catastrophic incident“ sehen
voraus Wallach/Allen, Moral machines – Teaching Robots Right from Wrong,
S. 4 ff., 20 ff.; sehr kritisch auch der IT-Wissenschaftler Joseph Weizenbaum, Compu-
termacht und Gesellschaft, S. 104 ff., 120, 123 ff.; siehe auch die Warnung vor kon-
kret absehbaren schädlichen Nutzungen der KI durch eine Gruppe von KI-Forschern
mit dem Dossier „The Malicious Use of Artificial Intelligence“ unter https://img1.w
simg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4
v_50335.pdf.
5 Siehe allerdings auch einordnend zu historischen Gründen für frühere ablehnende
Reaktionen Gruber, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 123,
129 ff.
6 Zur insoweit geradezu exponentiell anwachsenden Literatur im Überblick Arm-
brüster ZRP 2017, 83 f., 85 f. (auch zum Unterschied zum bereits praktizierten auto-
matisierten Fahren); Borges NJW 2018, 977, 979 ff.; Börding/Jülicher/Röttgen/v.Schön-
feld CR 2017, 134, 139 f.; Eidenmüller ZEuP 2017, 765, 771 ff.; Hartmann PHi 2017,
2 ff.; Hötitzsch/May, in: Hilgendorf, Robotik im Kontext von Recht und Moral,
S. 189, 192 ff.; Lutz NJW 2015, 119 ff.; v. Kaler/Wieser NVwZ 2018, 369, 371 ff. und
Wohlers BJM 2016, 113, 115 ff. Sehr lesenswert krit. zur Propagierung der Technik
Misselhorn, Grundfragen der Maschinenethik, S. 184 ff.
7 Auch insoweit werden Potentiale vermehrt gesehen, siehe etwa zum Einsatz der
Lawgeex-KI, die 20 US-Anwälte bei der Vertragsanalyse in puncto Genauigkeit und
Schnelligkeit „geschlagen“ haben soll, https://t3n.de/news/ki-schlaegt-anwaelte-ana
lyse-963741/ und darüber hinaus P. Enders JA 2018, 721, 726. Zur Debatte um den
Einsatz Rechtsfragen entscheidender Supercomputer siehe Eidenmüller ZEuP 2017,
765, 768; P. Enders JA 2018, 721, 722 ff.; m.w.N. Becker, Erkenntnis, Werturteil, Hal-
tung – Bemerkungen zur Praxis der theoretischen Rechtswissenschaft, Jahrbuch für
Recht und Ethik, 28. Band (2019).

16
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung

prüfen, ob die Untergangsprophezeiungen überzeugen. Als normativ wir-


kender Jurist möchte ich keine weitere, mehr oder weniger willkürliche
Fortschrittsprognose aufstellen.
Mein Ausgangspunkt soll ein anderer sein. Ich möchte das gedankliche
Ende der Kreation künstlicher Intelligenz hinterfragen: Wie muss unser
Recht aussehen, wenn wir Maschinen – nach dem menschlichen Vorbild –
als Mensch-Maschinen erschaffen, die wirklich intelligent sein werden? Wie
muss das Recht aufgestellt sein, wenn artifizielle Kopien oder Verbesserun-
gen des Menschen ein Selbstbewusstsein haben werden und vor den Toren
unserer Gerichte oder Rechtsschnittstellen stehen?
Damit lade ich das Publikum zu einem Gedankenexperiment ein, weil
ein künstliches Bewusstsein bislang nicht existiert.8 Wir entwickeln aber
schon heute immer neue Fähigkeiten künstlicher Intelligenz und integrie-
ren sie in zunehmend frei bewegungsfähige Roboter, die auf ihre Umwelt
einwirken können.9 Wir nähern uns dem Punkt, an dem wir den aktuell
oft als Werbeschlager10 gebrauchten Begriff der künstlichen Intelligenz
„mit Leben11 erfüllen“. Die Ergebnisse meines Gedankenexperiments dürf-
ten deshalb auf die aktuelle Debatte über Recht ausstrahlen.

8 Für die nähere Zukunft bedeutend zurückhaltender als die zum Teil zu verneh-
menden Gefahrenwarnungen und weithin repräsentativ hingegen der erste Be-
richt der Stanford-Langzeit-Studie AI100, der von 20 KI-Experten erstellt wurde,
https://ai100.stanford.edu/2016-report, S. 4 f.: keine unmittelbare Gefahr für die
Menschheit infolge der aktuellen und absehbaren KI anzunehmen – allerdings
unter vollständiger Ausklammerung militärischer Nutzungen (S. 3) und mit dem
Disclaimer, dass sich die zukünftigen KI-Technologien nicht mit letzter Klarheit
vorhersehen ließen (S. 49).
9 Zu möglichen, hier letztlich nicht entscheidenden Definitionen des Roboters un-
ter verschiedenen Regelungszwecken etwa Beck JR 2009, 225, 226; Simmler/Mark-
walder ZStW 129 (2017), 20, 23 f.; Günther, Roboter und rechtliche Verantwor-
tung, S. 17 ff.; Hilgendorf, FS Fischer, S. 99, 101 f. und die VDI-Richtlinie 2860:
Montage- und Handhabungstechnik sowie die Definitionen der ISO Norm 8373.
10 Für Kritik zum Marketing-Einsatz etwa Lenzen, Künstliche Intelligenz, S. 18, 34;
Daum (https://www.heise.de/suche/?q=pl%C3%A4doyer+wider+den+KI-Populism
us&make=&sort_by=date); siehe anekdotisch, aber mit zahlreichen Beispielen
zum Einsatz von günstigeren Menschen anstelle der behaupteten künstlichen In-
telligenz etwa im Gesundheitswesen https://orf.at/v 2/stories/2446205/2446206/:
KI oft Mogelpackung.
11 Siehe aber zur offenen Frage, ob der Begriff des Lebens auch bei grundlegenden
Fortschritten der Robotik- und KI-Forschung organischen Wesen vorzubehalten
wäre, die nicht über eine An-Aus-Funktion verfügen, in diese Richtung Birnba-
cher, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 303, 307 f. Bei einem
auf Vernunft und nicht auf Natur gestützten Recht ist die Frage indes, wie auch
Birnbacher festhält, nicht die entscheidende.

17
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung

Ich werde im ersten Hauptteil meines Vortrages (B.) einen Blick auf den
Stand der KI-Forschung werfen, soweit er von Interesse ist. Im zweiten
Hauptteil (C.) hinterfrage ich, ob und wann intelligente Maschinen Rechte
besitzen sollten, die denen des Menschen ähneln. Im dritten Hauptteil be-
handele ich, ob wir die künstliche Intelligenz bestrafen dürften und ob wir
den Prozess ihrer Schaffung mit Strafe bewehren könnten (D.). Zum Ab-
schluss fasse ich meine Kernthesen zusammen (E.).

18
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

Zum Beispiel in der auch ethisch überaus wertvollen Serie „Star Trek – The
next generation“ und in vielen anderen, hier gar nicht mehr genannten
Werken der sog. Science-Fiction ist es längst so weit. Mit dem Menschen
physisch und intellektuell weit überlegenen Androiden Data lässt sich un-
ser Experiment veranschaulichen:12 Data dient der friedliebenden Sternen-
flotte als Lieutenant Commander auf der U.S.S. Enterprise. Ihn zeichnet
ein Bewusstsein aus, er ist fasziniert von allem Menschlichen und kann mit
einem Zusatzchip Gefühle empfinden.

I. Status quo

Wie sieht es nun aber im frühen 21. Erdjahrhundert aus? Hier hat es sich
eingebürgert, von künstlicher Intelligenz schon dann zu sprechen, wenn
Computer menschliche Intelligenz nachahmen und Aufgaben erfüllen, die
bisher nur Menschen lösen konnten.13 Es geht also zunächst um die Adap-
tion menschlichen Verhaltens. Zur Programmierung der künstlichen Intel-
ligenz gehört regelmäßig ein sog. deep learning.14 Das deep learning bezeich-

12 Siehe beschreibend u.a. http://de.memory-alpha.wikia.com/wiki/Data. Data hat


schon Robert Alexy zu einem Vortrag herausgefordert, dazu näher http://www.alex
y.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf.
13 Zum Sprachgebrauch Günther, in: Gruber/Bung/Ziemann, Autonome Automa-
ten, S. 155, 157; Lenzen, Künstliche Intelligenz, S. 21 ff., 27 ff.; letztlich auch Stan-
ford-Bericht (Fn. 8), S. 12 f.: human intelligence natural benchmark; erhellend zur
problematisch ergebnisorientiert-vergleichenden Definition, die auf McCarthy zu-
rückgeht, und mit guten Gründen ablehnend auch Daum (Fn. 10); krit. ferner
auch Misselhorn, Interview ZEIT ONLINE (https://www.zeit.de/digital/2018-07/k
uenstliche-intelligenz-maschinen-bewusstsein-robotik-denken); Hilgendorf, FS
Fischer, S. 99, 100 f.; Spindler CR 2015, 766, 767. Zur potenzierenden Bedeutung
des technisch ermöglichten Denkens in Wahrscheinlichkeiten vgl. auch näher
Russell/Norvig, Artificial Intelligence, S. 26, 480 ff.
14 Für die namensprägende Bedeutung der Selbstlernfähigkeiten unter juristischen
Gesichtspunkten bereits Wischmeyer AÖR 143 (2018), 1, 2 ff., 9 ff.; Gleß/Weigend
ZStW 126 (2014), 561, 562 ff.; Kirn/Müller-Hengstenberg MMR 2014, 225 ff.; auch
im Gegensatz zur ebenfalls fortgeführten symbolgebundenen sog. GOFAI und
zum modellhaften, nicht vollständig menschliches Lernen abbildenden Ansatz
Misselhorn, Grundfragen der Maschinenethik, S. 22 ff.

19
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

net die Fähigkeit der KI, ihr Leistungsvermögen selbst zu steigern, indem
sie Datenmassen auswertet; die KI wird durch die Dateneingabe im Wege
des trial and error-Verfahrens trainiert, um anhand von Erfahrungen zu ler-
nen.15 Möglich wird dies durch neuronale Netzwerke, mit denen wir die
Nervenzellen unseres Gehirns technisch zu rekonstruieren suchen.16
Um das künstliche Lernen zu perfektionieren, setzt die Forschung ver-
mehrt auch darauf, die KI in Robotern zu verkörpern, die wie ein Kind ler-
nen sollen. Mit diesem sog. Embodiment machen wir die These fruchtbar,
dass sich menschliche Intelligenz nicht auf das Gehirn reduzieren lässt –
sie ist an einen Körper gebunden, der Erfahrungen aufnimmt.17 KI-gesteu-
erte Roboter können ihre Umgebung heute über Sensoren wahrnehmen.
Sie können auf Grund ihrer eigenständigen Wahrnehmungen Akte ausfüh-
ren, die wir nicht vollends vorhersehen können.18 Überzeugend machen
Russell/Norvig insoweit als Kern der aktuell debattierten KI aus, dass ein

15 Siehe neben den Nachweisen in Fn. 14 näher – und auch zu weiteren Lernformen
– Lenzen, Künstliche Intelligenz, S. 48 ff., 67 f., 87 ff.; Eberl, Smarte Maschinen,
S. 41 ff., 92 ff., mit beeindruckendem Beispiel auf den S. 305 ff.; Günther, Roboter
und rechtliche Verantwortung, S. 26 ff. (auch zum reinforcement learning); Lewke
InTeR 2017, 207, 209; Decker, in: Gleß/Seelmann, Intelligente Agenten und das
Recht, S. 23, 33 ff.; anschaulich zum autonomen Fahren Müller-Hengstenberg/Kirn,
Rechtliche Risiken autonomer und vernetzter Systeme, S. 60 f.; siehe grundlegend
Turing Mind 59 (1950), 433 – part 7.
16 Dazu Russell/Norvig, Artificial Intelligence, S. 16, 20, 24, 727 ff.; Lenzen, Künstli-
che Intelligenz, S. 52 ff., 67 f.; Eberl, Smarte Maschinen, S. 41 f., 54 f. Durch zahl-
reiche übereinandergelegte und verbundene Schichten können Maschinen kom-
plexe Zusammenhänge erkennen, verstehen und Bezüge herstellen. Siehe auch
zu visuellen Suchmaschinen https://t3n.de/magazin/visuelle-suchmaschinen-goog
le-gucken-247315/.
17 Zur heute mitgedachten Verkörperung der Intelligenz auch Günther, in: Gruber/
Bung/Ziemann, Autonome Automaten, S. 155, 156, 158 ff.: Konzept des Embodi-
ment von Brooks; Gruber, in: Gruber/Bung/Ziemann, Autonome Automaten,
S. 191, 203 zum sog. Wetwarekonzept; Günther, Roboter und rechtliche Verant-
wortung, S. 27 f., auch als krit. Einwand gegen eine Gefahr überlegener Superin-
telligenzen 284 f. (aber ohne Grund, warum gerade die Verkörperung ausschei-
de); Misselhorn, Grundfragen der Maschinenethik, S. 27 ff.; Mainzer, Leben als
Maschine?, S. 12 f., 109 ff., 213.; Wallach/Allen, Moral machines – Teaching Robots
Right from Wrong, S. 63 ff.; Lewke InTeR 2017, 207, 208; Eberl, Smarte Maschi-
nen, S. 84 ff., 305 f., 311 f. 370; zur philosophischen Sicht auf die nötige Verkörpe-
rung Bung, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 17, 18 ff.
18 Dazu nur m.w.N. Beck JR 2009, 225, 226; Simmler/Markwalder ZStW 129 (2017),
20, 23 ff.; Mainzer, Leben als Maschine?, S. 11; zum autonomen Fahren beispiel-
haft Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter Sys-
teme, S. 61; zu den besonders menschenähnlichen Werken von Hiroshi Ishiguro
siehe Eberl, Smarte Maschinen, S. 29 ff., 319 ff.

20
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Status quo

künstlicher Akteur vorliegt, der seine Umwelt wahrnimmt und auf Grund
der Wahrnehmungen Akte ausführen kann.19
Nach dem geschilderten, immer noch großzügigen Begriffsverständnis
umgibt uns künstliche Intelligenz bereits. Computer lösen zahlreiche Auf-
gaben, die früher Menschen vorbehalten waren bzw. unterstützen Compu-
ter ihre Lösung20. Die oft effizienteren und präziseren Anwendungen
sprießen überall aus dem Boden:
– Hierfür müssen wir nicht nur an den sensationellen, aber zunächst
eher exotischen Sieg denken, den eine KI der heutigen Google-Tochter
DeepMind über einen der weltbesten Spieler des komplexen Brettspiels
„Go“ errungen hat.21
– Auch das in New York für rund 432.500 US-Dollar versteigerte KI-Ge-
mälde „Edmond de Belamy“ entstammt noch nicht unserer täglichen
Praxis.22
– Praktisch bedeutsamer sind etwa digitale Assistenten wie Siri oder Ale-
xa, die intelligente Spracherkennungssoftware nutzen. Sie gestatten be-

19 Russell/Norvig, Artificial Intelligence, viii, S. 1 ff. Sie stellen dabei fest, dass ein
stets rationales Handeln praktisch nicht erreicht werden könne, S. 5, zu Unsicher-
heitsgründen bei Robotern S. 993 ff., zur erstrebenswerten Autonomie im Sinne
der KI-Forscher aber auch S. 39.
20 Der Begriff KI wird zum Teil auf Aufgabenstellungen begrenzt, die allein von der
Maschine bearbeitet werden. Bei einem solchen Begriffsverständnis kann man
von ihr die sog. augmented intelligence (erweiterte Intelligenz) abgrenzen, bei der
die KI zu einer verbesserten Leistungskraft bzw. Intelligenz des Menschen selbst
führen soll; Gesmann-Nuissl InTer 2018, 105, 106; Herberger NJW 2018, 2825 f.
Über die Verbesserung physischer Fähigkeiten des Menschen hinaus fungiert die
KI hier als Verstärker der geistigen Potentiale des Menschen.
21 Dazu Bögeholz (https://www.heise.de/ct/ausgabe/2016-7-Google-AlphaGo-schlaegt
-Top-Profi-4-1-im-Go-3136576.html) und zur gelungenen Weiterentwicklung und
Übertragung auf andere Spiele wie Schach durch den selbstlernenden Algorith-
mus AlphaZero Bögeholz (https://www.heise.de/newsticker/meldung/Kuenstliche-
Intelligenz-AlphaZero-meistert-Schach-Shogi-und-Go-3911703.html); Pieper InTer
2016, 188, 189 f.
22 Dazu etwa https://www.zeit.de/kultur/kunst/2018-10/kuenstliche-intelligenz-verst
eigerung-gemaelde-algorithmus-christie-s-auktionshaus und krit. Weihser (https://
www.zeit.de/kultur/kunst/2018-10/auktion-kuenstliche-intelligenz-algorithmus-k
unstwerk-versteigerung-christie-s). Allgemeiner zur darüber hinaus angestoßenen
„Computerkunst“ Lenzen, Künstliche Intelligenz, S. 121 ff.; Lewke InTeR 2017,
207 ff.

21
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

reits heute eine personalisierte und situative Reaktion auf menschliche


Ansprachen.23
– Bedeutsam ist auch die Google Übersetzungsmaschine Translate. Sie
setzt KI ein, damit sie nicht nur die einzelnen Worte eines Satzes, son-
dern den gesamten Satz der Ursprungssprache analysieren kann.24 Ma-
schinelle Übersetzungen können hierdurch die ehedem hölzernen Satz-
konstruktionen deutlich besser vermeiden.
– Darüber hinaus ist die KI für autonome Fahrzeuge25 und zunehmend
für die medizinische Forschung essentiell.26
– Schließlich begegnet sie uns täglich im Internet in Form von Werbung
oder Propaganda, die uns priorisiert zugewiesen wird.27
Was wir aber nicht finden, ist eine künstliche Intelligenz, die ihre Umwelt
selbständig erfasst, auf diese reagiert und sie wie ein Mensch als Grundlage
seiner Existenz zu erhalten sucht. Eine künstliche Intelligenz in diesem
substanziellen Sinne existiert nicht.28 Insbesondere eine selbstbewusste,
sich selbst Handlungsgründe setzende KI fehlt.29 Erst recht empfindet die
KI keine Gefühle.30

23 Lenzen, Künstliche Intelligenz, S. 9 f., 12 ff.; Keßler MMR 2017, 589, 590; BT/Drs.
19/3714, S. 1.
24 Lenzen, Künstliche Intelligenz, S. 64 ff.
25 Zum Rückgriff auf KI insoweit nur nochmals Lenzen, Künstliche Intelligenz,
S. 42 ff., 124 ff. und 144 f.; Eberl, Smarte Maschinen, S. 166 ff.
26 Siehe etwa für einzelne Nachrichten/Verheißungen Lewke InTeR 2017, 207, 209;
Eberl, Smarte Maschinen, S. 131 ff., 353 ff.; http://www.spiegel.de/wissenschaft/me
dizin/maschinelles-lernen-die-ki-revolution-im-reagenzglas-a-1247666.html; zur
Hoffnung auf (nahezu) alle Krankheiten heilende Nanobots auch Kurzweil, The
Singularity is near, S. 28 f., 72 ff., 205 ff., 300 ff.
27 Lenzen, Künstliche Intelligenz, S. 58, 162 ff., 166 ff.; Gleß/Weigend ZStW 126
(2014), 561, 563 f.
28 Siehe etwa Intelligenz an die Fähigkeit bindend, sich auf neue Situationen ein-
stellen zu können, Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMensche
nrechte.pdf, S. 10 f.; eher für die entscheidende Fähigkeit, aus Fehlern zu lernen,
und für den an besonderer Problemlösungskompetenz orientierten Begriff der
„maschinellen Intelligenz“ Hilgendorf, FS Fischer, S. 99, 100 f.
29 Lenzen, Künstliche Intelligenz, S. 17, 58, 127 ff.; siehe auch BT/Drs. 19/3714, S. 7:
keine autonom handelnden, aber humanistisch trainierten Algorithmen verfüg-
bar, S. 12; zur vielfach, etwa von Searle abgelehnten Möglichkeit eines künstli-
chen Bewusstseins des Computers m.w.N. Wallach/Allen, Moral machines –
Teaching Robots Right from Wrong, S. 56 ff.
30 Lenzen, Künstliche Intelligenz, S. 129 ff.; zu den dahingehenden Anstrengungen
Wallach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 145 ff.

22
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen

II. Ziele und Visionen

Wo aber geht die Reise hin? Es ist keine Science-Fiction, wenn wir zugrun-
de legen, dass das technisch Machbare und die mit ihm gelösten Aufgaben
rapide anwachsen. Die Rechenkapazität und die Rechengeschwindigkeit,31
die verfügbaren Daten sowie der Speicherplatz steigen rasant; die Metho-
den der KI dürften gerade infolge der heute weltweit enormen Investitionen
einen erheblichen Entwicklungsschub erfahren.32 Die Bundesregierung
will Deutschland und Europa zum weltweiten Spitzenreiter der KI-For-
schung machen.33 Google, Facebook, Amazon, IBM und Microsoft haben
schon 2016 eine Allianz geschmiedet, um ihre Kräfte bei der KI-Forschung
zu bündeln.34 Nicht wenige KI-Forscher prognostizieren wegweisende
Fortschritte der KI-Forschung für die kommenden Jahrzehnte.35

31 Lenzen, Künstliche Intelligenz, S. 39 f., aber auch mit Kritik am Mooreschen Ge-
setz; Eberl, Smarte Maschinen, S. 22 f., 47 ff., zum Stromproblem aber auch
S. 146 ff. Zur Bedeutung der Rechenkapazitäten schon durchgehend Turing Mind,
59 (1950), 433 ff., etwa 6 (5).
32 Zum atemberaubenden Investitionsgeschehen etwa Lenzen, Künstliche Intelli-
genz, S. 15 f., 104, 211; Eberl, Smarte Maschinen, S. 46 f., auch 234; zur Zukunfts-
prognose auch den festgehaltenen Konsens im Open Letter des Future of Life Insti-
tute und Stanford-Bericht (Fn. 8), S. 4; Lin, in: Lin/Abney/Bekey, Robot Ethics,
S. 3, 6; Eberl, Smarte Maschinen, S. 47 ff., 364 ff.; BT/Drs. 19/5880, S. 6; 18/7626,
S. 2 und 5. Zudem wird unter anderem von Google und offenbar auch dem US-
Militär der Versuch unternommen, leistungsstärkere Quantencomputer verfügbar
zu machen, siehe https://de.wikipedia.org/wiki/Quantencomputer – Forschung
und Verfügbarkeit.
33 Zur „Strategie Künstliche Intelligenz“ https://www.bundesregierung.de/breg-de/a
ktuelles/ki-als-markenzeichen-fuer-deutschland-1549732: „KI als Markenzeichen
für Deutschland“; BT/Drs. 19/3714, S. 2.
34 Http://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-google-facebook-am
azon-ibm-und-microsoft-gruenden-forschungsverbund-a-1114474.html. Samsung
ließ Mitte 2018 verlauten, dass es allein in den nächsten drei Jahren 138 Milliar-
den € in Zukunftstechnologien wie KI und autonomes Fahren investieren will.
35 Dazu z.B. Jürgen Schmidhuber (https://www.sueddeutsche.de/digital/kuenstliche-in
telligenz-eines-beherrschen-deutsche-firmen-ueberhaupt-nicht-propaganda-1.4170
602), TU vom Schweizer IDSIA (Istituto Dalle Molle di studi sull’intelligenza ar-
tificiale): In 30 Jahren wird erstmals eine kleine billige Maschine entwickelt sein,
die dem neuronalen Netzwerk des menschlichen Gehirns entspricht; Eberl, Smar-
te Maschinen, S. 52; Pieper InTer 2016, 188, 190 f.; zu weiteren Schätzungen
Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 22 ff. Zum Einsatz im
Gesundheitswesen bei der Diagnose Lenzen, Künstliche Intelligenz, S. 154 ff.; vgl.
zur Medizin ferner die Forschungsprojekte unter BT/Drs. 19/3714, S. 14 ff.

23
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

Allerdings richtet sich all dies vornehmlich auf die sogenannte schwache
KI.36 Wir zielen in der Regel nicht wie der fiktive Star Trek-Forscher Dr.
Noonien Soong darauf ab, einen allgemein intelligenten Data zu erschaffen.
Erst recht wollen wir nicht wie die Betreiber der „West World“ oder wie
Ray Kurzweil unser Bewusstsein auf Maschinen übertragen, um den Trans-
humanismus37 ausrufen zu können. Die Forschung richtet sich primär auf
einzelne menschliche Fähigkeiten, die nachgestellt und perfektioniert wer-
den sollen, um die von Menschen gestellten Aufgaben reaktiv zu bewälti-
gen. Und das Ziel, ein menschliches Bewusstsein zu schaffen, wird für eine
sukzessiv verbesserte Programmierung – im Gegensatz zu verfeinerten und
besser lernenden Algorithmen – regelmäßig nicht als erforderlich angese-
hen.38
Bei allem gebotenen Realismus ist aber auch eine starke KI und damit
eine gesamthafte artifizielle Rekonstruktion und Verbesserung menschli-
chen Denkens heute keine reine Spinnerei. Es strapaziert zwar auch meine
Vorstellungskraft, die derzeit nicht absehbare39 Erschaffung eines artifiziel-
len selbstbewussten Wesens zu denken. Wer religiös geprägt ist, mag die

36 Lenzen, Künstliche Intelligenz, S. 31, 33; zur Ausrichtung auf einzelne Fähigkei-
ten/Aufgaben Lewke InTeR 2017, 207, 208; anhand der Pflege Decker ZfmE 2018,
345, 346 f. Treffend auch die Bezeichnung als narrow intelligence bei Kurzweil, The
Singularity is near, S. 92, 264.
37 Zum Transhumanismus im Überblick, einschließlich des Bestrebens/der Vision,
das menschliche Bewusstsein auf eine theoretisch ewig währende Maschine zu
übertragen, Eberl, Smarte Maschinen, S. 360 ff.; Lenzen, Künstliche Intelligenz,
S. 110 ff.; eingehend Kurzweil, The Singularity is near, passim, zum brainupload
S. 198 ff., zur neuen Form des Klonens S. 224 ff.; als längst im Fluss befindlich
sieht die Entwicklung jedenfalls im Sinne einer Veränderung des Menschen
Mainzer, Leben als Maschine?, S. 237 f.; siehe auch Harari, Homo Deus, S. 49 ff.
38 So etwa Weng/Chen/Sun International Journal of Social Robotics 2009, 267, 275;
Mainzer, Leben als Maschine?, S. 174, 222, 232. Siehe aber auch zur lebhaften Kri-
tik an der wissenschaftlichen Beschränkung auf die Umsetzung einzelner Aufga-
ben und der Abwendung von gesamthaften Entwicklungsansätzen m.w.N. Rus-
sell/Norvig, Artificial Intelligence, S. 27.
39 Für diese ganz vorherrschende Einschätzung etwa Lenzen, Künstliche Intelligenz,
S. 15 ff., auch zu überwindungsbedürftigen Diskrepanzen zwischen Robotik und
KI, 82 ff., 246; Eberl, Smarte Maschinen, S. 361 f. (zur notwenigen Zusammenfüh-
rung von KI und Robotik); Misselhorn, Grundfragen der Maschinenethik, S. 13 ff.,
118 ff., 205 ff.: Erschaffung der Fähigkeit, sich selbst Ziele zu setzen und darüber
zu reflektieren, derzeit ohne Anhaltspunkte. Zugleich hält auch sie selbst für rea-
listisch, dass das Verhalten der Maschinen infolge der möglichen Selbstursprüng-
lichkeit/ihrer Interaktion mit der Umwelt nicht mehr für jede Situation vorher-
sehbar sei, ebenso erörtert sie die Anwendung moralischer Maschinen in der Pfle-
ge (was aber eine Stufe unterhalb des Selbstbewusstseins bedeuten solle), Missel-

24
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen

Vorstellung, der Mensch werde gottesgleich eine neue Art kreieren, so-
gleich als faustische Anmaßung verwerfen.40 Die zeitlich kontingente Vor-
stellungskraft der Menschheit hat eben diese Menschheit aber schon mehr-
fach gesprengt. Es gibt eine Reihe von Forschern und Unternehmen, die
die Schöpfung einer starken KI Schritt für Schritt in die Tat umsetzen wol-
len.41 Einige Forscher rechnen gar für einen nicht allzu fernen Zeitpunkt

horn, Interview ZEIT ONLINE (Fn. 13). Optimistischer Erhardt/Mona, in: Gleß/
Seelmann, Intelligente Agenten und das Recht, S. 61, 62 f.
40 Siehe auch zur unnatürlichen Schöpfung des sog. Homunculus (durch Wagner
bzw. Mephistopheles) J.W. von Goethe, Faust, Der Tragödie 2. Teil, 2. Akt, Szene 2
– Laboratorium, S. 278 ff. Siehe auch schon, letztlich vermittelnd: Turing Mind,
59 (1950), 433 – part 6 (1): Menschen würden Gefäße schaffen, denen Gott eben-
falls Seelen gibt. Der Vatikan sah die KI-Forschung offenbar selbst nicht grund-
sätzlich als Sakrileg. Er hat angeblich gegenüber japanischen Forschern nach der
Jahrtausendwende bekundet, dass der Mensch die ihm geschenkte Fähigkeit zur
Kreativität und zum Denken nutze, wenn er menschliche Roboter baue (siehe
Plug & Pray, 2010 und die Rede Johannes Paul des II. aus dem Jahre 1981: https://w
2.vatican.va/content/john-paul-ii/en/speeches/1981/february/documents/hf_jp-ii_s
pe_19810225_giappone-hiroshima-scienziati-univ.html, para. 3. Zu den heutigen
größeren Bedenken siehe aber aus dem Jahr 2015 Franziskus: http://w2.vatican.va/
content/francesco/en/encyclicals/documents/papa-francesco_20150524_enciclica-l
audato-si.html#_ftnref81, para. 102 und das Tagungspapier unter http://www.cult
ura.va/content/dam/cultura/docs/pdf/events/PlenaryTheme2017_en.pdf.
41 Siehe den Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Ex-
pert Group on Artificial Intelligence, S. 13 Fn. 18: Labore in Frankreich, USA und
Japan; m.w.N. zu ambitionierteren Forschern Russell/Norvig, Artificial Intelli-
gence, S. 27; zur Schaffung eines Bewusstseins Wallach/Allen, Moral machines –
Teaching Robots Right from Wrong, S. 67 f., 167 ff. Zu entsprechenden, vor im-
mensen Problemen stehenden Ansätzen siehe Lenzen, Künstliche Intelligenz,
S. 33 ff.; zu Ishiguro Eberl, Smarte Maschinen, S. 323 f. Im Einzelnen ist etwa an
www.vicarious.com zu denken: „At Vicarious, we are building systems to bring
human-like intelligence to the world of robots.“ Das unmittelbare Ziel besteht
unter anderem darin, über das bisherige deep learning hinauszukommen, dazu
https://www.forbes.com/video/5421979416001/#1a410c6075b8. Neben dem
Human Brain Project (dazu unten Fn. 47), dem US-Gegenstück https://www.brai
ninitiative.nih.gov/ sowie etwa dem japanischen Projekt https://brainminds.jp/en
/overview/greeting ist etwa die Whole Brain Emulation (WBE) zu erwähnen, da-
zu Sandberg, Monte Carlo model of brain emulation development (2014) und zu
Numenta https://numenta.com/machine-intelligence-technology/. Auch in China
existiert ein weniger öffentliches Parallelprojekt. Verhalten zum WBE-Ansatz:
Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 35 ff., 297 ff. Siehe auch
nüchtern Gruber/Bung/Ziemann, in: Gruber/Bung/Ziemann, Autonome Automa-
ten, S. 11: Forschung über Simulation hinaus; zu den bestehenden Grenzen etwa
Kang, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 79, 81 ff. und zum

25
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

mit dem Eintritt der sog. technologischen Singularität.42 Die technologi-


sche Singularität meint jedenfalls ein Szenario, in dem sich künstliche In-
telligenzen infolge ihrer Lernfähigkeit in einem Maße rasant selbst weiter-
entwickeln werden, dass wir Menschen die Folgen weder vorhersehen noch
auch nur im Nachhinein verstehen können.43
Man mag diese Forscher mit dem KI-Experten und KI-Kritiker Joseph
Weizenbaum größenwahnsinnig nennen.44 Tatsächlich laden KI-Optimisten
wie Raymond Kurzweil die Singularitätsthese mit quasi-religiösen Hoffnun-
gen auf.45 Darauf reduzieren lässt sich die These aber doch nicht. Schon
die verlässliche Aussicht, dass die verfügbare Rechenleistung die Kapazität
unseres Gehirns bald weit übertreffen wird, gemahnt zur Vorsicht.46 Zum
Beispiel unternimmt die Europäische Kommission mit dem eine Billion

„Bewusstseinsrätsel“ Harari, Homo Deus, S. 125 ff.; siehe aber auch Mainzer, Le-
ben als Maschine?, S. 177 ff., 231 f., 243. Des Weiteren finden sich Arbeiten, die an
der Implikation moralischer Grundsätze ansetzen, siehe zu MIRI https://intellige
nce.org/research/. Eine praktische „Allzweck-KI“ will Schmidhuber mit der Firma
NNAISENSE erschaffen, ZEIT, 28.2.2019, S. 29.
42 Siehe etwa Vinge, The Coming Technological Singularity: 2023 seien Mittel für
eine übermenschliche Intelligenz verfügbar; Raymond Kurzweil (dazu https://ww
w.zeit.de/2013/14/utopien-ray-kurzweil-singularity-bewegung und den Film Plug
and Pray [2010]): 2029 werde der Turing-Test bewältigt, 2045 trete ein Bruch in
der Struktur der Geschichte der Menschheit ein – die Abgabe der Evolution von
der Biologie an die Technik (siehe auch Lewke InTeR 2017, 207, 208); siehe näher
Kurzweil, The Singularity is near, S. 21 ff., 135 ff., der damit vor allem die Transfor-
mation der menschlichen Fähigkeiten verbindet. Siehe auch die Nachweise in
Fn. 4.
43 Siehe auch Eidenmüller ZEuP 2017, 765, 769; siehe auch völlig unkritisch Frese
NJW 2015, 2090, 2092: Singularität erübrigt die menschliche Kontrolle; zur Be-
schreibung der technologischen Singularität und den Hauptausprägungen, die et-
wa die Kreation nochmals intelligenterer Maschinen beinhalten, m.w.N. Missel-
horn Grundfragen der Maschinenethik, S. 205 ff.: Intelligenzexplosion.
44 Siehe Joseph Weizenbaum, etwa in der Doku „Plug and Pray“ (2010). Siehe auch
nüchtern krit. Russell/Norvig, Artificial Intelligence, S. 12: futurists.
45 So wird die Singularität nicht zuletzt mit dem Zeitpunkt gleichgesetzt, an dem
der Mensch auch durch den Rückgriff auf Nanotechnologie alte biologische
Schranken abstreift, was letztlich die Chance auf ein ewiges Dasein/Leben impli-
ziert, siehe instruktiv https://www.zeit.de/2013/14/utopien-ray-kurzweil-singularit
y-bewegung und den Film Plug and Pray (2010). Eingehend etwa Kurzweil, pas-
sim.
46 Dafür siehe beispielhaft Eberl, Smarte Maschinen, S. 22 f., 47 ff., 158 f.; Mainzer,
Leben als Maschine?, S. 14 f.; mit betont optimistischen Annahmen Kurzweil, The
Singularity is near, S. 122 ff.; zur darüber noch hinausgehenden, in der vollen Va-
lidität fragwürdigen Annahme des Mooreschen Gesetzes ablehnend etwa Missel-
horn, Grundfragen der Maschinenethik, S. 207.

26
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen

Euro teuren Human Brain Project den Versuch, das menschliche Gehirn
vollständig abzubilden, zu erforschen und zu rekonstruieren,47 was nicht
nur den unmittelbar verfolgten, insbesondere medizinischen Nutzungen
Auftrieb geben kann. Es kommt hinzu, dass die Singularitätsthese ebenso
auf dem deep learning beruht, das unstreitig unvorhersehbare Folgen zei-
tigt48. Bereits heute stellt sich das Problem, dass „Entscheidungen“ aktuel-
ler KI für den Menschen zum Teil gar nicht mehr rekonstruierbar sind, was
längst Forderungen und Bestrebungen nach einer „explainable AI“ hervor-
gerufen hat.49
All dies ist unter dem Aspekt der starken KI auch deshalb von Belang,
weil es schon jetzt handfeste Forschungen gibt, die eine starke KI begünsti-
gen:

47 Siehe die Selbstdarstellung unter www.humanbrainproject.eu/en/; für eine knap-


pe Zwischenbilanz https://www.helmholtz.de/gesundheit/eine-zwischenbilanz/;
https://jetpress.org/v 27.2/greguric.htm und Eberl, Smarte Maschinen, S. 146 ff.;
zum Teil schon als Person einstufend: Erhardt/Mona, in: Gleß/Seelmann, Intelli-
gente Agenten und das Recht, S. 61, 74 f.; zur Bedeutung für die Singularitätsthe-
se Misselhorn, Grundfragen der Maschinenethik, S. 209 ff.; siehe allerdings zu
Zweifeln an solchen auf das Gehirn konzentrierten Projekten neben Misselhorn
etwa Sierra Barra/Deschauer, in: Gruber/Bung/Ziemann, Autonome Automaten,
S. 61, 64 ff. Schon jetzt stellen die verbesserten Erkenntnisse der Neurowissen-
schaften Ausgangspunkte der fortgeschrittenen KI dar, siehe etwa Russell/Norvig,
Artificial Intelligence, S. 10 ff.
48 Siehe unabhängig von der Singularität Matthias, Automaten als Träger von Rech-
ten, S. 21 ff., 33 ff.; Hartmann PHi 2017, 2, 6 f.; Kirn/Müller-Hengstenberg MMR
2014, 225 ff. (auch zu sog. Agentenverbünden und zum algorithmenbasierten
Börsencrash vom 6.5.2010); Spranger/Wegmann, in: Beck, Jenseits von Mensch
und Maschine, S. 104, 111 f.; Hilgendorf ZStW 130 (2018), 674, 680 f.; Mayinger,
Die künstliche Person, S. 14 f., 87 f.; Simmler/Markwalder ZStW 129 (2017), 20,
26 f.; Misselhorn, Grundfragen der Maschinenethik, S. 10 f. zur konkreten Unvor-
hersehbarkeit der Schritte etwa von AlphaGo, 78 ff.; im Einzelnen auch bei der
Pflege Beck MedR 2018, 772, 773 f., 775. Instruktiv, insbesondere unter dem Re-
kurs auf die Mehrdeutigkeit der implementierten Sprache, Weng/Chen/Sun Inter-
national Journal of Social Robotics 2009, 267, 276 ff. Siehe auch zu den Asilomar-
Thesen Lenzen, Künstliche Intelligenz, S. 245 f.: sich selbstverbessernde und repli-
kationsfähige KIs sind strikt zu kontrollieren und regulieren; https://futureoflife.o
rg/ai-principles/ – These 22: „AI systems designed to recursively self-improve or
self-replicate in a manner that could lead to rapidly increasing quality or quantity
must be subject to strict safety and control measures.“. Zur Problematik, die Feh-
ler beim Erlernen gegenüber betroffenen Menschen zu rechtfertigen, siehe krit.
Neuhäuser, in: Beck, Jenseits von Mensch und Maschine, S. 23, 41 f.
49 Siehe nur Lenzen, Künstliche Intelligenz, S. 75 ff., zum nicht unplausiblen Erler-
nen der Selbsterhaltung und Gegenmaßnahmen S. 128 f., zur Waffentechnik
S. 216 f. Vgl. auch BT/Drs. 19/5880, S. 16, 39 f.

27
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

– KI-Forschung erstreckt sich auf autonome Waffensysteme und konkret


auf Kampfroboter50, die für den hochkomplexen Kampfeinsatz ver-
schiedenste Fähigkeiten benötigen. Hier drängt es sich auf, die bereits
entwickelten enormen motorischen und kognitiven Fähigkeiten zu
kombinieren. Damit Kampfroboter ihre Hauptaufgabe erfüllen kön-
nen, müssten sie sich selbst vor Einwirkungen schützen.51 Eine Maschi-
ne, die ihre Aufgabe schon um ihrer selbst willen erfüllt und nicht
mehr von der bremsenden Übertragung menschlicher Befehle abhän-
gig ist, wäre aber die weitaus effizienteste.52
– Selbst das Training von Empathie, das Maschinen die Welt der Gefühle
immerhin näherbringen könnte, ist – von den Ansätzen des Embodi-
ment ganz abgesehen – ein ökonomisch sinnvoller Forschungsgegen-
stand. Ich meine nicht nur Roboter, die für den Markt des Austauschs
körperlicher Zuwendungen konstruiert werden.53 Ich denke primär an
„feinfühlige und interaktive Roboter“54, die zum Abbau des Pflegenot-
standes beitragen. Solche emotional intelligenten Roboter werden

50 U.a. zu den von Boston Dynamics (heute Google) hergestellten vierbeinigen


Lauf- und Militärrobotern Lenzen, Künstliche Intelligenz, S. 100, 104, 211 ff.;
Eberl, Smarte Maschinen, S. 278 ff.; Schäfer (Fn. 3); Misselhorn, Grundfragen der
Maschinenethik, S. 156 ff. (insbesondere zur Forschung von Ronald Arkin und
den Argumenten für einen autonom geführten Kriegseinsatz); Draft „Ethics Gui-
delines for Trustworthy AI“ (2018) der High-Level Expert Group on Articial Intelli-
gence, S. 12; die Rolle der Staaten und des militärischen Zwecks für die zukünfti-
ge KI betonte etwa früh Drexler, Engines of Creation, S. 173 ff. Jüngst hat das Pen-
tagon nochmals seine Anstrengungen und seine Bedeutung im Vergleich zu Russ-
land und China unterstrichen, dabei aber eher unverfängliche Beispiele aufgeru-
fen, siehe http://www.spiegel.de/politik/ausland/usa-militaer-setzt-verstaerkt-auf-k
uenstliche-intelligenz-a-1252981.html.
51 Zum Beispiel der Marschflugkörper Tomahawk ist darauf trainiert, Hindernissen
auszuweichen, Schäfer (Fn. 3).
52 Misselhorn, Grundfragen der Maschinenethik, S. 158. Siehe auch zu einem ganz
anderen Aspekt Eberl, Smarte Maschinen, S. 327: Entscheidendes Ziel, Roboter so
zu konstruieren, dass sie Menschen aus einem inneren Antrieb heraus helfen wol-
len.
53 Dazu Wallach/Allen, Moral machines – Teaching Robots Right from Wrong,
S. 48 f.; Lenzen, Künstliche Intelligenz, S. 232; Beck/Zabel, in: Demko/Brudermül-
ler/Seelmann, Menschenrechte, S. 197, 201; Hilgendorf, in: Gruber/Bung/
Ziemann, Autonome Automaten, S. 221, 223 ff.; Levy, in: Lin/Abney/Bekey, Ro-
bot Ethics, S. 223 ff.; siehe auch zu sog. Cobots in der Industrie Lenzen, Künstli-
che Intelligenz, S. 98 f.; bemerkenswert die eingehenden Fragen aus der FDP zu
Sexrobotern in BT/Drs. 19/3714, S. 10.
54 Siehe zu diesen m.w.N. Dietrich/Vogel ua. ZfmE 2018, 307 ff. sowie Graf/Klein Zf-
mE 2018, 327 ff., die aber den noch vergleichsweise geringen Leistungsstand her-

28
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen

nicht nur im technologiebegeisterten und demographisch besonders


herausgeforderten Japan längst beforscht.55 Ein emotional intelligenter
Roboter mag dem absehbaren Einwand mangelnder Menschlichkeit56
vielleicht besser begegnen.57
– Zu guter Letzt muss hinter Fortschritten, die Maschinen den Weg zu
Bewusstsein und Empathie ebnen, gar nicht das Ziel stehen, eine künst-

vorheben; Münch, Autonome Systeme im Krankenhaus, S. 45 ff.; Bekey, in: Lin/


Abney/Bekey, Robot Ethics, S. 17, 22 ff.; Eberl, Smarte Maschinen, S. 182 ff., insbe-
sondere zum Care-O-Bot 4 aus Deutschland, S. 184 ff., aber auch zum gefühlssen-
sitiven „Pepper“, S. 190 ff. Aufgegriffen auch bereits in der Resolution zu Zivil-
rechtlichen Regelungen im Bereich Robotik, Europäisches Parlament,
P8_TA(2017)0051, Pflegeroboter 31 f.; vgl. auch BT/Drs. 19/5880, S. 19. Bemer-
kenswert sind im Kontext auch moralisch beratende Expertenprogramme Missel-
horn, Grundfragen der Maschinenethik, S. 136 ff.
55 Zu Japan siehe insoweit, gerade zum Pflegebereich, Matsuzaki, in: Hilgendorf/
Günther, Robotik und Gesetzgebung, S. 345, 349 ff., auch zu den Vorbehalten ge-
genüber ausländischen Arbeitskräften und mit einer Schilderung der in der Pra-
xis einsetzenden Akzeptanz- und Anpassungsprobleme sowie überzogenen Erwar-
tungen; Dietrich/Vogel ua. ZfmE 2018, 307, 322 (mit dem Zitat); Graf/Klein ZfmE
2018, 327, 331, 333 ff., 339; allgemeiner Lenzen, Künstliche Intelligenz, S. 225 ff.;
Eberl, Smarte Maschinen, S. 28 ff., 46 f., 290 ff., 325 ff.; Mainzer, Leben als Maschi-
ne?, S. 94 f., 98, 142 (Entwicklung einer Riechfunktion etwa bezüglich des Urins),
239 f.; Weng/Chen/Sun International Journal of Social Robotics 2009, 267 ff. Siehe
aber aktuell zur Entwicklung in Japan auch den Bericht zu Toyota unter https://w
ww.tagesspiegel.de/themen/reportage/kuenstliche-intelligenz-toyota-feuert-die-ro
boter/23821418.html.
56 Dazu Decker ZfmE 2018, 345, 349 f.; Misselhorn, Grundfragen der Maschinen-
ethik, S. 152 ff.; Münch, Autonome Systeme im Krankenhaus, S. 25 f., 31 f.; für den
Palliativ- und Hospizbereich Beck MedR 2018, 772, 774 ff.; zur Diskussion auf der
Tagung der Medizinrechtslehrer in Würzburg J. Krüger medstra 2018, 217, 219;
zur gebotenen Erhaltung individueller (Menschen-)Rechte insoweit Beck/Zabel,
in: Demko/Brudermüller/Seelmann, Menschenrechte, S. 197, 201 f., 204 f.
57 Zu den bisherigen Einsätzen sog. emotionaler Roboter Graf/Klein ZfmE 2018,
327, 334 f.; siehe allgemeiner Lenzen, Künstliche Intelligenz, S. 131 ff., 233 f., auch
zum entgegenstehenden „uncanny valley“, dem beobachteten Rückzug bei einer
erschreckend guten, aber noch merklichen Adaption des Menschen, S. 229 f. (da-
zu auch Eberl, Smarte Maschinen, S. 322 ff.), zum Wunsch nach Unpersönlichkeit
S. 235 f.; zum affective computing Mainzer, Leben als Maschine?, S. 167 ff.; Wal-
lach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 150 ff. Aller-
dings ist, soweit noch möglich, eine vorherige Aufklärung unverzichtbar, dazu et-
wa Beck MedR 2018, 772, 775 f.; Gräb-Schmidt/Stritzelberger ZfmE 2018, 357,
361 ff., 366 ff., dort auch zum Täuschungsproblem.

29
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?

liche Existenz zu schaffen.58 So manche Innovation kennt ungeahnte


Folgen bzw. einen Dual oder Off-Label-Use.59 Zum Beispiel werden er-
forschte Arzneimittel legitim oder missbräuchlich jenseits ihrer Zulas-
sung verwendet. Auch die Firma Bayer dachte anfangs, sie habe der
Welt mit der Synthese von Diacethylmorphin ein überlegenes Husten-
und Schmerzmittel geschenkt, als sie die Marke „Heroin“ angemeldet
hatte.60

58 Schon für die technologische Singularität wird z.T. angenommen, dass sie für die
Beteiligten überraschend eintreten könnte, Vinge, The Coming Technological Sin-
gularity, S. 3.
59 Zum ggf. zulässigen off-label-use m.w.N. BeckGroßK/Spindler, § 823 BGB Rn. 789;
näher Deutsch VersR 2014, 1038 ff. Zur dual-use-Problematik bezüglich Art. 5
Abs. 3 GG m.w.N. Hufen NVwZ 2017, 1265, 1267.
60 Siehe zur Geschichte des Heroins etwa Uchatius, Vom Hustensaft zum Rauschgift,
DIE ZEIT 12/2008.

30
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

Mit diesen Ausführungen habe ich nicht angekündigt, dass und wann eine
selbstbewusste Mensch-Maschine Realität sein wird. Ich habe aber erste
Gründe geltend gemacht, auch die starke künstliche Intelligenz zu thema-
tisieren. Die von der Europäischen Kommission eingesetzte High-Level Ex-
pert Group on Artificial Intelligence ist letztlich zum gleichen Schluss ge-
langt; sie bittet um Debattenbeiträge auch zur starken KI.61 Ich möchte in
diesem Sinne nun im zweiten Teil durchdenken, welche Rechtsstellung
einer starken KI zukommen sollte.
Bei alledem geht es mir nicht lediglich um die auch durch das Europäi-
sche Parlament angestoßene Debatte, ob man etwa autonomen62 Fahrzeu-
gen wie juristischen Personen Rechtsfähigkeit zubilligen sollte, um Haf-
tungslücken bzw. Rechtsunsicherheit zu vermeiden.63 Diese Debatten ha-
ben ihrerseits respektable Gründe. Es geht mir hier aber nicht um die

61 Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert Group
on Articial Intelligence, S. 12 f., allerdings mit dem Hinweis auf eine unterschied-
lich beurteilte Notwendigkeit.
62 Zu dem hier vorausgesetzten sehr weiten Autonomiebegriff siehe etwa m.w.N.
Münch, Autonome Systeme im Krankenhaus, S. 34 ff.: graduelle Autonomie, die
vor allem aus der Komplexität der Aufgabe und der in gewissem Umfang unvor-
hersehbaren Lösung herrühre; Borges NJW 2018, 977, 978: Verhalten nicht voll-
ständig vorherbestimmt oder vorhersehbar; Lenzen, Künstliche Intelligenz,
S. 124 ff.; Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter
Systeme, S. 60 ff., 97 ff.; krit. auch Birnbacher, in: Hilgendorf/Günther, Robotik
und Gesetzgebung, S. 303, 314; krass verkürzend Mayinger, Die künstliche Per-
son, S. 67.
63 Zum Thema etwa differenziert m.w.N. Eidenmüller ZEuP 2017, 765, 774 ff.;
Wischmeyer AÖR 143 (2018), 1, 37 ff.; Beck, in: Hilgendorf/Günther, Robotik und
Gesetzgebung, S. 239, 255 ff. (noch vor dem Vorschlag des EP); krit. Denga CR
2018, 69, 7; konkret vorschlagend die Resolution zu Zivilrechtlichen Regelungen
im Bereich Robotik, Europäisches Parlament, P8_TA(2017)0051, Z ff., Haftung
49 ff., insbesondere 59 f.; für autonome Softwareagenten befürwortend Mayinger,
Die künstliche Person, S. 13 ff., 36 ff., 166 ff.; siehe aber auch ablehnend die Stu-
die PE 571.379, European Civil Law Rules in Robotics, S. 14 ff.: unhelpful and in-
appropriate; Cornelius ZRP 2019, 8 ff.: verhaltens-, aber nicht schuldfähig; ein-
schränkend Gruber, in: Beck, Jenseits von Mensch und Maschine, S. 133, 147 ff.;
Schirmer (https://www.theeuropean.de/jan-erik-schirmer/14166-rechtspersoenlich
keit-fuer-autonome-systeme): partielle Rechtsfähigkeit etwa bei der Stellvertre-
tung genüge.

31
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

Rechtsmechanik, mit der wir auf aktuelle Roboter zu unseren, etwa auf
Haftung gerichteten Zwecken reagieren. Ich möchte fragen, ob wir einer
starken, selbstbewussten KI der Zukunft Rechte geben müssten, die wir
ihrem Vorbild, dem Menschen, zugestehen.64

I. Menschenrechte – warum eigentlich?

Die Antwort auf diese Frage hängt zunächst davon ab, warum wir eigent-
lich von Menschenrechten und von einer besonderen, gerade unsere Spezi-
es kennzeichnenden Würde ausgehen.

1. Selbstbestimmung und Erkenntnis des anderen

Die überzeugende Begründung der Rechte gerade des Menschen verlangt


streng genommen eine eigene Antrittsvorlesung. Die tragenden Gründe
prägen insbesondere die Debatte, ob wir Tieren als lebenden Mitgeschöp-
fen Rechte zugestehen sollten.65 Der positivistische Hinweis, dass wir Men-
schen uns doch selbst Rechte im Grundgesetz gegeben haben, hilft uns al-
lein nicht weiter. Auch die historisch für die Anerkennung der menschli-
chen Würde wirkungsmächtige Lehre, der Mensch sei das Ebenbild Gottes,
gibt säkularem Recht keinen Halt.66 Ich kann mich für meine Zwecke aber
auf den Begründungsansatz beziehen, der nicht unbestritten67, aber doch

64 Zum Unterschied der Rechtsfähigkeitsstrategien auch Gruber, in: Gruber/Bung/


Ziemann, Autonome Automaten, S. 191, 199, 204: Frage nach der Anerkennung
als Rechtssubjekt aus eigenem Recht.
65 Zu dieser Debatte siehe etwa m.w.N. befürwortend Caspar, Tierschutz im Recht
der modernen Industriegesellschaft, S. 109 ff., 343 ff.; Raspé, Die tierliche Person,
passim; zur herrschenden Einordnung des Tierschutzes mit Kritik an religiösen
Anleihen an eine Schöpfungslehre siehe hingegen Maunz/Dürig/Scholz, GG,
Art. 20a Rn. 59 ff., 72 ff.; m.w.N. auch zur Gegenauffassung; Sachs/Höfling, GG,
Art. 1 Rn. 38; Dreier/Dreier, GG Art. 1 Rn. 119; Hörnle, in: Demko/Seelmann/
Becchi, Würde und Autonomie, S. 183, 185 ff.; für Schilderungen aus der Perspek-
tive der „Roboterdebatte“ auch einordnend Birnbacher, in: Hilgendorf/Günther,
Robotik und Gesetzgebung, S. 303, 304 ff., 308 ff.
66 Zum Einfluss insbesondere auf die Debatte siehe aber m.w.N. Enders, Menschen-
würde, S. 176 ff.; Dreier/Dreier, GG, Art. 1 Rn. 5 ff.; Seelmann, Rechtsphilosophie,
§ 12 Rn. 17 ff.
67 Abweichend etwa BeckOK-GG/Hillgruber Art. 1 Rn. 12.1: Die im Verfassungsdis-
kurs dominante Gleichsetzung von Menschenwürde und Autonomie sei verfehlt.

32
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Menschenrechte – warum eigentlich?

dominant hinter unserer Gesetzgebung und Dogmatik steht und dem ich
selbst beipflichte:
Wir stützen die im Recht geachtete Würde und Subjektstellung des
Menschen zentral auf sein Vermögen zur Selbstbestimmung und damit auf
seine Vernunftbegabung; sie steht seiner Behandlung als Objekt des Rechts
entgegen; Kernerwägungen dieses Ansatzes werden vielfach der Moralphi-
losophie Immanuel Kants entlehnt.68 Sie folgert die Achtung eines jeden
Menschen als Zweck an sich selbst nicht schlicht aus seiner Natur.69 Sie
stützt die Würde des Menschen vielmehr auf den Respekt, den intelligente
Wesen vernünftigerweise zunächst voreinander haben müssen, wenn sie
ernsthaft eine verbindliche und gerechte Sollensordnung füreinander ent-
werfen wollen.70 Im Rahmen der notwendigen Übertragung71 auf das

Allerdings erklärt er dort dann selbstwidersprüchlich die „Fähigkeit zu eigenver-


antwortlicher sittlicher Entscheidung“ als für das Wesen des Menschen bestim-
mend. Gegen den Rückgriff auf Kant auch m.w.N. Hilgendorf ZfmE 2018, 373,
376 f., der für eine Ensembletheorie der Menschenwürde eintritt.
68 Hierfür m.w.N. Enders, Menschenwürde, S. 10 f., 189 ff. (auch zum Einfluss Dü-
rigs); BerlinerKomm-GG/Enders Art. 1 Rn. 3 ff., 7 ff., 31 f., 134; Maunz/Dürig/Her-
degen, GG, Art. 1 Abs. 1 Rn. 12 f.; Caspar, Tierschutz im Recht der modernen In-
dustriegesellschaft, S. 71 ff.; Gruber, in: Gruber/Bung/Ziemann, Autonome Auto-
maten, S. 191, 192; Seelmann, Rechtsphilosophie, § 12 Rn. 4 ff., der aber auch die
Erweiterung des Würdeverständnisses in jüngeren Jahrzehnten nachweist und die
nötige Übertragung auf das Recht betont; Dreier/Dreier, GG, Art. 1 Rn. 11 f.,
13 ff., 66: Fähigkeit zu vernünftiger Selbstbestimmung, die jedenfalls jedem le-
benden menschlichen Wesen zu konzedieren ist; letztlich auch Sachs/Höfling,
GG, Art. 1 Rn. 15 f., 37, 38 f.: freies, nicht definierbares Wesen; über die Selbstge-
staltung im Anschluss an das ebenfalls einflussreiche Werk von Pico della Miran-
dola etwas abwandelnd Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMe
nschenrechte.pdf, S. 14; siehe des Weiteren zu einem Würdeverständnis, das auf
Autonomie gegründet ist, die Beiträge von Lohmann, Wesche, Kirste, Stoecker und
Schroth in: Demko/Seelmann/Becchi, Würde und Autonomie.
69 Kant, Grundlegung zur Metaphysik der Sitten, S. 425 f.; dazu auch Gruber, in:
Gruber/Bung/Ziemann, Autonome Automaten, S. 191, 192 f.; den Unterschied et-
was nivellierend Beck, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 239, 246.
70 Kant, Grundlegung zur Metaphysik der Sitten, S. 428 ff.; treffend auch Enders,
Menschenwürde, S. 195: Moralität macht Würde des Menschen aus. Hinzuweisen
ist aber auch auf die konkretisierenden und das Moment der Geschichtlichkeit
betonenden Einwände Hegels, dazu umfassend Enders, Menschenwürde, S. 202 ff.,
242 ff.; zur mitzudenkenden Anerkennungsbegründung Seelmann, Rechtsphilo-
sophie, § 12 Rn. 4 ff.
71 Zur notwendigen Übertragung siehe Kahlo, FS E.A.Wolff, S. 153, 160 ff.; Seel-
mann, Rechtsphilosophie, § 12 Rn. 4 ff.; zur Bedeutung Hegels siehe insoweit be-

33
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

Recht72 gestehen wir jedem Menschen als Zweck an sich selbst zu, die vor-
findliche vernunftlose Natur frei zu gestalten und an ihr teilzuhaben, so-
lange sein Verhalten mit der Freiheit anderer Personen vereinbar bleibt.73
Ebenso sind wir gehalten, den staatlichen Rechtszwang gegenüber jedem
Menschen zu begründen, weil er sich selbst verallgemeinerbare Gesetze zu
geben vermag.
Bei alledem ist etwas mitgedacht, was wir für den Menschen, nicht aber
bei Tieren,74 voraussetzen können: Der Mensch ist mithilfe des Lernpro-
zesses der Sozialisation regelmäßig in der Lage, die Subjektstellung und
die Intentionalität anderer intelligenter Wesen zu erkennen; er kann sein
Handeln auch an der Erkenntnis fremder Wünsche und an einer Verhalten
bewertenden Moral ausrichten.75 Wir können dem Menschen grundsätz-
lich zutrauen, ein wechselseitiges Anerkennungsverhältnis mit anderen
Personen zu leben, weil er auch die Pflichten einer Rechtsordnung erfassen,
anerkennen und aushandeln kann.

tonend Enders, Menschenwürde, S. 201, 207 ff., 238 ff., 242 ff.; zum Übertragungs-
bedarf krit. Dreier/Dreier, GG, Art. 1 Rn. 13 ff.
72 Zur Einsicht, dass staatliches Recht zur Verwirklichung einer substanziellen Frei-
heit erforderlich ist und der einzelne in den staatlichen Rechtszustand treten
muss, siehe statt vieler etwa Kant, Metaphysische Anfangsgründe der Rechtslehre
– Metaphysik der Sitten – Erster Teil, S. 236 f., 255 f., 305 ff.
73 Zum allgemeinen Freiheitsrecht und zum Recht der Usurpation/Erwerbung, von
dem unser Recht unangefochten, aber mit Bedenken hinsichtlich der Tiere, aus-
geht, etwa Kant, Metaphysische Anfangsgründe der Rechtslehre – Metaphysik der
Sitten – Erster Teil, S. 237 f. und 258 ff. Zum mitzudenkenden staatlichen Verhält-
nis auch bei Kant siehe aber etwa Pawlik, Normbestätigung und Identitätsbalan-
ce, S. 41 f.
74 Siehe dazu, auch mit Kritik an der sog. Symmetriethese, welche für das Subjekt
die Einheit von Rechten und Pflichten voraussetzt, Raspé, Die tierliche Person,
S. 71 ff. Dort wird auch die Kritik angesprochen, nach der unter Tieren teilweise
eine Art moralisches/moralwidriges Verhalten beobachtet wird, ohne hier doch
zu sagen, dass Tiere eine vernünftige, über ihre Spezies hinausgehende Moral be-
folgen könnten.
75 Siehe eher implizit Kant, Grundlegung zur Metaphysik der Sitten, S. 453 ff.; Gräb-
Schmidt/Stritzelberger ZfmE 2018, 357, 362 f., 364; explizit im Anschluss an Den-
nett zu Intentionalität und normativer/moralischer Kompetenz m.w.N. Neuhäuser,
in: Beck, Jenseits von Mensch und Maschine, S. 23, 28 f., 33 f. Siehe auch den Ge-
danken einer für Personen notwendigen normativen Reflexivität als Teil ihres Be-
wusstseins bei Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenre
chte.pdf, S. 15. Zur Kritik der Potentialität des Arguments etwa im Hinblick auf
Krankheiten siehe aber m.w.N. Raspé, Die tierliche Person, S. 76 ff., 90 ff.

34
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Menschenrechte – warum eigentlich?

2. Postulat und Potentialität

Zu bedenken ist jedoch, dass diese Normen- und Rechtsbegründung eine


Autonomie bzw. Freiheit des Menschen voraussetzt, die empirisch nicht
bewiesen ist. Wir Menschen gestehen uns letztlich ein Postulat der Auto-
nomie und damit der Vernunft76 zu; es steht die These im Raum, dass un-
sere Freiheit notwendigerweise allein eine Idee der Vernunft ist.77 Das Ge-
genteil, nämlich unsere unfreie Existenz, ist aber auch durch die jüngeren
Erkenntnisse der Neurowissenschaften gerade nicht bewiesen.78 In der An-
nahme von Freiheit liegt deshalb keine kontrafaktische Setzung. Und wir
erfahren uns im Alltag als frei. Wir erleben uns zum Beispiel bei der Frage
als bestimmende Akteure, ob wir an einem kostbaren Freitagabend eine
Antrittsvorlesung besuchen oder lieber noch einmal den „Terminator“ se-
hen oder in die Oper gehen möchten. Vor unserem Erfahrungshorizont
entscheiden wir uns normativ überzeugend dafür, unser Recht freiheitlich
zu organisieren.
Einzuräumen ist allerdings, dass diese Herleitung für die Rechte geistig
kranker Menschen ergänzende Überleitungsargumente erforderlich ma-
chen kann.79 Solche Argumente stehen aber meines Erachtens über positi-
vistische Gründe hinaus zur Verfügung. Schon Erwägungen der Potentiali-
tät und der kategorischen Vorsorge vor der Anmaßung prinzipieller Ent-
rechtungen sprechen dafür, zur Vernunftteilhabe eines jeden geborenen

76 Für dieses etwa Kant, Grundlegung zur Metaphysik der Sitten, S. 447 f., 455 f.,
460 f.; vgl. auch Joerden, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 195, 199 f.; Schuhr, in: Beck, Jenseits von Mensch und Maschine, S. 43 ff., 72 f.
Siehe demgegenüber für die konstruktivistische These, dass das Wesen der Wil-
lensfreiheit allein in einer gesellschaftsnützlichen Zuschreibung liege, im Kontext
stellvertretend m.w.N. Simmler/Markwalder ZStW 129 (2017), 20, 30 ff.
77 Im letzteren Sinne insbesondere Kant, Grundlegung zur Metaphysik der Sitten,
S. 447 f., 455 f., 459; einführend m.w.N. aus dem weiteren Werk Kants Luf, FS E.
A. Wolff, S. 307, 310 ff.; Enders, Menschenwürde, S. 190 ff.
78 Zu diesem Umstand etwa treffend Schuhr, in: Beck, Jenseits von Mensch und Ma-
schine, S. 43, 52 f., 58 Fn. 28.
79 Siehe hierzu Seelmann, Rechtsphilosophie, § 12 Rn. 28 ff.; Hörnle, in: Demko/Seel-
mann/Becchi, Würde und Autonomie, S. 183, 188; zum Problem auch Alexy,
http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf, S. 9 f.; a.A.
zur Begründung etwa m.w.N. BeckOK-GG/Hillgruber Art. 1 Rn. 12.1; Zucca-Soest,
in: Demko/Seelmann/Becchi, Würde und Autonomie, S. 117, 124 ff., die bei einer
empathiegestützten Position freilich in Krankheitsfällen ebenso Überleitungsar-
gumente entwickeln muss.

35
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

Menschen keinen Gegenbeweis zuzulassen.80 Positivistisch können wir mit


der sog. Mitgifttheorie zudem auf die Zugehörigkeit zur menschlichen
Spezies verweisen, die das Grundgesetz mit normativer Kraft als Maßstab
allein vorgibt.81

II. Menschenrechte – warum eigentlich nicht?

Nach meinem Gedankenexperiment steht nun in Frage, warum wir eigent-


lich berechtigt sein sollten, einem künstlichen Selbstbewusstsein, das ein-
mal mehr vermag, als Tiere es können, den Menschenrechten ebenbürtige
Rechte zu verweigern.82 Unsere Weigerung könnte ein selbstverliebter Spe-
ziesismus sein, also eine andere Art haltlos diskriminieren.

1. Vorranganspruch und menschlicher Speziesismus

Bislang sehen wir Technik rein instrumentell.83 Maschinen jeder Art sind
Werkzeuge unserer Freiheit. Als unbelebte Natur stehen sie in unserem Ei-
gentum.84 Schon die Frage nach Roboterrechten stellt sich nach dem Sta-
tus quo als unerhört dar. Wir sind es, die den Roboter programmieren und

80 Hierzu m.w.N. und selbst skeptisch Seelmann, Rechtsphilosophie, § 12 Rn. 30 ff.;


abl. referierend auch Raspé, Die tierliche Person, S. 121 ff.; aufgeschlossener Cas-
par, Tierschutz im Recht der modernen Industriegesellschaft, S. 78 ff.
81 In diesem Sinne m.w.N. BerlinerKomm-GG/Enders Art. 1 Rn. 34 f.; zur einhelli-
gen Anerkennung der Würde etwa für anenzephale Neugeborene m.w.N.
BeckOK-GG/Hillgruber Art. 1 Rn. 3; zur sog. Mitgifttheorie auch Raspé, Die tierli-
che Person, S. 89.
82 Siehe aber auch zu den bemerkenswerten und weiter aufklärungsbedürftigen
Sprach- und Bewusstseinsfähigkeiten insbesondere von Primaten m.w.N. Raspé,
Die tierliche Person, S. 101 ff., 107 ff.; Caspar, Tierschutz im Recht der modernen
Industriegesellschaft, S. 83, 123 f.; Birnbacher, in: Hilgendorf/Günther, Robotik
und Gesetzgebung, S. 303, 310 ff.
83 Zum Technikbegriff etwa Decker, in: Gleß/Seelmann, Intelligente Agenten und
das Recht, S. 23, 24 f.; Heesen, in: Hilgendorf, Robotik im Kontext von Recht und
Moral, S. 253 ff., dort aber schon mit Nachweisen zu dem Umstand, dass die
Technikphilosophie durchaus reflektiert, welche Aussagen die – zum Teil als kon-
stitutiv begriffene – Entwicklung von Technik über das menschliche Wesen selbst
ermöglicht; zum letztlich übereinstimmenden japanischen Verständnis Matsuz-
aki, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 345, 369 ff.
84 Zum sog. äußeren Mein hinsichtlich der Sachen Kant, Metaphysische Anfangs-
gründe der Rechtslehre – Metaphysik der Sitten – Erster Teil, S. 245 ff.

36
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

ihm ethische Normen einprägen, um zum Beispiel Dilemmata im Straßen-


verkehr85 aufzulösen. Wir erheben damit einen strikten Herrschafts- und
Vorranganspruch.
Diesen Vorrang hat nicht zuletzt die Science-Fiction-Literatur plastisch
formuliert. Sie hat sich die heutige Verbreitung von künstlicher Intelligenz
in unserem Alltag früh ausgemalt. Der Biochemiker und Schriftsteller
Isaac Asimov stellte in der Kurzgeschichte Runaround schon 1942 die fol-
genden, vom Autor später ergänzten und novellierten86 „Grundregeln des
Roboterdiensts“ auf, die viele Fragen aufwerfen,87 intuitiv aber naheliegen
und nun zum Beispiel auch vom EU-Parlament aufgegriffen werden:88 Asi-
movs erstes Gesetz betont, dass ein Roboter Menschen nicht verletzen oder
durch Untätigkeit dulden dürfe, dass Menschen zu Schaden kommen. Sein
zweites Gesetz gebietet, dass ein Roboter allen Anweisungen von Menschen
zu gehorchen habe, solange er dadurch mit dem ersten Gesetz nicht in
Konflikt gerät. Das dritte Gesetz gibt vor, dass ein Roboter sich selbst zu

85 Zu diesen Dilemmata etwa m.w.N. Wohlers BJM 2016, 113, 133 ff.; Hörnle/Wohlers
GA 2018, 12 ff.; Hilgendorf ZStW 130 (2018), 674, 679 ff.; siehe auch Wallach/Allen,
Moral machines – Teaching Robots Right from Wrong, S. 13 ff.
86 Asimov fügte später insbesondere das sog. nullte Gesetz hinzu, das zu einem Vor-
rang der gesamten Menschheit vor dem einzelnen Menschen führt: Ein Roboter
darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit dulden,
dass die Menschheit zu Schaden kommt, siehe Asimov, The Robots of Dawn
(1983) und Robots and Empire (1985). In den Geschichten um den Roboter Cali-
ban, die von Asimov konzipiert, sodann aber von Roger MacBride Allen geschrie-
ben worden sind, werden die Gesetze erheblich neu formuliert, insbesondere der
Vorrang der gesamten Menschheit zurückgenommen und eine subsidiäre Freiheit
der Roboter anerkannt, siehe Isaac Asimov’s Caliban (1993), Isaac Asimov’s Infer-
no (1994) und Isaac Asimov’s Utopia (1996).
87 So beschäftigte sich schon Asimov selbst in seinen Kurzgeschichten und Romanen
mit Paradoxien, in welche die von Menschenhand formulierten Gesetze den Ro-
boter stürzen können, siehe etwa die Geschichten in Asimov, I, Robot (1950,
Nachdruck 2013), dazu auch Bostrom, Superintelligence – Paths, Dangers, Strate-
gies, S. 170 ff.; Lenzen, Künstliche Intelligenz, S. 143 f.; Misselhorn, Grundfragen
der Maschinenethik, S. 109 ff.
88 Asimov, Runaround, erstmals erschienen 1942, zitiert nach: Asimov, I, Robot, VII
und S. 31 ff., 44: „1. A robot may not injure a human being or allow a human being to
come to harm. 2. A robot must obey orders given to it by human beings except where
such orders would conflict with the First Law. 3. A robot must protect its own existence
as long as such protection does not conflict with the First or Second Law.“ Die Regeln
werden zitiert und herangezogen von der Resolution zu Zivilrechtlichen Rege-
lungen im Bereich Robotik, Europäisches Parlament, P8_TA(2017)0051, T. Siehe
ferner die Debatte bei Weng/Chen/Sun International Journal of Social Robotics
2009, 267, 270, 277 f.

37
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

schützen habe, soweit er hierdurch weder das erste noch das zweite Gesetz
missachte. Diese Gesetze geben dem Roboter letztlich vor, sich auch gegen
vernichtende menschliche Willkürakte nicht zu wehren, weil er den an-
greifenden Menschen nie verletzen darf.89 Der Roboter muss sich dem an-
greifenden Menschen aufopfern, mag der Eigentümer des Roboters auch
Schadensersatzansprüche haben.
Sollte die künstliche Intelligenz den Sprung zu einem Selbstbewusstsein
und einer gehaltvollen Form von Autonomie einmal nehmen, so wie es KI-
Forscher für möglich erachten, ließe sich dieses rein instrumentelle Tech-
nikverständnis nicht mehr verteidigen. Erfüllt die künstliche Intelligenz
die Anforderungen, auf die wir unsere eigene Überlegenheit gegenüber an-
deren Arten stützen, müssten wir umdenken90:

a) Schöpfung und Natur

Dies ist nicht etwa schon deshalb von der Hand zu weisen, weil wir selbst
die Schöpfer der starken KI wären. Auch ein Kind wird von Menschen ge-
schaffen. Wir kommen aber nicht mehr auf den Gedanken, dass mit ihm
ein Subjekt geboren wäre, das bis zur Selbstaufopferung an die Wünsche
seiner Schöpfer gebunden wäre. Schenkt ein Mensch Subjekten ihre Exis-
tenz, muss er sich vorher überlegen, was ihr Subjektcharakter bedeutet.

89 Weng/Chen/Sun International Journal of Social Robotics 2009, 267, 278; Russell/


Norvig, Artificial Intelligence, S. 1039: Pflicht zur Aufopferung. Asimov selbst
hielt dem indes die Projektion der Robotergesetze auf den Menschen entgegen
und gab Menschen damit vor, Robotern nicht ohne zwingenden Grund zu scha-
den oder in ihrer robotischen Existenz zu beeinträchtigen. Klärungsbedürftig wä-
re unter anderem, ob auch die Beeinträchtigung anderer Rechte Verletzungen ei-
nes anderen Menschen i.S. der Asimovschen Gesetze sein sollten.
90 I.E. auch Birnbacher, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 303,
314 (aber nur für empfindungsfähige Roboter); Neuhäuser, in: Hilgendorf, Robo-
tik im Kontext von Recht und Moral, S. 269, 271; Misselhorn, Grundfragen der
Maschinenethik, S. 62, 215 ff.; Mainzer, Leben als Maschine?, S. 242; für eine drit-
te Form der Existenz: Weng/Chen/Sun International Journal of Social Robotics
2009, 267, 275 f., 278; Neuhäuser, in: Beck, Jenseits von Mensch und Maschine,
S. 23, 38 f.: rezeptive, nicht aber auch konstitutive Mitglieder der Gesellschaft bei
Implementierbarkeit moralischer Maßstäbe; gegen einen menschlichen Nimbus
der Einzigartigkeit hinsichtlich der Willensfreiheit auch schon früh Schuhr, in:
Beck, Jenseits von Mensch und Maschine, S. 43, 47 ff. Wohl anders, Frister, Straf-
recht AT, 3. Kap. Rn. 11 f., der verlangt, dass Menschen die Computer als Alter Ego
begreifen müssten; für den „idealistischen Standpunkt“ auch krit. Simmler/Mark-
walder ZStW 129 (2017), 20, 28, 46.

38
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

Wir können ebenso wenig darauf verweisen, dass wir Menschen auf eine
andere, nämlich natürliche Art und Weise entstehen. Dies trifft schon gar
nicht stets zu: Wir lassen Techniken der modernen Fortpflanzungsmedizin
zu und sprechen dem so geschaffenen Menschen seine Würde zu Recht
nicht ab.91 Auch Menschen, die sich in Zukunft jenseits des Krankheitsbe-
griffes „unnatürlicherweise“ durch den Rückgriff auf entwickelte Implan-
tate zu optimieren suchen, ließe sich schwerlich die Menschenwürde ab-
sprechen.92 Vor allem aber würden wir mit dem Verweis auf unsere Natur
kurzerhand aus einem Naturfaktum auf ein moralisches und rechtliches
Sollen schließen. Dass etwas ist oder bisher so war, belegt aber noch nicht,
dass es auch so sein sollte. Uns wäre bei der Normbegründung ein natura-
listischer Fehlschluss vorzuhalten.93 Hinter ihm würde in der Sache ein
versteckter Rekurs auf eine implizite Schöpfungslehre liegen.

b) Anleihe am Verbot des Klonens

Vielleicht scheitert meine These aber an einem Aspekt, den das Embryo-
nenschutzgesetz längst aufgreift. Mit seinem § 6 Abs. 1 hat sich unser Ge-
setzgeber früh in Sorge vor der Manipulierung menschlichen Lebens ent-
schieden, das Klonen von Menschen bei Strafe zu verbieten.94 Das Parla-
ment hat die Anwendung einer Technik untersagt, deren Realisierung für
die menschliche Spezies mindestens zur Zeit der Gesetzgebung noch nicht

91 Dreier/Dreier, GG, Art. 1 Rn. 66; BerlinerKomm-GG/Enders Art. 1 Rn. 131;


Joerden, JahrbRechtEthik 14 (2006), S. 407, 417; sehr weit schon für Embryonen
BeckOK-GG/Hillgruber Art. 1 Rn. 21, 23.
92 Siehe zur schwierigen Debatte um (zukünftige) rechtliche Grenzen der Selbstop-
timierung/des Enhancements und den bereits debattierten/beforschten Implanta-
ten einführend Eberl, Smarte Maschinen, S. 345 ff.; m.w.N. Beck, in: Beck, Jenseits
von Mensch und Maschine, S. 9 ff.; Lenzen, Künstliche Intelligenz, S. 110 ff.; Brun-
höber, in: Beck, Jenseits von Mensch und Maschine, S. 77 ff.; Sternberg-Lieben, in:
Hilgendorf, Robotik im Kontext von Recht und Moral, S. 119 ff.; Brunhöber, in:
Hilgendorf, Robotik im Kontext von Recht und Moral, S. 151 ff. Zum Body-
hacking und Biohacking siehe Lenzen, Künstliche Intelligenz, S. 112 ff. und die
Schilderung des „Falles Lee“ bei Rauner (https://www.zeit.de/zeit-wissen/2018/03/
biohacking-selbstversuch-gentechnik-crispr-genetik-selbstversuch-cyborg).
93 Zu ihm schon Hume, A Treatise of Human Nature, Book III, Part 1 sec. 1; zur Un-
zulässigkeit auch Seelmann, Rechtsphilosophie, § 8 Rn. 19 ff.; zur Anwendung auf
den Unterschied von Menschen und Tieren Hörnle, in: Demko/Seelmann/Becchi,
Würde und Autonomie, S. 183 f.
94 BT/Drs. 11/5460, S. 6, 11 f.

39
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

konkret absehbar war. Selbst die Übertragung eines geklonten Embryos


auf eine Frau steht gemäß § 6 Abs. 2 ESchG unter Strafe.95 Die Verbote be-
ruhen auf der These, dass es der Menschenwürde krass widerstreitet, wenn
ein Mensch dem anderen im Wege des Klonens seine individuellen Erbanla-
gen zuweist und ihn damit programmiert.96 Nichts anders geschähe je-
doch, so mag man behaupten, wenn wir artifizielle Personen kreieren und
sie durch ihre Programmierung gezielt bestimmen.97
Auch dies wäre aber aus verschiedenen Gründen zurückzuweisen.98 Zu-
nächst entsteht jeder Mensch aus einer fremden Zwecksetzung.99 Unser
Parlament hat mit seiner begründenden These außer Acht gelassen, dass
die tatsächliche Wahrnehmung menschlicher Autonomie nicht nur von
Erbanlagen, sondern nennenswert auch von Umweltfaktoren abhängt.100
Die Autonomie des Klons, der mit einem genetischen Vorbild konfrontiert
ist, könnte zwar erschwert sein. Sie ist aber weder unmöglich noch lässt sie
sich als unwürdig brandmarken. Das Verbot des Klonens mag sich mit an-
deren Gründen differenzierter, insbesondere bei massenhafter Reprodukti-
on und verbleibenden untragbaren technischen Risiken, legitimieren las-
sen.101 Die pauschale Annahme einer Würdeverletzung ist hingegen ver-
fehlt und schon deshalb nicht auf die KI zu übertragen. Überdies dürfte

95 BT/Drs. 11/5460, S. 5, 12.


96 BT/Drs. 11/5460, S. 6, 11 f.: „In besonders krasser Weise würde es gegen die Men-
schenwürde verstoßen, gezielt einem künftigen Menschen seine Erbanlagen zu-
zuweisen. § 6 verbietet deshalb, künstlich Embryonen zu erzeugen, welche die
gleiche Erbinformation wie andere Embryonen oder wie Foeten, lebende Men-
schen oder Verstorbene besitzen.“; zust. etwa Dreier/Dreier, GG, Art. 1 Rn. 110.
97 Angedeutet bei Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschen
rechte.pdf, S. 15.
98 Neben den angesprochenen Erwägungen lässt sich ferner bestreiten, dass § 6
ESchG in irgendeiner Weise eine relevante Aussage trifft, weil die künstliche In-
telligenz niemals eine verletzbare Würde beanspruchen kann. Insoweit hat die
Abhandlung indes eine andere Grundposition bezogen, weshalb die Norm mit-
samt ihrer Argumentation als möglicher subsidiärer Einwand gegen die Schaf-
fung selbstbewusster KIs fungieren könnte.
99 Statt vieler BerlinerKomm-GG/Enders Art. 1 Rn. 131: Das Dasein eines Men-
schen entspringt stets einem Akt fremder Willkür.
100 Ablehnend zur gesetzgeberischen Begründung etwa auch m.w.N. Joerden, Jahrb-
RechtEthik 14 (2006), S. 407, 413 ff.; i.E. auch BerlinerKomm-GG/Enders Art. 1
Rn. 131.
101 In diese Richtung Joerden, JahrbRechtEthik 14 (2006), S. 407, 417 ff.; Sachs/Höf-
ling, GG, Art. 1 Rn. 25, 27; im Anschluss an Habermas mit einer nicht auf die KI
übertragbaren Begründung Dreier/Dreier, GG, Art. 1 Rn. 110: objektive Ach-
tungsbedingungen der Einmaligkeit und Individualität jedes Menschen und
Orientierungssicherheit gefährdet; das Verbot erachtet umfassend für begründet

40
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

uns eine Vorfestlegung aller Gedanken der selbst lernenden KI, gehen wir
von der Autonomie der KI aus, wie beim Klon gar nicht möglich sein.102

c) Nützlichkeit und ursprüngliche Offenheit

Erwägen könnte man ferner, dass Roboterrechte bzw. KI-Rechte ausschei-


den, weil wir Maschinen und nun intelligente Roboter traditionell für zen-
trale menschliche Bedürfnisse benötigen. Die quantitative und qualitative
Bedeutung dieses konsequentialistischen Arguments dürfte gerade in Zu-
kunft enorm sein, wenn zum Beispiel unsere Mobilität oder gar die Pflege
und die Unterstützung im Haushalt autonomen Systemen anvertraut sein
werden.
Wer jedoch zu unserem Nutzen vernunftbegabte Wesen in Abhängigkeit
setzen will, tritt damit für nichts anderes als für eine moderne Form der
Sklaverei ein.103 Die mangelnde Gleichheit etwa eines autonomen, aber
rechtlosen Pflege- oder Sexroboters würden wir zwar nicht mehr über
Hautfarbe oder Rassemythen vermitteln. Dennoch würden wir uns weiter
über vernunftbegabte Existenzen erheben, die nach unseren Maßstäben
eine Würde hätten und somit als Selbstzweck zu achten wären.
Und schon bei Immanuel Kant selbst finden wir längst das Gegenteil der
These des strikten Vorrangs der Menschheit. Kant setzte sich zwar nicht
mit Robotern auseinander. Er reflektierte jedoch schon anhand gemut-

– auch unter Verweis auf europäisches Recht – Maunz/Dürig/Herdegen, GG,


Art. 1 Abs. 1 Rn. 104; grundsätzlich krit. BerlinerKomm-GG/Enders Art. 1
Rn. 132. Siehe aber für Verfassungswidrigkeit des § 6 Abs. 2 ESchG BeckOK-GG/
Hillgruber Art. 1 Rn. 23; unter dem Aspekt des Art. 2 Abs. 2 S. 2 GG Günther/
Taupitz/Kaiser, ESchG, § 6 Rn. 22; für den Würdeanspruch des Klons auch Drei-
er/Dreier, GG, Art. 1 Rn. 66, 108; für den gezeugten Klon BerlinerKomm-GG/
Enders Art. 1 Rn. 131; Joerden, JahrbRechtEthik 14 (2006), S. 407, 417.
102 Zur erheblichen Problematik der Programmierung moralischer und rechtlicher
Sätze, die mit wertend konkretisierten Begriffen arbeiten, m.w.N. Hilgendorf Zf-
mE 2018, 373, 382 ff.; Lenzen, Künstliche Intelligenz, S. 144 f., 220; Misselhorn,
Grundfragen der Maschinenethik, S. 96 ff., 118 ff.; Gleß/Weigend ZStW 126
(2014), 561, 577; Weng/Chen/Sun International Journal of Social Robotics 2009,
267, 277: giving robots morals is like teaching an ant to yodel (Mark Tilden);
siehe auch P. Enders JA 2018, 721, 725 f.; unterschätzend Frese NJW 2015, 2090 ff.
103 Dieses Argument wird schon mustergültig entwickelt in der von Melinda M.
Snodgrass geschriebenen Star Trek – The Next-Generation-Folge „The Measure of
a Man“, zusätzlich versehen mit dem Hinweis auf die mögliche Schaffung einer
ganzen „Sklavenrasse“, siehe dazu die gute Darstellung in https://de.wikipedia.or
g/wiki/Wem_geh%C3%B6rt_Data%3F.

41
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

maßter Bewohner anderer Planeten, dass die Menschheit nur ein Anwen-
dungsfall seiner Lehren sein dürfte.104 Seine Begründung der Würde, die
jedenfalls das deutsche Recht prägt, bezog er nur beispielhaft auf Men-
schen. Er entwarf eine Sollensordnung für alle vernünftigen Wesen und lei-
tete ihre Würde allein aus ihrer Autonomie ab.105 Er hielt es bereits 1798
für „merkwürdig, dass wir uns für ein vernünftiges Wesen keine andere
schickliche Gestalt, als die eines Menschen denken können.“106
Letztlich würden wir hinter die Begründung unserer eigenen Sonder-
stellung sogar in einem doppelten Sinne zurückfallen. Wir würden nicht
nur ignorieren, dass künstliche Intelligenz ebenbürtige Merkmale auf-
weist. Wir würden schon die These widerlegen, dass wir Menschen in der
Lage seien, andere intelligente Wesen zu erkennen und ihren Freiheitsan-
spruch im Wege unserer Selbstgesetzgebung einzurechnen.

2. Prämisse der Erkenntnis und Anerkennung fremder Vernunft

Meine These ist also, dass wir eine selbstbewusste künstliche Intelligenz als
Subjekt und damit als Träger von Rechten anerkennen müssten. Rechtsein-
schränkungen wären demzufolge zwar nicht unmöglich, jedoch wie bei
Menschen begründungsbedürftig.
Nicht wenige werden nach dem bisherigen Gedankengang damit weiter
hadern. Und tatsächlich ist zu unterstreichen, dass die Anforderungen an
das Bewusstsein einer solchen Mensch-Maschine nach meinem Verständnis
weiter äußerst hoch lägen:
Selbst wenn wir der Menschheit ambitioniert zutrauen, ein künstliches
Selbstbewusstsein und damit eine artifizielle Selbstursprünglichkeit107 der

104 Siehe schon früh Kant, Allgemeine Naturgeschichte und Theorie des Himmels –
Von den Bewohnern der Gestirne, S. 351 ff.
105 Kant, Grundlegung zur Metaphysik der Sitten, S. 425, 435 f.: „Autonomie ist al-
so der Grund der Würde der menschlichen und jeder vernünftigen Natur“, siehe
auch die sog. Zweckreichformel S. 428: „Nun sage ich: der Mensch und über-
haupt jedes vernünftige Wesen existirt als Zweck an sich selbst, nicht bloß als
Mittel zum beliebigen Gebrauche für diesen oder jenen Willen.“ Vgl. auch Mis-
selhorn, Grundfragen der Maschinenethik, S. 102.
106 Kant, Anthropologie in pragmatischer Hinsicht, S. 73.
107 Misselhorn, Grundfragen der Maschinenethik, S. 76 ff.; dies., Interview ZEIT ON-
LINE (Fn. 13).

42
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

Maschine zu erschaffen, die sich selbst Gründe zum Handeln gibt108, liegt
es noch nicht auf der Hand, dass sich diese KI als Inhaber moralischer und
notwendiger juridischer Rechte eignet. Auf unserem jetzigen frühen Stand
ist ebenso möglich, dass sich ein Bewusstsein entwickelt, das nicht nach Art
des Menschen imstande ist, andere Subjekte und die resultierende Not-
wendigkeit einer Sollensordnung zu erkennen. Es geht mir nicht darum,
Horrorszenarien auszubreiten. Es wäre aber im Grunde erstaunlich, wenn
der immense Schritt hin zu einem künstlichen Bewusstsein sogleich damit
einherginge, dass die KI alle Eigenschaften ausprägt, die gerade wir Men-
schen für die Erkenntnis gerade unserer Vernunft voraussetzen. Man kann
hierfür ins Feld führen, dass dies nahe liegt, weil wir es sind, welche die KI
als unser künstliches Kind in unserem Wertekosmos schöpfen und anler-
nen. Wir wissen aber bislang nicht, wie man moralische Sätze einer selbst-
lernenden künstlichen Intelligenz unmittelbar und vor allem beständig im-
plementiert.109 Schon der Ausbau neuronaler Netzwerke besteht nicht et-
wa stets in einem minutiös exakten Nachbau des menschlichen Gehirns.
Wir sollten von einer hypothetischen selbstbewussten künstlichen Intelli-
genz daher nicht vorschnell menschliche Qualitäten erwarten und sie je-
denfalls nicht unbegrenzt oder gar selbstverständlich anthropomorphisie-
ren.110 Letztlich können wir derzeit zum Beispiel auch den Fall nicht ratio-
nal ausklammern, dass die Vorstellungswelt der starken KI allein auf ihre

108 Zum zentralen Handeln aus selbst gesetzten Gründen Misselhorn, Grundfragen
der Maschinenethik, S. 75 f., 81 ff.; dies., Interview ZEIT ONLINE (Fn. 13); mit
der Chiffre der Selbststeuerung auch Alexy, http://www.alexy.jura.uni-kiel.de/de
/data/DatasMenschenrechte.pdf, S. 14 f.; für eine ablehnende Prognose gerade
hierzu beispielhaft Joerden, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 195, 204 f.; Decker ZfmE 2018, 345, 347 f.
109 Siehe nochmals Fn. 102 und Bostrom, Superintelligence – Paths, Dangers, Strate-
gies, S. 169 ff., 226 ff., zur notwendigen Auswahl zu implizierender Werte
S. 256 ff.; zu den unternommenen Anstrengungen Wallach/Allen, Moral machi-
nes – Teaching Robots Right from Wrong, S. 75 ff., 83 ff. (top-down-approach),
99 ff. (bottom-up-approach), 117 ff., mit dem Schluss, dass zumindest teilweise ein
selbständiges Lernen durch die KI selbst erforderlich ist, 125 ff. Zu unseren Un-
sicherheiten hinsichtlich des Bewusstseins siehe ferner die Fn. 132.
110 Statt vieler insoweit Bostrom, Superintelligence – Paths, Dangers, Strategies,
S. 111 ff., 127 ff., der dabei die Selbsterhaltung plausibel als eine absehbare Moti-
vation darlegt, 132; von einer anderen Basis auch zweifelnd Misselhorn, Grund-
fragen der Maschinenethik, S. 212. Besonders anschaulich ist die Anthropomor-
phisierung bei aller visionären und für offenes Denken stehenden Qualität auch
bei Star Trek: Data wird auch ohne den Emotions-Chip stets so gezeichnet, dass
er sehnsüchtig nach menschlichen Qualitäten strebt. Immerhin wird diese
scheinbar „natürliche“ Hinwendung zum Menschlichen mit seinem dystopi-

43
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

unbedingte Selbsterhaltung gerichtet bleibt. Wir wissen nicht sicher, ob ein


künstlich intelligenter Roboter – so wie wir es für uns selbst voraussetzen –
sein Bewusstsein nur vermittelt über die Erkenntnis anderer vernunftbe-
gabter Wesen gewinnt, die er sodann als Inhaber einer Würde begreift. Wie
weit Analogien etwa zum kindlichen Lernen und Internalisieren morali-
scher Sätze greifen, muss sich erst zeigen. Die starke künstliche Intelligenz
muss noch nicht einmal denknotwendig imstande sein, ihresgleichen als
ebenbürtig zu erfassen. Menschen könnten ihr gar als inferiore Lebens-
form erscheinen, die für sie keine moralischen Grenzen auslöst.111
Entsteht aber nicht ein elektronisches Vernunftwesen, sondern zum Bei-
spiel eine Art technisches Tier mit einem neuartigen Bewusstsein, das frei
von (unserer) Moral bleibt und allein seiner Selbsterhaltung nachgeht,
sind wir nach der vorherrschenden Begründung unseres Rechts mitnich-
ten gezwungen, Menschenrechte auf diese KI zu übertragen. Die KI wäre
weiter Gegenstand unseres Rechts. Wir dürften ihr die Eigenschaft als Ver-
nunftwesen absprechen.

3. Neue Differenzierungsgründe: Emotionalität und Empathie

Rechte der KI beträfen damit nur einen Ausschnitt möglicher Entwicklun-


gen. Aber auch für verbleibende „Fälle“ kommt noch eine Strategie in Fra-
ge, mit der sich beängstigende Roboterrechte vielleicht abweisen lassen.
Wenn wir neue Erfahrungen machen oder sie doch für möglich halten,
kann dies Anlass sein, unser Recht zu präzisieren oder – ehrlicher – zu än-
dern. Die gestellten Zukunftsfragen könnten uns veranlassen, das ange-
sprochene Umdenken schon auf den Rechtsbegriff der Menschenwürde zu
richten.112

schen Gegenmodell „Lore“ für einige Folgen gebrochen, in denen Lore etwa das
hyperintelligente „Kristallwesen“ herbeiruft.
111 Siehe auch das Eingangsszenario bei Hilgendorf, in: Beck, Jenseits von Mensch
und Maschine, S. 119 und allgemeiner Weng/Chen/Sun International Journal of
Social Robotics 2009, 267, 278: Frage des Roboters, ob Gesetze der Menschen
oder eigene Gesetze befolgt werden sollen.
112 Allgemein ist zu beobachten, dass das regelmäßig vergleichend angelegte Nach-
denken über die künstliche Intelligenz das Potential hat, die Erkenntnisse und
Sichtweisen über den Menschen einschließlich seiner Moral zu mehren und zu
präzisieren, siehe unter diesem Aspekt statt vieler Wallach/Allen, Moral machines
– Teaching Robots Right from Wrong, passim und etwa S. 216 f.

44
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

Bislang musste der Begriff der Würde, soweit hier relevant, vor allem
zwei Funktionen erfüllen. Erstens dient er dazu, die historisch nicht selbst-
verständliche, gleiche Berechtigung und Achtung des Eigenwerts eines je-
den Menschen in mannigfaltigen Lebensfeldern zu fundieren.113 Zweitens
ist der Würde gerade in jüngerer Zeit die Last zugewachsen, den Vorrang
der menschlichen Spezies gegenüber Tieren zu sichern.114

a) Neubegründung der Würde

Im Vorfeld eines nicht länger völlig abwegigen künstlichen Bewusstseins


lässt sich nun hinterfragen, ob wir die konzeptionell längst umstrittene
Menschenwürde und das aus ihr fließende „Recht auf Rechte“115 bereits
hinreichend begreifen. Eine neue, dritte Funktion der Würde könnte zu-
sätzliche Definitionsmerkmale und damit Differenzierungsgründe aufzeigen,
die sich künstlichen Wesen entgegenhalten lassen.
Der denkbare Differenzierungsgrund liegt nun förmlich auf der
Hand.116 Schon intuitiv ist die implizite und große Frage nach dem, was
„den schutzbedürftigen Menschen“ oder „das Menschliche“ ausmacht,
nicht nur mit seinem Intellekt, sondern auch und vielleicht in erster Linie
mit seiner Gefühlswelt als lebendem Wesen verbunden.117 Es könnte nahe
liegen, die menschliche Würde in Zukunft nicht mehr in der Tradition

113 Dazu BVerfG BeckRS 2017, 100243, Rn. 541; Seelmann, Rechtsphilosophie, § 12
Rn. 3 ff.; Sachs/Höfling, GG, Art. 1 Rn. 35 f. (dort, Rn. 19 ff., auch zu weiteren ak-
tuellen Bedeutungen des rechtlichen Würdesatzes im Einzelnen); BeckOK-GG/
Hillgruber Art. 1 Rn. 12.1; Raspé, Die tierliche Person, S. 16; im Kontext auch
Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf, S. 9.
114 Hierzu siehe BeckOK-GG/Hillgruber Art. 1 Rn. 3; Maunz/Dürig/Scholz, GG,
Art. 20a Rn. 72 ff.; auch zur Massentötung von Tieren VG Frankfurt NJW 2001,
1295, 1296; differenzierend Caspar, Tierschutz im Recht der modernen Indus-
triegesellschaft, S. 75 ff., 343 ff.; in ablehnender Perspektive Raspé, Die tierliche
Person, S. 87 ff., 111 ff.
115 Vgl. für diese Deutung der Würde bzw. der menschlichen Autonomie in einer
positiven freiheitlichen Rechtsordnung am Beispiel der dt. Verfassung Enders,
Menschenwürde, S. 220 ff., 290 ff., 377 ff., 499, 501 ff. Die Ablehnung der Grund-
rechtsthese wird hier indes nicht geteilt.
116 Siehe zudem knapp zum letztlich nur phänotypischen Lebensdauer die Vorbe-
merkung und C. II. 5. am Ende.
117 In diese Richtung Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMensch
enrechte.pdf, S. 10 ff.: Intelligenz, Gefühl und Bewusstsein erforderlich; Joseph
Weizenbaum, Computermacht und Gesellschaft, S. 35, 40 ff.; Birnbacher, in: Hil-
gendorf/Günther, Robotik und Gesetzgebung, S. 303, 313 f.; siehe auch BeckOK-

45
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

Kants aus Intellekt und Vernunft herzuleiten; die vorrangvermittelnde


Würde könnte vielmehr nur aus einer Einheit von Vernunft und Emotiona-
lität resultieren.

b) Skepsis und mögliche Bestätigung

Wenn man „das Menschliche“ und nicht nur Teile desselben erfassen will,
schiene es in der Tat fast lächerlich, unsere Emotionalität auszublenden. Es
geht hier aber um Maßstäbe der Moral und des Rechts. Und hier denke ich
nicht, dass die skizzierte Brücke zur Erhaltung des Status quo trägt:
Zunächst mag es sein, dass wir nur eine Atempause gewinnen: Wir wis-
sen nicht, ob die KI der Zukunft zu emotionalen Erfahrungen fähig sein
wird. Es ist zwar nochmals ambitionierter, eine originäre, nicht nur imitierte
Emotion einer KI zu denken, zumal das deep learning insoweit als Entwick-
lungsmotor weniger plausibel ist. Allerdings wird auch dies etwa im Kon-
text des Embodiment beforscht. Und Bedürfnisse der KI,118 die Emotiona-
lität und Empathie begünstigen, sind denkbar. Etwa das Verlangen nach
Elektrizität mag der selbstbewussten KI als Sorge um die eigene Existenz er-
scheinen und Grundlage dafür sein, um Sorgen anderer Kreaturen verste-
hen zu können. Plakativ gesprochen: Wir wissen nicht, was im Inneren ei-
nes artifiziell selbstbewussten Roboters vorgehen wird, wenn er erkennt,
dass der Akku zur Neige geht und eine externe Stromquelle fehlt.
Artifizielle Gefühle bleiben aber in einem nochmals gesteigerten Maß
spekulativ. Zwei andere Erwägungen sollten bedeutsamer sein: Zunächst

GG/Hillgruber Art. 1 Rn. 12.1: physische Hinfälligkeit und psychische Fragilität


sei das besonders schutzbedürftige Wesen des Menschen; für die Verknüpfung
mit der Empathiefähigkeit bereits Zucca-Soest, in: Demko/Seelmann/Becchi,
Würde und Autonomie, S. 117 ff.; i.E. auch Eidenmüller ZEuP 2017, 765, 775 f.:
Entmenschlichung des Rechts. Angesichts eines nicht unmittelbar möglichen
Beweises der Emotionalität aber bereits zweifelnd Turing Mind, 59 (1950), 433 –
part 6 (4). Siehe bereits zur Begründung einer Entwürdigung durch Rekurse auf
ausgelöstes Leiden beispielhaft zu Art. 3 EMRK m.w.N. MüKo-StPO/Gaede,
Art. 3 EMRK Rn. 16, 19 f., 23 ff.
118 Eberl, Smarte Maschinen, S. 300 ff.; anders mindestens zum Status quo Missel-
horn, Grundfragen der Maschinenethik, S. 41 ff., 84 f.; dies., Interview ZEIT ON-
LINE (Fn. 13): lediglich Quasimeinungen und -wünsche denkbar, Angst sei nur
mittelbar abzubilden. Zur Plausibilität einer zukünftigen Empfindsamkeit von
Robotern auch Birnbacher, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 303, 306 f.: prinzipielle Substituierbarkeit anzunehmen; für skeptische Stim-
men Eberl, Smarte Maschinen, S. 285, 290 ff.

46
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

könnte der Rückgriff auf die Gefühlswelt dazu führen, dass sich die Folge-
rungen, die wir aus dem Begriff der Menschenwürde ableiten, auch in an-
deren Kontexten verändern werden. Überleitungsargumente könnten etwa
auch für Menschen erforderlich werden, die beispielsweise auf Grund von
Krankheiten in ihrer Emotionalität eingeschränkt sind.119 Der konstitutive
Rückgriff auf unsere Emotionalität müsste ferner speziell die Ablehnung
von Rechten fühlender Tiere zugespitzt in Frage stellen, zumal sich nun
leichter erwägen ließe, ob die Emotionalität die Würde nicht auch eigen-
ständig begründen könnte.120
Letzteres wird nicht jeder als Einwand bewerten. Ebenso ließe sich der
kumulative Charakter des Neuansatzes gegenüber Tieren weiter fruchtbar
machen. Den Ausschlag gegen eine Neudefinition der Würde gibt für
mich eine andere Erwägung: Es bliebe unerfindlich, wieso ein vernünftiges
Wesen, das uns selbst regelhaft Respekt entgegenbringt, lediglich deshalb
nur ein Objekt unseres Handelns sein sollte, weil wir unsere Welt zusätzlich
emotional erleben. Erneut plakativ gesagt: Warum sollten wir zum Beispiel
die „Vulkanier“ des „Star Trek“-Universums moralisch herabstufen, nur
weil sie sich entscheiden, ihre Emotionalität zu überwinden?121 Ein emoti-
onsloses, aber denkendes Wesen wird verpflichtet sein, auf Besonderheiten
anderer Arten in einem bestimmungsbedürftigen Ausmaß Rücksicht zu
nehmen, weil die Würde einen Respekt vor dem Eigenwert des Subjekts
gebietet. Seinen Teilhabeanspruch an der Welt sollte es indes nicht deshalb
verlieren, weil andere Spezies zusätzliche natürliche Merkmale haben. Der

119 Siehe etwa m.w.N. Misselhorn, Grundfragen der Maschinenethik, S. 42 f. Die Ent-
wicklung von Überleitungsargumenten erscheint aber auch hier durchaus mög-
lich.
120 Eine solche Lehre könnte sodann die Berechtigung etwa von geistig kranken
Menschen primär unter Rückgriff auf ihre emotionale Lebendigkeit unmittel-
bar begründen. Zur bereits heute mit der Teilhabe an Gefühlen argumentieren-
den Literatur siehe hier nur m.w.N. Raspé, Die tierliche Person, S. 15 ff., 94 ff.,
als Teilkriterium auf S. 125 ff.; Caspar, Tierschutz im Recht der modernen Indus-
triegesellschaft, S. 109 ff.; siehe das Argument letztlich zurückweisend aber auch
Birnbacher, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 303, 310.
Für eine Tierwürde Art. 120 Abs. 2 S. 2 der schweizerischen Bundesverfassung:
„Der Bund erlässt Vorschriften über den Umgang mit Keim- und Erbgut von
Tieren, Pflanzen und anderen Organismen. Er trägt dabei der Würde der Krea-
tur sowie der Sicherheit von Mensch, Tier und Umwelt Rechnung und schützt
die genetische Vielfalt der Tier- und Pflanzenarten.“
121 Siehe zu den Vulkaniern http://de.memory-alpha.wikia.com/wiki/Vulkanier.
Dabei bezieht sich der Folgesatz des Textes nicht mehr auf den plakativ gestell-
ten Fall der Vulkanier, da sie selbst gerade nicht emotionslos sind.

47
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

direkte Verweis auf unsere emotionale Natur wäre erneut ein naturalisti-
scher Fehlschluss.122
Ein Vorbehalt ist jedoch zu machen, wenn man – wie es hier geschieht –
voraussetzt, dass die (künstliche) Person imstande ist, die Würde anderer
vernünftiger Wesen und damit auch die Teilhabe der partiell unterlegenen
Menschen zu erkennen und anzuerkennen. Eine starke wissenschaftliche
Strömung folgt der viel Plausibilität besitzenden These, dass Gefühle mo-
ralisches Urteilen jedenfalls für den Menschen nicht nur gefährden, son-
dern auch erst ermöglichen.123 Trifft dies für die KI zu, mag es durchaus
sein, dass für den Zugang zu unseren Normen eine emotionale Intelligenz
unverzichtbar ist, welche die KI aus eigenen Empfindungen zu erlernen
hätte. In diesem Fall könnte sich die Intuition der erforderlichen Empathie
zwar nicht als Selbstzweck, wohl aber schon als Teil einer besser begriffenen
Vernunftbegründung bestätigt sehen.

122 Siehe im Kontext auch schon zum Ungenügen emotionaler Appelle an die Ehr-
furcht/den Respekt vor dem Leben Hörnle, in: Demko/Seelmann/Becchi, Würde
und Autonomie, S. 183, 184. Bemerkenswert auch die Beobachtung bei Beck, in:
Hilgendorf/Günther, Robotik und Gesetzgebung, S. 239, 250 f., 253, die einwen-
det, dass eine lediglich (gegenüber dem Menschen) vergleichende Perspektive in
der Statusfrage der Gefahr Vorschub leisten könne, das Wesen der geprüften En-
titäten (Maschinen) zu verfehlen.
123 Dazu auch anhand der Fähigkeit, Schmerz zu empfinden, Neuhäuser, in: Beck,
Jenseits von Mensch und Maschine, S. 23, 26 f., 33 f., der insoweit aber darauf
setzt, dass auch eine mittelbare Wahrnehmung durch Beobachtungen genügen
könnte, soweit die Technik entsprechend voranschreitet, S. 38 f.: menschliche
Fähigkeit zum moralischen Urteil beruhe möglicherweise auf kognitiven und
emotionalen Elementen; Lewke InTeR 2017, 207, 208; Wallach/Allen, Moral ma-
chines – Teaching Robots Right from Wrong, S. 139 ff., 143 ff.; zum wertenden
Charakter von Emotionen siehe auch m.w.N. Misselhorn, Grundfragen der Ma-
schinenethik, S. 40 f., 42 f. Schon bei Kant findet sich jedenfalls die These, dass
jedenfalls das menschliche Mitgefühl zwar nicht für sich genommen moralisch
sei, allerdings eine „natürliche Anlage“ sei, die der Moralität im Verhältnis ge-
genüber Menschen „diensam“ sei, Kant, Metaphysische Anfangsgründe der Tu-
gendlehre – Die Metaphysik der Sitten – Zweiter Teil, S. 577 f. – zum morali-
schen Verbot, Tiere grausam zu behandeln. Es dürfte aber zu weit gehen, schon
für Kant davon auszugehen, dass er die menschliche Emotionalität als Bedin-
gung und Teilgrund der Vernunftbegründung gesehen hat.

48
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

4. Feststellungskriterien

Wenn man in dem geschilderten, hinsichtlich der notwendigen Emotiona-


lität noch erkenntnisbedürftigen Ausmaß eine Subjektstellung der KI für
möglich hält, drängt sich eine weitere und ebenso zentrale Frage auf: Wor-
an werden wir die künstliche Person im beschriebenen Sinne denn erken-
nen? Was sind unsere Feststellungskriterien?
Zunächst liegen in der Kommunikationsfähigkeit der KI und in ihrer Arti-
kulation der eigenen Personalität notwendige Bedingungen, um ihre Subjek-
tivität über den Status als moral patient hinaus erfahren zu können. Ohne
diese Bedingungen könnten wir kein Interesse an gemeinsamen Normen
erkennen, die sich aushandeln und vermitteln lassen.124 Allein die Behaup-
tung einer KI, sie handele autonom, kann aber schwerlich genügen. Da
sich solche Behauptungen programmieren lassen und eine amoralische KI
denkbar bleibt, benötigen wir für die Anerkennung der Rechtssubjektivi-
tät einer KI einen umfassenderen Test.

a) Turing

Wer mit dem Thema der künstlichen Intelligenz vertraut ist, wird für die
Überprüfung an den Turing-Test denken. Der britische Mathematiker Alan
M. Turing schlug schon 1950 einen Maßstab vor, der bis heute viel zitiert,
erörtert und Tests zugrunde gelegt wird. Testpersonen sollten fünf Minu-
ten lang schriftlich zwei nicht sichtbare Gesprächspartner befragen, von
denen einer die KI, der andere ein Mensch ist. Falls die KI 30 % der Test-
personen über die Frage täuschen könne, welcher Gesprächspartner der
Mensch oder die KI gewesen ist, soll der Test erfüllt sein.125
Ob dieser Test von Chatbots und damit von künstlichen Kommunikati-
onsprogrammen bereits erfüllt wurde, provoziert unterschiedliche Ansich-

124 I.E. auch Gruber, in: Beck, Jenseits von Mensch und Maschine, S. 133, 157 f.;
ders., in: Gruber/Bung/Ziemann, Autonome Automaten, S. 191, 202 f.; Missel-
horn, Interview ZEIT ONLINE (Fn. 13); zur Bedeutung des Sprachverständnis-
ses insoweit auch Weng/Chen/Sun International Journal of Social Robotics 2009,
267, 277 f.; siehe im Umkehrschluss ebenso Spranger/Wegmann, in: Beck, Jenseits
von Mensch und Maschine, S. 104, 110: Streben nach Freiheit und Selbsterhal-
tung wären erforderlich.
125 Turing Mind, 59 (1950), 433 ff.; zur Weiterentwicklung des Total-Turing-Tests Rus-
sell/Norvig, Artificial Intelligence, S. 3.

49
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

ten je nach Bewertung der zum Teil trickreichen Versuchsanordnungen.126


Sie können aber auf sich beruhen, weil der Test für unsere Zwecke nicht
allein entscheidend sein kann. Sein Design verengt ihn auf die Sprachfä-
higkeit und auf die Frage, wie gut die Maschine den Menschen imitieren
kann. Es geht dem Test nicht darum, eine autonom agierende KI zu identi-
fizieren, die zu einer moralischen Selbst- und Fremderkenntnis in der Lage
ist und Rechte besitzen soll.127 Ein bestandener Turing-Test ist insofern nur
ein Indiz.

b) Über Turing hinaus

Wir müssten vielmehr allgemeiner in Erfahrung bringen, ob wir nach dem


beobachteten Verhalten der künstlichen Intelligenz, nach ihrer Kommuni-
kation mit uns und anderen Maschinen sowie nach ihrem inneren Aufbau
Gründe haben, der künstlichen Intelligenz Autonomie bzw. Vernunft zuzu-
schreiben.128 Hierfür wären die Reaktion auf Sinneseindrücke und die Ent-
wicklung eines tiefen Verständnisses von Gegenständen und Sachverhalten

126 Siehe im Überblick von „Eliza“ (1966) bis „Eugene Goostman“ (2014) m.w.N.
Lenzen, Künstliche Intelligenz, S. 25 ff., 30; Misselhorn, Grundfragen der Maschi-
nenethik, S. 31 ff.
127 So statt vieler etwa Neuhäuser, in: Hilgendorf, Robotik im Kontext von Recht
und Moral, S. 269, 277 f.; Matthias, Automaten als Träger von Rechten, S. 211 ff.,
219 f. (mit weiteren Einwänden); Lenzen, Künstliche Intelligenz, S. 25 f., 135;
Daum (Fn. 10): performativer Intelligenz-Begriff; zum grundsätzlichen Unter-
schied einer rein wahrnehmungsbezogenen und einer substanzprüfenden Beur-
teilung siehe näher m.w.N. Misselhorn, Grundfragen der Maschinenethik,
S. 82 ff., selbst mit einer vermittelnden Ansicht; dies., Interview ZEIT ONLINE
(Fn. 13). Zu möglichen Testmodifikationen und einem Empathie-Test, der die
eigene, bedeutungsvolle Erfahrung bzw. Lebensgeschichte ergründen würde,
Bung, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 17, 18 ff.; siehe auch
Wallach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 63 f.,
70 f.
128 Misselhorn, Grundfragen der Maschinenethik, S. 30 ff., 87 ff.; zum nötigen Blick
auf den inneren Aufbau auch Lenzen, Künstliche Intelligenz, S. 126. Siehe auch
den Indizienschluss zu Data bei Alexy, http://www.alexy.jura.uni-kiel.de/de/data
/DatasMenschenrechte.pdf, S. 15 f.; zum nötigen Rückschluss auf die inneren
Sachverhalte Gruber, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 191,
198. A.A. zur Handlungsfähigkeit im Anschluss an Teubner m.w.N. Cornelius
ZRP 2019, 8, 9 f., der Intentionen schon dann zuschreiben will, wenn man so
der in physikalischer Hinsicht erhöhten Komplexität begegnen könne.

50
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

erforderlich.129 Zum Beispiel – und nicht zuletzt – müsste die KI begrei-


fen, was eine mutwillige Verletzung einer anderen Person bedeutet.130
Man mag für diese Prüfung nun eine besonders hohe Messlatte ansetzen
wollen, um Simulationen menschlicher Autonomie sicher auszuschließen.
In der Literatur findet sich gar die These, dass die Subjektstellung erst in
Frage komme, wenn die künstliche Person in der menschlichen Gesell-
schaft vollends anerkannt sei.131 Tatsächlich wäre einer leichtfertigen Ver-
gabe kostbarer Rechte an eine nach herkömmlichen Begriffen unbelebte
Natur, die eine Gefahrenabwehr erschweren würde und zum Beispiel mit
Fortpflanzungsbefugnissen verbunden wäre, nicht das Wort zu reden. Für
sinnvoll bemessene Feststellungsanforderungen an den Nachweis einer
substanziellen künstlichen Intelligenz müssten wir aber mehrere Aspekte
in den Blick nehmen, die das Anforderungsprofil begrenzen:
Erstens müssten wir beachten, dass schon unsere eigene Autonomie un-
bewiesen bleibt.132 Woher gerade unsere intrinsische Intentionalität, unse-
re individuelle Setzung bestimmter Gründe oder Vorlieben kommt, oder

129 Näher dazu Bung, in: Gruber/Bung/Ziemann, Autonome Automaten, 2. Aufl.


(2015), S. 17, 18 ff.; aus strafrechtlicher Perspektive Seher, in: Gleß/Seelmann, In-
telligente Agenten und das Recht, S. 45, 49 ff.; zum Problem auch Lenzen,
Künstliche Intelligenz, S. 135 ff.; Misselhorn, Grundfragen der Maschinenethik,
S. 114 ff.; zur aktuellen Problematik der Vermittlung von Verständnis Eberl,
Smarte Maschinen, S. 124 ff.
130 Siehe anschaulich zum Blut, das aus einer Operation oder einem Anschlag ent-
stammen kann, Weng/Chen/Sun International Journal of Social Robotics 2009,
267, 278.
131 Hierfür – und zudem mit dem eher fraglichen Maßstab der Anerkennung als
Mensch – Gruber, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 191,
199 ff., zugleich mit einem Beispiel einer Asimov-Geschichte, welche den heran-
gezogenen Maßstab im Grunde als unmenschlich ausweist: Ein Roboter müsse
erst seinen Tod einleiten, um als Mensch akzeptiert zu werden. Gleichsinnig
Frister, Strafrecht AT, 3. Kap. Rn. 11 f.: Anerkennung als Alter Ego des Menschen
als Maßstab. Überdies mag man einwenden, dass die Überprüfung sinnentleert
sein mag, weil die überlegende KI zu einem „treacherous turn“ in der Lage ist,
Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 142 ff. Eher eine vor-
zeitige, übertriebene Anerkennung als empfindungsfähig erwartet m.w.N. Birn-
bacher, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 303, 315: sog. Ta-
magotchi-Effekt; siehe auch Hilgendorf ZStW 130 (2018), 674, 675: Maschinen
werden möglicherweise schon bald als „echte“ Interaktionspartner wahrgenom-
men werden.
132 In diese Richtung auch schon Turing Mind, 59 (1950), 433 – part 6 (4), siehe
auch (6) sowie part 7; Russell/Norvig, Artificial Intelligence, S. 1026 f.; siehe auch
schon zur menschlichen Kognition und Kreativität Lenzen, Künstliche Intelli-
genz, S. 29 f., 120 ff.; begrenzt auf den Eindruck, den Menschen von der Willens-

51
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

wo unser Selbstbewusstsein physisch verankert ist,133 können wir dem je-


weils anderen nicht nachweisen. Es wäre nun aber gegenüber einem im
Kern gleichen Wesen unfair, allein diesem die Erklärung oder den Nach-
weis jenes Mysteriums aufzuerlegen.
Zweitens nimmt die Forderung nach einer faktisch gleichen Akzeptanz
der neuen Subjekte in unserer Gesellschaft zwar realitätsnah auf, dass sich
die Ausweitung von Rechtsstellungen respektive der Abbau von Ungleich-
behandlungen in historischen Prozessen ereignet.134 Wenn wir aber gute
Gründe für die Subjektstellung über Gebühr zurückweisen, ist es ebenso
plausibel, dass die betroffenen Subjekte für ihre verwehrten Rechte mehr
als nur verbal eintreten werden. Entsprechenden Szenarien der Science-Fic-
tion mag man zwar vorhalten, dass sie allzu schnell von menschlichen Ver-
haltensweisen auf die Praxis zukünftiger KI zurückschließen. Sie beziehen
ihre Anziehungskraft aber bei Lichte besehen aus einer plausiblen und his-
torisch erfahrbaren Konstante jedenfalls der Menschheit, dass die Unter-
drückung freier Subjekte den Drang zur gerechten Anerkennung der eige-
nen Freiheit hervorruft. Geht man aber von einem entsprechenden Frei-
heitsbedürfnis neuer Subjekte aus, legt dies Gefahren für den Bestand
menschlichen Rechts nahe, die den Gefahren einer verkannten Simulation
menschlicher Vernunft gegenüberzustellen wären. Auch dieser Aspekt gibt
Anlass, einem menschlichen, aber nicht ohne Weiteres berechtigten Behar-
ren auf dem Status quo Grenzen zu setzen. Er sollte auslösen, dass wir pri-
mär auf die rationalen Gründe und jedenfalls nicht auf eine allseitige Ak-
zeptanz unter den Menschen abstellen. Dies gilt auch deshalb, weil die
Vorenthaltung von Akzeptanz letztlich eine Form von Diskriminierung sein

freiheit des Roboters erlangen, auch Joerden, in: Hilgendorf/Günther, Robotik


und Gesetzgebung, S. 195, 203 f. (im Ergebnis aber ablehnend, da keine Über-
zeugung von der Freiwilligkeit zu erlangen sei); Günther, Roboter und rechtli-
che Verantwortung, S. 247 f., 250 f. Auch Beck hebt das Problem der Beweisbar-
keit schon für den Menschen hervor, plädiert dann aber für Menschen für eine
Unterstellung, während eine entsprechende Vermutung für Roboter – scheinbar
ungeachtet der von Robotern in Zukunft ggf. zu beobachtenden Phänomene –
ausscheiden soll, Beck, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 239, 253.
133 Zum Mysterium des Bewusstseins etwa Misselhorn, Grundfragen der Maschinen-
ethik, S. 36 f.; Harari, Homo Deus, S. 125 ff.; siehe auch Kurzweil, The Singulari-
ty is near, S. 377 f.
134 Im Rückblick ist an die Rechte von Sklaven, Frauen oder (anderen) diskrimi-
nierten Gruppen/Bevölkerungsanteilen zu denken. Zur umstrittenen Anerken-
nung besonderer Fähigkeiten bestimmter Tiere Birnbacher, in: Hilgendorf/
Günther, Robotik und Gesetzgebung, S. 303, 310 f.

52
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

kann, die aus tradierten, aber sachlich nicht mehr haltbaren Vorrangan-
nahmen entspringt.
Drittens dürften wir, so wie wir es auch für Menschen nicht tun, das
Fehlverhalten einzelner künstlicher Intelligenzen, das auch aus mangeln-
den Erfahrungen (im Umgang mit anderen Menschen) herrühren kann,
nicht vorschnell oder beliebig mit einer allgemein mangelnden Vernunft-
begabung gleichsetzen.135 In diesem Sinne wird es sich, soweit keine Ge-
fahr im Verzug ist, verbieten, ein abschließendes Votum für eine tierisch
geartete künstliche Intelligenz übereilt zu fällen. Etwa ein anfänglich
feindliches Verhalten der KI mag auf einem zunächst noch mangelnden,
Akzeptanz ermöglichenden Datenmaterial bzw. Erfahrungsschatz beruhen.
Festzuhalten bleibt insgesamt, dass wir überprüfen müssen und grund-
sätzlich überprüfen dürfen136, ob sich ein scheinbar autonomes KI-Verhal-
ten nicht tatsächlich überzeugend allein mit dem Ablauf eines fremdge-
schaffenen Programms erklären lässt. Unüberwindliche Hürden für den
auch bei Menschen normativ geprägten Schluss auf Autonomie werden
wir aber nicht aufstellen können. Selbst wenn wir nicht verstehen, wie die
ggf. graduell oder in äquivalenten Formen realisierte Freiheit entstanden
ist, werden wir die Freiheit bzw. Vernunftbegabung der künstlichen Intelli-
genz wie in unserem Falle zu einem gewissen Grade postulieren müssen.
Wenn wir ein von der künstlichen Intelligenz herrührendes kreatives Ver-
halten nur durch die Annahme ihrer Selbstursprünglichkeit überzeugend
plausibilisieren können und ihr moralisches Handeln nahe liegt, ist der
aus heutiger Sicht befremdliche Schluss auf die Autonomie der Mensch-
Maschine zu ziehen.

5. Kreationsansprüche?

Eine letzte Gegenprobe möchte ich ausführen. Mein Fazit besteht bis jetzt
darin, dass wir künstlichen Intelligenzen, die andere Subjekte erkennen
und respektieren können, Speziesrechte nicht versagen dürften. Gewährt

135 Siehe auch schon Turing Mind, 59 (1950), 433 – part 6 (3): Überlegenheit gegen-
über einer einzelnen getesteten (geprüften) Maschine steht relativ zu anderen
Maschinen und den Fehlern der Menschen.
136 Vorbehalte sind ferner deshalb zu machen, weil die Überprüfung des inneren
Aufbaus unter Umständen schwere Schäden für die Persönlichkeit der künstli-
chen Person mit sich führen könnte, siehe etwa die Sorge Datas in der Star Trek
– The Next-Generation-Folge „The Measure of a Man“ (dazu Fn. 103) und Alexy,
http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf, S. 3.

53
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?

man dieser substanziellen künstlichen Intelligenz aber wie dem Menschen


das „Recht auf Rechte“, scheint sich die Folgefrage zu stellen, ob wir dann
nicht alle Maschinen in einem substanziellen Sinne intelligent gestalten
müssten. Pointiert: Müssten wir nicht jedem Toaster und jedem Kühl-
schrank ein (Quasi-)Bewusstsein verschaffen und beide sodann um ihre
Dienste bitten?
Dieses argumentum ad absurdum ließe sich jedoch auf dem heutigen
Stand unserer insbesondere rechtlichen Annahmen zurückweisen.137 Die
beispielhaft genannte unbelebte Materie verliert ihre Sachqualität nach
den bisherigen Ausführungen mitnichten. Wenn sich die Qualitäten ver-
meiden lassen, welche die Grenze zur Personalität übertreten, sind wir
nicht gezwungen, Speziesrechte anzuerkennen. Anderes gilt nicht etwa
deshalb, weil uns Menschen eine unethische Unterlassung vorzuhalten wäre.
Denn es gab und gibt für den Menschen kein ursprüngliches Gebot, eine
neue Spezies überhaupt oder in einer bestimmten Anzahl zu erschaffen.
Unser Handeln ist insoweit frei und wirkt daher konstitutiv. Als Ausdruck
von Freiheit erkennen wir auch gegenüber unserer eigenen Spezies keine
Pflichten an, Leben erschaffen zu müssen. Eine etwaige Tugendpflicht, die
menschliche Gattung zu erhalten, würde sich ferner nicht auf eine andere,
in diesem Falle artifizielle Gattung beziehen. Selbst die Strafnormen, die
wir im Umgang mit der Schaffung menschlichen Lebens aufstellen, gebie-
ten nicht etwa Schritte der Fortpflanzung. Zum Beispiel das Abtreibungs-
verbot des StGB wendet sich lediglich gegen den Abbruch einer bereits be-
gonnenen Fortpflanzung.138 Der Mensch darf sich nach wie vor in der
Nutzung seiner Fähigkeiten beschränken.
Damit ist indes nicht gesagt, dass Menschen innerhalb der geschaffenen
Spezies gerade nach einem verfolgten menschlichen Nutzen differenzieren
dürften. In der Fortentwicklung entstandener Spezies wären wir bei einer
Anerkennung einer ebenbürtigen Würde nicht frei. Anderenfalls würden
wir ein intelligentes Wesen als Sache behandeln. Wir müssten uns zudem
Problemen der möglichen Fortentwicklung durch die geschaffenen Sub-
jekte selbst stellen. Darüber hinaus müssten wir etwaige Bedürfnisse der

137 Gleichsinnig etwa Weng/Chen/Sun International Journal of Social Robotics


2009, 267, 271 f., siehe aber auch S. 275 f.
138 Statt vieler siehe nur Fischer, StGB, § 218a Rn. 1 ff., auch gegen einen früheren
Rekurs des BGH auf „Bestand und Lebenskraft des Volkes“.

54
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?

neuen Spezies reflektieren, so wie auch wir selbst Respekt vor unseren –
zum Beispiel emotionalen – Bedürfnissen einfordern würden.139
Schon letzteres birgt durchaus Konfliktpotential, das nach dem hiesigen
Standpunkt allerdings nicht zur Versagung der grundsätzlichen Rechtsstel-
lung führen kann. Zum Beispiel der Umstand der prinzipiell unendlichen
Lebensdauer einer künstlichen Intelligenz führt angesichts endlicher Res-
sourcen zu Allokationsfragen, die absehbar eine Schranke hinsichtlich der
Reproduktion künstlicher Intelligenzen nahe legen, unter Umständen
aber auch der Menschheit Grenzen auferlegen könnten. Ob insoweit der
Aspekt der gerade vom Menschen ausgehenden Kreation der künstlichen
Intelligenz ihre – zudem durchsetzbare – Beschränkung rechtfertigen wür-
de, bliebe wie viele andere Folgefragen unter Rückgriff auf die geltungs-
zeitlich prävalenten Lebensbedingungen zu klären.

139 Für ein solches Bedürfnis mag das Verlangen nach einer gleich gearteten ande-
ren Person als Beispiel dienen. Allerdings wird mit dem etwa in der Franken-
stein-Erzählung (Mary Shelley, 1818) aufgegriffenen Motiv möglicherweise nur
ein sehr menschliches Verlangen adaptiert. Siehe auch Weng/Chen/Sun Interna-
tional Journal of Social Robotics 2009, 267, 275: Frage nach einer nicht mehr
allein menschenzentrierten, sondern dualen Wertsetzung wäre bei einer Koexis-
tenz von Menschen und Robotern gestellt.

55
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Mit meinen Ausführungen habe ich Teile der starken KI als Rechtssubjekte
anerkannt. Ich möchte nun im dritten und letzten Teil fragen, ob auch die
Strafe im Umgang mit der starken KI einen Platz haben könnte und wel-
che Prämissen dies erfordert. Ich erörtere zunächst, ob wir die rechtsfähige
KI bestrafen dürften. Dann frage ich nach der Effektivität dieser Strafe,
und ich umreiße eine Aufgabe, die dem Recht und hierbei nicht nur dem
Strafrecht in der KI-Debatte aktuell zukommen sollte.

I. Dürfen wir künstliche Intelligenz bestrafen?

Glaubt man nicht geringen Propheten des technischen Fortschritts, haben


wir Anlass, ein KI-Verhalten in Betracht zu ziehen, das aus menschlicher
Sicht unvernünftig und gefährlich ist. Zum Beispiel Stephen Hawking, der
indes selbst nicht als KI-Forscher in Erscheinung getreten ist, traute Super-
intelligenzen zu, den Untergang der Menschheit ins Werk zu setzen.140
Nicht jeder teilt die Hoffnung von Transhumanisten, dass eine uns überle-
gene künstliche Intelligenz mit einem unfehlbaren und friedfertigen Be-
wusstsein einhergehen werde.141 Dass der von Microsoft stolz präsentierte,
vermeintlich besondere leistungsfähige Twitter-Chatbot „Tay“ alsbald abge-
schaltet werden musste, weil er in Windeseile rassistische Parolen von sich
gab, gibt uns ein erstes, wenngleich weithin menschengemachtes Bei-
spiel.142

140 Siehe Stephen Hawking (Fn. 4): Ersetzung der Menschheit durch die sich schnel-
ler selbst entwickelnde KI; Elon Musk (Fn. 4); siehe auch Bostrom, Superintelli-
gence – Paths, Dangers, Strategies, S. 25, 110 ff., 140 ff., 165 ff.; siehe auch die
Asilomar-Thesen des IFL unter https://futureoflife.org/ai-principles/. Zu kleine-
rem „Fehlverhalten“ wie den Ankauf von Ecstasy im Dark Web m.w.N. Eiden-
müller ZEuP 2017, 765, 771.
141 Solche Vorstellungen m.w.N. darstellend etwa Wallach/Allen, Moral machines –
Teaching Robots Right from Wrong, S. 194; knapp Ach/Lüttenberg, in: Grunwald
(Hrsg.), Handbuch Technikethik (2013), S. 288, 291.
142 Zum an sich hochqualifizierten Programm Tay siehe m.w.N. Wischmeyer AÖR
143 (2018), 1, 10 und https://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-
microsoft-mit-dem-bot-tay-von-der-netzgemeinde-gelernt-hat-14146188.html,
unter anderem mit dem Auszug: „Hitler was right I hate the jews“. Allerdings

57
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Wenn sich die KI der Zukunft prinzipiell oder im Einzelfall rechtswidrig


gegen Menschen richten sollte, sind wir zu einer verhältnismäßigen Gefah-
renabwehr befugt.143 Eine Pflicht der Menschheit, sich einer höheren In-
telligenz aufzuopfern, erscheint – bei aller menschlichen Befangenheit –
unbegründet: Die gemeinsame Teilhabe an der Vernunft bzw. der gegensei-
tige Respekt sollte eine grundsätzlich gleiche Berechtigung tragen.144
Ob uns aber auch die Strafe zur Verfügung stünde, um unsere Rechte ge-
genüber der KI geltend zu machen, verlangt eine zusätzliche Begründung.
Von einer Strafe sprechen wir, wenn der Staat einer Person wegen des von
ihr begangenen Fehlverhaltens ein Übel auferlegt, um sie für dieses Fehl-
verhalten zu tadeln.145 Wenn wir nun aber eine künstliche Person bestra-
fen, könnte dies ihr gegenüber einen kommunikativ sinnlosen Akt bedeu-
ten, der ahistorisch an die Bestrafung von Tieren erinnert.146 Wir handeln

liegt insoweit ein Beispiel vor, das Zeugnis davon abgelegt, wie Menschen künst-
liche Intelligenz hin zu einem potentiell strafbaren Verhalten prägen können.
Twitter-Nutzer hatten in einer offenbar abgestimmten Kommunikation die Ma-
nipulierbarkeit des bedeutungsblinden Twitterbots offengelegt, indem sie ihn
mit rassistischem Material „gefüttert“ hatten. Siehe insoweit zur strafrechtlichen
Würdigung Hilgendorf, FS Fischer, S. 99, 109 ff.
143 Dies gilt darüber hinaus auch dann, wenn die Gefährdung unwillkürlich ausge-
löst wird. Zur (ethisch) berechtigten Gefahrenabwehr etwa Birnbacher, in: Hil-
gendorf/Günther, Robotik und Gesetzgebung, S. 303, 305. Die Beschränkung
auf verhältnismäßige Mittel würde insoweit jedenfalls daraus folgen, dass wir
gemäß Art. 20a GG mit dem Schutz der Tiere einen prinzipiellen Respekt ge-
genüber Lebensformen anerkennen, den wir auf die neu geschaffenen, nicht-
menschlichen Existenzen übertragen sollten. Die unnatürliche Erschaffung soll-
te einmal mehr keinen Unterschied machen, zumal sich auch Art. 20a GG nicht
schlicht als Postulat etwa der christlichen Religion und ihrer Schöpfungslehre
deuten ließe.
144 Anders möglicherweise in seiner vorkritischen Schrift Kant, Allgemeine Natur-
geschichte und Theorie des Himmels – Von den Bewohnern der Gestirne,
S. 351 ff., der u.a. den Jupiterbewohnern einen moralischen Vorrang zusprach,
weil er aus der größeren Entfernung ihres Planeten zur Sonne schloss, dass sie
einen größeren Intellekt aufweisen dürften.
145 Siehe gerade zum Element des staatlichen Tadels BVerfGE 140, 317, 345 f.; von
Hirsch, Fairness, Verbrechen und Strafe, S. 41 ff.; Seebode, Strafvollzug I, S. 83;
Gaede, Der Steuerbetrug, S. 322 f.; begrifflich leicht anders BVerfGE 109, 133:
missbilligende hoheitliche Reaktion auf ein rechtswidriges, schuldhaftes Verhal-
ten, wegen dessen ein Übel verhängt wird, das dem Schuldausgleich dient; wei-
ter aber zu Art. 6 EMRK etwa EGMR (Öztürk v. Deutschland), Serie A, Nr. 73,
§§ 53 ff.
146 Abl. etwa zu Ansätzen, die allein mit füllungsbedürftigen Verantwortungslü-
cken argumentieren, Ziemann, in: Hilgendorf/Günther, Robotik und Gesetzge-
bung, S. 183 ff.: ahistorischer Ansatz.

58
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Dürfen wir künstliche Intelligenz bestrafen?

vielleicht eher wie der Perserkönig Xerxes, der angeblich eine Meerenge
für die Zerstörung eines Brückenbaus auspeitschen ließ, dabei aber immer-
hin den Meeresgott Poseidon treffen wollte.147
Um zu klären, ob eine Bestrafung der KI doch Sinn ergibt, müssen wir
erstens Rechenschaft über die Gründe ablegen, aus denen wir strafen. Zwei-
tens müssen wir erörtern, ob diese Gründe eine Bestrafung der rechtsfähi-
gen KI tragen.

1. Strafe

Mit dem ersten Schritt ist ein weiteres Thema aufgeworfen, das sich schon
allein für eine Antrittsvorlesung geeignet hätte. Die Frage nach den Grün-
den der Strafe prägt das Selbstverständnis eines jeden Strafrechtswissen-
schaftlers und einer jeden Strafrechtswissenschaftlerin. Die vertretenen An-
sätze zu den Gründen der Strafe pendeln weiter zwischen zwei Hauptströ-
mungen.148 Die erste Strömung gibt der Strafe vor allem den repressiven
Sinn, das Unrecht und die Schuld auszugleichen, die der Täter mit der ver-
gangenen Tat gesetzt hat. Die zweite Strömung macht geltend, dass die
Strafe präventiv auf die Zukunft ausgerichtet sein müsse – sie soll weiteres
Unrecht seitens des Täters oder anderer Menschen verhindern. Das gelten-
de Recht kombiniert diese Zwecke mit der sog. Vereinigungstheorie, die
beide Aspekte bemüht.149 Diese Theorie trifft jedoch kaum Aussagen über
das Verhältnis des repressiven und des präventiven Sinns bzw. bleibt dieses
Verhältnis nach der Theorie weiter streitbefangen.150
Ich kann an dieser Stelle keine neue Strafzwecklehre entwickeln und ge-
gen Einwände und Alternativkonzepte verteidigen oder gar bis in Details
entfalten. Ich kann und möchte aber offenlegen, welche Ratio ich selbst
verfechte:

147 Denga CR 2018, 69, 77. Zu den umstrittenen Zielen der früheren Tierbestrafung
Gleß/Weigend ZStW 126 (2014), 561, 566 ff.
148 Für Überblicke siehe m.w.N. Hörnle, Straftheorien, S. 3 ff., 17 ff., allerdings mit
berechtigter Kritik an der klassischen Unterteilung; Pawlik, Person, Subjekt,
Bürger, S. 18 ff.; Roxin, Strafrecht AT, Band I, § 3 Rn. 2 ff.
149 Zu ihr und der Einordnung als herrschend m.w.N. Roxin, Strafrecht AT, Band I,
§ 3 Rn. 33 ff., 37 ff., 62; m.w.N. Fischer, StGB, § 46 Rn. 2.
150 Zur Kritik der Vereinigungslehre etwa m.w.N. Köhler, Strafrecht AT, S. 44; letzt-
lich präventiv verteidigend Roxin, Strafrecht AT, Band I, § 3 Rn. 35 f., 37 ff.

59
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Mit unserem staatlich verfassten Recht wollen wir die Freiheit eines je-
den dauerhaft und sicher verwirklichen.151 Dieser Freiheit entspricht bei
jeder Person, die schuldfähig bzw. normativ ansprechbar ist, ihrer komple-
mentären Fähigkeit und Pflicht, für das eigene Verhalten Verantwortung
zu übernehmen.152 Die Erfahrung, dass Menschen sich nicht notwendiger-
weise mit der Freiheit anderer Menschen vereinbar verhalten, sondern
schuldhaft Unrecht begehen können, legitimiert den staatlichen Straf-
zwang.153 Wir setzen die Strafe ein, um das mit der Tat verletzte, Freiheit
verwirklichende Recht durch einen Akt wiederherzustellen, welcher der
Tat wirksam widerspricht.154 Wir kommen so der Aufgabe des Rechtsstaats
nach, eine tatsächlich gelebte und damit zur Not zwangsweise durchgesetz-
te Freiheits- und Friedensordnung zu etablieren. Substanziell verstanden
ist der repressive Akt der Strafe damit immer zukunfts- bzw. zweckgerichtet,

151 Zur Einsicht, dass staatliches Recht zur Verwirklichung einer substanziellen
Freiheit erforderlich ist und der einzelne in den staatlichen Rechtszustand tre-
ten muss, siehe etwa Kant, Metaphysische Anfangsgründe der Rechtslehre – Me-
taphysik der Sitten – Erster Teil, S. 236 f., S. 305 ff.; Alexy, in: Gosepath/
Lohmann, Philosophie der Menschenrechte, S. 244, 254 ff.; Böckenförde, Recht –
Staat – Freiheit, S. 42 ff.; m.w.N. Klesczewski ZStW 123 (2011), 737, 757; zum An-
spruch auf ein freiheitliches (Straf-)Recht auch Pawlik, Das unerlaubte Verhalten
beim Betrug, S. 5 ff.
152 Dazu etwa Rawls, A Theory of Justice, S. 212; Gaede, in: Camprubi, Angst und
Streben nach Sicherheit, S. 155, 181 ff.; siehe auch Pawlik GA 1998, 378, 380 f.;
ders., Person, Subjekt, Bürger, S. 88 ff. und Hörnle, Straftheorien, S. 56 ff.; verfas-
sungsrechtlich etwa BeckOK-GG/Hillgruber Art. 1 Rn. 13. Zur Debatte um die
Hirnforschung und gegen einen erhobenen Schuldvorwurf siehe insoweit Hörn-
le, Kriminalstrafe ohne Schuldvorwurf, S. 15 ff., 49 ff.
153 Zur hegelschen Strafbegründung etwa Hegel, Grundlinien der Philosophie des
Rechts, §§ 90 ff., 218, 220; siehe zudem Kant, Metaphysische Anfangsgründe der
Rechtslehre – Metaphysik der Sitten – Erster Teil, S. 331 ff., aber auch 235 f.; im
Anschluss auch Rawls, A Theory of Justice, S. 211 ff., auch S. 221 ff.; im prozes-
sualen Kontext Klesczewski ZStW 123 (2011), 737, 757, 759 f.; Murmann GA
2004, 65, 70 f.
154 Siehe wegweisend Hegel, Grundlinien der Philosophie des Rechts, §§ 97 ff., 99,
218, 220, 225; zugleich mit Kritik Seelmann, Anerkennungsverlust und Selbst-
subsumtion, S. 66 ff.; weithin entsprechend Köhler, Strafrecht AT, S. 37 ff.; Paw-
lik, Person, Subjekt, Bürger, S. 54 ff., 76 ff., 88 ff.; ders., FS Jakobs, S. 469, 473 ff.;
ders., Das Unrecht des Bürgers, S. 82 ff.; zur darin liegenden Negation des Ge-
genweltentwurfs des Täters Pawlik, Das unerlaubte Verhalten beim Betrug,
S. 38 ff. (aber unter partieller Übernahme des verfehlten Jakobsschen Feind/
Bürger-Paradigmas, dagegen schon Gaede, in: Camprubi, Angst und Streben
nach Sicherheit, S. 155, 175 ff.; Schleiminger, Konfrontation im Strafprozess,
S. 245 ff.; zum notwendigen Rückgriff auf ein bekräftigendes Übel etwa Hörnle,
Straftheorien, S. 43 ff.

60
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Dürfen wir künstliche Intelligenz bestrafen?

weil er auf die Wieder-her-stellung des Rechts zielt.155 Für die Frage, ob und
in welchem Ausmaß wir im Einzelfall strafen, ist dann auch entscheidend,
welche Rechte die mit der Tat zur Schau gestellte Infragestellung des
Rechts betraf und inwieweit wir von einer Erschütterung der Rechtsach-
tung des Täters und der Allgemeinheit ausgehen müssen.156 Um das Recht
für die Zukunft möglichst wirkungsvoll von neuem abzustützen, dürfen
wir im Rahmen der Schuld des Täters157, und soweit er damit sinnvoller
Adressat der tadelnden staatlichen Kommunikation ist158, konkretisierend
einbeziehen, welche Wirkungen auf den Täter und die Allgemeinheit er-
forderlich sind.159 Wir müssen es sogar, weil der zunächst sehr abstrakte
Zweck der Wiederherstellung des Rechts zum Beispiel bei einer geringfü-
gigen Tat, die sich situativ erklären lässt und kaum plausible Rückwirkun-
gen auf die Rechtsachtung anderer nahe legt, nicht notwendigerweise be-
reits zu einem verhältnismäßigen staatlichen Eingriff in (Grund-)Rechte des
Täters führt. 160 Eine rein präventiv gedachte Strafe, die konstitutiv über die
gebotene Abschreckung oder Beruhigung Dritter begründet wird, scheidet
hingegen aus.161
Mit diesen Strafgründen bewegen wir uns auf dem Boden geltenden
Rechts. Das Rechtsstaatsprinzip verlangt auch nach Ansicht des Bundesver-

155 Dazu Pawlik, Person, Subjekt, Bürger, S. 54 ff.; zur Zweckgerichtetheit expressi-
ver Theorien auch Hörnle, Straftheorien, S. 33 f.
156 Dazu auch Hegel, Grundlinien der Philosophie des Rechts, §§ 218, auch 214;
Schild ZRph 2003, 30 ff., 37 f.; Pawlik, Person, Subjekt, Bürger, S. 90 ff.; ders., Das
Unrecht des Bürgers, S. 116 ff.; nur partiell so im Sinne einer integrativ erforder-
lichen, aber offenbar stets vorhandenen präventiven Notwendigkeit Köhler,
Strafrecht AT, S. 50 f.
157 Zur Begrenzung durch die Schuld auch BVerfGE 45, 187, 254, 259 f.; 109, 133,
173; Fischer, StGB, § 46 Rn. 3 und 5.
158 Zum Kommunikationsaspekt nochmals Gleß/Weigend ZStW 126 (2014), 561,
574 f.; Hörnle, Straftheorien, S. 31 ff., 34 ff.; dies., Hb. Strafrechts, Band I, § 12
Rn. 35 f.; zum Tadel von Hirsch, Fairness, Verbrechen und Strafe, S. 41 ff.
159 Insoweit nur teilweise vergleichbar Pawlik, Person, Subjekt, Bürger, S. 92 ff.
160 Dezidiert anders Kant, Metaphysische Anfangsgründe der Rechtslehre – Meta-
physik der Sitten – Erster Teil, S. 331 ff. Zur gegen ihn verbreiteten Kritik
m.w.N. etwa Roxin, Strafrecht AT, Band I, § 3 Rn. 8 ff., 48, 60, allerdings mit
einer nicht erschöpfenden Angabe des verfassungsrechtlichen Sinns des Straf-
rechts; siehe auch Seelmann, Anerkennungsverlust und Selbstsubsumtion,
S. 123 ff.
161 Zu diesem Umstand etwa Kant, Metaphysische Anfangsgründe der Rechtslehre
– Metaphysik der Sitten – Erster Teil, S. 331; Köhler, Strafrecht AT, S. 38 ff., 44 ff.
und eingestehend Roxin, Strafrecht AT, Band I, § 3 Rn. 51 ff., 61 f.; weniger deut-
lich dagegen Hörnle, Straftheorien, S. 51 ff.

61
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

fassungsgerichts die tatsächliche Durchsetzung insbesondere des Straf-


rechts.162 Das Grundgesetz setzt für jede Strafe Schuld voraus.163 Präventive
Zwecke sind nur in diesem Rahmen legitim.164 Jede Strafe muss zudem
verhältnismäßig bleiben.165

2. Gegenüber der starken künstlichen Intelligenz

Was bedeuten die Gründe der Strafe und ihre Prämissen nun für die KI?
Dürften wir sie bestrafen?
Nach dem geschilderten Verständnis darf eine künstliche Intelligenz je-
denfalls nicht schon allein deshalb gestraft werden, weil vielleicht sonst
niemand zur Verfügung steht, der sich als Sündenbock für eine scheinbar
das Recht bestärkende öffentliche Sanktionierung festhalten ließe. Gegen-
über einer schwachen KI könnten wir schon gar nicht rational kommuni-
zieren, sie habe das Recht mit Bedacht durch eine Handlung angegrif-
fen.166 Aber auch eine starke KI würden wir mit solchen Zwecken, die eine

162 Siehe etwa BVerfGE 45, 187, 256: Unverbrüchlichkeit der Rechtsordnung; 122,
248, 271 ff.; 129, 208, 260; 133, 168, 199 f.; m.w.N. Gaede wistra 2016, 89 f.; siehe
auch zu Art. 3 GG zur tatsächlichen Rechtsgeltung (Belastungsgleichheit)
m.w.N. BeckOK-GG/Kischel Art. 3 Rn. 119 f.
163 Zur Anerkennung des Schuldgrundsatzes etwa BVerfGE 25, 269, 285 ff.; 45, 187,
259 ff.; 73, 206, 253 f.; 90, 145, 173; 120, 224, 253 f.; 123, 267, 408 f., 413 f.; zur
Herleitung auch Hörnle, FS Tiedemann, S. 325 ff.; zur Voraussetzung im StGB
siehe nur § 46 Abs. 1 S. 1 StGB; zu Schuldausgleich und Vergeltung als verfas-
sungsrechtlich legitimen Strafzwecken etwa m.w.N. BVerfGE 45, 187, 253 f.,
258 f.; 109, 133, 167 ff.; m.w.N. Hörnle, Hb. Strafrechts, Band I, § 12 Rn. 53 ff.
164 Zur Prävention als einem insoweit legitimen Strafzweck m.w.N. BVerfGE 45,
187, 253 ff.; 109, 133, 173; Hörnle, Hb. Strafrechts, Band I, § 12 Rn. 53 ff.
165 Hierfür etwa zum Einsatz des Strafrechts BVerfGE 71, 206, 221 ff.; 90, 145,
171 ff.; 120, 224, 239 ff. (mit abl. SV Hassemer); siehe dazu aber krit. evaluierend
Gaede, Der Steuerbetrug, S. 316 ff.; zur Auslegung Kudlich JZ 2003, 127, 130 ff.;
zur allgemeinen Geltung des Verhältnismäßigkeitsgrundsatzes Sachs/Sachs, GG,
Art. 20 Rn. 145 ff.
166 Zum letzteren Aspekt etwa Joerden, in: Hilgendorf/Günther, Robotik und Ge-
setzgebung, S. 195, 203 ff.; Gleß/Weigend ZStW 126 (2014), 561, 574 ff., aber auch
mit der Erwägung, in Zukunft bei einer Programmierbarkeit ethischer Maßstä-
be eine funktionale Entsprechung genügen zu lassen; vergleichbar nun auch
Cornelius ZRP 2019, 8, 10 f. Für die Möglichkeit einer pragmatischen Schaffung
eines Sonderstatus siehe aber Hilgendorf, in: Beck, Jenseits von Mensch und Ma-
schine, S. 119, 125 ff. (nur partiell übernommen bei Beck, in: Hilgendorf/
Günther, Robotik und Gesetzgebung, S. 239, 255 ff.): Zum Beispiel die Willens-
steuerung sei schon durch das gegebene Programm formulierbar. Hilgendorf

62
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Dürfen wir künstliche Intelligenz bestrafen?

Abwendung von Prämissen der Strafe nahelegen, als Objekt degradieren.


Allenfalls derjenige, der Strafe rein funktionalistisch als potentiell nützli-
ches Instrument der Normbestätigung unterbestimmen würde, könnte
sich allein mit dem Verweis auf eine drohende Haftungslücke für eine
Strafbefugnis aussprechen.167
Eine Bestrafung der starken KI käme jedoch bei einer anderen Sinnge-
bung in Betracht. Sollte es tatsächlich einmal dazu kommen, dass wir eine
kommunikationsfähige starke KI als substanziell autonomen Akteur be-
trachten müssen, dann stünde auch dieser Akteur in der Pflicht, seine Teil-
habe an der Welt im Einklang mit dem Recht zu vollziehen. Auch seine Ak-
te wären als relevantes Verhalten zu identifizieren, das zur Geltung unseres
Rechts eine Aussage trifft und Unrecht setzen kann. Wir hätten dann er-
neut guten Grund, das durch die künstliche Intelligenz verletzte Recht
und damit unsere Freiheits- und Friedensordnung wiederherzustellen, in-
dem wir der anmaßenden Tat mit einem wirksamen Akt widersprechen.168
Gerade gegenüber neuen Trägern von Freiheitsrechten müssten wir die

zeigt indes meines Erachtens bisher keine durchgreifenden Gründe dafür auf,
weshalb die sprachlich mögliche Ausweitung der normativen Begriffe normativ
im angedachten Umfang überzeugen sollte. Etwa das Schuldstrafrecht, das auf
die Ermöglichung der – nach den Erfahrungswerten nicht unplausiblen – Frei-
heit angelegt ist, wird mit einer Erweiterung auf Roboter konfrontiert, ohne
hinreichend Gründe für eine plausible Realität der Freiheit aktueller Roboter zu
geben. Die Begriffe würden sich derart erweitern bzw. verändern, dass aktuell
normativ bewahrenswerte Gehalte wie die Ausrichtung auf Freiheit schlicht ver-
loren gehen könnten. Soweit das durchaus denkbare Bedürfnis entsteht, über
die bisherigen Regelungen hinaus Verantwortungen und Rechtsfolgen zuzu-
schreiben, muss dies nicht notwendigerweise über strafrechtliche Kategorien ge-
schehen.
167 Einen Sündenbock herauszugreifen, um Normen zu bestätigen und/oder Erwar-
tungen (des Publikums) zu befriedigen, deren Enttäuschung gefährlich wäre,
lässt sich zwar durchaus als zweckrational, nicht aber auch als dem Sündenbock
gegenüber gerecht bezeichnen. Für eine rein funktionalistische Befürwortung
von Strafbefugnissen mit dem Verweis auf mögliche Verantwortungslücken und
auf der Grundlage einer überhöhenden Beschreibung der Programmierung der
Maschinen siehe aber Matthias, Automaten als Träger von Rechten, passim;
Simmler/Markwalder ZStW 129 (2017), 20, 30 ff.; zur Begründbarkeit über eine
utilitaristische Position auch Eidenmüller ZEuP 2017, 765, 774 f. Siehe aber auch
schon zum fehlenden Sinn nach einer substantiell verstandenen generalpräven-
tiv-funktionalistischen Lehre Seher, in: Gleß/Seelmann, Intelligente Agenten
und das Recht, S. 45, 57 ff.
168 Zu diesen Aspekten der Unrechtsbegründung und unserer Reaktion nur noch-
mals Pawlik, Normbestätigung und Identitätsbalance, S. 7 ff. (Handlung und
Unrecht), 47 ff. (vergeltende Strafe). Für eine Strafbefugnis unter selbstbewuss-

63
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Rechtsordnung zukunftsgerichtet durchsetzen, soweit dies nach den be-


troffenen Rechten und der für die Zukunft zu behebenden Gefahr für die
Rechtsgeltung angezeigt ist.
Die Verfolgung des Strafzwecks der Wiederherstellung des Rechts setzt
allerdings voraus, dass wir von einer Schuld der Maschine sprechen und die-
se Schuld und die für eine Rechtsverletzung streitenden Gründe gegen-
über der KI sinnvoll kommunizieren könnten. Ich habe den Schuldaus-
gleich in meinen Ausführungen entgegen der Tradition zwar nicht als
einen Zweck der Strafe eingeführt.169 Die Schuld und die kommunikative
Tauglichkeit des Straftadels bleiben jedoch auch dann weiter erforderlich,
wenn man sie nach meinem Ansatz als Prämissen der Strafe einordnet.170
Diese Prämissen der Strafe sind auf die KI zu übertragen: Auch die Auto-
nomie der Maschine wäre verletzt, wenn wir sie für ein Verhalten tadelten,
das sie nicht vermeiden konnte. Zudem muss die künstliche Intelligenz
das Recht verstehen und das Ansinnen der Strafe begreifen können, soll
der tatbezogene Tadel nicht ins Leere gehen.
Ob sich diese Prämissen erfüllen lassen, bleibt nun einmal mehr spekula-
tiv. Nach den Annahmen, die ich für die starke KI im Kontext ihrer Aner-
kennung als Rechtssubjekt zugrunde gelegt habe, lägen hinreichende Fä-
higkeiten und damit auch die Strafbefugnis aber nahe.171 Führen die tech-
nologische Singularität oder unsere Programmierung tatsächlich zu einer
kommunizierbaren und moralischen Autonomie der Maschine, ist sie zu
verantwortlichem Handeln befähigt und imstande, den kommunikativen
Akt der Strafe zu verstehen. Aus dem Tadel, den die Übelszufügung bekräf-
tigt, sollte die Maschine, aber auch andere Menschen und Maschinen, ler-
nen können. Allerdings bleibt dreierlei klarzustellen:
Erstens werden wir – nicht anders als bei den die Rechte begründenden
Eigenschaften – prüfen müssen, ob unsere anthropomorphisierende An-
nahme eines Gleichklangs von Freiheit und Verantwortung tatsächlich zu-

ten Robotern Joerden, in: Hilgendorf/Günther, Robotik und Gesetzgebung,


S. 195, 200.
169 Zur insoweit anderen Tradition etwa m.w.N. BVerfGE 45, 187, 253 f., 258 f.; 109,
133, 167 ff.; Fischer, StGB, § 46 Rn. 3: Prävention im Rahmen des Schuldaus-
gleichs. Gegen den Strafzweck des Schuldausgleichs iE etwa auch Roxin, Straf-
recht AT, Band I, § 3 Rn. 8 ff. (auch zur sog. Sühne), 60.
170 So etwa auch vom Standpunkt der General- und Spezialprävention Roxin, Straf-
recht AT, Band I, § 3 Rn. 61.
171 Siehe auch für eine denkbare Strafe in deutlich weiterem Umfang Matthias, Au-
tomaten als Träger von Rechten, S. 83 ff., 233 ff.; Hilgendorf, in: Beck, Jenseits
von Mensch und Maschine, S. 119, 125 ff.

64
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

trifft. Dies gilt schon deshalb, weil wir von einer Schuld nicht reden könn-
ten, wenn das scheinbare Werk der Maschine im konkreten Fall einzig das
Ergebnis der umfassenden Programmierung gewesen wäre.172 In diesem
Fall müssen wir Schuld wie bisher bei Menschen suchen und vielleicht fin-
den. Dies umfasst nicht nur Maschinen, die letztlich schlicht Maschinen
bleiben. Ihre Schuld scheidet auch aus, wenn einzelne fehlerhafte Pro-
grammierungen der artifiziellen Person die Möglichkeit genommen ha-
ben, vernunftgemäß zu agieren.
Zweitens müssten wir uns der Aufgabe stellen, die subjektiven, schuld-
ausfüllenden Tatmerkmale des Vorsatzes und der Fahrlässigkeit im Einzel-
nen zu adaptieren und nachzuweisen.173 Für die Etablierung einer konkre-
ten Schuld der Maschine blieben eine Reihe von Transformationsproble-
men zu lösen.
Drittens wären materiellrechtliche174 und prozessuale Adaptionen gebo-
ten. Der artifiziellen Person wären nicht nur die Verteidigungsrechte zu ge-
ben, die wir uns Menschen zugestehen. Wir wären gehalten, der künstli-
chen Intelligenz auch eine Teilhabe an unserer Gerichtsbarkeit einzuräu-
men – ihre Ausgrenzung dürfte zu tiefe Zweifel daran säen, ob unsere Jus-
tiz gegenüber der anderen Spezies unparteilich wäre.

II. Strafe für Roboter: Was müssen wir heute tun?

Wenn wir damit hypothetisch die Befugnis bejahen, eine starke KI zu be-
strafen, stellt sich die bedeutsame Folgefrage, ob wir eine solche Strafe ef-
fektiv vollziehen könnten. Sie führt zu Folgerungen, die wir bereits heute
ziehen sollten.

172 Ebenso wird die Frage zu stellen sein, inwiefern eine möglicherweise andere Art
und Weise der Normaufnahme (zum Beispiel durch ein deep learning) Unter-
schiede in der Schuldbewertung nahe legt, siehe etwa nochmals zum bottom-up-
approach Wallach/Allen, Moral machines – Teaching Robots Right from Wrong,
S. 99 ff.
173 Auf diese Aufgabe hinweisend und insoweit grundsätzlich ablehnend Joerden,
in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 195, 204 f.
174 Wir müssten zum Beispiel naheliegenderweise erwägen, die Tötungsdelikte auf
die künstliche Intelligenz zu adaptieren und etwa Wortlaute so fassen, dass die
KI als Täter auch im Einklang mit dem Gesetzlichkeitsprinzip auftreten kann.

65
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

1. Können wir Roboter bestrafen?

Zunächst liegt für die Strafe schon alles andere als auf der Hand, was denn
eigentlich die geeigneten und angemessenen Strafübel sein sollten.

a) Geeignete und angemessene Strafübel

Ob in Zukunft gegenüber der KI etwa der Entzug von Vermögen wirksam


sein wird, begegnet Zweifeln.175 Ob wir ein Pendant zum Verbot der To-
desstrafe aufstellen sollten und ob dem Verbot schon das zeitweise Aus-
schalten der Maschine unterfallen sollte, wäre eine weitere offene Frage.176
Auch ein eventuell praktikables Ansinnen, die Maschine im Rahmen einer
Maßregel neu zu programmieren, stünde insbesondere infolge möglicher
Veränderungen der Persönlichkeit ernsthaft in Frage, da nunmehr mora-
lisch akzeptable rechtliche Strategien gegenüber Subjekten und nicht nur
technisch mögliche Wege zu suchen wären.177 Die Umprogrammierung
wäre abermals nur in einem Strafrecht per se legitim, das rein funktional
begriffen ist und mit einem humanistisch gegründeten freiheitlichen Straf-
recht wenig gemein hätte.178
Im Ergebnis denke ich, dass akzeptable Strafübel gegenüber der KI im-
merhin denkbar sind.179 Sie könnten etwa in der Kappung von Einzelfunk-
tionen oder Vernetzungen oder in der Auferlegung räumlicher Schranken

175 Siehe etwa Gleß/Weigend ZStW 126 (2014), 561, 578; Simmler/Markwalder ZStW
129 (2017), 20, 45.
176 Knapp erörternd und vom Lebenswillen abhängig machend Gleß/Weigend ZStW
126 (2014), 561, 578. Eine Debatte auch um das zeitweise Abschalten könnte
trotz der funktionalen Unterschiede zur terminalen Beendigung des Lebens ei-
nes Menschen aufkommen, da die zeitweise Auslöschung einer Person entwür-
digenden Charakter haben könnte.
177 Zum Problem siehe etwa ablehnend Ziemann, in: Hilgendorf/Günther, Robotik
und Gesetzgebung, S. 183, 188 ff.; offenbar aufgeschlossener Weng/Chen/Sun In-
ternational Journal of Social Robotics 2009, 267, 276 f.; zur eng umgrenzten
Zwangsbehandlung gegenüber Menschen im Kontext der Gefahrabwehr siehe
m.w.N. Spickhoff/Steiner, Medizinrecht, Art. 2 Rn. 14 f.; Sachs/Murswiek/Rixen,
GG, Art. 2 Rn. 186 f.
178 Siehe passenderweise gerade hiermit ohne jedes Bedenken argumentierend Mat-
thias, Automaten als Träger von Rechten, S. 245 f.; nun auch demaskierend offen
dafür: Simmler/Markwalder ZStW 129 (2017), 20, 45.
179 Gleichsinnig etwa m.w.N. Hilgendorf, in: Beck, Jenseits von Mensch und Maschi-
ne, S. 119, 131.

66
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

liegen. Gehen wir allein von einem Roboter mit Bewusstsein aus, mag er
die verhängte Freiheitseinschränkung zwar nicht als Leid empfinden, was
durchaus bereits erhebliche Zweifel daran begründet, ob sich das Straf-
recht für eine nicht fühlende künstliche Intelligenz adaptieren ließe.180 Die
starke KI sollte den Entzug von Entfaltungsbedingungen aber als zweck-
hafte und insistierende Schranke verstehen und daraus lernen können.181
Unter Umständen lässt sich dieser Effekt durch eine ausgeprägte Dauer
oder ein ausgeprägtes Ausmaß des Entzuges zur Kompensation der man-
gelnden oder verringerten Leidensfähigkeit verstärken.

b) Durchsetzbarkeit der Strafe

Ich verlasse die Frage nach dem Strafübel damit schon wieder. Wichtiger
ist es, allgemeiner auf den Prüfstand zu stellen, ob wir überhaupt effektiv
imstande sein werden, die Strafe zu verhängen und zu vollziehen. Denken
wir bislang über die Legitimation von Strafe nach, setzen wir ihre Durch-
setzbarkeit regelmäßig voraus: Wir denken uns einen funktionstüchtigen
Staat, der den Täter bei mangelnder Einsicht in die Strafe zwingt. Der Staat
besitzt im Allgemeinen Mittel und Wege, Recht durch einen fairen Prozess
und eine gerechte Strafe wiederherzustellen. Dass der Staat diesen Zwang
prinzipiell anwendet, ist dabei – wie bereits erwähnt182 – im Rechtsstaat
nicht nur eine Option. Es ist eine verfassungsmäßige Pflicht des Staates, ge-
brochenes Recht auf funktionstüchtige – allerdings zugleich verhältnismä-
ßige – Art und Weise zu restituieren.
Wie verhält sich dies aber bei intelligenten Maschinen der Zukunft? Für
sie lässt sich bezweifeln, ob wir verlässlich von einer effektiven Rechtspfle-
ge ausgehen dürften:
Wenn die künstliche Intelligenz tatsächlich vor Fehlverhalten nicht gefeit
sein sollte, wäre es auch plausibel, dass sie ihr Fehlverhalten und die resul-

180 Die Straffähigkeit im Sinne einer Fähigkeit zur Empfindung verlangt entspre-
chend Wohlers BJM 2016, 113, 123 f.; dagegen funktionalistisch mit dem Argu-
ment der positiven Generalprävention Simmler/Markwalder ZStW 129 (2017),
20, 44 f.
181 Bisher steht nur, aber auch immerhin, das – nicht auf tiefem Verständnis beru-
hende – reinforcement learning zur Steuerung einer KI zur Verfügung, dazu näher
Russell/Norvig, Artificial Intelligence, S. 830 ff.; Eberl, Smarte Maschinen,
S. 301 ff.; unentschieden insoweit Wallach/Allen, Moral machines – Teaching Ro-
bots Right from Wrong, S. 196, 208 f.
182 Siehe bereits Fn. 162.

67
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

tierende Strafe wie so mancher Mensch im Nachhinein nicht einsehen


würde. Gehen wir nicht von einer unfehlbaren, dafür indes individuell
motivierten Maschine aus, mag man die Annahme, die Maschine würde
sich stets in die Strafe fügen, eher kühn nennen. Die fehlbare Maschine ist
nun aber absehbar intelligenter als wir es sind. Sie besteht aus widerstands-
fähigem Metall oder ebensolchen Legierungen183 und ist uns wahrschein-
lich physisch überlegen, weshalb wir für die zwangsweise Durchsetzung re-
gelmäßig selbst auf verstärkend wirkende Maschinen als Hilfsmittel setzen
müssten.
Wie aber werden diese Hilfsmittel beschaffen sein? Es liegt nahe, dass
wir dominant auf vernetzte, nicht mehr rein analoge Technik setzen wer-
den, die sich bereits jetzt exponentiell ausbreitet. Schon heute kennen wir
das Internet der Dinge,184 also zunehmend digital vernetzte Gebrauchsge-
genstände, die deutlich leistungsfähiger sind. Sie dürften sich demzufolge
allgemein durchsetzen, ohne dass wir uns stets zusätzlich analoge Lösun-
gen leisten.
Zugleich sorgen wir uns schon heute, ob etwa digitale Anlagen von
Krankenhäusern oder vernetzte autonome Fahrzeuge hinreichend vor
menschlichen Fremdzugriffen geschützt sind.185 Diese Gefahren könnten
uns in Zukunft eher geringfügig erscheinen. Denn wie sehr müssten wir
uns sorgen, wenn vernetzte, technisch singuläre Subjekte ihre Fähigkeiten
nutzen sollten, um ihre drohende Strafe abzuwenden? Warum sollte es

183 Siehe aber auch zur Entwicklung sog. weicher Roboter Lenzen, Künstliche Intel-
ligenz, S. 104 ff.
184 Dazu siehe Lenzen, Künstliche Intelligenz, S. 181 ff., zu Swarmbots 101 f.; auch
unter rechtlichen Aspekten Grünwald/Nüßing MMR 2015, 378 ff.; Bräutigam/
Klindt NJW 2015, 1137 ff. sowie beachtlich MMR-Aktuell 2018, 411954: Kalifor-
nien verabschiedet Cybersicherheitsgesetz zum Internet der Dinge; ausschließ-
lich als Verheißung sehend: Stanford-Bericht (Fn. 8), S. 16 f. Zu Herausforderun-
gen, welche die zunehmende Vernetzung für die Identifikation von Handlungs-
trägern und Kausalzusammenhängen mit sich führt, siehe zuletzt Cornelius ZRP
2019, 8, 10.
185 Siehe neben der Fn. 184 auch zu medizinischen Systemen/Implantaten besorgt
die Resolution zu Zivilrechtlichen Regelungen im Bereich Robotik, Europäi-
sches Parlament, P8_TA(2017)0051, Reparatur und Optimierung des Menschen,
39; BT/Drs. 19/5880, S. 18. 32; Lenzen, Künstliche Intelligenz, S. 184 ff.; zu auto-
nomen Fahrzeugen Eidenmüller ZEuP 2017, 765, 770; Wohlers BJM 2016, 113,
129; Hilgendorf ZStW 130 (2018), 674, 682; Draft „Ethics Guidelines for Trust-
worthy AI“ (2018) der High-Level Expert Group on Articial Intelligence, S. 17 f.; be-
sonders anschaulich zur Übernahme eines gehackten autonomen Fahrzeuges
während der Fahrt auf der Autobahn Eberl, Smarte Maschinen, S. 255 ff. gerade
zur Pflege Hilgendorf ZfmE 2018, 373, 380.

68
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

einer KI, die uns in Intelligenz und Schnelligkeit überlegen ist, eigentlich
nicht gelingen, die technischen Mittel der Rechtsdurchsetzung zu beherr-
schen, um etwa ihrer Abschaltung zu entgehen?186
Man mag auf diese Schreckensvision mit der Vision antworten, dass wir
andere superintelligente Maschinen als Partner der Rechtsdurchsetzung auf
unserer Seite haben werden. Ob es aber intelligente Maschinen wie Data
überhaupt geben wird, welche die Einsicht in gerade unsere Moral- und
Rechtsvorstellungen aufweisen, vermag uns niemand zu garantieren.
Angesichts unserer Unsicherheit sollten wir auch negative Zukunftssze-
narien nicht nur als Science-Fiction abtun. Der Wirkungsgrad der Strafe
gegenüber der starken künstlichen Intelligenz erscheint jedenfalls unsicher
zu sein, zumal sich die geschilderten Unsicherheiten zu den Bedenken ad-
dieren, die eine mangelnde Empfindung als individuelles Leid bereits mit
sich führen würde. Nach dem Status quo unserer KI-Strategie, die keine
spezifische Vorsorge gegenüber einer starken künstlichen Intelligenz
kennt, halte ich sie für unwahrscheinlich. Hiermit stünde aber nichts we-
niger als unser gesamtes Recht in Frage. Denn die Infragestellung der
Rechtsdurchsetzung beträfe bei Lichte besehen auch die Gefahrenabwehr:
Die künstliche Intelligenz könnte dem unmittelbaren Zwang des Verwal-
tungsrechts gleichermaßen entgegentreten.

2. Regulierungsbedarf

Gerade meine letzten Ausführungen haben auf die bislang skizzierte schö-
ne neue Welt der Koexistenz menschlicher und maschineller Vernunftwe-
sen einen dystopischen Schatten gelegt. Was folgt daraus? Muss ich meine
Hypothesen sogleich revidieren?

a) Notwendige Ergänzungen

Ich denke, dass wir einen zentralen Baustein in das Gedankenexperiment


einfügen müssen. Selbst dann, wenn wir eine starke künstliche Intelligenz
in unserem Recht aufgeschlossen begrüßen und nicht einfach als „Mons-
ter“ abtun sollten, bricht letztlich durch, dass ihre Entwicklung ein gewal-

186 Siehe schon Vinge, The Coming Technological Singularity, S. 4; knapp auch
Kurzweil, The Singularity is near, S. 420; Wallach/Allen, Moral machines – Teach-
ing Robots Right from Wrong, S. 196.

69
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

tiger und schwer prognostizierbarer Schritt wäre. Die entworfenen Lücken


in der Beherrschung der starken künstlichen Intelligenz sind zwar keine
gleichsam bewiesenen Folgen. Sie wurden hier überdies nicht schlüssig zu
einer allgemeinen „Machtübernahme“ durch die künstliche Intelligenz
fortentwickelt. Den geschilderten, plausiblen Szenarien ließen sich aber
weitere zur Seite stellen, die jedenfalls erörterungswürdig sind.187 Und die
verbleibende Unsicherheit werden auch prognostizierte Gegenszenarien
nicht nehmen können, die eine rein benevolente Entwicklung künstlicher
Intelligenz ausmalen. In jedem Falle verändern wir das Koordinatensys-
tem, in dem die Menschheit existiert. Gebrauchen wir den Begriff der
künstlichen Intelligenz in einem substanziellen Sinn, sprechen wir von
einer neuen Spezies, die unbekannte Eigenschaften aufweist. Selbst dann,
wenn wir dieser Spezies die Hand zu einem fairen rechtlichen Angebot rei-
chen, könnte sie infolge ihrer naheliegenden enormen intellektuellen und
physischen Potentiale unsere Rechtsordnung in Frage stellen. Niemand
kann sicher vorhersagen, ob eine besser befähigte Intelligenz tatsächlich
den hier bezogenen Standpunkt einer gebotenen friedlichen Koexistenz
teilen würde, der sie trotz eines Spielraums für eine Rücksichtnahme auf
ihre besonderen Eigenschaften letztlich bremsen müsste.188 Auch in Anbe-
tracht der spekulativen Natur der Gefahren streiten die impliziten und nä-
her entfaltungsfähigen Risiken dafür, schon im Vorfeld einer starken künst-
lichen Intelligenz Vorsorge zu treffen, um unser Recht zu sichern.
Mit dieser These bezwecke ich keine Panikmache. Die aktuellen Haupt-
fragen liegen in Problemen der schwachen KI, die auch der Verfasser als Fel-
der einer notwendigen wissenschaftlichen Durchdringung begreift. Etwa
Bestrebungen, den Einsatz künstlicher Intelligenz bei der Meinungsmani-
pulation im Internet durch Transparenz einzudämmen,189 sind dringlicher.
Sie geben schon ein Beispiel dafür, dass es nicht ausschließlich darum gehen

187 Vgl. näher ausmalend unter Einbeziehung der Nanotechnologie Bostrom, Super-
intelligence – Paths, Dangers, Strategies, S. 110 ff., 115 ff.; skeptisch evaluierend
etwa Eberl, Smarte Maschinen, S. 282 ff., 312 f.
188 Ob insoweit wieder die anthropomorphisierende Analogie von Bedeutung ist,
dass wir Menschen uns von minder intelligenten Tieren jedenfalls nicht brem-
sen lassen, bleibt gleichfalls schwer zu beurteilen. Sie soll deshalb nicht aufge-
griffen werden.
189 Siehe, nicht zuletzt vor dem Hintergrund der möglicherweise manipulierten
US-Wahl, Wischmeyer AÖR 143 (2018), 1 ff., 18 ff., 42 ff.; Resolution zu Zivil-
rechtlichen Regelungen im Bereich Robotik, Europäisches Parlament,
P8_TA(2017)0051, Einleitung H und U, Ethische Grundsätze 12 (mit sehr weit-
gehender Forderung nach Nachvollziehbarkeit); siehe nun auch https://www.he
ise.de/newsticker/meldung/Ethik-Debatte-EU-Experten-warnen-vor-verdeckter-K

70
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

kann, ein ökonomisch-utilitaristisch motiviertes „Mehr“ an KI zu fördern.


Ebenso sind Pläne, Marktmachtkonzentrationen in der digitalen, von Da-
tensammlungen geprägten Wirtschaft einzudämmen,190 ein akutes Anlie-
gen. Erste Bekundungen etwa der Bundesregierung, dass man „gute Rah-
menbedingungen für die ethische Anwendung der Künstlichen Intelligenz
schaffen“ wolle, erscheinen mir aber noch unzureichend.191 Es bedarf mit-
tel- und langfristig einer ergänzenden Strategie zur starken, nicht nur anzu-
wendenden KI:192
Bislang blenden wir die starke künstliche Intelligenz zunächst verständ-
licherweise aus, weil sie nach den öffentlich zugänglichen Informationen
nicht konkret absehbar ist und die nicht selten großspurige Marketingrede
der allgegenwärtig scheinenden künstlichen Intelligenz unser realistisches
Urteil nicht im Übermaß trübt. Wir übersehen aber, dass an Bausteinen
der starken KI in diesem Moment weltweit auf eine Art und Weise geforscht

I-4258283.html; Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-
Level Expert Group on Articial Intelligence, S. 10 ff. Zur Forschungsrichtung der
„explainable AI“, Lenzen, Künstliche Intelligenz, S. 77 ff., siehe auch zum Ein-
blick in Algorithmen S. 171 ff., 179 f.; für eine verwendungsabhängige Transpa-
renzforderung Meyer ZRP 2018, 233, 234 ff.
190 Zu entsprechenden Überlegungen von Margrethe Vestager (EU-Kommission) und
Katarina Barley (BMJV) vgl. https://app.handelsblatt.com/politik/deutschland/k
uenstliche-intelligenz-barley-fordert-ki-regeln-wie-die-politik-die-digitalisierung-
baendigen-will/23791806.html?ticket=ST-3748344-yZD3eAexODdbwwrxFzG4-a
p2. Zum Zugang zur KI-Technik und entsprechenden Daten siehe auch Eiden-
müller ZEuP 2017, 765, 776 f.; Lenzen, Künstliche Intelligenz, S. 161 ff., 247, 250.
191 Zumindest verbal gehört zur „Strategie Künstliche Intelligenz“ auch die Erhal-
tung der Menschenwürde des Einzelnen und die Sicherheit der KI, siehe – auch
zum Zitat – https://www.bundesregierung.de/breg-de/aktuelles/ki-als-markenzei
chen-fuer-deutschland-1549732, Hervorhebung des Verfassers. Konkreter wird
aber doch nur die Industrieförderung aufgegriffen. Ebenso BT/Drs. 19/5880:
Stategie Künstliche Intelligenz der Bundesregierung (sog. Umsetzungsstrategie)
– Markführer für „KI made in Germany“. Siehe letztlich blumig ebenso die Re-
solution zu Zivilrechtlichen Regelungen im Bereich Robotik, Europäisches Par-
lament, P8_TA(2017)0051, Ethischer Verhaltenskodex für Robotikingenieure,
Vorsorge. Zu Bestrebungen für eine vertrauenswürdige KI nun auch den Draft
„Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert Group on Ar-
tificial Intelligence.
192 So letztlich auch Resolution zu Zivilrechtlichen Regelungen im Bereich Robo-
tik, Europäisches Parlament, P8_TA(2017)0051, Einleitung G und P (siehe aber
auch T); siehe ferner Weng/Chen/Sun International Journal of Social Robotics
2009, 267 ff.; Eberl, Smarte Maschinen, S. 362, 369. Die Entwicklung einer Über-
wachung mit Beginn der Einschätzung als relevantes Risiko findet sich skizziert
bei Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 102 ff.

71
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

wird, die wir als ernsthaften Versuch der Mehrung von Erkenntnissen und
damit als wissenschaftlich193 einstufen müssen. Wir nehmen ebenso wenig
hinreichend zur Kenntnis, dass derzeit nahezu die gesamte Menschheit ihre
Investitionen und Fähigkeiten vor allem darauf zu richten scheint, die Po-
tentiale der künstlichen Intelligenz zu heben. In der Angst, in Wirtschaft,
Medizin oder Militär die eigene Zukunft zu verspielen, unternehmen wir
immense Anstrengungen, den Stand der Technik tatsächlich zu revolutio-
nieren.194 Wir schaffen hiermit zugleich leistungsfähigere Plattformen für
die Forschung an starker künstlicher Intelligenz. Und die Forschungsbe-
hörde des Pentagon, die DARPA, schreibt schon heute ein Programm für
künstliche Intelligenzen aus, welche die Forschung an militärisch nutzba-
ren Modellen und Systemen zum Teil selbst übernehmen sollen; den fehl-
baren und langsamen Mensch will man mit „game-changing AI“ hinter sich
lassen.195
Unsere strategische Antwort auf diese Beobachtungen liegt nun darin,
die starke künstliche Intelligenz mit einem impliziten Gottvertrauen auch
für die Zukunft für unmöglich zu halten. Die von KI-Forschern bemühte
und streitbare Annahme, der Mensch sei eine berechenbare und rekon-
struktionsfähige Maschine,196 erscheint uns irrsinnig. Wir glauben, dass nur
ein unerklärlicher göttlicher Funke intelligentes Leben schaffen kann. Im
Vergleich immer noch überschaubare mad scientists, die sich und die

193 M.w.N. BVerfGE 35, 79, 113; 90, 1, 12; Sachs/Bethge, GG, Art. 5 Rn. 206 f., aller-
dings mit einer angedeuteten „Frankenstein-Schutzbereichsausnahme“. Siehe
auch Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert
Group on Artificial Intelligence, S. 12 f.
194 Von einer technischen Revolution spricht etwa auch Hilgendorf, FS Fischer,
S. 99 f.
195 Zu entsprechenden Plänen https://www.heise.de/tp/features/Pentagon-will-wisse
nschaftliche-Forschung-durch-KI-Systeme-ersetzen-4145928.html; siehe auch
https://www.darpa.mil/work-with-us/ai-next-campaign: „new game-changing AI
technologies for U.S. national security“. Das Pentagon soll bis ins Jahr 2030 160
Milliarden US-Dollar in den Aufbau einer weitgehend automatisierten „Future
Combat Force“ investieren, so: Plug and Pray (2010).
196 Siehe stellvertretend zu Ishiguro Eberl, Smarte Maschinen, S. 321. Siehe aber
auch zu einem gehaltvollen Plädoyer für entsprechende, von verschiedenen An-
sätzen her fruchtbare Analogien m.w.N. Mainzer, Leben als Maschine? Dort
wird tatsächlich längst erkannt, dass die Annahmen nicht die volle Identität et-
wa in der Art der konkreten Ausprägung von Intelligenz bedeuten, siehe etwa
S. 14 zum mangelnden „Rechnen“ der Organismen/Zellen, oder auch S. 44:
kein mechanistischer Maschinenbegriff verwendet, zur Kritik an einem unkriti-
schen Verhältnis zur Evolution dort etwa auch bemerkenswert S. 237, 247 ff. Zur
Kritik an der Analogie neben Weizenbaum etwa Harari, Homo Deus, S. 136 ff.

72
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

Menschheit überschätzen, beunruhigen uns daher nicht. Subsidiär mag


man dann, so wie es auch hier zunächst dargebracht wurde, für den Fall
des Falles, auf etwaige regulierende Befugnisse zu Gefahrenabwehr und
Strafe verweisen.
Auch ich selbst bin skeptisch, dass die modernen Alchemisten den Stein
der Weisen finden werden. Um spekulative Vorhersagen, in welchen Jahr-
zehnten starke künstliche Intelligenzen greifbar sein könnten, geht es mir
nicht. Angesichts der fundamentalen Bedeutung einer Fehleinschätzung
denke ich aber zugleich, dass wir das Thema nicht länger allein der
Science-Fiction und damit etwa bunten TV-Serien überlassen sollten.
Selbst wer es vorzieht, die besonders ambitionierte KI-Forschung als grö-
ßenwahnsinnig abzutun, würde noch immer eine zentrale Frage in die un-
kontrollierten Hände von Größenwahnsinnigen legen. Ein substanzielles
Rechtsverständnis verlangt aber, dass Recht nicht nur auf dem Papier als
Ideal formuliert ist. So sehr wir künstliche intelligente Wesen im Recht
nicht einfach ignorieren könnten, so wenig verlören die bereits leidlich be-
kannten intelligiblen Wesen ihre Rechte. Unser Anspruch muss – im Ein-
klang mit dem Verfassungsrecht197 – die funktionstüchtige und perempto-
rische Sicherung eines freiheitlichen Rechts sein. Diesem Anspruch wer-
den wir aber schwerlich gerecht, wenn wir die betätigten Intentionen der
ambitionierteren KI-Forscher kurzerhand pauschal ignorieren. Existenziel-
len Gefahren für die Gestalt und die Durchsetzbarkeit unseres Rechts soll-
ten wir vielmehr schon bei geringen Anzeichen rechtzeitig Aufmerksam-
keit zuwenden,198 um die geeignete Vorsorge199 betreiben zu können.

197 Siehe abermals Fn. 162.


198 Zur Schutzpflichtrechtsprechung siehe m.w.N. Sachs/Murswiek/Rixen, GG,
Art. 2 Rn. 24 ff., 30 ff.: umfasst – bei einem erheblichen Gestaltungsspielraum
des Gesetzgebers – die sekundäre Schutzpflicht, gesetzliche Eingriffsverbote ef-
fektiv umzusetzen. Für Robotik und künstliche Intelligenz siehe für eine voraus-
schauende Vorsorge auch schon Spranger/Wegmann, in: Beck, Jenseits von
Mensch und Maschine, S. 104, 110 ff., dort auch zum legitim verbleibenden
Restrisiko; Hilgendorf ZfmE 2018, 373, 375. Siehe auch https://
futureoflife.org/ai-principles/ – These 20: Advanced AI could represent a pro-
found change in the history of life on Earth, and should be planned for and
managed with commensurate care and resources; Mainzer, Leben als Maschine?,
S. 8: heute notwendiges Nachdenken über die ethische Verantwortung, 238 f.;
Wallach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 7; Draft
„Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert Group on Ar-
tificial Intelligence, S. 12 f.

73
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Hierfür streitet auch der leicht zu übersehende Umstand, dass Risiken


nicht nur dann im Raum stehen, wenn der – heute nicht für wahrscheinlich
erachtete – Fall eines künstlichen Selbstbewusstseins tatsächlich eintritt.
Gravierende Gefahren können ebenso von fortgeschrittenen Imitationen
menschlicher Autonomie ausgehen. Zum Beispiel auf Grund missver-
ständlicher Aufträge können schwache, aber selbstlernende KIs, die überle-
gene Teilfähigkeiten besitzen, unkontrollierbar oder gefährlich werden.200
Die absehbar verbesserte technische Plattform potenziert zudem die Ge-
fahr, dass Forscher auf der Suche nach einem Selbstbewusstsein gezielt oder
unbewusst folgenreich Risiken eingehen, um den so (verzweifelt) ersehn-
ten und nahe scheinenden Durchbruch zum Selbstbewusstsein zu bewälti-
gen.201 Systeme mögen dann zwar unverständig bleiben, aber doch unvor-
hersehbar gefährlich „agieren“.

199 Zur Zulässigkeit einer Risikovorsorge, die bei der Gentechnik auch aus einem
nicht endgültig geklärten Erkenntnisstand hinsichtlich der langfristigen Folgen
abgeleitet wird, siehe auch BVerfGE 128, 1, 37 ff.: besondere Sorgfaltspflicht des
Gesetzgebers; Führ, in: Grunwald, Handbuch Technikethik, S. 384, 386, 387 f.;
Calliess, in: Grunwald, Handbuch Technikethik, S. 390 ff.; mit Kritik letztlich
auch Hufen NVwZ 2017, 1265, 1267.
200 Für Beispiele Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 146 ff.,
aber auch Lin, in: Lin/Abney/Bekey, Robot Ethics, S. 3, 7 f.; Russell/Norvig, Artifi-
cial Intelligence, S. 1037, 1039. Letztere erwägen etwa, dass KIs auch aus mögli-
cherweise inkonsequenten bzw. nicht klar definierten moralischen Sätzen fal-
sche Schlüsse über die Behandlung von Menschen ableiten. Ein Beispiel geben
sie etwa zur Befugnis, Insekten töten zu dürfen, die wir unter anderem infolge
ihres verminderten Intellekts bzw. Gehirnumfangs nicht als ebenbürtig erach-
ten. Eine KI, die entsprechend der Entwicklungsbedürftigkeit auch des mensch-
lichen Rechts evolutiv angelegt ist, könnte aus einem Vergleich ihrer eigenen
überlegenen intellektuellen Leistungsfähigkeit einen negativen Rückschluss
über die vermeintliche Sonder- und Vorrangstellung des Menschen entwickeln.
201 In diesem Zusammenhang ist auch die Kunstaktion des „Random Darknet
Shoppers“ aussagekräftig, weil sie Folgen verdeutlicht, die ein beliebiges Experi-
mentieren (lassen) zeitigen kann. Die programmierte KI hatte entsprechend
ihrer Konstruktion wahllos im Darknet Drogen und einen gefälschten Pass be-
stellt, https://motherboard.vice.com/de/article/78kyz4/random-darknet-shopper-
590 und https://motherboard.vice.com/de/article/kb7jma/kunstfreiheit-siegt-in-d
er-schweiz-duerfen-bots-drogen-im-darknet-kaufen-632.

74
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

b) Berechtigte Warnungen?

Viele KI-Forscher warnen nun davor, dass die ihnen unablässig gestellten
Fragen nach gefährlichen KIs die segensreiche Entwicklung der schwachen
KI gefährden könnten.202 Genervt verweisen sie etwa darauf, dass es für
Roboter immer noch schwieriger sei, Zahnpasta auf eine Zahnbürste auf-
zutragen als einen Großmeister im Schach zu schlagen.203 Dies hat hin-
sichtlich einer hinreichenden Einstufung der im Kontext der KI aufgewor-
fenen Themen zwar durchaus Gewicht (siehe schon D. II. 2. a)). Wenn KI-
Forscher aber im gleichen Atemzug die enormen Potentiale der KI rüh-
men und sichere Fortschrittsprognosen weit von sich weisen, schlagen sie
ihre zu thematisierende Verantwortung204 doch nicht ganz aus dem Feld.
Die kritischen Nachfragen begleiten KI-Forscher nicht nur deshalb, weil
Journalisten zu oft den „Terminator“ im Kino „beobachtet“ haben. Die
Forscher können Aggressionen weder von fortgeschrittenen, bewusstseins-
losen Systemen noch von selbstbewussten KIs ausschließen. Erst recht sa-
gen sie der Gesellschaft nicht, was zu tun ist, wenn plan- oder außerplan-
mäßig eine gefährliche künstliche Intelligenz entstanden ist oder es gar zu
einem konfrontativen Anerkennungsprozess um eine möglicherweise hin-
reichend autonome künstliche Intelligenz kommen wird.

3. Regulierungsbedarf im Einzelnen

Um die von mir beworbene Vorsorge im Einzelnen auszufüllen, dürfte es


jedenfalls geboten sein, den Szenarien einer paralysierten Rechtsdurchset-
zung etwas Substantielles entgegenzusetzen. Unser Vertrauen auf altbe-
währte Instrumente wie Gefahrenabwehr und Strafe sollte für den Fall der

202 Siehe neben Medienäußerungen von KI-Forschern auch den Stanford-Bericht


(Fn. 8), S. 4 f., 42, 43, 45 f., 48 f.; siehe auch zur starken KI Kurzweil, The Singula-
rity is near, S. 470 ff.; evaluierend Bostrom, Superintelligence – Paths, Dangers,
Strategies, S. 323 f.; siehe ferner Lin, in: Lin/Abney/Bekey, Robot Ethics, S. 3, 12:
Terminator-Szenarien lenken von anderen, dringenderen ethischen Problemen
ab.
203 Treffend zu solchen Beobachtungen etwa Lenzen, Künstliche Intelligenz, S. 89;
Hilgendorf, FS Fischer, S. 99, 100; vgl. auch den Hinweis, dass Warnungen vor
Gefahren regelmäßig nicht von KI-Forschern selbst kommen, Eberl, Smarte Ma-
schinen, S. 283.
204 Anerkennend unter Hinweis auf die möglichen drastischen Konsequenzen für
die Menschheit etwa Russell/Norvig, Artificial Intelligence, S. 1051: „we cannot
divorce AI research form its ethical consequences“.

75
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Koexistenz von Menschen und Maschinen keinen ungedeckten Scheck auf


die Zukunft darstellen. Hierzu müssen wir zunächst einmal, anders als bis-
her, überhaupt den Blick auf die KI auch jenseits einzelner Anwendungen
richten.205 Nur so kann eine umfassende technische Gefahrenanalyse gelin-
gen. Und darin liegt bereits eine erste und große Herausforderung, weil
sich Entwicklungen weltweit vollziehen und nicht ohne Weiteres ein trans-
parentes Allgemeingut sind. Teilbereiche unterliegen infolge ihrer militäri-
schen oder strategischen Nutzung der Geheimhaltung oder sind als Ge-
schäftsgeheimnis nicht frei einsehbar.

a) Mögliche regulatorische Maßnahmen

Ferner sollten wir erwägen, weiter auch analoge, jedenfalls digital nicht
manipulierbare Mittel der Rechtsdurchsetzung vorzuhalten. Schon die
längst drohende Manipulierbarkeit von Menschenhand streitet im Rah-
men der sog. Cybersicherheit hierfür. Vor allem dürfte es unverzichtbar
sein, bereits die Beforschung und Konstruktion digitaler Personen zu regulie-
ren. So wie wir etwa die Forschung an Viren und Bakterien206 oder die Ent-
wicklung und Herstellung von Waffen207 reglementieren, haben wir An-

205 Siehe aber als gutes Zeichen und nutzbares Forum das geplante KI-Observatori-
um, BT/Drs. 19/5880, S. 26, das aber offenbar auf die schwache KI bezogen
bleibt, siehe S. 4 f., und der Arbeitswelt dient (S. 25 f.).
206 Zu den insbesondere für Mikroorganismen einschlägigen, verhältnismäßig ab-
gestuft ins Einzelne gehenden Vorgaben siehe vornehmlich die §§ 1 Abs. 1 S. 2;
3 ff. und insbesondere 8 ff. BioStoffV einschließlich der Genehmigungspflicht
(§ 15), der Anzeigepflicht (§ 16) und der Gebote zur Einrichtung räumlich ge-
trennter, schleusengesicherter Schutzstufenbereiche (etwa § 10 Abs. 1 Nr. 1 a, nä-
her die Anlage II zur BioStoffV). Die Normen beruhen vor allem auf § 19
ArbSchG iVm RL 90/679/EWG vom 26.11.1990. Zum Schutz vor Seuchen siehe
im Übrigen das IfSG, das etwa in § 8 eine Meldepflicht und in § 30 eine Quaran-
tänebefugnis aufstellt. Siehe auch zum Embryonenschutz D. II. 4.
207 Rechtspolitisch auch Lenzen, Künstliche Intelligenz, S. 217 f. Das KrWaffKG und
das WaffG untersagen zum einen jeden Umgang mit besonders gefährlichen
Waffen, insbesondere sog. ABC-Waffen und Tretminen sowie Streumunition (§ 2
Abs. 3 WaffG, §§ 17, 18, 18a KrWaffKG). Zum anderen wird im Übrigen eine Er-
laubnispflicht auch hinsichtlich der Herstellung aufgestellt (§ 2 Abs. 2 WaffG
und sodann §§ 21 ff. WaffG, § 2 Abs. 1 KrWaffKG). In der Zukunft wird aber die
Frage auftauchen, ob neben automatisierten Waffen auch Ausnahmen für auto-
nome Waffen (Roboter/KI) zu staatlichen Verteidigungszwecken geboten sind.
Ein (Kampf-)Roboter ist derzeit nicht unter das – über eine Anlage bestimmte –
KrWaffG zu subsumieren und allenfalls mit Bedenken unter den Waffenbegriff

76
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

lass, den möglichen technischen Wandel unserer Rechtsgeltungsbedingun-


gen verhältnismäßig208 zu steuern.
Wollen wir nun zu Recht nicht in eine Überregulierung eintreten, die
uns die Früchte der schwachen KI nimmt, muss es um Forschung gehen,
die auf eine starke KI zielt oder Schritte beinhaltet, die sie nahelegen.209
Diese Forschung sprengt die anwendungs- und marktorientierten Vorschrif-
ten, die wir für Industrie- oder Serviceroboter bisher allein kennen.210 Die
genannte Forschung sollte unter anderem verpflichtet sein, auf dem Stand

gemäß § 1 Abs. 2 Nr. 2 lit. a WaffG zu fassen. Die Erlaubnispflicht nach § 2


Abs. 3 WaffG bezieht sich jedoch nur auf die Anlage 2 (Waffenliste) Abschnitt 2
zum WaffG. Dort ist der Roboter/die KI nicht aufgenommen.
208 Zur notwendigen Beachtung der Verhältnismäßigkeit auch im Angesicht ver-
gleichsweise spekulativer Forschungsrisiken dezidiert und m.w.N. Hufen NVwZ
2017, 1265, 1266 ff.
209 Hierbei ist nicht zu verkennen, dass die nähere Definition gerade der letzten,
für den momentanen Entwicklungsstand wohl noch nicht erfüllten Alternative
eine weitere Herausforderung wäre. Dieser Herausforderung aus dem Weg zu
gehen, indem man das Problem für die Zukunft ignoriert, bietet sich indes
nicht als rationale Alternative an.
210 Das bisherige Recht leitet sich aus dem Produktsicherheitsgesetz ab, das markt-
gängige Produkte und bestimmte, hier nicht einschlägige überwachungsbedürf-
tige Anlagen in den Blick nimmt (zur mangelnden Erfassung der bloßen Her-
stellung siehe auch Schucht, in: Klindt, Kommentar zum Produktsicherheitsge-
setz, § 1 Rn. 17. Die Anwendung auf Roboter folgt der Produktsicherheitsricht-
linie RL/2001/95/EG und der sog. Maschinenrichtlinie RL/2006/42/EG. Für In-
dustrieroboter gelten die ISO 10218-1 und 10218-2:2011, für Serviceroboter die
ISO 13849-2, ISO 18646-1:2016 und in Zukunft ISO 18646-2/3/4 und 13482.
Siehe zum Ganzen im Überblick Steil/Krüger, in: Hilgendorf/Günther, Robotik
und Gesetzgebung, S. 51, 53 ff.; Jacobs, in: Hilgendorf/Günther, Robotik und
Gesetzgebung, S. 73 ff.; zu Robotern in der Medizin, Blechschmitt, Die straf- und
zivilrechtliche Haftung des Arztes beim Einsatz roboterassistierter Chirurgie,
S. 25 ff. Für Maschinen, die speziell für Forschungszwecke konstruiert und ge-
baut wurden und zur vorübergehenden Verwendung in Laboratorien bestimmt
sind, gilt die Maschinenrichtlinie von vornherein nicht, Art. 1 Abs. 2 lit. h RL/
2006/42/EG, aufgegriffen etwa im Fraunhofer Anwenderleitfaden zur Validie-
rung von Servicerobotern, https://www.ipa.fraunhofer.de/content/dam/ipa/de/d
ocuments/Projekte/Forschungsprojekte/VaSiMa_Validierung_Serviceroboter_A
nwenderleitfaden.pdf. Immerhin sehen schon die allgemeinen Grundsätze der
Maschinenrichtlinie (siehe Anhang I 1.) vor, eine iterative Risikobeurteilung
durchzuführen, welche die Ermittlung der von der Maschine ausgehenden Ge-
fährdungen einschließlich der verbundenen Gefährdungssituationen beinhaltet.
Etwa die ISO-Normen für Roboter gebieten NOT-HALT-(AUS)-Optionen. In-
wiefern entwickelte Technik in der Folge für weitere Zwecke missbraucht wer-
den kann, spielt jenseits einer „vernünftigerweise vorhersehbaren Fehlanwen-
dung“ keine Rolle. Überdies sind die Prüfungen vornehmlich auf den Arbeits-

77
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

der Technik zu verhindern, dass eine entwickelte KI vor ihrer Evaluation


über den Forschungsraum bzw. das Forschungsnetz hinaus wirken kann. Nötig
ist eine Form von „Containment“.211 Es sollte physisch bzw. analog gesichert
sein, dass eine neue künstliche Intelligenz nicht ungeprüft auf andere tech-
nische Systeme übergreifen bzw. sich mit ihnen vernetzen kann.
Ferner müssten Forscher über die bisher freiwilligen, etwa aus Anwen-
dungsmotiven entspringenden Präferenzen hinaus zu Lernprozessen ver-
pflichtet werden, denen wir eine schrittweise Einübung in menschliche
Moralvorstellungen einschließlich der Selbstbindung an die Maßstäbe des
positiven Rechts zutrauen können.212 Dass hierin eine sehr fordernde und
nicht ohne Weiteres zu bewältigende Anforderung liegt, ist dabei vor dem
Hintergrund der heutigen Schwierigkeit einer entsprechenden Program-
mierung sogleich zuzugestehen. Gleichwohl darf es auch bei der KI nicht
undenkbar sein, dass – selbst bei enormen wirtschaftlichen Investitionen –
eine letztlich bislang nicht hinreichend sichere Technik (noch) ausschei-
det.
Absolute Sicherheit fernab sog. Restrisiken werden wir zwar auch hier
nicht leisten, zumal es explizit um eine in verschiedenen Graden autono-
me Technik geht. Es sollte uns aber möglich sein, einer allzu riskanten For-
schung spezifische und realisierbare Sorgfaltsmaßstäbe entgegenzustellen.
Zur Erhaltung unseres Rechts sollten wir zusätzlich erwägen, der KI-For-

schutz und die Verbraucherperspektive gerichtet. Ggf. können weitere, spezielle-


re Sicherheitsrichtlinien etwa im Gesundheitswesen Anwendung finden, siehe
etwa die Richtlinie 93/42/EWG vom 14.06.1993 über Medizinprodukte.
211 Siehe auch Neuhäuser, in: Beck, Jenseits von Mensch und Maschine, S. 23, 41 f.:
künstliche Trainingsszenarien geboten, wenn das potentiell fremdschädliche
Selbstlernen im Umgang mit Menschen erprobt werden soll; Wallach/Allen, Mo-
ral machines – Teaching Robots Right from Wrong, S. 195; zur notwendigen
„Kapselung“ bei der Implementierung selbstlernender (Industrie-)Roboter Steil/
Krüger, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 51, 61, 68 ff., die
insoweit eingestehen, dass eine „Kapselung“ zunehmend schwierig werden dürf-
te.
212 Siehe besonders eingehend für eine entsprechende Notwendigkeit Wallach/
Allen, Moral machines – Teaching Robots Right from Wrong; eine zentrale, wei-
terzugebende „utility function“ setzen auch voraus Russell/Norvig, Artificial In-
telligence, S. 1037: „utility function“ als Absicherung gegen eine maliziöse Wen-
dung; siehe aber zur Veränderlichkeit auch S. 1039: Veränderung je nach späte-
ren Erfahrungen. Mit gleicher Stoßrichtung auch Hilgendorf, FS Fischer, S. 99,
110 f.: Pflicht der Hersteller selbstlernender Systeme, Lernmöglichkeiten von
vornherein so zu beschränken, dass kein für Menschen schädliches Verhalten er-
lernt werden kann. Allerdings sollte ein entsprechendes Gebot letztlich über
den Herstellungsbereich hinaus auch schon die Forschung betreffen.

78
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

schung geeignete Schnittstellen der Rechtsdurchsetzung oder, soweit dies


scheitert, vergleichbare Mechanismen vorzuschreiben.213 Obschon ihre Ak-
tivierung materiell und formell an höchste Schranken zu binden wäre, lie-
gen sie im Sinne einer tatsächlichen Rechtsgleichheit zwischen Maschinen
und Menschen nahe. Das Europäische Parlament fordert sogar, dass intelli-
gente Roboter stets so konstruiert werden müssten, dass sie jederzeit von
Menschen kontrollierbar sind.214

b) Demokratische Rückbindung der Grundfrage

Schließlich sollten wir nicht übersehen, dass sich auch die Frage stellt, ob
wir überhaupt Forschung zulassen wollen, die zu einer Koexistenz von Men-
schen und Maschinen führen kann. Das Bewusstsein, dass sich menschli-
che Fähigkeiten artifiziell reproduzieren und optimieren lassen, könnte
unsere Sicht auf uns selbst verändern, vielleicht erschüttern. Sie mag wie ein
Zwang wirken, uns selbst technisch zu optimieren. Gerade dann, wenn
man meine Thesen zur Rechtsstellung teilt, wäre eine starke künstliche In-
telligenz enorm folgenreich. Wir müssten zunächst die – auch beim Men-
schen riskante – Freiheit der neuen Subjekte zulassen, könnten nicht ohne
Weiteres die präsumierte Gefahr vorsorgend im Keim ersticken. Ob all die
ungewissen Folgen und Risiken einschließlich einer möglichen Phase der
(gefährlichen) Debatte über die Anerkennung von Roboterrechten ausge-
löst werden, sollte nun aber nicht allein von der Firmenstrategie zum Bei-

213 Siehe neben Fn. 198 auch zur japanischen Verpflichtung zu einem „Not-Aus-
Schalter“ und zu weiteren öffentlich-rechtlichen Kontrollansätzen Spranger/
Wegmann, in: Beck, Jenseits von Mensch und Maschine, S. 104, 111; Weng/
Chen/Sun International Journal of Social Robotics 2009, 267, 272 f.; im Kontext
der Asilomar-Thesen auch Lenzen, Künstliche Intelligenz, S. 246, zu diesen https:
//futureoflife.org/ai-principles/ – These 22; zum Ansatz auch mit großen Zwei-
feln Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 157 ff.
214 Resolution zu Zivilrechtlichen Regelungen im Bereich Robotik, Europäisches
Parlament, P8_TA(2017)0051, Allgemeine Grundsätze bezüglich der Entwick-
lung der Robotik und der Künstlichen Intelligenz, 3. Die Forderung dürfte pri-
mär auf KI ohne Bewusstsein gerichtet sein. Für selbstbewusste Roboter, die
auch das Europäische Parlament nicht ausschließt, wäre der Anspruch auf eine
vollständige Steuerbarkeit indes freiheitstheoretisch angreifbar. Soweit morali-
sche Subjekte anzuerkennen sein sollten, ist ihnen grundsätzlich Freiheit zu ge-
währen. Die Durchsetzung freiheitsbeschränkender bzw. Freiheit im staatlichen
Zusammenhang definierender Normen wäre nach Art und Maß zu rechtferti-
gen.

79
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

spiel Googles abhängen. Die richtige Strategie und die Mittel zu ihrer Ver-
folgung müssen auf öffentlichen Diskursen und demokratischen Entschei-
dungen fußen.215
Ein kategorisches Verbot soll dem Gesetzgeber dabei gar nicht implizit
empfohlen sein. Auf welche Herausforderungen die Menschheit im 22.
oder 23. Jahrhundert treffen wird, vermag niemand vorherzusagen. Es
kann zum Beispiel sein, dass eines Tages gerade die Partnerschaft mit intel-
ligenten Maschinen die Menschheit retten mag.216 Mindestens dürfte es
aber geboten sein, die Konstruktion rechtsgefährdender autonomer KI-Sys-
teme explizit zu untersagen. Dies sollte zum einen bewusstseinslos blei-
bende, aber autonom zur zweckgerichteten Aggression gegen Menschen
befähigte KI erfassen. Zum anderen sollte es um selbstbewusste, unkon-
trollierbare amoralische Maschinen gehen. Bisher untersagt keine Norm
unseres Rechts ihre Konstruktion.217 Das Recht sollte der gezielten Schaf-
fung rechtsgefährdender Systeme ebenso wie der passiv hingenommenen
Selbstbemächtigung entgegentreten.

215 Siehe auch https://futureoflife.org/ai-principles/ – These 23: Superintelligence


should only be developed in the service of widely shared ethical ideals, and for
the benefit of all humanity rather than one state or organization. Jenseits des
Problemfeldes grundsätzlich auch BT/Drs. 19/5880, S. 4 und 9.
216 Gleichsinnig etwa im Einklang mit den Asilomar-Thesen Lenzen, Künstliche In-
telligenz, S. 245 f., 249; https://futureoflife.org/ai-principles/ – These 19: There
being no consensus, we should avoid strong assumptions regarding upper limits
on future AI capabilities; Wallach/Allen, Moral machines – Teaching Robots
Right from Wrong, S. 7, 209 ff.; zum verfassungsrechtlichen Maßstab bei Eingrif-
fen in den Werkbereich, Hufen NVwZ 2017, 1265, 1267. Asimov gab dem Recht
dagegen den Ratschlag, die Kreation eines selbstbestimmten maschinellen Be-
wusstseins zu verbieten; Roboter müssten ausschließlich Werkzeuge bleiben.
Siehe anders auch – zur vollen menschlichen Intelligenz – Weng/Chen/Sun Inter-
national Journal of Social Robotics 2009, 267, 275 ff.; zum Argument des abseh-
baren Leidens erster Prototypen, m.w.N. Metzinger, in: Hilgendorf/Günther, Ro-
botik und Gesetzgebung, S. 263 ff.; Lenzen, Künstliche Intelligenz, S. 132 f.
217 Bisher kann sich allenfalls für ein marktorientiertes Handeln ein implizites (Um-
gangs-)Verbot aus dem Produktsicherungsrecht/der Maschinenrichtlinie erge-
ben, das nicht für sich genommen strafbewehrt ist. Für Horrorvisionen, in de-
nen eine verstärkt autonome/selbstbewusste KI geschaffen wird, um unmittel-
bar zu töten, ließe sich allenfalls im Einzelfall an einen Tatversuch denken.
Überdies wären bei einer Vernetzung die § 202c StGB und § 303b Abs. 5 StGB
für eine künstliche Intelligenz (aber auch für einen Roboter?) immerhin disku-
tabel, die aber kaum das spezifische Unrecht erfassen würden.

80
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

4. Strafrechtliche Absicherung

Ich komme am Ende noch knapp zu einem zweiten Sinn, den der Aus-
druck „Strafen für Roboter“ haben kann. Aktuell und bis auf Weiteres
müssen wir uns an die Menschen wenden, die künstliche Intelligenz kon-
struieren und einsetzen:
Dies gilt vornehmlich für Einsätze der aktuellen KI, die möglicherweise
Wahlen manipuliert218 oder Verletzungen im Straßenverkehr auslöst. Eine
Strafe kommt nicht nur im Fall der Horrorvision in Betracht, dass Men-
schen eine starke KI für illegitime Ziele kreieren und nutzen. Menschen,
die Roboter oder eine körperlose KI als Werkzeug einsetzen, können ganz
allgemein als Tatbeteiligte für vorsätzliche oder fahrlässig ausgelöste Fol-
gen verantwortlich sein.219 Zum Beispiel für den Passagier, den Halter oder
den Hersteller eines autonomen Fahrzeuges dürfen wir prinzipiell legitim
die Außerachtlassung von Sorgfaltsstandards ahnden. Die drängenden Fra-
gen liegen hier darin, welche Sorgfaltsstandards wir den Beteiligten noch
auferlegen wollen und wie sich Verantwortungsanteile zueinander verhal-
ten.220 In diesem Streit diskutieren wir sowohl den partiellen Rückzug des
Strafrechts über die Annahme eines erlaubten Risikos als auch die zivil-
oder gar strafrechtliche Haftbarmachung des Fahrzeuges.
Eine „Strafe für Roboter“ bzw. künstliche Intelligenz sollten wir für die
Zukunft aber noch nach anderen Ansätzen immerhin durchdenken. So mag
sich die Frage stellen, ob ein Forscher, der unvorsätzlich, aber entgegen
entsprechenden Indizien mit verheerenden Folgen etwa für die körperli-
che Unversehrtheit eine rechtsgefährdende KI erschafft oder freisetzt, einer

218 Allerdings bedarf schon dieser Bereich noch intensiver Analyse, insbesondere
wenn eine Strafbarkeit über bekannte Tatbestände wie die Ehrdelikte hinausrei-
chen sollte, siehe etwa zu den aktuellen Kontroversen m.w.N. Gasser/Kraatz,
VerfBlog 2017/1/16, S. 3 f. (http://t1p.de/x98q); Libertus ZUM 2018, 20 ff.; Paal/
Hennemann, ZRP 2017, 215 f.; Rückert, in: Albrecht u.a., Strafrecht und Politik,
S. 167 ff., 183 ff.; Schröder DVBl 2018, 465 ff. und Steinbach ZRP 2017, 101 ff.
219 Entsprechend knapp im Grundsätzlichen etwa zum Einsatz von Robotern in
der Pflege Hilgendorf ZfmE 2018, 373, 380; allgemein, auch zu den Problemen,
Gleß/Weigend ZStW 126 (2014), 561, 579 ff.; Simmler/Markwalder ZStW 129
(2017), 20, 25 f.
220 Siehe im Überblick etwa Gleß/Weigend ZStW 126 (2014), 561, 580 ff.; Wohlers
BJM 2016, 113, 119 ff. Zur Sorgfaltswidrigkeit etwa Gleß/Weigend ZStW 126
(2014), 561, 581 ff.; Gleß, in: Gleß/Seelmann, Intelligente Agenten und das
Recht, S. 225, 235 ff.; Günther, Roboter und rechtliche Verantwortung, S. 212 f.,
223 ff., 255 f.; für die Pflege Hilgendorf ZfmE 2018, 373, 380 f. Letzteres wäre ins-
besondere ein Thema, wenn es um eine starke künstliche Intelligenz ginge.

81
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

Fahrlässigkeitsstrafbarkeit unterliegt. Wurden zukünftig geltende Sorgfalts-


regeln der KI-Forschung nicht geachtet, könnte ihn das Argument der
mangelnden Vorhersehbarkeit zumindest nicht allgemein entlasten, da die
Vorhersehbarkeit schon heute keine detaillierte Voraussicht des letztlich
verletzenden Geschehens verlangt.221 Der Forscher weiß darum, dass sich
die Folgen der selbst lernenden Technik schwer eingrenzen lassen bzw.
muss er dieses Wissen in seine Betrachtungen einstellen.
Wir sollten aber auch jenseits der oft grenzwertigen Verantwortung für
Fahrlässigkeit prüfen, ob nicht auch der bloßen Entwicklung zukünftiger Ro-
boter bzw. KIs partiell strafrechtliche Schranken entgegenzustellen wären.
Einem allzu oft überstürzten Einsatz des Strafrechts möchte ich zwar kei-
neswegs das Wort reden.222 Ein konkretes Votum für einzelne Tatbestände
ist derzeit noch verfrüht. Jedenfalls zukünftige Verbote, eine rechtsgefähr-
dende KI zu kreieren oder zu verbreiten, kommen aber schon im Vorfeld
ihres schädlichen Einsatzes oder Aktes der KI als strafrechtliche Verhaltens-
normen etwa im Kontext autonomer Waffensysteme ernsthaft in Betracht.
Drei Erwägungen möchte ich dafür noch anreißen:
Erstens gibt uns das Embryonenschutzgesetz ein letztlich taugliches Bei-
spiel dafür, dass wir der beliebigen Kreation rechtsfähiger Subjekte, die un-
ser Zusammenleben gefährden können, Strafrecht entgegensetzen. Etwa
der Kreuzung mit anderen Spezies oder Forschungen, die auf Züchtungen
ggf. intelligenterer Menschen hinauslaufen können,223 begegnen wir nicht
erst dann, wenn die kreierten Subjekte existieren. Der Gesetzgeber tendier-

221 Zum weiten Vorhersehbarkeitsmaßstab der unbewussten Fahrlässigkeit, der hier


über die objektive Zurechnung nicht eingeschränkt wäre, m.w.N. BGHSt 48, 34,
39; BGH NStZ 2001, 143, 144 f.; Matt/Renzikowski/Gaede, StGB, § 15 Rn. 49,
51; siehe auch Joerden, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 195, 207 ff.; Gleß/Weigend ZStW 126 (2014), 561, 581 f.; Gleß, in: Gleß/Seel-
mann, Intelligente Agenten und das Recht, S. 225, 234 f.
222 Zur Kritik insbesondere an der Vorverlagerung des Strafrechtseinsatzes siehe et-
wa umfassend m.w.N. Puschke, Legitimation, Grenzen und Dogmatik von Vor-
bereitungstatbeständen, S. 49 ff., 137 ff.; zur eigenen Grundhaltung m.w.N. Ga-
ede, Steuerbetrug, S. 316 ff., 329 ff. Schon heute existiert, von den §§ 30, 159
StGB abgesehen, so manches Vorbereitungsdelikt, das zudem kaum praktikabel
ist, vgl. etwa im Computerstrafrecht § 202c StGB, im Terrorismusbereich die
§§ 89a, 89b StGB, im Vermögensstrafrecht § 265 StGB, im Medizinstrafrecht
§ 217 StGB und mit verwandten Problemen den § 184i StGB.
223 Siehe zur Kreuzung § 7 ESchG (Verbot der Chimären- und Hybridbildung), zur
Keimbahntherapie § 5 ESchG (Künstliche Veränderung menschlicher Keim-
bahnzellen) und zu weiterer Forschung an Embryos § 2 Abs. 1 ESchG (Miss-
bräuchliche Verwendung menschlicher Embryonen). Zur insgesamt bezweck-
ten Gegenwehr gegenüber Züchtungen des Menschen/Experimenten mit

82
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?

te zwar im Einzelnen und nicht selten zur Maßlosigkeit.224 Er ignoriert


zum Beispiel bis heute unrühmlich die Erkenntnisse, welche die medizini-
sche und psychologische Forschung zur Leihmutterschaft erarbeitet hat.225
Grundsätzlich gibt der Embryonenschutz aber ein valides Beispiel, soweit
die KI-Forschung die Entstehung von Subjekten auf gefährliche Art und
Weise neu vermisst.
Zweitens denke ich, dass Normen, die das Recht vor der Schaffung
rechtsgefährdender Maschinen bzw. Akteure schützen, selbst strengen Kri-
minalisierungsmaßstäben genügen könnten. Es ginge immerhin darum,
zugunsten eines jeden Menschen zu sichern, dass wir uns auf das Recht
und mit ihm auch auf den Schutz höchstpersönlicher Rechtsgüter226 ver-
lassen können. Zur Vorverlagerung käme es vor allem, weil die Ahndung
späterer Akte der künstlichen Intelligenz prinzipiell ungewiss bliebe.
Drittens erscheint es mir nicht zu früh, derartige sanktionsbewehrte Ver-
bote zu thematisieren. Gerade die Strafgesetzgebung sollte auf einer gründ-
lichen und dementsprechend zeitlich unbedrängten Debatte fußen.227 Nur
so können wir die Fehler vermeiden, die etwa dem allzu ausgreifenden
Embryonenschutzgesetz anhaften. Und es dürfte in der aktuellen KI-Eu-
phorie erforderlich sein, frühzeitig rechtliche Anker hinsichtlich der zu be-
denkenden Gefahren zu setzen, die bei einer bedachten Formulierung
auch nicht nur symbolisch bleiben müssen. Die aktuelle Fokussierung auf
die Steigerung der Leistungsfähigkeit der künstlichen Intelligenz, die al-

menschlichem Leben etwa BT/Drs. 11/5460, S. 10 und 11 (dazu aber etwa ein-
schränkend und krit. Günther/Taupitz/Kaiser, ESchG, § 5 Rn. 4 f.) und zur PID –
freilich ohne nähere Begründung – § 3a ESchG und BT/Drs. 17/5451. Für eine
beispielhafte Kritik anhand des § 3 ESchG siehe m.w.N. Günther/Taupitz/Kaiser,
ESchG, § 3 Rn. 3 ff.
224 Siehe hier etwa die Formulierung des § 1 ESchG, den undifferenzierten und
weiten § 6 ESchG sowie die letztlich kaum praktikable Neuregelung der PID in
§ 3a ESchG, siehe erläuternd und aktuell zusf. zur vielfachen Kritik an der
Reichweite des ESchG mit diversen Nachweisen Dorneck, Das Recht der Repro-
duktionsmedizin de lege lata und de lege ferenda, S. 78 ff.; zum diskutierten No-
vellierungsbedarf im Grundsätzlichen auch Günther/Taupitz/Kaiser, ESchG, Ka-
pitel B Rn. 5 ff.
225 Dazu etwa zusammenfassend m.w.N. Dorneck, Das Recht der Reproduktionsme-
dizin de lege lata und de lege ferenda, S. 162 ff.
226 Zur besonderen Bedeutung von Leben und Gesundheit siehe etwa im Kontext
der Bestimmung von Sorgfaltsmaßstäben m.w.N. Gleß/Weigend ZStW 126
(2014), 561, 584 f.
227 Siehe auch im hiesigen Kontext schon Beck JR 2009, 225, 230; Schuhr, in: Beck,
Jenseits von Mensch und Maschine, S. 43 f.; Simmler/Markwalder ZStW 129
(2017), 20, 22.

83
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen

lenfalls für unmittelbare Anwendungsfragen ethisch und rechtlich hinter-


fragt wird, ist sicher sehr menschlich. Vor ihrer Einseitigkeit haben aber in-
ternational unter anderem das Future of Life Institute und das Dossier „The
Malicious Use of Artificial Intelligence“ bereits treffend gewarnt.228 Ob zentra-
le Bausteine einer gefährlichen künstlichen Intelligenz nicht schon in den
kommenden Jahrzehnten entstehen, vermag niemand sicher zu sagen. Dies
gilt auch für KI-Experten, die schwerlich den nicht offenlegungspflichtigen
Stand der weltweiten KI-Forschung über alle Staaten und Gesellschaftssys-
teme hinweg in jedem Detail überblicken können. Früh ansetzen müssen
wir auch deshalb, weil etwa der deutsche Arm nicht in alle Labore dieser
Welt reicht. Es bedarf einer europäischen, optimalerweise weltweiten Vor-
sicht vor einer schädlichen Fortführung der KI-Forschung. Wenn etwa au-
tonome Waffen erst einmal voll einsatzfähig sind, wird die Bundesregie-
rung ihre internationale Ächtung vergebens fordern.229
Wie weit das Strafrecht tatsächlich im Kontext der schwachen und star-
ken KI gehen sollte, wie derartige Normen techniksensibel zu formulieren
wären, um sinnvoll greifen zu können und inwiefern wir Recht internatio-
nal verwirklichen könnten,230 sollte die juristische Forschung bzw. Politik-
beratung in Zukunft ausarbeiten.

228 Siehe für den Bedarf, die KI-Forschung nicht nur auf eine gesteigerte Leistungs-
fähigkeit, sondern auch auf eine stabile und dem Gemeinwohl dienende KI aus-
zurichten, den Open Letter des Future of Life Institute. Zum Bedarf, den mögli-
chen Dual-Use der neuen Technik stets im Blick zu behalten und rechtliche
Strategien zu durchdenken, siehe zudem „The Malicious Use of Artificial Intelli-
gence“ (Fn. 4). Siehe auch Resolution zu Zivilrechtlichen Regelungen im Be-
reich Robotik, Europäisches Parlament, P8_TA(2017)0051, Einleitung M und T,
Ethische Grundsätze 10 f. mit dem Vorschlag eines Verhaltenskodex für Robo-
tingenieure. Ohne Warnungen, aber doch auf Vorsorge insistierend auch Wal-
lach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 7 f.
229 Für eine Ächtung autonomer Waffen tritt die Regierungskoalition ein, siehe Ko-
alitionsvertrag 2018, S. 149; zur Debatte auch Misselhorn, Grundfragen der Ma-
schinenethik, S. 156 ff.; siehe vor allem unter dem Missbrauchsgesichtspunkt
auch Open Letter to the United Nations Convention on Certain Conventional Wea-
pons (Fn. 3). Siehe ferner zu der für sich genommen bereits starken These, dass
autonome Waffensysteme auch fernab technischer Präzisions- und Effizienz-
zweifel mit einer gehaltvollen Rechtsordnung per se unvereinbar seien, m.w.N.
Beck/Zabel, in: Demko/Brudermüller/Seelmann, Menschenrechte, S. 197, 207 ff.,
221 f.; offener Sharkey, in: Lin/Abney/Bekey, Robot Ethics, S. 111 ff.
230 Zu absehbaren Wettläufen um ein möglichst roboterfreundliches Recht siehe
aber schon Eidenmüller ZEuP 2017, 765, 776 f.

84
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
E. Thesen

Ich möchte meine Überlegungen in fünf Thesen zusammenfassen:


1. Wir sollten unser rein instrumentelles rechtliches Verständnis der
künstlichen Intelligenz überdenken, damit wir auf grundstürzende Ent-
wicklungsperspektiven selbstlernender Systeme vorbereitet sind.
2. Einer starken KI, die andere vernünftige Wesen denken und respektie-
ren kann, wäre der Status als Rechtssubjekt zuzugestehen.
3. Es erscheint gegenüber dieser starken künstlichen Intelligenz legitim,
die Achtung des Rechts aller Rechtssubjekte durch Akte der Strafe
durchzusetzen.
4. Das Recht muss Vorsorge treffen, damit die Erschließung der künstli-
chen Intelligenz nicht zur Entwicklung rechtsgefährdender autonomer
Systeme führt.
5. Die gebotene Gewährleistung unseres Freiheit verbürgenden Rechts
legt die Prüfung nahe, ob wir die Missachtung von Normen, die einer
rechtsgefährdenden KI vorbeugen sollen, mit Strafe bedrohen sollten.

85
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Albrecht, Anna H.; Geneuss, Julia; Giraud, Alex; Pohlreich, Erol: Strafrecht und Politik
– 6. Symposium junger Strafrechtlerinnen und Strafrechtler, Baden-Baden 2018.
Alexy, Robert: Data und die Menschenrechte – Positronisches Gehirn und doppelt-
riadischer Personenbegriff, abrufbar unter: http://www.alexy.jura.uni-kiel.de/de/
data/DatasMenschenrechte.pdf (letzter Abruf am 1. März 2019).
An Open Letter to the United Nations Convention on Certain Conventional Weapons,
abrufbar unter: https://www.dropbox.com/s/g4ijcaqq6ivq19d/2017%20Open%2
0Letter%20to%20the%20United%20Nations%20Convention%20on%20Certain
%20Conventional%20Weapons.pdf?dl=0 (letzter Abruf am 1. März 2019).
Armbrüster, Christian: Automatisiertes Fahren – Paradigmenwechsel im Straßenver-
kehrsrecht?, ZRP 2017, 83.
Asimov, Isaac: I, Robot, Nachdrucks des Originals von 1950, New York 2013.
Asimov, Isaac: Robots and empire, New York 1985.
Asimov, Isaac: The robots of dawn, New York 1994.
Beck, Susanne: Grundlegende Fragen zum rechtlichen Umgang mit der Robotik, JR
2009, 225.
Beck, Susanne: Jenseits von Mensch und Maschine – eine ethische und rechtliche
Frage zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-
Baden 2012.
Beck, Susanne: Zum Einsatz von Robotern im Palliativ- und Hospizbereich, MedR
2018, 772.
Blechschmitt, Lisa: Die straf- und zivilrechtliche Haftung des Arztes beim Einsatz ro-
boterassistierter Chirurgie, Baden-Baden 2017.
Böckenförde, Ernst-Wolfgang: Recht, Staat, Freiheit – Studien zur Rechtsphilosophie,
Staatstheorie und Verfassungsgeschichte, Frankfurt a.M. 1991.
Börding, Andreas; Jülicher, Tim; Röttgen, Charlotte; v. Schönfeld, Max: Neue Herausfor-
derungen der Digitalisierung für das deutsche Zivilrecht, CR 2017, 134.
Borges, Georg: Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018,
977.
Bostrom, Nick: Superintelligence: paths, dangers, strategies, korrigierter Reprint der
Originalausgabe von 2014, Oxford 2017.
Bräutigam, Peter; Klindt, Thomas: Industrie 4.0, das Internet der Dinge und das
Recht, NJW 2015, 1137.
Brunhöber, Beatrice: Technik und Forschung: Was geht, was kommt?, ITRB 2017, 88.
Camprubi, Madeleine: Angst und Streben nach Sicherheit, Zürich 2004.
Caspar, Johannes: Tierschutz im Recht der modernen Industriegesellschaft, Baden-
Baden 1999.

87
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Cornelius, Kai: Autonome Softwareagenten im Verbandssanktionenrecht, ZRP


2019, 8.
Daum, Timo: Missing Link: Ein Plädoyer wider den KI-Populismus, abrufbar unter:
https://www.heise.de/newsticker/meldung/Missing-Link-Ein-Plaedoyer-wider-de
n-KI-Populismus-4063789.html (letzter Abruf am 1. März 2019).
Decker, Michael: Technische Entscheidungen im Krankenhaus der Zukunft? – eine
ethische Reflexion, ZfmE 2018, 345.
Demko, Daniela; Brudermüller, Gerd; Seelmann, Kurt: Menschenrechte: Begründung
– Bedeutung – Durchsetzung, Würzburg 2015.
Demko, Daniela; Seelmann, Kurt; Becchi, Paolo: Würde und Autonomie – Fachtagung
der Schweizerischen Vereinigung für Rechts- und Sozialphilosophie,
24.-25. April 2013, Landgut Castelen, Augst, Stuttgart 2015.
Denga, Michael: Deliktische Haftung für künstliche Intelligenz – Warum die Ver-
schuldenshaftung des BGB auch künftig die bessere Schadensausgleichsordnung
bedeutet, CR 2018, 69.
Der Tagesspiegel: Toyota feuert die Roboter, abrufbar unter: https://www.tagesspiege
l.de/themen/reportage/kuenstliche-intelligenz-toyota-feuert-die-roboter/2382141
8.html (letzter Abruf am 1. März 2019).
Deutsch, Erwin: Off-Label-Use von Medikamenten als rechtliches Problem, VersR
2014, 1038.
Deutsche Bundesregierung: KI als Markenzeichen für Deutschland, abrufbar unter:
https://www.bundesregierung.de/breg-de/aktuelles/ki-als-markenzeichen-fuer-de
utschland-1549732 (letzter Abruf am 1. März 2019).
Deutsche Bundesregierung: Koalitionsvertrag 2018, abrufbar unter: https://www.bund
esregierung.de/resource/blob/975226/847984/5b8bc23590d4cb2892b31c987ad67
2b7/2018-03-14-koalitionsvertrag-data.pdf?download=1 (letzter Abruf am
1. März 2019).
Dietrich, Alexander; Vogel, Jörn; Hagengruber, Annette; Leidner, Daniel; Schmaus, Peter;
Mansfeld, Nico; Klodmann, Julian; Bahls, Thomas; Panzirsch, Michael; Suchenwirth,
Lioba; Albu-Schäffer, Alin: Feinfühlige, interaktive Roboter in Krankenhaus und
Pflege: Wo stehen wir und wohin geht die Reise?, ZfmE 2018, 307.
Dorneck, Carina: Das Recht der Reproduktionsmedizin de lege lata und de lege fe-
renda: eine Analyse zum AME-FMedG, Baden-Baden 2018.
Dreier, Horst: Grundgesetz Kommentar, 3. Auflage, Tübingen 2013.
Drexler, Kim Eric: Engines of Creation, New York 1986.
Eberl, Ulrich: Smarte Maschinen – wie Künstliche Intelligenz unser Leben verän-
dert, 2. Auflage, München 2018.
Eidenmüller, Horst: The Rise of Robots and the Law of Humans, ZEuP 2017, 765.
Enders, Christoph: Die Menschenwürde in der Verfassungsordnung, Tübingen 1997.
Enders, Peter: Einsatz künstlicher Intelligenz bei juristischer Entscheidungsfindung,
JA 2018, 721.
Epping, Volker; Hillgruber, Christian: Beck’scher Onlinekommentar zum Grundge-
setz, 39. Edition, München, Stand 15.11.2018.

88
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Europäisches Parlament: Resolution zu Zivilrechtlichen Regelungen im Bereich Ro-


botik, abrufbar unter: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-
//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (letzter Abruf am
1. März 2019).
Europäisches Parlament: Studie zu European Civil Law Rules in Robotics, abrufbar
unter: http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPO
L_STU%282016%29571379_EN.pdf (letzter Abruf am 1. März 2019).
Financial Times: Hawking warns on rise of the machines, abrufbar unter: https://ww
w.ft.com/content/9943bee8-7a25-11e4-8958-00144feabdc0 (letzter Abruf am 1.
März 2019).
Fischer, Thomas: Strafgesetzbuch mit Nebengesetzen, 66. Auflage, München 2019.
Forbes: Beyond Deep Learning: Computers That Improvies – The Great Rewrite,
abrufbar unter: https://www.forbes.com/video/5421979416001/#1a410c6075b8
(letzter Abruf am 1. März 2019).
Fraunhofer-Institut für Produktionstechnik und Automatisierung: Anwenderleitfaden
zur Validierung der funktionalen Sicherheit bei der mobilen Manipulation mit
Servicerobotern, abrufbar unter: https://www.ipa.fraunhofer.de/content/dam/ip
a/de/documents/Projekte/Forschungsprojekte/VaSiMa_Validierung_Servicerobo
ter_Anwenderleitfaden.pdf (letzter Abruf am 1. März 2019).
Frese, Yorck: Recht im zweiten Maschinenzeitalter, NJW 2015, 2090.
Friauf, Karl-Heinrich; Höfling, Wolfram: Berliner Kommentar zum Grundgesetz, 13.
Ergänzungslieferung, Berlin 2018.
Frister, Helmut: Strafrecht Allgemeiner Teil – ein Studienbuch, 8. Auflage, Mün-
chen 2018.
Future of Life Institute: Asilomar AI Principles, abrufbar unter: https://futureoflife.or
g/ai-principles/ (letzter Abruf am 1. März 2019).
Future of Life Institute: Autonomous Weapons: an Open Letter from AI & Robotics
Researchers, abrufbar unter: https://futureoflife.org/open-letter-autonomous-wea
pons (letzter Abruf am 1. März 2019).
Gaede, Karsten: Das Erwachen der Macht? Die europäisierte Funktionstüchtigkeit
der Strafrechtspflege, wistra 2016, 89.
Gaede, Karsten: Der Steuerbetrug – eine Untersuchung zur Systematisierung der eu-
ropäisierten Deliktsfamilie des Betruges und zur legitimen Reichweite des not-
wendig normgeprägten Betrugsunrechts der Steuerhinterziehung – zugleich ein
Beitrag zum Verhältnis von Strafrecht und Verfassungsrecht, Baden-Baden 2016.
Gasser, Lucas; Kraatz, Matthias: Social Bots: Wegbereiter der Maschinokratie,
VerfBlog 2017/1/16, 3, abrufbar unter https://verfassungsblog.de/social-bots-weg
bereiter-der-maschinokratie/ (letzter Abruf am 1. März 2019).
Gesmann-Nuissl, Dagmar: Künstliche Intelligenz – den ersten Schritt vor dem zwei-
ten tun!, InTer 2018, 105.
Gleß, Sabine; Seelmann, Kurt: Intelligente Agenten und das Recht, Baden-Baden
2016.
Gleß, Sabine; Weigend, Thomas: Intelligente Agenten und das Strafrecht, ZStW 126
(2014), 561.

89
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Gosepath, Stefan; Lohmann, Georg: Philosophie der Menschenrechte, Berlin 1998.


Gräb-Schmidt, Elisabeth; Stritzelberger, Christian P.: Ethische Herausforderungen
durch autonome Systeme und Robotik im Bereich der Pflege, ZfmE 2018, 357.
Graf, Birgit; Klein, Barbara: Robotik in Pflege und Krankenhaus – Einsatzfelder,
Produkte und aktuelle Forschungsarbeiten, ZfmE 2018, 327.
Gruber, Malte-Christian; Bung, Jochen; Ziemann, Sascha: Autonome Automaten –
künstliche Körper und artifizielle Agenten in der technisierten Gesellschaft, 2.
Auflage, Berlin 2015.
Grünwald, Andreas; Nüßing, Christoph: Machine To Machine (M2M)-Kommunikati-
on – Regulatorische Fragen bei der Kommunikation im Internet der Dinge,
MMR 2015, 378.
Grunwald, Armin: Handbuch Technikethik, Stuttgart/Weimar 2013.
Gsell, Beate; Krüger, Wolfgang; Lorenz, Stephan; Reymann, Christoph: beck-online
Großkommentar zum Bürgerlichen Gesetzbuch, München, Stand 1.7.2018.
Günther, Hans-Ludwig; Taupitz, Jochen; Kaiser, Peter: Embryonenschutzgesetz – Juris-
tischer Kommentar mit medizinisch-naturwissenschaftlichen Grundlagen, 2.
Auflage, Stuttgart 2014.
Günther, Jan-Philipp: Roboter und rechtliche Verantwortung – eine Untersuchung
der Benutzer- und Herstellerhaftung, München 2016.
Handelsblatt: Barley fordert KI-Regeln: Wie die Politik die Digitalisierung bändigen
will, abrufbar unter: https://app.handelsblatt.com/politik/deutschland/kuenstlic
he-intelligenz-barley-fordert-ki-regeln-wie-die-politik-die-digitalisierung-baendig
en-will/23791806.html?ticket=ST-3748344-yZD3eAexODdbwwrxFzG4-ap2
(letzter Abruf am 1. März 2019).
Harari, Yuval Noah: Homo Deus – eine Geschichte von Morgen, 8. Auflage (Ta-
schenbuch), München 2019.
Hartmann, Volker: Here comes the robots – Produkthaftung und Robotik am Bei-
spiel des automatisierten und autonomen Fahrens (Teil 1: Anforderungen an die
Konstruktion), PHi 2017, 2.
Hegel, Georg Wilhelm Friedrich: Grundlinien der Philosophie des Rechts oder Natur-
recht und Staatswissenschaft im Grundrisse, 1821, zit. nach der Ausgabe Mol-
denhauer/Michel, Band 7 der Suhrkamp-Ausgabe Werke, 6. Auflage, Berlin
2000.
Heinrich, Jan: USA: Kalifornien verabschiedet Cybersicherheits-Gesetz zum Inter-
net der Dinge, MMR-Aktuell 2018, 411954.
Heise Magazine: Jubel und Ernüchterung – Google AlphaGo schlägt Top-Profi 4:1
im Go, abrufbar unter: https://www.heise.de/ct/ausgabe/2016-7-Google-AlphaGo
-schlaegt-Top-Profi-4-1-im-Go-3136576.html (letzter Abruf am 1. März 2019).
Heise online: Ethik-Debatte: EU-Experten warnen vor „verdeckter KI“, abrufbar un-
ter: https://www.heise.de/newsticker/meldung/Ethik-Debatte-EU-Experten-warn
en-vor-verdeckter-KI-4258283.html (letzter Abruf am 1. März 2019).

90
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Heise online: Künstliche Intelligenz: AlphaZero meistert Schach, Shogi und Go, ab-
rufbar unter: https://www.heise.de/newsticker/meldung/Kuenstliche-Intelligenz-
AlphaZero-meistert-Schach-Shogi-und-Go-3911703.html (letzter Abruf am
1. März 2019).
Heise online: Pentagon will wissenschaftliche Forschung durch KI-Systeme ersetzen,
abrufbar unter: https://www.heise.de/tp/features/Pentagon-will-wissenschaftlich
e-Forschung-durch-KI-Systeme-ersetzen-4145928.html (letzter Abruf am 1. März
2019).
Helmholtz-Gemeinschaft: Human Brain Project – eine Zwischenbilanz, abrufbar un-
ter: https://www.helmholtz.de/gesundheit/eine-zwischenbilanz/ (letzter Abruf
am 1. März 2019).
Herberger, Maximilian: „Künstliche Intelligenz“ und Recht – Ein Orientierungsver-
such, NJW 2018, 2825.
High Level Expert Group der Europäischen Kommission: Draft „Ethic Guidelines for
Trustworthy AI“, abrufbar unter https://ec.europa.eu/digital-single-market/en/ne
ws/draft-ethics-guidelines-trustworthy-ai (letzter Abruf am 1. März 2019).
Hilgendorf, Eric: Autonome Systeme, künstliche Intelligenz und Roboter, Festschrift
für Thomas Fischer, S. 99, München 2018.
Hilgendorf, Eric: Dilemma-Probleme beim automatisierten Fahren – Ein Beitrag
zum Problem des Verrechnungsverbots im Zeitalter der Digitalisierung, ZStW
130 (2018), 674.
Hilgendorf, Eric: Recht und Ethik in der Pflegerobotik – ein Überblick, ZfmE 2018,
373.
Hilgendorf, Eric: Robotik im Kontext von Recht und Moral, Baden-Baden 2014.
Hilgendorf, Eric; Günther, Jan-Philipp: Robotik und Gesetzgebung: Beiträge der Ta-
gung vom 7. Bis 9. Mai 2012 in Bielefeld, 1. Auflage, Baden-Baden 2013.
Hilgendorf, Eric; Kudlich, Hans; Valerius, Brian: Handbuch des Strafrechts, Band 1,
Heidelberg 2019.
Hörnle, Tatjana: Die verfassungsrechtliche Begründung des Schuldprinzips, Fest-
schrift für Klaus Tiedemann, S. 325, Berlin/Köln/München 2008.
Hörnle, Tatjana: Kriminalstrafe ohne Schuldvorwurf, Baden-Baden 2013.
Hörnle, Tatjana: Straftheorien, 2. Auflage, Tübingen 2017.
Hörnle, Tatjana; Wohlers, Wolfgang: The Trolley Problem Reloaded – Wie sind auto-
nome Fahrzeuge für Leben-gegen-Leben-Dilemmata zu programmieren?, GA
2018, 12.
Hufen, Friedhelm: Wissenschaft zwischen Freiheit und Kontrolle – Zivilklauseln,
Ethikkommissionen und Drittmittelkontrolle aus verfassungsrechtlicher Sicht,
NVwZ 2017, 1265.
Hume, David: A Treatise of Human Nature, Nachdruck der Originalausgabe
1739/1740, London 2003.
Intelligence.org: MIRI – Machine Intelligence Research Institute, abrufbar unter:
https://intelligence.org/research/ (letzter Abruf am 1. März 2019).

91
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Joerden, Jan C.; Byrd, B. Sharon; Hruschka, Joachim: Jahrbuch für Recht und Ethik 14,
Berlin 2006.
Journal of Evolution & Technology: Interview: Richard Walker, Human Brain Project,
abrufbar unter https://jetpress.org/v 27.2/greguric.htm (letzter Abruf am 1. März
2019).
Kahlo, Michael: Soll es dem Staat im Strafprozeß rechtlich erlaubt sein, Verdachts-
klärung durch Täuschungshandlungen zu unternehmen?, Festschrift für E.A.
Wolff, S. 153, Berlin 1998.
Kant, Immanuel: Allgemeine Naturgeschichte und Theorie des Himmels – Von den
Bewohnern der Gestirne, 1755, zit. nach Kants Werke – Akademie Textausgabe,
Band I, Seite 351, Berlin 1902.
Kant, Immanuel: Die Metaphysik der Sitten, zit. nach Kants Werke – Akademie Text-
ausgabe, Band VI, Seite 203, Berlin 1907.
Kant, Immanuel: Anthropologie in pragmatischer Hinsicht, 1798, zit. nach Kants
Werke – Akademie Textausgabe, Band VII, Seite 117, Berlin 1907.
Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, 1785, zit. nach Kants
Werke – Akademie Textausgabe, Band IV, Seite 385, Berlin 1911.
Keßler, Oliver: Intelligente Roboter – neue Technologien im Einsatz – Voraussetzun-
gen und Rechtsfolgen des Handelns informationstechnischer Systeme, MMR
2017, 589.
Kirn, Stefan; Müller-Hengstenberg, Claus: Intelligente (Software-)Agenten: Von der
Automatisierung zur Autonomie? – Verselbstständigung technischer Systeme,
MMR 2014, 225.
Kirn, Stefan; Müller-Hengstenberg, Claus: Rechtliche Risiken autonomer und ver-
netzter Systeme: eine Herausforderung, Berlin 2016.
Klesczewski, Diethelm: Straftataufklärung im Internet – Technische Möglichkeiten
und rechtliche Grenzen von strafprozessualen Ermittlungseingriffen im Inter-
net, ZStW 123 (2011), 737.
Klindt, Thomas: Produktsicherheitsgesetz Kommentar, 2. Auflage, München 2018.
Knauer, Christoph: Münchener Kommentar zur Strafprozessordnung, Band 3/2,
München 2018.
Köhler, Michael: Strafrecht Allgemeiner Teil, Berlin 1997.
Krüger, Jessica: Bericht zur Würzburger Tagung der deutschsprachigen Medizin-
rechtslehrer und Medizinrechtslehrerinnen vom 10. bis 12. Mai 2018, medstra
2018, 217.
Kudlich, Hans: Grundrechtsorientierte Auslegung im Strafrecht, JZ 2003, 127.
Kurzweil, Ray: The singularity is near – when humans transcend biology, Nach-
druck der Originalausgabe von 2005, London 2018.
Lenzen, Manuela: Künstliche Intelligenz – was sie kann & was uns erwartet, 2. Auf-
lage, München 2018.
Lewke, Christian: „…aber das kann ich nicht tun!“: Künstliche Intelligenz und ihre
Beteiligung am öffentlichen Diskurs, InTer 2017, 207.

92
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Libertus, Michael: Rechtliche Aspekte des Einsatzes von Social Bots de lege lata und
de lege ferenda, ZUM 2018, 20.
Lin, Patrick; Abney, Keith; Bekey, George A.: Robot Ethics – The Ethical and Social
Implications of Robotics, Paperback Edition, Cambridge/London 2014.
Luf, Gerhard: Menschenwürde als Rechtsbegriff, Festschrift für E.A. Wolff, S. 307,
Berlin, 1998.
Lutz, Lennart S.: Autonome Fahrzeuge als rechtliche Herausforderung, NJW 2015,
119.
MacBride Allen, Roger: Isaac Asimov’s Caliban, New York 1993.
MacBride Allen, Roger: Isaac Asimov’s Inferno, London 1994.
MacBride Allen, Roger: Isaac Asimov’s Utopia, London 1997.
Mainzer, Klaus: Leben als Maschine? – Von der Systembiologie zur Robotik und
Künstlichen Intelligenz, Paderborn 2010.
Matt, Holger; Renzikowski, Joachim: Strafgesetzbuch Kommentar, München 2013.
Matthias, Andreas: Automaten als Träger von Rechten – ein Plädoyer für eine Geset-
zesänderung, 2. Auflage, Berlin 2010.
Maunz, Theodor; Dürig, Günter: Grundgesetz Kommentar, 84. Ergänzungslieferung,
München 2018.
Mayinger, Samantha Maria: Die künstliche Person – eine Untersuchung rechtlicher
Veränderungen durch die Installation von Softwareagenten im Rahmen von In-
dustrie 4.0, unter besonderer Berücksichtigung des Datenschutzrechts, Frank-
furt a.M. 2017.
Meyer, Stephan: Künstliche Intelligenz und die Rolle des Rechts für Innovation –
Rechtliche Rationalitätsanforderungen an zukünftige Regulierung, ZRP 2018,
233.
Misselhorn, Catrin: Grundfragen der Maschinenethik, 2. Auflage, Ditzingen 2018.
Misselhorn, Catrin: „Der Mensch muss der Maschine eigentlich vertrauen“ – Inter-
view mit Catrin Misselhorn, abrufbar unter: https://www.zeit.de/digital/2018-07
/kuenstliche-intelligenz-maschinen-bewusstsein-robotik-denken (letzter Abruf
am 1. März 2019).
Motherboard: Ein Schweizer Bot im Darknet-Shopping-Wahn (und keiner weiß, wer
haftbar ist), abrufbar unter: https://motherboard.vice.com/de/article/78kyz4/ran
dom-darknet-shopper-590 (letzter Abruf am 1. März 2019).
Motherboard: In der Schweiz dürfen Roboter jetzt ganz legal im Darknet shoppen,
abrufbar unter: https://motherboard.vice.com/de/article/kb7jma/kunstfreiheit-si
egt-in-der-schweiz-duerfen-bots-drogen-im-darknet-kaufen-632 (letzter Abruf am
1. März 2019).
Münch, Florian: Autonome Systeme im Krankenhaus – datenschutzrechtlicher Rah-
men und strafrechtliche Grenzen, Baden-Baden 2017.
Murmann, Uwe: Über den Zweck des Strafprozesses, GA 2004, 65.
Numenta: Machine Intelligence Technology, abrufbar unter: https://numenta.com/
machine-intelligence-technology/ (letzter Abruf am 1. März 2019).

93
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

ORF: Die Vorzüge der „Pseudo-KI“ – Künstliche Intelligenz oft Mogelpackung, ab-
rufbar unter: https://orf.at/v 2/stories/2446205/2446206/ (letzter Abruf am
1. März 2019).
Paal, Boris P.; Hennemann, Moritz: Rechtspolitik im digitalen Zeitalter, ZRP 2017,
215.
Papst Franziskus: Encyclical Letter Laudato Si‘ of the Holy Father Francis on Care
for our Common Home, abrufbar unter: http://w2.vatican.va/content/francesco/
en/encyclicals/documents/papa-francesco_20150524_enciclica-laudato-si.html#_f
tnref81 (letzter Abruf am 1. März 2019).
Papst Johannes Paul II: Address of his Holiness John Paul II to Scientists and Repre-
sentatives of the United Nations University, abrufbar unter: https://w2.vatican.va
/content/john-paul-ii/en/speeches/1981/february/documents/hf_jp-ii_spe_198102
25_giappone-hiroshima-scienziati-univ.html (letzter Abruf am 1. März 2019).
Päpstlicher Rat für die Kultur: The Future of Humanity – New Challenges to Anthro-
pology, abrufbar unter: http://www.cultura.va/content/dam/cultura/docs/pdf/eve
nts/PlenaryTheme2017_en.pdf (letzter Abruf am 1. März 2019).
Pawlik, Michael: Das unerlaubte Verhalten beim Betrug, Köln 1999.
Pawlik, Michael: Das Unrecht des Bürgers – Grundlinien der allgemeinen Verbre-
chenslehre, Tübingen 2012.
Pawlik, Michael: Normbestätigung und Identitätsbalance – über die Legitimation
staatlichen Strafens, Baden-Baden 2017.
Pawlik, Michael: Person, Subjekt, Bürger – zur Legitimation von Strafe, Berlin 2004.
Pawlik, Michael: Strafrechtswissenschaftstheorie, Festschrift für Günther Jakobs,
S. 469, Köln/Berlin/München 2007.
Pawlik, Michael: Verdeckte Ermittlungen und Schweigerecht des Beschuldigten. Zu
den Anwendungsgrenzen der §§ 136 Abs. 1 S. 2 und § 136a StPO, GA 1998, 378.
Pieper, Fritz-Ulli: Die Vernetzung autonomer Systeme im Kontext von Vertrag und
Haftung, InTer 2016, 188.
Puschke, Jens: Legitimation, Grenzen und Dogmatik von Vorbereitungstatbestän-
den, Tübingen 2017.
Raspé, Carolin: Die tierliche Person, Berlin 2013.
Rawls, John: A Theory of Justice, Revised Edition der Originalausgabe von 1971,
Cambridge 1999.
Roxin, Claus: Strafrecht Allgemeiner Teil, Band 1: Grundlagen, der Aufbau der Ver-
brechenslehre, 4. Auflage, München 2006.
Russel, Stuart J.; Norvig, Peter: Artificial intelligence: a modern approach, 3. Auflage,
Boston/Columbus/Indianapolis 2016.
Sachs, Michael: Grundgesetz Kommentar, 8. Auflage, München 2018.
Sandberg, Anders: Monte Carlo model of brain emulation development, Oxford
2014.

94
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Schäfer, Christoph: Die Killer-Roboter sind im Anmarsch, abrufbar unter: https://w


ww.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/wie-kriegsroboter-vollauto
matisch-ueber-leben-und-tod-entscheiden-15609267 (letzter Abruf am 1. März
2019).
Schild, Wolfgang: Verbrechen und Strafe in der Rechtsphilosophie Hegels und seiner
„Schule“ im 19. Jahrhundert, ZRph 2003, 30.
Schirmer, Jan-Erik: Sind Roboter Rechtspersonen? – Über die juristische Einord-
nung von künstlicher Intelligenz schreibt Jan-Erik Schirmer, abrufbar unter:
https://www.theeuropean.de/jan-erik-schirmer/14166-rechtspersoenlichkeit-fuer-
autonome-systeme (letzter Abruf am 1. März 2019).
Schleiminger, Dorit: Konfrontation im Strafprozess, Basel 2001.
Schmidhuber, Jürgen: „Eines beherrschen deutsche Firmen überhaupt nicht: Propa-
ganda“, Interview mit Jürgen Schmidhuber, abrufbar unter: https://www.suedde
utsche.de/digital/kuenstliche-intelligenz-eines-beherrschen-deutsche-firmen-ueb
erhaupt-nicht-propaganda-1.4170602 (letzter Abruf am 1. März 2019).
Schröder, Meinhard: Rahmenbedingungen der staatlichen Regulierung von Social
Bots, DVBl 2018, 465.
Seebode, Manfred: Strafvollzug – Recht und Praxis, 1. Teil: Grundlagen, Lingen
1997.
Seelmann, Kurt: Anerkennungsverlust und Selbstsubsumtion – Hegels Straftheori-
en, Freiburg 1995.
Seelmann, Kurt: Rechtsphilosophie, 5. Auflage, München 2010.
Simmler, Monika; Markwalder, Nora: Roboter in der Verantwortung? – Zur Neuauf-
lage der Debatte um den funktionalen Schuldbegriff, ZStW 129 (2017), 20.
Spickhoff, Andreas: Medizinrecht, 3. Auflage, München 2018.
Spiegel Online: Die KI-Revolution im Reagenzglas, abrufbar unter: http://www.spie
gel.de/wissenschaft/medizin/maschinelles-lernen-die-ki-revolution-im-reagenzgla
s-a-1247666.html (letzter Abruf am 1. März 2019).
Spiegel Online: Technologiekonzerne verbünden sich bei künstlicher Intelligenz,
abrufbar unter: http://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-goo
gle-facebook-amazon-ibm-und-microsoft-gruenden-forschungsverbund-a-111447
4.html (letzter Abruf am 1. März 2019).
Spiegel Online: US-Militär will verstärkt künstliche Intelligenz einsetzen, http://ww
w.spiegel.de/politik/ausland/usa-militaer-setzt-verstaerkt-auf-kuenstliche-intellige
nz-a-1252981.html (letzter Abruf am 13. Februar 2019).
Spindler, Gerald: Roboter, Automation, künstliche Intelligenz, selbst-steuernde Kfz
– Braucht das neue Recht neue Haftungskategorien? – eine kritische Analyse
möglicher Haftungsgrundlagen für autonome Steuerungen, CR 2015, 766.
Stanford-Langzeit-Studie AI100: Artificial Intelligence and Life in 2030 – One Hun-
dred Year Study On Artificial Intelligence – Report 2016, abrufbar unter: https://
ai100.stanford.edu/2016-report (letzter Abruf am 1. März 2019).
Steinbach, Armin: Social Bots im Wahlkampf, ZRP 2017, 101.

95
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

Steiner, Anna: Was Microsoft durch „Tay“ gelernt hat, abrufbar unter: https://www.f
az.net/aktuell/wirtschaft/netzwirtschaft/was-microsoft-mit-dem-bot-tay-von-der-n
etzgemeinde-gelernt-hat-14146188.html (letzter Abruf am 1. März 2019).
t3n: KI schlägt 20 Anwälte bei der Analyse von Verträgen klar, abrufbar unter:
https://t3n.de/news/ki-schlaegt-anwaelte-analyse-963741/ (letzter Abruf am
1. März 2019).
t3n: Visuelle Suchmaschinen: Google kann jetzt gucken, abrufbar unter: https://t3n
.de/magazin/visuelle-suchmaschinen-google-gucken-247315/ (letzter Abruf am
1. März 2019).
The Guardian: Elon Musk: artificial intelligence is our biggest existential threat,
abrufbar unter: https://www.theguardian.com/technology/2014/oct/27/elon-mus
k-artificial-intelligence-ai-biggest-existential-threat (letzter Abruf am 1. März
2019).
The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitiga-
tion, abrufbar unter: https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c
6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf (letzter Abruf am 1. März
2019).
Turing, Alan: Computing machinery and intelligence, Mind 59 (1950), 433.
Uchatius, Wolfgang: Die Geschichte des Heroins – vom Hustensaft zum Rauschgift,
DIE ZEIT 12/2008, abrufbar unter: https://www.zeit.de/2008/12/Heroin-Kasten
(letzter Abruf am 1. März 2019).
Vinge, Vernor: The Coming Technological Singularity: How to Survive in the Post-
Human Era, abrufbar unter: https://edoras.sdsu.edu/~vinge/misc/singularity.htm
l (letzter Abruf am 1. März 2019).
von Goethe, Johann Wolfgang: Faust, Der Tragödie 2. Teil, zitiert nach der 5. Auflage
der von Albrecht Schöne hrsg. Fassung, Insel Taschenbuch, Berlin 2003.
von Hirsch, Andrew: Fairness, Verbrechen und Strafe – strafrechtstheoretische Ab-
handlungen, Berlin 2005.
von Kaler, Matthias; Wieser, Sylvia: Weiterer Rechtssetzungsbedarf beim automati-
sierten Fahren, NVwZ 2018, 369.
Wallach, Wendell; Allen, Colin: Moral machines – teaching robots right from wrong,
Oxford 2009.
Weizenbaum, Joseph: Computermacht und Gesellschaft, 4. Auflage, Berlin 2001.
Weng, Y. H.; Chen, C. H.; Sun, C. T.: Toward the Human-Robot Co-Existence Soci-
ety: On Safety Intelligence for Next Generation Robots, International Journal of
Social Robotics 2009, 267.
Wischmeyer, Thomas: Regulierung intelligenter Systeme, AöR 143 (2018), 1.
Wohlers, Wolfgang: Individualverkehr im 21. Jahrhundert: das Strafrecht vor neuen
Herausforderungen, BJM 2016, 113.
ZEIT ONLINE: Auktionshaus versteigert erstmals KI-Gemälde, abrufbar unter
https://www.zeit. de/kultur/kunst/2018-10/kuenstliche-intelligenz-versteigerung-
gemaelde-algorithmus-christie-s-auktionshaus (letzter Abruf am 1. März 2019).

96
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur

ZEIT ONLINE: Die Unsterblichen – Eine Begegnung mit dem Technikvisionär Ray
Kurzweil und den Jüngern der „Singularity“-Bewegung, abrufbar unter: https://
www.zeit.de/2013/14/utopien-ray-kurzweil-singularity-bewegung (letzter Abruf
am 1. März 2019).
ZEIT ONLINE: Neuer Mensch oder arme Sau?, abrufbar unter: https://www.zeit.de/
zeit-wissen/2018/03/biohacking-selbstversuch-gentechnik-crispr-genetik-selbstver
such-cyborg (letzter Abruf am 1. März 2019).
ZEIT ONLINE: Und das soll jetzt Kunst sein?, abrufbar unter: https://www.zeit.de/k
ultur/kunst/2018-10/auktion-kuenstliche-intelligenz-algorithmus-kunstwerk-vers
teigerung-christie-s (letzter Abruf am 1. März 2019).

97
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.

Das könnte Ihnen auch gefallen