Beruflich Dokumente
Kultur Dokumente
18
Karsten Gaede
Künstliche Intelligenz –
Rechte und Strafen für Roboter?
Nomos
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Robotik und Recht
Herausgegeben von
Band 18
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Prof. Dr. Karsten Gaede
Künstliche Intelligenz –
Rechte und Strafen für Roboter?
Nomos
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in
der Deutschen Nationalbibliografie; detaillierte bibliografische
Daten sind im Internet über http://dnb.d-nb.de abrufbar.
ISBN 978-3-8487-5880-7 (Print)
ISBN 978-3-7489-0012-2 (ePDF)
1. Auflage 2019
© Nomos Verlagsgesellschaft, Baden-Baden 2019. Gedruckt in Deutschland. Alle Rechte,
auch die des Nachdrucks von Auszügen, der fotomechanischen Wiedergabe und der
Übersetzung, vorbehalten. Gedruckt auf alterungsbeständigem Papier.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Im Andenken an Erhard Egon Winfried Gaede
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorwort
Die vorliegende Schrift gibt die zum Teil überarbeitete und vertiefte An-
trittsvorlesung wieder, die ich am 1. Februar 2019 an der Bucerius Law
School in Hamburg gehalten habe.
Den Herausgebern der Reihe, der Kollegin Susanne Beck und dem Kol-
legen Eric Hilgendorf danke ich herzlich für die Aufnahme in die Schrif-
tenreihe „Robotik und Recht“, die beide früh gemeinsam mit dem Nomos-
Verlag begründet haben. Dem Verlag danke ich ebenso für die Aufnahme
in die Reihe und die sehr gute Betreuung der Schrift. Wolfgang Wohlers
bin für eine hilfreiche Durchsicht einer frühen Fassung des Vortrages sehr
verbunden.
Auch in Hamburg wurde die Schrift, deren Fehler allein auf den Verfas-
ser zurückfallen, durch Literaturrecherchen und das Gegenlesen früherer
Fassungen unterstützt. Für diese Hilfe danke ich herzlich Marc Bittner, An-
na Einhaus, Jessica Krüger, Oscar Laitzsch, Maximilian Münster, Ruth San-
der, Tanessa Trojandt, Annika Vahlenkamp, Lucas Walker und Julius Wei-
dig.
Mein Vorhaben, mich über die Inhalte der Abhandlung hinaus in die
Thematik der künstlichen Intelligenz einzuarbeiten, hat mehr Raum ein-
genommen, als ich es mir vorgestellt hatte. Ich hoffe sehr, dass das Ergeb-
nis die gemeinsame Zeit etwas wieder aufwiegt, die meine Frau Goya, mei-
ne Tochter Helena und ich selbst hierdurch verloren haben.
7
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorbemerkung
Die vorliegende Schrift gibt die zum Teil überarbeitete und vertiefte An-
trittsvorlesung wieder, die der Verfasser am 1. Februar 2019 an der Buceri-
us Law School in Hamburg unter dem Titel „Die Mensch-Maschine –
Rechte und Strafen für Roboter“ gehalten hat. Mit dieser Vorlesung möch-
te der Verfasser seine Verbundenheit mit einem besonderen Ort akademi-
scher Freiheit zum Ausdruck bringen. Der Grundcharakter des Vortrages
wurde beibehalten.
In der Schriftfassung wäre es denkbar gewesen, zum Beispiel die Darle-
gungen zu Grundkonzepten wie der Menschenwürde oder den Strafgrün-
den auszubauen. Dies ist jedoch zum einen deshalb nicht geschehen, weil
bereits wissenschaftliches Schrifttum zur Verfügung steht, das eine Ausein-
andersetzung mit abweichenden Positionen leistet. Zum anderen und vor
allem zielen meine Ausführungen darauf ab, die dominant auf aktuelle
oder bereits absehbare Anwendungen ausgerichtete Debatte zur Regulie-
rung der künstlichen Intelligenz (KI) zu erweitern. Hieran soll sich die
überarbeitete Schriftfassung orientieren. Zum Beispiel mag sich die Einor-
dung einer starken künstlichen Intelligenz als Träger moralischer und so-
dann juridischer Rechte zwar weiter bestreiten lassen, indem ein anderes,
wenngleich nicht vorherrschendes Konzept der Menschenwürde vorgetra-
gen oder neu entwickelt wird. Schon die hier geltend gemachten Gründe
sollten aber zeigen, dass eine gravierende und nicht notwendigerweise rein
verbale Auseinandersetzung für den Fall der Schaffung einer starken künst-
lichen Intelligenz unausweichlich wäre. In diesem Sinne verzichtet die Ab-
handlung auch darauf, sich mit denkbaren und implizit abgelehnten An-
sätzen im Einzelnen auseinanderzusetzen, die eine lediglich an den Men-
schen angelehnte, moralisch grundsätzlich abgestufte Position der spekula-
tiven Mensch-Maschine verfechten. Die Frage, ob die verbleibenden phä-
nomenologischen Unterschiede zwischen dem Menschen und einer fort-
entwickelten künstlichen Maschine in der Ausdifferenzierung des „Rechts
auf Rechte“ im Rahmen einer freiheitlichen Koexistenz zu Differenzierun-
gen führen müssen, ist zwar zu stellen. Dies gilt insbesondere für die po-
tentiell unendliche Lebensdauer der Maschine, der eine allenfalls, aber
auch immerhin, durch moderne Medizin (und Nanotechnologie) verlän-
gerte endliche menschliche Lebensspanne gegenübersteht. Solche und an-
dere Fragen vertiefen aber zum einen nur den Bedarf, frühzeitig über die
9
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorbemerkung
10
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Vorbemerkung
11
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Inhaltsverzeichnis
A. Einführung 15
13
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Inhaltsverzeichnis
E. Thesen 85
Literatur 87
14
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung
Da mich die Bucerius Law School schon eine Weile kennt, musste ich für
die Antrittsvorlesung kein Thema wählen, mit dem ich meine alltägliche
Arbeit umreiße. Ich habe mich von Neugier leiten lassen. Ich habe ein un-
orthodoxes Thema gewählt, das nicht auf den ersten Blick praktisch ausge-
richtet ist.
Mein Thema betrifft die künstliche Intelligenz1. Fällt dieses Stichwort,
zerfällt auch der juristische Zuhörerkreis schnell in zwei Gruppen mit un-
terschiedlichen spontanen Assoziationen:
Die erste Gruppe sieht Chancen über Chancen. KI-Optimisten erwarten
nicht zuletzt enorme ökonomische Vorteile, die Start-ups global realisie-
ren. Wer auf die Zeichen der Zeit mit Bedenken reagiert und vertieft über
Haftung und Sicherheit nachsinnt, findet hier wenig Gehör. Wer nach frei-
gesetzten Menschen fragt,2 traut sich vielleicht einfach nicht zu, der Erste
und Beste zu sein.
Die zweite Gruppe sieht Gefahren über Gefahren. KI-Pessimisten sagen
uns nicht nur im Kontext autonomer Waffensysteme3 den Untergang oder
die Versklavung der Menschheit4 voraus. Sie wollen ungern darüber nach-
15
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung
denken, ob wir Menschen uns nicht einmal mehr auf neue Technik, zum
Beispiel durch ihre Regulierung, einstellen können und erinnern bisweilen
gar an Zeitgenossen der ersten Eisenbahnen.5
Ich werde an dieser Stelle nicht den Einsatz künstlicher Intelligenz in
autonomen Fahrzeugen6 oder in Form juristischer Analyse- oder Entschei-
dungsalgorithmen7 in den Mittelpunkt stellen. Ich habe an der Bucerius
Law School die Freiheit, dass ich nicht nur drittmittelnahen Themen nach-
jagen muss, so spannend, wichtig und erörterungsbedürftig aktuell nahe-
liegende KI-Einsätze auch meines Erachtens sind. Ich werde ebenso wenig
logy/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat):
„artificial intelligence […] our biggest existential threat“; Stephen Hawking (https://
www.ft.com/content/9943bee8-7a25-11e4-8958-00144feabdc0 – Interview Financial
Times 2.12.2014): Warnung vor unvorhersehbaren Konsequenzen der KI-For-
schung („real danger in the not-too-distant future“), Verdrängung des Menschen
infolge langsamer biologischer Evolution und/oder Eintritt einer technologischen
Katastrophe; warnend auch Bostrom, Superintelligence – Paths, Dangers, Strategies:
Intelligenzexplosion, von der die Zukunft der Menschheit abhängen wird, wie der-
zeit die Zukunft der Tiere von uns abhängt. Einen „catastrophic incident“ sehen
voraus Wallach/Allen, Moral machines – Teaching Robots Right from Wrong,
S. 4 ff., 20 ff.; sehr kritisch auch der IT-Wissenschaftler Joseph Weizenbaum, Compu-
termacht und Gesellschaft, S. 104 ff., 120, 123 ff.; siehe auch die Warnung vor kon-
kret absehbaren schädlichen Nutzungen der KI durch eine Gruppe von KI-Forschern
mit dem Dossier „The Malicious Use of Artificial Intelligence“ unter https://img1.w
simg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4
v_50335.pdf.
5 Siehe allerdings auch einordnend zu historischen Gründen für frühere ablehnende
Reaktionen Gruber, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 123,
129 ff.
6 Zur insoweit geradezu exponentiell anwachsenden Literatur im Überblick Arm-
brüster ZRP 2017, 83 f., 85 f. (auch zum Unterschied zum bereits praktizierten auto-
matisierten Fahren); Borges NJW 2018, 977, 979 ff.; Börding/Jülicher/Röttgen/v.Schön-
feld CR 2017, 134, 139 f.; Eidenmüller ZEuP 2017, 765, 771 ff.; Hartmann PHi 2017,
2 ff.; Hötitzsch/May, in: Hilgendorf, Robotik im Kontext von Recht und Moral,
S. 189, 192 ff.; Lutz NJW 2015, 119 ff.; v. Kaler/Wieser NVwZ 2018, 369, 371 ff. und
Wohlers BJM 2016, 113, 115 ff. Sehr lesenswert krit. zur Propagierung der Technik
Misselhorn, Grundfragen der Maschinenethik, S. 184 ff.
7 Auch insoweit werden Potentiale vermehrt gesehen, siehe etwa zum Einsatz der
Lawgeex-KI, die 20 US-Anwälte bei der Vertragsanalyse in puncto Genauigkeit und
Schnelligkeit „geschlagen“ haben soll, https://t3n.de/news/ki-schlaegt-anwaelte-ana
lyse-963741/ und darüber hinaus P. Enders JA 2018, 721, 726. Zur Debatte um den
Einsatz Rechtsfragen entscheidender Supercomputer siehe Eidenmüller ZEuP 2017,
765, 768; P. Enders JA 2018, 721, 722 ff.; m.w.N. Becker, Erkenntnis, Werturteil, Hal-
tung – Bemerkungen zur Praxis der theoretischen Rechtswissenschaft, Jahrbuch für
Recht und Ethik, 28. Band (2019).
16
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung
8 Für die nähere Zukunft bedeutend zurückhaltender als die zum Teil zu verneh-
menden Gefahrenwarnungen und weithin repräsentativ hingegen der erste Be-
richt der Stanford-Langzeit-Studie AI100, der von 20 KI-Experten erstellt wurde,
https://ai100.stanford.edu/2016-report, S. 4 f.: keine unmittelbare Gefahr für die
Menschheit infolge der aktuellen und absehbaren KI anzunehmen – allerdings
unter vollständiger Ausklammerung militärischer Nutzungen (S. 3) und mit dem
Disclaimer, dass sich die zukünftigen KI-Technologien nicht mit letzter Klarheit
vorhersehen ließen (S. 49).
9 Zu möglichen, hier letztlich nicht entscheidenden Definitionen des Roboters un-
ter verschiedenen Regelungszwecken etwa Beck JR 2009, 225, 226; Simmler/Mark-
walder ZStW 129 (2017), 20, 23 f.; Günther, Roboter und rechtliche Verantwor-
tung, S. 17 ff.; Hilgendorf, FS Fischer, S. 99, 101 f. und die VDI-Richtlinie 2860:
Montage- und Handhabungstechnik sowie die Definitionen der ISO Norm 8373.
10 Für Kritik zum Marketing-Einsatz etwa Lenzen, Künstliche Intelligenz, S. 18, 34;
Daum (https://www.heise.de/suche/?q=pl%C3%A4doyer+wider+den+KI-Populism
us&make=&sort_by=date); siehe anekdotisch, aber mit zahlreichen Beispielen
zum Einsatz von günstigeren Menschen anstelle der behaupteten künstlichen In-
telligenz etwa im Gesundheitswesen https://orf.at/v 2/stories/2446205/2446206/:
KI oft Mogelpackung.
11 Siehe aber zur offenen Frage, ob der Begriff des Lebens auch bei grundlegenden
Fortschritten der Robotik- und KI-Forschung organischen Wesen vorzubehalten
wäre, die nicht über eine An-Aus-Funktion verfügen, in diese Richtung Birnba-
cher, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 303, 307 f. Bei einem
auf Vernunft und nicht auf Natur gestützten Recht ist die Frage indes, wie auch
Birnbacher festhält, nicht die entscheidende.
17
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
A. Einführung
Ich werde im ersten Hauptteil meines Vortrages (B.) einen Blick auf den
Stand der KI-Forschung werfen, soweit er von Interesse ist. Im zweiten
Hauptteil (C.) hinterfrage ich, ob und wann intelligente Maschinen Rechte
besitzen sollten, die denen des Menschen ähneln. Im dritten Hauptteil be-
handele ich, ob wir die künstliche Intelligenz bestrafen dürften und ob wir
den Prozess ihrer Schaffung mit Strafe bewehren könnten (D.). Zum Ab-
schluss fasse ich meine Kernthesen zusammen (E.).
18
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
Zum Beispiel in der auch ethisch überaus wertvollen Serie „Star Trek – The
next generation“ und in vielen anderen, hier gar nicht mehr genannten
Werken der sog. Science-Fiction ist es längst so weit. Mit dem Menschen
physisch und intellektuell weit überlegenen Androiden Data lässt sich un-
ser Experiment veranschaulichen:12 Data dient der friedliebenden Sternen-
flotte als Lieutenant Commander auf der U.S.S. Enterprise. Ihn zeichnet
ein Bewusstsein aus, er ist fasziniert von allem Menschlichen und kann mit
einem Zusatzchip Gefühle empfinden.
I. Status quo
Wie sieht es nun aber im frühen 21. Erdjahrhundert aus? Hier hat es sich
eingebürgert, von künstlicher Intelligenz schon dann zu sprechen, wenn
Computer menschliche Intelligenz nachahmen und Aufgaben erfüllen, die
bisher nur Menschen lösen konnten.13 Es geht also zunächst um die Adap-
tion menschlichen Verhaltens. Zur Programmierung der künstlichen Intel-
ligenz gehört regelmäßig ein sog. deep learning.14 Das deep learning bezeich-
19
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
net die Fähigkeit der KI, ihr Leistungsvermögen selbst zu steigern, indem
sie Datenmassen auswertet; die KI wird durch die Dateneingabe im Wege
des trial and error-Verfahrens trainiert, um anhand von Erfahrungen zu ler-
nen.15 Möglich wird dies durch neuronale Netzwerke, mit denen wir die
Nervenzellen unseres Gehirns technisch zu rekonstruieren suchen.16
Um das künstliche Lernen zu perfektionieren, setzt die Forschung ver-
mehrt auch darauf, die KI in Robotern zu verkörpern, die wie ein Kind ler-
nen sollen. Mit diesem sog. Embodiment machen wir die These fruchtbar,
dass sich menschliche Intelligenz nicht auf das Gehirn reduzieren lässt –
sie ist an einen Körper gebunden, der Erfahrungen aufnimmt.17 KI-gesteu-
erte Roboter können ihre Umgebung heute über Sensoren wahrnehmen.
Sie können auf Grund ihrer eigenständigen Wahrnehmungen Akte ausfüh-
ren, die wir nicht vollends vorhersehen können.18 Überzeugend machen
Russell/Norvig insoweit als Kern der aktuell debattierten KI aus, dass ein
15 Siehe neben den Nachweisen in Fn. 14 näher – und auch zu weiteren Lernformen
– Lenzen, Künstliche Intelligenz, S. 48 ff., 67 f., 87 ff.; Eberl, Smarte Maschinen,
S. 41 ff., 92 ff., mit beeindruckendem Beispiel auf den S. 305 ff.; Günther, Roboter
und rechtliche Verantwortung, S. 26 ff. (auch zum reinforcement learning); Lewke
InTeR 2017, 207, 209; Decker, in: Gleß/Seelmann, Intelligente Agenten und das
Recht, S. 23, 33 ff.; anschaulich zum autonomen Fahren Müller-Hengstenberg/Kirn,
Rechtliche Risiken autonomer und vernetzter Systeme, S. 60 f.; siehe grundlegend
Turing Mind 59 (1950), 433 – part 7.
16 Dazu Russell/Norvig, Artificial Intelligence, S. 16, 20, 24, 727 ff.; Lenzen, Künstli-
che Intelligenz, S. 52 ff., 67 f.; Eberl, Smarte Maschinen, S. 41 f., 54 f. Durch zahl-
reiche übereinandergelegte und verbundene Schichten können Maschinen kom-
plexe Zusammenhänge erkennen, verstehen und Bezüge herstellen. Siehe auch
zu visuellen Suchmaschinen https://t3n.de/magazin/visuelle-suchmaschinen-goog
le-gucken-247315/.
17 Zur heute mitgedachten Verkörperung der Intelligenz auch Günther, in: Gruber/
Bung/Ziemann, Autonome Automaten, S. 155, 156, 158 ff.: Konzept des Embodi-
ment von Brooks; Gruber, in: Gruber/Bung/Ziemann, Autonome Automaten,
S. 191, 203 zum sog. Wetwarekonzept; Günther, Roboter und rechtliche Verant-
wortung, S. 27 f., auch als krit. Einwand gegen eine Gefahr überlegener Superin-
telligenzen 284 f. (aber ohne Grund, warum gerade die Verkörperung ausschei-
de); Misselhorn, Grundfragen der Maschinenethik, S. 27 ff.; Mainzer, Leben als
Maschine?, S. 12 f., 109 ff., 213.; Wallach/Allen, Moral machines – Teaching Robots
Right from Wrong, S. 63 ff.; Lewke InTeR 2017, 207, 208; Eberl, Smarte Maschi-
nen, S. 84 ff., 305 f., 311 f. 370; zur philosophischen Sicht auf die nötige Verkörpe-
rung Bung, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 17, 18 ff.
18 Dazu nur m.w.N. Beck JR 2009, 225, 226; Simmler/Markwalder ZStW 129 (2017),
20, 23 ff.; Mainzer, Leben als Maschine?, S. 11; zum autonomen Fahren beispiel-
haft Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter Sys-
teme, S. 61; zu den besonders menschenähnlichen Werken von Hiroshi Ishiguro
siehe Eberl, Smarte Maschinen, S. 29 ff., 319 ff.
20
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Status quo
künstlicher Akteur vorliegt, der seine Umwelt wahrnimmt und auf Grund
der Wahrnehmungen Akte ausführen kann.19
Nach dem geschilderten, immer noch großzügigen Begriffsverständnis
umgibt uns künstliche Intelligenz bereits. Computer lösen zahlreiche Auf-
gaben, die früher Menschen vorbehalten waren bzw. unterstützen Compu-
ter ihre Lösung20. Die oft effizienteren und präziseren Anwendungen
sprießen überall aus dem Boden:
– Hierfür müssen wir nicht nur an den sensationellen, aber zunächst
eher exotischen Sieg denken, den eine KI der heutigen Google-Tochter
DeepMind über einen der weltbesten Spieler des komplexen Brettspiels
„Go“ errungen hat.21
– Auch das in New York für rund 432.500 US-Dollar versteigerte KI-Ge-
mälde „Edmond de Belamy“ entstammt noch nicht unserer täglichen
Praxis.22
– Praktisch bedeutsamer sind etwa digitale Assistenten wie Siri oder Ale-
xa, die intelligente Spracherkennungssoftware nutzen. Sie gestatten be-
19 Russell/Norvig, Artificial Intelligence, viii, S. 1 ff. Sie stellen dabei fest, dass ein
stets rationales Handeln praktisch nicht erreicht werden könne, S. 5, zu Unsicher-
heitsgründen bei Robotern S. 993 ff., zur erstrebenswerten Autonomie im Sinne
der KI-Forscher aber auch S. 39.
20 Der Begriff KI wird zum Teil auf Aufgabenstellungen begrenzt, die allein von der
Maschine bearbeitet werden. Bei einem solchen Begriffsverständnis kann man
von ihr die sog. augmented intelligence (erweiterte Intelligenz) abgrenzen, bei der
die KI zu einer verbesserten Leistungskraft bzw. Intelligenz des Menschen selbst
führen soll; Gesmann-Nuissl InTer 2018, 105, 106; Herberger NJW 2018, 2825 f.
Über die Verbesserung physischer Fähigkeiten des Menschen hinaus fungiert die
KI hier als Verstärker der geistigen Potentiale des Menschen.
21 Dazu Bögeholz (https://www.heise.de/ct/ausgabe/2016-7-Google-AlphaGo-schlaegt
-Top-Profi-4-1-im-Go-3136576.html) und zur gelungenen Weiterentwicklung und
Übertragung auf andere Spiele wie Schach durch den selbstlernenden Algorith-
mus AlphaZero Bögeholz (https://www.heise.de/newsticker/meldung/Kuenstliche-
Intelligenz-AlphaZero-meistert-Schach-Shogi-und-Go-3911703.html); Pieper InTer
2016, 188, 189 f.
22 Dazu etwa https://www.zeit.de/kultur/kunst/2018-10/kuenstliche-intelligenz-verst
eigerung-gemaelde-algorithmus-christie-s-auktionshaus und krit. Weihser (https://
www.zeit.de/kultur/kunst/2018-10/auktion-kuenstliche-intelligenz-algorithmus-k
unstwerk-versteigerung-christie-s). Allgemeiner zur darüber hinaus angestoßenen
„Computerkunst“ Lenzen, Künstliche Intelligenz, S. 121 ff.; Lewke InTeR 2017,
207 ff.
21
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
23 Lenzen, Künstliche Intelligenz, S. 9 f., 12 ff.; Keßler MMR 2017, 589, 590; BT/Drs.
19/3714, S. 1.
24 Lenzen, Künstliche Intelligenz, S. 64 ff.
25 Zum Rückgriff auf KI insoweit nur nochmals Lenzen, Künstliche Intelligenz,
S. 42 ff., 124 ff. und 144 f.; Eberl, Smarte Maschinen, S. 166 ff.
26 Siehe etwa für einzelne Nachrichten/Verheißungen Lewke InTeR 2017, 207, 209;
Eberl, Smarte Maschinen, S. 131 ff., 353 ff.; http://www.spiegel.de/wissenschaft/me
dizin/maschinelles-lernen-die-ki-revolution-im-reagenzglas-a-1247666.html; zur
Hoffnung auf (nahezu) alle Krankheiten heilende Nanobots auch Kurzweil, The
Singularity is near, S. 28 f., 72 ff., 205 ff., 300 ff.
27 Lenzen, Künstliche Intelligenz, S. 58, 162 ff., 166 ff.; Gleß/Weigend ZStW 126
(2014), 561, 563 f.
28 Siehe etwa Intelligenz an die Fähigkeit bindend, sich auf neue Situationen ein-
stellen zu können, Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMensche
nrechte.pdf, S. 10 f.; eher für die entscheidende Fähigkeit, aus Fehlern zu lernen,
und für den an besonderer Problemlösungskompetenz orientierten Begriff der
„maschinellen Intelligenz“ Hilgendorf, FS Fischer, S. 99, 100 f.
29 Lenzen, Künstliche Intelligenz, S. 17, 58, 127 ff.; siehe auch BT/Drs. 19/3714, S. 7:
keine autonom handelnden, aber humanistisch trainierten Algorithmen verfüg-
bar, S. 12; zur vielfach, etwa von Searle abgelehnten Möglichkeit eines künstli-
chen Bewusstseins des Computers m.w.N. Wallach/Allen, Moral machines –
Teaching Robots Right from Wrong, S. 56 ff.
30 Lenzen, Künstliche Intelligenz, S. 129 ff.; zu den dahingehenden Anstrengungen
Wallach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 145 ff.
22
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen
Wo aber geht die Reise hin? Es ist keine Science-Fiction, wenn wir zugrun-
de legen, dass das technisch Machbare und die mit ihm gelösten Aufgaben
rapide anwachsen. Die Rechenkapazität und die Rechengeschwindigkeit,31
die verfügbaren Daten sowie der Speicherplatz steigen rasant; die Metho-
den der KI dürften gerade infolge der heute weltweit enormen Investitionen
einen erheblichen Entwicklungsschub erfahren.32 Die Bundesregierung
will Deutschland und Europa zum weltweiten Spitzenreiter der KI-For-
schung machen.33 Google, Facebook, Amazon, IBM und Microsoft haben
schon 2016 eine Allianz geschmiedet, um ihre Kräfte bei der KI-Forschung
zu bündeln.34 Nicht wenige KI-Forscher prognostizieren wegweisende
Fortschritte der KI-Forschung für die kommenden Jahrzehnte.35
31 Lenzen, Künstliche Intelligenz, S. 39 f., aber auch mit Kritik am Mooreschen Ge-
setz; Eberl, Smarte Maschinen, S. 22 f., 47 ff., zum Stromproblem aber auch
S. 146 ff. Zur Bedeutung der Rechenkapazitäten schon durchgehend Turing Mind,
59 (1950), 433 ff., etwa 6 (5).
32 Zum atemberaubenden Investitionsgeschehen etwa Lenzen, Künstliche Intelli-
genz, S. 15 f., 104, 211; Eberl, Smarte Maschinen, S. 46 f., auch 234; zur Zukunfts-
prognose auch den festgehaltenen Konsens im Open Letter des Future of Life Insti-
tute und Stanford-Bericht (Fn. 8), S. 4; Lin, in: Lin/Abney/Bekey, Robot Ethics,
S. 3, 6; Eberl, Smarte Maschinen, S. 47 ff., 364 ff.; BT/Drs. 19/5880, S. 6; 18/7626,
S. 2 und 5. Zudem wird unter anderem von Google und offenbar auch dem US-
Militär der Versuch unternommen, leistungsstärkere Quantencomputer verfügbar
zu machen, siehe https://de.wikipedia.org/wiki/Quantencomputer – Forschung
und Verfügbarkeit.
33 Zur „Strategie Künstliche Intelligenz“ https://www.bundesregierung.de/breg-de/a
ktuelles/ki-als-markenzeichen-fuer-deutschland-1549732: „KI als Markenzeichen
für Deutschland“; BT/Drs. 19/3714, S. 2.
34 Http://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-google-facebook-am
azon-ibm-und-microsoft-gruenden-forschungsverbund-a-1114474.html. Samsung
ließ Mitte 2018 verlauten, dass es allein in den nächsten drei Jahren 138 Milliar-
den € in Zukunftstechnologien wie KI und autonomes Fahren investieren will.
35 Dazu z.B. Jürgen Schmidhuber (https://www.sueddeutsche.de/digital/kuenstliche-in
telligenz-eines-beherrschen-deutsche-firmen-ueberhaupt-nicht-propaganda-1.4170
602), TU vom Schweizer IDSIA (Istituto Dalle Molle di studi sull’intelligenza ar-
tificiale): In 30 Jahren wird erstmals eine kleine billige Maschine entwickelt sein,
die dem neuronalen Netzwerk des menschlichen Gehirns entspricht; Eberl, Smar-
te Maschinen, S. 52; Pieper InTer 2016, 188, 190 f.; zu weiteren Schätzungen
Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 22 ff. Zum Einsatz im
Gesundheitswesen bei der Diagnose Lenzen, Künstliche Intelligenz, S. 154 ff.; vgl.
zur Medizin ferner die Forschungsprojekte unter BT/Drs. 19/3714, S. 14 ff.
23
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
Allerdings richtet sich all dies vornehmlich auf die sogenannte schwache
KI.36 Wir zielen in der Regel nicht wie der fiktive Star Trek-Forscher Dr.
Noonien Soong darauf ab, einen allgemein intelligenten Data zu erschaffen.
Erst recht wollen wir nicht wie die Betreiber der „West World“ oder wie
Ray Kurzweil unser Bewusstsein auf Maschinen übertragen, um den Trans-
humanismus37 ausrufen zu können. Die Forschung richtet sich primär auf
einzelne menschliche Fähigkeiten, die nachgestellt und perfektioniert wer-
den sollen, um die von Menschen gestellten Aufgaben reaktiv zu bewälti-
gen. Und das Ziel, ein menschliches Bewusstsein zu schaffen, wird für eine
sukzessiv verbesserte Programmierung – im Gegensatz zu verfeinerten und
besser lernenden Algorithmen – regelmäßig nicht als erforderlich angese-
hen.38
Bei allem gebotenen Realismus ist aber auch eine starke KI und damit
eine gesamthafte artifizielle Rekonstruktion und Verbesserung menschli-
chen Denkens heute keine reine Spinnerei. Es strapaziert zwar auch meine
Vorstellungskraft, die derzeit nicht absehbare39 Erschaffung eines artifiziel-
len selbstbewussten Wesens zu denken. Wer religiös geprägt ist, mag die
36 Lenzen, Künstliche Intelligenz, S. 31, 33; zur Ausrichtung auf einzelne Fähigkei-
ten/Aufgaben Lewke InTeR 2017, 207, 208; anhand der Pflege Decker ZfmE 2018,
345, 346 f. Treffend auch die Bezeichnung als narrow intelligence bei Kurzweil, The
Singularity is near, S. 92, 264.
37 Zum Transhumanismus im Überblick, einschließlich des Bestrebens/der Vision,
das menschliche Bewusstsein auf eine theoretisch ewig währende Maschine zu
übertragen, Eberl, Smarte Maschinen, S. 360 ff.; Lenzen, Künstliche Intelligenz,
S. 110 ff.; eingehend Kurzweil, The Singularity is near, passim, zum brainupload
S. 198 ff., zur neuen Form des Klonens S. 224 ff.; als längst im Fluss befindlich
sieht die Entwicklung jedenfalls im Sinne einer Veränderung des Menschen
Mainzer, Leben als Maschine?, S. 237 f.; siehe auch Harari, Homo Deus, S. 49 ff.
38 So etwa Weng/Chen/Sun International Journal of Social Robotics 2009, 267, 275;
Mainzer, Leben als Maschine?, S. 174, 222, 232. Siehe aber auch zur lebhaften Kri-
tik an der wissenschaftlichen Beschränkung auf die Umsetzung einzelner Aufga-
ben und der Abwendung von gesamthaften Entwicklungsansätzen m.w.N. Rus-
sell/Norvig, Artificial Intelligence, S. 27.
39 Für diese ganz vorherrschende Einschätzung etwa Lenzen, Künstliche Intelligenz,
S. 15 ff., auch zu überwindungsbedürftigen Diskrepanzen zwischen Robotik und
KI, 82 ff., 246; Eberl, Smarte Maschinen, S. 361 f. (zur notwenigen Zusammenfüh-
rung von KI und Robotik); Misselhorn, Grundfragen der Maschinenethik, S. 13 ff.,
118 ff., 205 ff.: Erschaffung der Fähigkeit, sich selbst Ziele zu setzen und darüber
zu reflektieren, derzeit ohne Anhaltspunkte. Zugleich hält auch sie selbst für rea-
listisch, dass das Verhalten der Maschinen infolge der möglichen Selbstursprüng-
lichkeit/ihrer Interaktion mit der Umwelt nicht mehr für jede Situation vorher-
sehbar sei, ebenso erörtert sie die Anwendung moralischer Maschinen in der Pfle-
ge (was aber eine Stufe unterhalb des Selbstbewusstseins bedeuten solle), Missel-
24
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen
Vorstellung, der Mensch werde gottesgleich eine neue Art kreieren, so-
gleich als faustische Anmaßung verwerfen.40 Die zeitlich kontingente Vor-
stellungskraft der Menschheit hat eben diese Menschheit aber schon mehr-
fach gesprengt. Es gibt eine Reihe von Forschern und Unternehmen, die
die Schöpfung einer starken KI Schritt für Schritt in die Tat umsetzen wol-
len.41 Einige Forscher rechnen gar für einen nicht allzu fernen Zeitpunkt
horn, Interview ZEIT ONLINE (Fn. 13). Optimistischer Erhardt/Mona, in: Gleß/
Seelmann, Intelligente Agenten und das Recht, S. 61, 62 f.
40 Siehe auch zur unnatürlichen Schöpfung des sog. Homunculus (durch Wagner
bzw. Mephistopheles) J.W. von Goethe, Faust, Der Tragödie 2. Teil, 2. Akt, Szene 2
– Laboratorium, S. 278 ff. Siehe auch schon, letztlich vermittelnd: Turing Mind,
59 (1950), 433 – part 6 (1): Menschen würden Gefäße schaffen, denen Gott eben-
falls Seelen gibt. Der Vatikan sah die KI-Forschung offenbar selbst nicht grund-
sätzlich als Sakrileg. Er hat angeblich gegenüber japanischen Forschern nach der
Jahrtausendwende bekundet, dass der Mensch die ihm geschenkte Fähigkeit zur
Kreativität und zum Denken nutze, wenn er menschliche Roboter baue (siehe
Plug & Pray, 2010 und die Rede Johannes Paul des II. aus dem Jahre 1981: https://w
2.vatican.va/content/john-paul-ii/en/speeches/1981/february/documents/hf_jp-ii_s
pe_19810225_giappone-hiroshima-scienziati-univ.html, para. 3. Zu den heutigen
größeren Bedenken siehe aber aus dem Jahr 2015 Franziskus: http://w2.vatican.va/
content/francesco/en/encyclicals/documents/papa-francesco_20150524_enciclica-l
audato-si.html#_ftnref81, para. 102 und das Tagungspapier unter http://www.cult
ura.va/content/dam/cultura/docs/pdf/events/PlenaryTheme2017_en.pdf.
41 Siehe den Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Ex-
pert Group on Artificial Intelligence, S. 13 Fn. 18: Labore in Frankreich, USA und
Japan; m.w.N. zu ambitionierteren Forschern Russell/Norvig, Artificial Intelli-
gence, S. 27; zur Schaffung eines Bewusstseins Wallach/Allen, Moral machines –
Teaching Robots Right from Wrong, S. 67 f., 167 ff. Zu entsprechenden, vor im-
mensen Problemen stehenden Ansätzen siehe Lenzen, Künstliche Intelligenz,
S. 33 ff.; zu Ishiguro Eberl, Smarte Maschinen, S. 323 f. Im Einzelnen ist etwa an
www.vicarious.com zu denken: „At Vicarious, we are building systems to bring
human-like intelligence to the world of robots.“ Das unmittelbare Ziel besteht
unter anderem darin, über das bisherige deep learning hinauszukommen, dazu
https://www.forbes.com/video/5421979416001/#1a410c6075b8. Neben dem
Human Brain Project (dazu unten Fn. 47), dem US-Gegenstück https://www.brai
ninitiative.nih.gov/ sowie etwa dem japanischen Projekt https://brainminds.jp/en
/overview/greeting ist etwa die Whole Brain Emulation (WBE) zu erwähnen, da-
zu Sandberg, Monte Carlo model of brain emulation development (2014) und zu
Numenta https://numenta.com/machine-intelligence-technology/. Auch in China
existiert ein weniger öffentliches Parallelprojekt. Verhalten zum WBE-Ansatz:
Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 35 ff., 297 ff. Siehe auch
nüchtern Gruber/Bung/Ziemann, in: Gruber/Bung/Ziemann, Autonome Automa-
ten, S. 11: Forschung über Simulation hinaus; zu den bestehenden Grenzen etwa
Kang, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 79, 81 ff. und zum
25
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
„Bewusstseinsrätsel“ Harari, Homo Deus, S. 125 ff.; siehe aber auch Mainzer, Le-
ben als Maschine?, S. 177 ff., 231 f., 243. Des Weiteren finden sich Arbeiten, die an
der Implikation moralischer Grundsätze ansetzen, siehe zu MIRI https://intellige
nce.org/research/. Eine praktische „Allzweck-KI“ will Schmidhuber mit der Firma
NNAISENSE erschaffen, ZEIT, 28.2.2019, S. 29.
42 Siehe etwa Vinge, The Coming Technological Singularity: 2023 seien Mittel für
eine übermenschliche Intelligenz verfügbar; Raymond Kurzweil (dazu https://ww
w.zeit.de/2013/14/utopien-ray-kurzweil-singularity-bewegung und den Film Plug
and Pray [2010]): 2029 werde der Turing-Test bewältigt, 2045 trete ein Bruch in
der Struktur der Geschichte der Menschheit ein – die Abgabe der Evolution von
der Biologie an die Technik (siehe auch Lewke InTeR 2017, 207, 208); siehe näher
Kurzweil, The Singularity is near, S. 21 ff., 135 ff., der damit vor allem die Transfor-
mation der menschlichen Fähigkeiten verbindet. Siehe auch die Nachweise in
Fn. 4.
43 Siehe auch Eidenmüller ZEuP 2017, 765, 769; siehe auch völlig unkritisch Frese
NJW 2015, 2090, 2092: Singularität erübrigt die menschliche Kontrolle; zur Be-
schreibung der technologischen Singularität und den Hauptausprägungen, die et-
wa die Kreation nochmals intelligenterer Maschinen beinhalten, m.w.N. Missel-
horn Grundfragen der Maschinenethik, S. 205 ff.: Intelligenzexplosion.
44 Siehe Joseph Weizenbaum, etwa in der Doku „Plug and Pray“ (2010). Siehe auch
nüchtern krit. Russell/Norvig, Artificial Intelligence, S. 12: futurists.
45 So wird die Singularität nicht zuletzt mit dem Zeitpunkt gleichgesetzt, an dem
der Mensch auch durch den Rückgriff auf Nanotechnologie alte biologische
Schranken abstreift, was letztlich die Chance auf ein ewiges Dasein/Leben impli-
ziert, siehe instruktiv https://www.zeit.de/2013/14/utopien-ray-kurzweil-singularit
y-bewegung und den Film Plug and Pray (2010). Eingehend etwa Kurzweil, pas-
sim.
46 Dafür siehe beispielhaft Eberl, Smarte Maschinen, S. 22 f., 47 ff., 158 f.; Mainzer,
Leben als Maschine?, S. 14 f.; mit betont optimistischen Annahmen Kurzweil, The
Singularity is near, S. 122 ff.; zur darüber noch hinausgehenden, in der vollen Va-
lidität fragwürdigen Annahme des Mooreschen Gesetzes ablehnend etwa Missel-
horn, Grundfragen der Maschinenethik, S. 207.
26
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen
Euro teuren Human Brain Project den Versuch, das menschliche Gehirn
vollständig abzubilden, zu erforschen und zu rekonstruieren,47 was nicht
nur den unmittelbar verfolgten, insbesondere medizinischen Nutzungen
Auftrieb geben kann. Es kommt hinzu, dass die Singularitätsthese ebenso
auf dem deep learning beruht, das unstreitig unvorhersehbare Folgen zei-
tigt48. Bereits heute stellt sich das Problem, dass „Entscheidungen“ aktuel-
ler KI für den Menschen zum Teil gar nicht mehr rekonstruierbar sind, was
längst Forderungen und Bestrebungen nach einer „explainable AI“ hervor-
gerufen hat.49
All dies ist unter dem Aspekt der starken KI auch deshalb von Belang,
weil es schon jetzt handfeste Forschungen gibt, die eine starke KI begünsti-
gen:
27
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
28
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Ziele und Visionen
29
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
B. Künstliche Intelligenz – Data ante portas?
58 Schon für die technologische Singularität wird z.T. angenommen, dass sie für die
Beteiligten überraschend eintreten könnte, Vinge, The Coming Technological Sin-
gularity, S. 3.
59 Zum ggf. zulässigen off-label-use m.w.N. BeckGroßK/Spindler, § 823 BGB Rn. 789;
näher Deutsch VersR 2014, 1038 ff. Zur dual-use-Problematik bezüglich Art. 5
Abs. 3 GG m.w.N. Hufen NVwZ 2017, 1265, 1267.
60 Siehe zur Geschichte des Heroins etwa Uchatius, Vom Hustensaft zum Rauschgift,
DIE ZEIT 12/2008.
30
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
Mit diesen Ausführungen habe ich nicht angekündigt, dass und wann eine
selbstbewusste Mensch-Maschine Realität sein wird. Ich habe aber erste
Gründe geltend gemacht, auch die starke künstliche Intelligenz zu thema-
tisieren. Die von der Europäischen Kommission eingesetzte High-Level Ex-
pert Group on Artificial Intelligence ist letztlich zum gleichen Schluss ge-
langt; sie bittet um Debattenbeiträge auch zur starken KI.61 Ich möchte in
diesem Sinne nun im zweiten Teil durchdenken, welche Rechtsstellung
einer starken KI zukommen sollte.
Bei alledem geht es mir nicht lediglich um die auch durch das Europäi-
sche Parlament angestoßene Debatte, ob man etwa autonomen62 Fahrzeu-
gen wie juristischen Personen Rechtsfähigkeit zubilligen sollte, um Haf-
tungslücken bzw. Rechtsunsicherheit zu vermeiden.63 Diese Debatten ha-
ben ihrerseits respektable Gründe. Es geht mir hier aber nicht um die
61 Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert Group
on Articial Intelligence, S. 12 f., allerdings mit dem Hinweis auf eine unterschied-
lich beurteilte Notwendigkeit.
62 Zu dem hier vorausgesetzten sehr weiten Autonomiebegriff siehe etwa m.w.N.
Münch, Autonome Systeme im Krankenhaus, S. 34 ff.: graduelle Autonomie, die
vor allem aus der Komplexität der Aufgabe und der in gewissem Umfang unvor-
hersehbaren Lösung herrühre; Borges NJW 2018, 977, 978: Verhalten nicht voll-
ständig vorherbestimmt oder vorhersehbar; Lenzen, Künstliche Intelligenz,
S. 124 ff.; Müller-Hengstenberg/Kirn, Rechtliche Risiken autonomer und vernetzter
Systeme, S. 60 ff., 97 ff.; krit. auch Birnbacher, in: Hilgendorf/Günther, Robotik
und Gesetzgebung, S. 303, 314; krass verkürzend Mayinger, Die künstliche Per-
son, S. 67.
63 Zum Thema etwa differenziert m.w.N. Eidenmüller ZEuP 2017, 765, 774 ff.;
Wischmeyer AÖR 143 (2018), 1, 37 ff.; Beck, in: Hilgendorf/Günther, Robotik und
Gesetzgebung, S. 239, 255 ff. (noch vor dem Vorschlag des EP); krit. Denga CR
2018, 69, 7; konkret vorschlagend die Resolution zu Zivilrechtlichen Regelungen
im Bereich Robotik, Europäisches Parlament, P8_TA(2017)0051, Z ff., Haftung
49 ff., insbesondere 59 f.; für autonome Softwareagenten befürwortend Mayinger,
Die künstliche Person, S. 13 ff., 36 ff., 166 ff.; siehe aber auch ablehnend die Stu-
die PE 571.379, European Civil Law Rules in Robotics, S. 14 ff.: unhelpful and in-
appropriate; Cornelius ZRP 2019, 8 ff.: verhaltens-, aber nicht schuldfähig; ein-
schränkend Gruber, in: Beck, Jenseits von Mensch und Maschine, S. 133, 147 ff.;
Schirmer (https://www.theeuropean.de/jan-erik-schirmer/14166-rechtspersoenlich
keit-fuer-autonome-systeme): partielle Rechtsfähigkeit etwa bei der Stellvertre-
tung genüge.
31
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
Rechtsmechanik, mit der wir auf aktuelle Roboter zu unseren, etwa auf
Haftung gerichteten Zwecken reagieren. Ich möchte fragen, ob wir einer
starken, selbstbewussten KI der Zukunft Rechte geben müssten, die wir
ihrem Vorbild, dem Menschen, zugestehen.64
Die Antwort auf diese Frage hängt zunächst davon ab, warum wir eigent-
lich von Menschenrechten und von einer besonderen, gerade unsere Spezi-
es kennzeichnenden Würde ausgehen.
32
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Menschenrechte – warum eigentlich?
dominant hinter unserer Gesetzgebung und Dogmatik steht und dem ich
selbst beipflichte:
Wir stützen die im Recht geachtete Würde und Subjektstellung des
Menschen zentral auf sein Vermögen zur Selbstbestimmung und damit auf
seine Vernunftbegabung; sie steht seiner Behandlung als Objekt des Rechts
entgegen; Kernerwägungen dieses Ansatzes werden vielfach der Moralphi-
losophie Immanuel Kants entlehnt.68 Sie folgert die Achtung eines jeden
Menschen als Zweck an sich selbst nicht schlicht aus seiner Natur.69 Sie
stützt die Würde des Menschen vielmehr auf den Respekt, den intelligente
Wesen vernünftigerweise zunächst voreinander haben müssen, wenn sie
ernsthaft eine verbindliche und gerechte Sollensordnung füreinander ent-
werfen wollen.70 Im Rahmen der notwendigen Übertragung71 auf das
33
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
Recht72 gestehen wir jedem Menschen als Zweck an sich selbst zu, die vor-
findliche vernunftlose Natur frei zu gestalten und an ihr teilzuhaben, so-
lange sein Verhalten mit der Freiheit anderer Personen vereinbar bleibt.73
Ebenso sind wir gehalten, den staatlichen Rechtszwang gegenüber jedem
Menschen zu begründen, weil er sich selbst verallgemeinerbare Gesetze zu
geben vermag.
Bei alledem ist etwas mitgedacht, was wir für den Menschen, nicht aber
bei Tieren,74 voraussetzen können: Der Mensch ist mithilfe des Lernpro-
zesses der Sozialisation regelmäßig in der Lage, die Subjektstellung und
die Intentionalität anderer intelligenter Wesen zu erkennen; er kann sein
Handeln auch an der Erkenntnis fremder Wünsche und an einer Verhalten
bewertenden Moral ausrichten.75 Wir können dem Menschen grundsätz-
lich zutrauen, ein wechselseitiges Anerkennungsverhältnis mit anderen
Personen zu leben, weil er auch die Pflichten einer Rechtsordnung erfassen,
anerkennen und aushandeln kann.
tonend Enders, Menschenwürde, S. 201, 207 ff., 238 ff., 242 ff.; zum Übertragungs-
bedarf krit. Dreier/Dreier, GG, Art. 1 Rn. 13 ff.
72 Zur Einsicht, dass staatliches Recht zur Verwirklichung einer substanziellen Frei-
heit erforderlich ist und der einzelne in den staatlichen Rechtszustand treten
muss, siehe statt vieler etwa Kant, Metaphysische Anfangsgründe der Rechtslehre
– Metaphysik der Sitten – Erster Teil, S. 236 f., 255 f., 305 ff.
73 Zum allgemeinen Freiheitsrecht und zum Recht der Usurpation/Erwerbung, von
dem unser Recht unangefochten, aber mit Bedenken hinsichtlich der Tiere, aus-
geht, etwa Kant, Metaphysische Anfangsgründe der Rechtslehre – Metaphysik der
Sitten – Erster Teil, S. 237 f. und 258 ff. Zum mitzudenkenden staatlichen Verhält-
nis auch bei Kant siehe aber etwa Pawlik, Normbestätigung und Identitätsbalan-
ce, S. 41 f.
74 Siehe dazu, auch mit Kritik an der sog. Symmetriethese, welche für das Subjekt
die Einheit von Rechten und Pflichten voraussetzt, Raspé, Die tierliche Person,
S. 71 ff. Dort wird auch die Kritik angesprochen, nach der unter Tieren teilweise
eine Art moralisches/moralwidriges Verhalten beobachtet wird, ohne hier doch
zu sagen, dass Tiere eine vernünftige, über ihre Spezies hinausgehende Moral be-
folgen könnten.
75 Siehe eher implizit Kant, Grundlegung zur Metaphysik der Sitten, S. 453 ff.; Gräb-
Schmidt/Stritzelberger ZfmE 2018, 357, 362 f., 364; explizit im Anschluss an Den-
nett zu Intentionalität und normativer/moralischer Kompetenz m.w.N. Neuhäuser,
in: Beck, Jenseits von Mensch und Maschine, S. 23, 28 f., 33 f. Siehe auch den Ge-
danken einer für Personen notwendigen normativen Reflexivität als Teil ihres Be-
wusstseins bei Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenre
chte.pdf, S. 15. Zur Kritik der Potentialität des Arguments etwa im Hinblick auf
Krankheiten siehe aber m.w.N. Raspé, Die tierliche Person, S. 76 ff., 90 ff.
34
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Menschenrechte – warum eigentlich?
76 Für dieses etwa Kant, Grundlegung zur Metaphysik der Sitten, S. 447 f., 455 f.,
460 f.; vgl. auch Joerden, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 195, 199 f.; Schuhr, in: Beck, Jenseits von Mensch und Maschine, S. 43 ff., 72 f.
Siehe demgegenüber für die konstruktivistische These, dass das Wesen der Wil-
lensfreiheit allein in einer gesellschaftsnützlichen Zuschreibung liege, im Kontext
stellvertretend m.w.N. Simmler/Markwalder ZStW 129 (2017), 20, 30 ff.
77 Im letzteren Sinne insbesondere Kant, Grundlegung zur Metaphysik der Sitten,
S. 447 f., 455 f., 459; einführend m.w.N. aus dem weiteren Werk Kants Luf, FS E.
A. Wolff, S. 307, 310 ff.; Enders, Menschenwürde, S. 190 ff.
78 Zu diesem Umstand etwa treffend Schuhr, in: Beck, Jenseits von Mensch und Ma-
schine, S. 43, 52 f., 58 Fn. 28.
79 Siehe hierzu Seelmann, Rechtsphilosophie, § 12 Rn. 28 ff.; Hörnle, in: Demko/Seel-
mann/Becchi, Würde und Autonomie, S. 183, 188; zum Problem auch Alexy,
http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf, S. 9 f.; a.A.
zur Begründung etwa m.w.N. BeckOK-GG/Hillgruber Art. 1 Rn. 12.1; Zucca-Soest,
in: Demko/Seelmann/Becchi, Würde und Autonomie, S. 117, 124 ff., die bei einer
empathiegestützten Position freilich in Krankheitsfällen ebenso Überleitungsar-
gumente entwickeln muss.
35
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
Bislang sehen wir Technik rein instrumentell.83 Maschinen jeder Art sind
Werkzeuge unserer Freiheit. Als unbelebte Natur stehen sie in unserem Ei-
gentum.84 Schon die Frage nach Roboterrechten stellt sich nach dem Sta-
tus quo als unerhört dar. Wir sind es, die den Roboter programmieren und
36
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
85 Zu diesen Dilemmata etwa m.w.N. Wohlers BJM 2016, 113, 133 ff.; Hörnle/Wohlers
GA 2018, 12 ff.; Hilgendorf ZStW 130 (2018), 674, 679 ff.; siehe auch Wallach/Allen,
Moral machines – Teaching Robots Right from Wrong, S. 13 ff.
86 Asimov fügte später insbesondere das sog. nullte Gesetz hinzu, das zu einem Vor-
rang der gesamten Menschheit vor dem einzelnen Menschen führt: Ein Roboter
darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit dulden,
dass die Menschheit zu Schaden kommt, siehe Asimov, The Robots of Dawn
(1983) und Robots and Empire (1985). In den Geschichten um den Roboter Cali-
ban, die von Asimov konzipiert, sodann aber von Roger MacBride Allen geschrie-
ben worden sind, werden die Gesetze erheblich neu formuliert, insbesondere der
Vorrang der gesamten Menschheit zurückgenommen und eine subsidiäre Freiheit
der Roboter anerkannt, siehe Isaac Asimov’s Caliban (1993), Isaac Asimov’s Infer-
no (1994) und Isaac Asimov’s Utopia (1996).
87 So beschäftigte sich schon Asimov selbst in seinen Kurzgeschichten und Romanen
mit Paradoxien, in welche die von Menschenhand formulierten Gesetze den Ro-
boter stürzen können, siehe etwa die Geschichten in Asimov, I, Robot (1950,
Nachdruck 2013), dazu auch Bostrom, Superintelligence – Paths, Dangers, Strate-
gies, S. 170 ff.; Lenzen, Künstliche Intelligenz, S. 143 f.; Misselhorn, Grundfragen
der Maschinenethik, S. 109 ff.
88 Asimov, Runaround, erstmals erschienen 1942, zitiert nach: Asimov, I, Robot, VII
und S. 31 ff., 44: „1. A robot may not injure a human being or allow a human being to
come to harm. 2. A robot must obey orders given to it by human beings except where
such orders would conflict with the First Law. 3. A robot must protect its own existence
as long as such protection does not conflict with the First or Second Law.“ Die Regeln
werden zitiert und herangezogen von der Resolution zu Zivilrechtlichen Rege-
lungen im Bereich Robotik, Europäisches Parlament, P8_TA(2017)0051, T. Siehe
ferner die Debatte bei Weng/Chen/Sun International Journal of Social Robotics
2009, 267, 270, 277 f.
37
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
schützen habe, soweit er hierdurch weder das erste noch das zweite Gesetz
missachte. Diese Gesetze geben dem Roboter letztlich vor, sich auch gegen
vernichtende menschliche Willkürakte nicht zu wehren, weil er den an-
greifenden Menschen nie verletzen darf.89 Der Roboter muss sich dem an-
greifenden Menschen aufopfern, mag der Eigentümer des Roboters auch
Schadensersatzansprüche haben.
Sollte die künstliche Intelligenz den Sprung zu einem Selbstbewusstsein
und einer gehaltvollen Form von Autonomie einmal nehmen, so wie es KI-
Forscher für möglich erachten, ließe sich dieses rein instrumentelle Tech-
nikverständnis nicht mehr verteidigen. Erfüllt die künstliche Intelligenz
die Anforderungen, auf die wir unsere eigene Überlegenheit gegenüber an-
deren Arten stützen, müssten wir umdenken90:
Dies ist nicht etwa schon deshalb von der Hand zu weisen, weil wir selbst
die Schöpfer der starken KI wären. Auch ein Kind wird von Menschen ge-
schaffen. Wir kommen aber nicht mehr auf den Gedanken, dass mit ihm
ein Subjekt geboren wäre, das bis zur Selbstaufopferung an die Wünsche
seiner Schöpfer gebunden wäre. Schenkt ein Mensch Subjekten ihre Exis-
tenz, muss er sich vorher überlegen, was ihr Subjektcharakter bedeutet.
38
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
Wir können ebenso wenig darauf verweisen, dass wir Menschen auf eine
andere, nämlich natürliche Art und Weise entstehen. Dies trifft schon gar
nicht stets zu: Wir lassen Techniken der modernen Fortpflanzungsmedizin
zu und sprechen dem so geschaffenen Menschen seine Würde zu Recht
nicht ab.91 Auch Menschen, die sich in Zukunft jenseits des Krankheitsbe-
griffes „unnatürlicherweise“ durch den Rückgriff auf entwickelte Implan-
tate zu optimieren suchen, ließe sich schwerlich die Menschenwürde ab-
sprechen.92 Vor allem aber würden wir mit dem Verweis auf unsere Natur
kurzerhand aus einem Naturfaktum auf ein moralisches und rechtliches
Sollen schließen. Dass etwas ist oder bisher so war, belegt aber noch nicht,
dass es auch so sein sollte. Uns wäre bei der Normbegründung ein natura-
listischer Fehlschluss vorzuhalten.93 Hinter ihm würde in der Sache ein
versteckter Rekurs auf eine implizite Schöpfungslehre liegen.
Vielleicht scheitert meine These aber an einem Aspekt, den das Embryo-
nenschutzgesetz längst aufgreift. Mit seinem § 6 Abs. 1 hat sich unser Ge-
setzgeber früh in Sorge vor der Manipulierung menschlichen Lebens ent-
schieden, das Klonen von Menschen bei Strafe zu verbieten.94 Das Parla-
ment hat die Anwendung einer Technik untersagt, deren Realisierung für
die menschliche Spezies mindestens zur Zeit der Gesetzgebung noch nicht
39
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
40
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
uns eine Vorfestlegung aller Gedanken der selbst lernenden KI, gehen wir
von der Autonomie der KI aus, wie beim Klon gar nicht möglich sein.102
41
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
maßter Bewohner anderer Planeten, dass die Menschheit nur ein Anwen-
dungsfall seiner Lehren sein dürfte.104 Seine Begründung der Würde, die
jedenfalls das deutsche Recht prägt, bezog er nur beispielhaft auf Men-
schen. Er entwarf eine Sollensordnung für alle vernünftigen Wesen und lei-
tete ihre Würde allein aus ihrer Autonomie ab.105 Er hielt es bereits 1798
für „merkwürdig, dass wir uns für ein vernünftiges Wesen keine andere
schickliche Gestalt, als die eines Menschen denken können.“106
Letztlich würden wir hinter die Begründung unserer eigenen Sonder-
stellung sogar in einem doppelten Sinne zurückfallen. Wir würden nicht
nur ignorieren, dass künstliche Intelligenz ebenbürtige Merkmale auf-
weist. Wir würden schon die These widerlegen, dass wir Menschen in der
Lage seien, andere intelligente Wesen zu erkennen und ihren Freiheitsan-
spruch im Wege unserer Selbstgesetzgebung einzurechnen.
Meine These ist also, dass wir eine selbstbewusste künstliche Intelligenz als
Subjekt und damit als Träger von Rechten anerkennen müssten. Rechtsein-
schränkungen wären demzufolge zwar nicht unmöglich, jedoch wie bei
Menschen begründungsbedürftig.
Nicht wenige werden nach dem bisherigen Gedankengang damit weiter
hadern. Und tatsächlich ist zu unterstreichen, dass die Anforderungen an
das Bewusstsein einer solchen Mensch-Maschine nach meinem Verständnis
weiter äußerst hoch lägen:
Selbst wenn wir der Menschheit ambitioniert zutrauen, ein künstliches
Selbstbewusstsein und damit eine artifizielle Selbstursprünglichkeit107 der
104 Siehe schon früh Kant, Allgemeine Naturgeschichte und Theorie des Himmels –
Von den Bewohnern der Gestirne, S. 351 ff.
105 Kant, Grundlegung zur Metaphysik der Sitten, S. 425, 435 f.: „Autonomie ist al-
so der Grund der Würde der menschlichen und jeder vernünftigen Natur“, siehe
auch die sog. Zweckreichformel S. 428: „Nun sage ich: der Mensch und über-
haupt jedes vernünftige Wesen existirt als Zweck an sich selbst, nicht bloß als
Mittel zum beliebigen Gebrauche für diesen oder jenen Willen.“ Vgl. auch Mis-
selhorn, Grundfragen der Maschinenethik, S. 102.
106 Kant, Anthropologie in pragmatischer Hinsicht, S. 73.
107 Misselhorn, Grundfragen der Maschinenethik, S. 76 ff.; dies., Interview ZEIT ON-
LINE (Fn. 13).
42
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
Maschine zu erschaffen, die sich selbst Gründe zum Handeln gibt108, liegt
es noch nicht auf der Hand, dass sich diese KI als Inhaber moralischer und
notwendiger juridischer Rechte eignet. Auf unserem jetzigen frühen Stand
ist ebenso möglich, dass sich ein Bewusstsein entwickelt, das nicht nach Art
des Menschen imstande ist, andere Subjekte und die resultierende Not-
wendigkeit einer Sollensordnung zu erkennen. Es geht mir nicht darum,
Horrorszenarien auszubreiten. Es wäre aber im Grunde erstaunlich, wenn
der immense Schritt hin zu einem künstlichen Bewusstsein sogleich damit
einherginge, dass die KI alle Eigenschaften ausprägt, die gerade wir Men-
schen für die Erkenntnis gerade unserer Vernunft voraussetzen. Man kann
hierfür ins Feld führen, dass dies nahe liegt, weil wir es sind, welche die KI
als unser künstliches Kind in unserem Wertekosmos schöpfen und anler-
nen. Wir wissen aber bislang nicht, wie man moralische Sätze einer selbst-
lernenden künstlichen Intelligenz unmittelbar und vor allem beständig im-
plementiert.109 Schon der Ausbau neuronaler Netzwerke besteht nicht et-
wa stets in einem minutiös exakten Nachbau des menschlichen Gehirns.
Wir sollten von einer hypothetischen selbstbewussten künstlichen Intelli-
genz daher nicht vorschnell menschliche Qualitäten erwarten und sie je-
denfalls nicht unbegrenzt oder gar selbstverständlich anthropomorphisie-
ren.110 Letztlich können wir derzeit zum Beispiel auch den Fall nicht ratio-
nal ausklammern, dass die Vorstellungswelt der starken KI allein auf ihre
108 Zum zentralen Handeln aus selbst gesetzten Gründen Misselhorn, Grundfragen
der Maschinenethik, S. 75 f., 81 ff.; dies., Interview ZEIT ONLINE (Fn. 13); mit
der Chiffre der Selbststeuerung auch Alexy, http://www.alexy.jura.uni-kiel.de/de
/data/DatasMenschenrechte.pdf, S. 14 f.; für eine ablehnende Prognose gerade
hierzu beispielhaft Joerden, in: Hilgendorf/Günther, Robotik und Gesetzgebung,
S. 195, 204 f.; Decker ZfmE 2018, 345, 347 f.
109 Siehe nochmals Fn. 102 und Bostrom, Superintelligence – Paths, Dangers, Strate-
gies, S. 169 ff., 226 ff., zur notwendigen Auswahl zu implizierender Werte
S. 256 ff.; zu den unternommenen Anstrengungen Wallach/Allen, Moral machi-
nes – Teaching Robots Right from Wrong, S. 75 ff., 83 ff. (top-down-approach),
99 ff. (bottom-up-approach), 117 ff., mit dem Schluss, dass zumindest teilweise ein
selbständiges Lernen durch die KI selbst erforderlich ist, 125 ff. Zu unseren Un-
sicherheiten hinsichtlich des Bewusstseins siehe ferner die Fn. 132.
110 Statt vieler insoweit Bostrom, Superintelligence – Paths, Dangers, Strategies,
S. 111 ff., 127 ff., der dabei die Selbsterhaltung plausibel als eine absehbare Moti-
vation darlegt, 132; von einer anderen Basis auch zweifelnd Misselhorn, Grund-
fragen der Maschinenethik, S. 212. Besonders anschaulich ist die Anthropomor-
phisierung bei aller visionären und für offenes Denken stehenden Qualität auch
bei Star Trek: Data wird auch ohne den Emotions-Chip stets so gezeichnet, dass
er sehnsüchtig nach menschlichen Qualitäten strebt. Immerhin wird diese
scheinbar „natürliche“ Hinwendung zum Menschlichen mit seinem dystopi-
43
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
schen Gegenmodell „Lore“ für einige Folgen gebrochen, in denen Lore etwa das
hyperintelligente „Kristallwesen“ herbeiruft.
111 Siehe auch das Eingangsszenario bei Hilgendorf, in: Beck, Jenseits von Mensch
und Maschine, S. 119 und allgemeiner Weng/Chen/Sun International Journal of
Social Robotics 2009, 267, 278: Frage des Roboters, ob Gesetze der Menschen
oder eigene Gesetze befolgt werden sollen.
112 Allgemein ist zu beobachten, dass das regelmäßig vergleichend angelegte Nach-
denken über die künstliche Intelligenz das Potential hat, die Erkenntnisse und
Sichtweisen über den Menschen einschließlich seiner Moral zu mehren und zu
präzisieren, siehe unter diesem Aspekt statt vieler Wallach/Allen, Moral machines
– Teaching Robots Right from Wrong, passim und etwa S. 216 f.
44
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
Bislang musste der Begriff der Würde, soweit hier relevant, vor allem
zwei Funktionen erfüllen. Erstens dient er dazu, die historisch nicht selbst-
verständliche, gleiche Berechtigung und Achtung des Eigenwerts eines je-
den Menschen in mannigfaltigen Lebensfeldern zu fundieren.113 Zweitens
ist der Würde gerade in jüngerer Zeit die Last zugewachsen, den Vorrang
der menschlichen Spezies gegenüber Tieren zu sichern.114
113 Dazu BVerfG BeckRS 2017, 100243, Rn. 541; Seelmann, Rechtsphilosophie, § 12
Rn. 3 ff.; Sachs/Höfling, GG, Art. 1 Rn. 35 f. (dort, Rn. 19 ff., auch zu weiteren ak-
tuellen Bedeutungen des rechtlichen Würdesatzes im Einzelnen); BeckOK-GG/
Hillgruber Art. 1 Rn. 12.1; Raspé, Die tierliche Person, S. 16; im Kontext auch
Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf, S. 9.
114 Hierzu siehe BeckOK-GG/Hillgruber Art. 1 Rn. 3; Maunz/Dürig/Scholz, GG,
Art. 20a Rn. 72 ff.; auch zur Massentötung von Tieren VG Frankfurt NJW 2001,
1295, 1296; differenzierend Caspar, Tierschutz im Recht der modernen Indus-
triegesellschaft, S. 75 ff., 343 ff.; in ablehnender Perspektive Raspé, Die tierliche
Person, S. 87 ff., 111 ff.
115 Vgl. für diese Deutung der Würde bzw. der menschlichen Autonomie in einer
positiven freiheitlichen Rechtsordnung am Beispiel der dt. Verfassung Enders,
Menschenwürde, S. 220 ff., 290 ff., 377 ff., 499, 501 ff. Die Ablehnung der Grund-
rechtsthese wird hier indes nicht geteilt.
116 Siehe zudem knapp zum letztlich nur phänotypischen Lebensdauer die Vorbe-
merkung und C. II. 5. am Ende.
117 In diese Richtung Alexy, http://www.alexy.jura.uni-kiel.de/de/data/DatasMensch
enrechte.pdf, S. 10 ff.: Intelligenz, Gefühl und Bewusstsein erforderlich; Joseph
Weizenbaum, Computermacht und Gesellschaft, S. 35, 40 ff.; Birnbacher, in: Hil-
gendorf/Günther, Robotik und Gesetzgebung, S. 303, 313 f.; siehe auch BeckOK-
45
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
Wenn man „das Menschliche“ und nicht nur Teile desselben erfassen will,
schiene es in der Tat fast lächerlich, unsere Emotionalität auszublenden. Es
geht hier aber um Maßstäbe der Moral und des Rechts. Und hier denke ich
nicht, dass die skizzierte Brücke zur Erhaltung des Status quo trägt:
Zunächst mag es sein, dass wir nur eine Atempause gewinnen: Wir wis-
sen nicht, ob die KI der Zukunft zu emotionalen Erfahrungen fähig sein
wird. Es ist zwar nochmals ambitionierter, eine originäre, nicht nur imitierte
Emotion einer KI zu denken, zumal das deep learning insoweit als Entwick-
lungsmotor weniger plausibel ist. Allerdings wird auch dies etwa im Kon-
text des Embodiment beforscht. Und Bedürfnisse der KI,118 die Emotiona-
lität und Empathie begünstigen, sind denkbar. Etwa das Verlangen nach
Elektrizität mag der selbstbewussten KI als Sorge um die eigene Existenz er-
scheinen und Grundlage dafür sein, um Sorgen anderer Kreaturen verste-
hen zu können. Plakativ gesprochen: Wir wissen nicht, was im Inneren ei-
nes artifiziell selbstbewussten Roboters vorgehen wird, wenn er erkennt,
dass der Akku zur Neige geht und eine externe Stromquelle fehlt.
Artifizielle Gefühle bleiben aber in einem nochmals gesteigerten Maß
spekulativ. Zwei andere Erwägungen sollten bedeutsamer sein: Zunächst
46
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
könnte der Rückgriff auf die Gefühlswelt dazu führen, dass sich die Folge-
rungen, die wir aus dem Begriff der Menschenwürde ableiten, auch in an-
deren Kontexten verändern werden. Überleitungsargumente könnten etwa
auch für Menschen erforderlich werden, die beispielsweise auf Grund von
Krankheiten in ihrer Emotionalität eingeschränkt sind.119 Der konstitutive
Rückgriff auf unsere Emotionalität müsste ferner speziell die Ablehnung
von Rechten fühlender Tiere zugespitzt in Frage stellen, zumal sich nun
leichter erwägen ließe, ob die Emotionalität die Würde nicht auch eigen-
ständig begründen könnte.120
Letzteres wird nicht jeder als Einwand bewerten. Ebenso ließe sich der
kumulative Charakter des Neuansatzes gegenüber Tieren weiter fruchtbar
machen. Den Ausschlag gegen eine Neudefinition der Würde gibt für
mich eine andere Erwägung: Es bliebe unerfindlich, wieso ein vernünftiges
Wesen, das uns selbst regelhaft Respekt entgegenbringt, lediglich deshalb
nur ein Objekt unseres Handelns sein sollte, weil wir unsere Welt zusätzlich
emotional erleben. Erneut plakativ gesagt: Warum sollten wir zum Beispiel
die „Vulkanier“ des „Star Trek“-Universums moralisch herabstufen, nur
weil sie sich entscheiden, ihre Emotionalität zu überwinden?121 Ein emoti-
onsloses, aber denkendes Wesen wird verpflichtet sein, auf Besonderheiten
anderer Arten in einem bestimmungsbedürftigen Ausmaß Rücksicht zu
nehmen, weil die Würde einen Respekt vor dem Eigenwert des Subjekts
gebietet. Seinen Teilhabeanspruch an der Welt sollte es indes nicht deshalb
verlieren, weil andere Spezies zusätzliche natürliche Merkmale haben. Der
119 Siehe etwa m.w.N. Misselhorn, Grundfragen der Maschinenethik, S. 42 f. Die Ent-
wicklung von Überleitungsargumenten erscheint aber auch hier durchaus mög-
lich.
120 Eine solche Lehre könnte sodann die Berechtigung etwa von geistig kranken
Menschen primär unter Rückgriff auf ihre emotionale Lebendigkeit unmittel-
bar begründen. Zur bereits heute mit der Teilhabe an Gefühlen argumentieren-
den Literatur siehe hier nur m.w.N. Raspé, Die tierliche Person, S. 15 ff., 94 ff.,
als Teilkriterium auf S. 125 ff.; Caspar, Tierschutz im Recht der modernen Indus-
triegesellschaft, S. 109 ff.; siehe das Argument letztlich zurückweisend aber auch
Birnbacher, in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 303, 310.
Für eine Tierwürde Art. 120 Abs. 2 S. 2 der schweizerischen Bundesverfassung:
„Der Bund erlässt Vorschriften über den Umgang mit Keim- und Erbgut von
Tieren, Pflanzen und anderen Organismen. Er trägt dabei der Würde der Krea-
tur sowie der Sicherheit von Mensch, Tier und Umwelt Rechnung und schützt
die genetische Vielfalt der Tier- und Pflanzenarten.“
121 Siehe zu den Vulkaniern http://de.memory-alpha.wikia.com/wiki/Vulkanier.
Dabei bezieht sich der Folgesatz des Textes nicht mehr auf den plakativ gestell-
ten Fall der Vulkanier, da sie selbst gerade nicht emotionslos sind.
47
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
direkte Verweis auf unsere emotionale Natur wäre erneut ein naturalisti-
scher Fehlschluss.122
Ein Vorbehalt ist jedoch zu machen, wenn man – wie es hier geschieht –
voraussetzt, dass die (künstliche) Person imstande ist, die Würde anderer
vernünftiger Wesen und damit auch die Teilhabe der partiell unterlegenen
Menschen zu erkennen und anzuerkennen. Eine starke wissenschaftliche
Strömung folgt der viel Plausibilität besitzenden These, dass Gefühle mo-
ralisches Urteilen jedenfalls für den Menschen nicht nur gefährden, son-
dern auch erst ermöglichen.123 Trifft dies für die KI zu, mag es durchaus
sein, dass für den Zugang zu unseren Normen eine emotionale Intelligenz
unverzichtbar ist, welche die KI aus eigenen Empfindungen zu erlernen
hätte. In diesem Fall könnte sich die Intuition der erforderlichen Empathie
zwar nicht als Selbstzweck, wohl aber schon als Teil einer besser begriffenen
Vernunftbegründung bestätigt sehen.
122 Siehe im Kontext auch schon zum Ungenügen emotionaler Appelle an die Ehr-
furcht/den Respekt vor dem Leben Hörnle, in: Demko/Seelmann/Becchi, Würde
und Autonomie, S. 183, 184. Bemerkenswert auch die Beobachtung bei Beck, in:
Hilgendorf/Günther, Robotik und Gesetzgebung, S. 239, 250 f., 253, die einwen-
det, dass eine lediglich (gegenüber dem Menschen) vergleichende Perspektive in
der Statusfrage der Gefahr Vorschub leisten könne, das Wesen der geprüften En-
titäten (Maschinen) zu verfehlen.
123 Dazu auch anhand der Fähigkeit, Schmerz zu empfinden, Neuhäuser, in: Beck,
Jenseits von Mensch und Maschine, S. 23, 26 f., 33 f., der insoweit aber darauf
setzt, dass auch eine mittelbare Wahrnehmung durch Beobachtungen genügen
könnte, soweit die Technik entsprechend voranschreitet, S. 38 f.: menschliche
Fähigkeit zum moralischen Urteil beruhe möglicherweise auf kognitiven und
emotionalen Elementen; Lewke InTeR 2017, 207, 208; Wallach/Allen, Moral ma-
chines – Teaching Robots Right from Wrong, S. 139 ff., 143 ff.; zum wertenden
Charakter von Emotionen siehe auch m.w.N. Misselhorn, Grundfragen der Ma-
schinenethik, S. 40 f., 42 f. Schon bei Kant findet sich jedenfalls die These, dass
jedenfalls das menschliche Mitgefühl zwar nicht für sich genommen moralisch
sei, allerdings eine „natürliche Anlage“ sei, die der Moralität im Verhältnis ge-
genüber Menschen „diensam“ sei, Kant, Metaphysische Anfangsgründe der Tu-
gendlehre – Die Metaphysik der Sitten – Zweiter Teil, S. 577 f. – zum morali-
schen Verbot, Tiere grausam zu behandeln. Es dürfte aber zu weit gehen, schon
für Kant davon auszugehen, dass er die menschliche Emotionalität als Bedin-
gung und Teilgrund der Vernunftbegründung gesehen hat.
48
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
4. Feststellungskriterien
a) Turing
Wer mit dem Thema der künstlichen Intelligenz vertraut ist, wird für die
Überprüfung an den Turing-Test denken. Der britische Mathematiker Alan
M. Turing schlug schon 1950 einen Maßstab vor, der bis heute viel zitiert,
erörtert und Tests zugrunde gelegt wird. Testpersonen sollten fünf Minu-
ten lang schriftlich zwei nicht sichtbare Gesprächspartner befragen, von
denen einer die KI, der andere ein Mensch ist. Falls die KI 30 % der Test-
personen über die Frage täuschen könne, welcher Gesprächspartner der
Mensch oder die KI gewesen ist, soll der Test erfüllt sein.125
Ob dieser Test von Chatbots und damit von künstlichen Kommunikati-
onsprogrammen bereits erfüllt wurde, provoziert unterschiedliche Ansich-
124 I.E. auch Gruber, in: Beck, Jenseits von Mensch und Maschine, S. 133, 157 f.;
ders., in: Gruber/Bung/Ziemann, Autonome Automaten, S. 191, 202 f.; Missel-
horn, Interview ZEIT ONLINE (Fn. 13); zur Bedeutung des Sprachverständnis-
ses insoweit auch Weng/Chen/Sun International Journal of Social Robotics 2009,
267, 277 f.; siehe im Umkehrschluss ebenso Spranger/Wegmann, in: Beck, Jenseits
von Mensch und Maschine, S. 104, 110: Streben nach Freiheit und Selbsterhal-
tung wären erforderlich.
125 Turing Mind, 59 (1950), 433 ff.; zur Weiterentwicklung des Total-Turing-Tests Rus-
sell/Norvig, Artificial Intelligence, S. 3.
49
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
126 Siehe im Überblick von „Eliza“ (1966) bis „Eugene Goostman“ (2014) m.w.N.
Lenzen, Künstliche Intelligenz, S. 25 ff., 30; Misselhorn, Grundfragen der Maschi-
nenethik, S. 31 ff.
127 So statt vieler etwa Neuhäuser, in: Hilgendorf, Robotik im Kontext von Recht
und Moral, S. 269, 277 f.; Matthias, Automaten als Träger von Rechten, S. 211 ff.,
219 f. (mit weiteren Einwänden); Lenzen, Künstliche Intelligenz, S. 25 f., 135;
Daum (Fn. 10): performativer Intelligenz-Begriff; zum grundsätzlichen Unter-
schied einer rein wahrnehmungsbezogenen und einer substanzprüfenden Beur-
teilung siehe näher m.w.N. Misselhorn, Grundfragen der Maschinenethik,
S. 82 ff., selbst mit einer vermittelnden Ansicht; dies., Interview ZEIT ONLINE
(Fn. 13). Zu möglichen Testmodifikationen und einem Empathie-Test, der die
eigene, bedeutungsvolle Erfahrung bzw. Lebensgeschichte ergründen würde,
Bung, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 17, 18 ff.; siehe auch
Wallach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 63 f.,
70 f.
128 Misselhorn, Grundfragen der Maschinenethik, S. 30 ff., 87 ff.; zum nötigen Blick
auf den inneren Aufbau auch Lenzen, Künstliche Intelligenz, S. 126. Siehe auch
den Indizienschluss zu Data bei Alexy, http://www.alexy.jura.uni-kiel.de/de/data
/DatasMenschenrechte.pdf, S. 15 f.; zum nötigen Rückschluss auf die inneren
Sachverhalte Gruber, in: Gruber/Bung/Ziemann, Autonome Automaten, S. 191,
198. A.A. zur Handlungsfähigkeit im Anschluss an Teubner m.w.N. Cornelius
ZRP 2019, 8, 9 f., der Intentionen schon dann zuschreiben will, wenn man so
der in physikalischer Hinsicht erhöhten Komplexität begegnen könne.
50
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
51
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
52
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
kann, die aus tradierten, aber sachlich nicht mehr haltbaren Vorrangan-
nahmen entspringt.
Drittens dürften wir, so wie wir es auch für Menschen nicht tun, das
Fehlverhalten einzelner künstlicher Intelligenzen, das auch aus mangeln-
den Erfahrungen (im Umgang mit anderen Menschen) herrühren kann,
nicht vorschnell oder beliebig mit einer allgemein mangelnden Vernunft-
begabung gleichsetzen.135 In diesem Sinne wird es sich, soweit keine Ge-
fahr im Verzug ist, verbieten, ein abschließendes Votum für eine tierisch
geartete künstliche Intelligenz übereilt zu fällen. Etwa ein anfänglich
feindliches Verhalten der KI mag auf einem zunächst noch mangelnden,
Akzeptanz ermöglichenden Datenmaterial bzw. Erfahrungsschatz beruhen.
Festzuhalten bleibt insgesamt, dass wir überprüfen müssen und grund-
sätzlich überprüfen dürfen136, ob sich ein scheinbar autonomes KI-Verhal-
ten nicht tatsächlich überzeugend allein mit dem Ablauf eines fremdge-
schaffenen Programms erklären lässt. Unüberwindliche Hürden für den
auch bei Menschen normativ geprägten Schluss auf Autonomie werden
wir aber nicht aufstellen können. Selbst wenn wir nicht verstehen, wie die
ggf. graduell oder in äquivalenten Formen realisierte Freiheit entstanden
ist, werden wir die Freiheit bzw. Vernunftbegabung der künstlichen Intelli-
genz wie in unserem Falle zu einem gewissen Grade postulieren müssen.
Wenn wir ein von der künstlichen Intelligenz herrührendes kreatives Ver-
halten nur durch die Annahme ihrer Selbstursprünglichkeit überzeugend
plausibilisieren können und ihr moralisches Handeln nahe liegt, ist der
aus heutiger Sicht befremdliche Schluss auf die Autonomie der Mensch-
Maschine zu ziehen.
5. Kreationsansprüche?
Eine letzte Gegenprobe möchte ich ausführen. Mein Fazit besteht bis jetzt
darin, dass wir künstlichen Intelligenzen, die andere Subjekte erkennen
und respektieren können, Speziesrechte nicht versagen dürften. Gewährt
135 Siehe auch schon Turing Mind, 59 (1950), 433 – part 6 (3): Überlegenheit gegen-
über einer einzelnen getesteten (geprüften) Maschine steht relativ zu anderen
Maschinen und den Fehlern der Menschen.
136 Vorbehalte sind ferner deshalb zu machen, weil die Überprüfung des inneren
Aufbaus unter Umständen schwere Schäden für die Persönlichkeit der künstli-
chen Person mit sich führen könnte, siehe etwa die Sorge Datas in der Star Trek
– The Next-Generation-Folge „The Measure of a Man“ (dazu Fn. 103) und Alexy,
http://www.alexy.jura.uni-kiel.de/de/data/DatasMenschenrechte.pdf, S. 3.
53
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
C. Speziesrechte für die starke künstliche Intelligenz?
54
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Menschenrechte – warum eigentlich nicht?
neuen Spezies reflektieren, so wie auch wir selbst Respekt vor unseren –
zum Beispiel emotionalen – Bedürfnissen einfordern würden.139
Schon letzteres birgt durchaus Konfliktpotential, das nach dem hiesigen
Standpunkt allerdings nicht zur Versagung der grundsätzlichen Rechtsstel-
lung führen kann. Zum Beispiel der Umstand der prinzipiell unendlichen
Lebensdauer einer künstlichen Intelligenz führt angesichts endlicher Res-
sourcen zu Allokationsfragen, die absehbar eine Schranke hinsichtlich der
Reproduktion künstlicher Intelligenzen nahe legen, unter Umständen
aber auch der Menschheit Grenzen auferlegen könnten. Ob insoweit der
Aspekt der gerade vom Menschen ausgehenden Kreation der künstlichen
Intelligenz ihre – zudem durchsetzbare – Beschränkung rechtfertigen wür-
de, bliebe wie viele andere Folgefragen unter Rückgriff auf die geltungs-
zeitlich prävalenten Lebensbedingungen zu klären.
139 Für ein solches Bedürfnis mag das Verlangen nach einer gleich gearteten ande-
ren Person als Beispiel dienen. Allerdings wird mit dem etwa in der Franken-
stein-Erzählung (Mary Shelley, 1818) aufgegriffenen Motiv möglicherweise nur
ein sehr menschliches Verlangen adaptiert. Siehe auch Weng/Chen/Sun Interna-
tional Journal of Social Robotics 2009, 267, 275: Frage nach einer nicht mehr
allein menschenzentrierten, sondern dualen Wertsetzung wäre bei einer Koexis-
tenz von Menschen und Robotern gestellt.
55
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
Mit meinen Ausführungen habe ich Teile der starken KI als Rechtssubjekte
anerkannt. Ich möchte nun im dritten und letzten Teil fragen, ob auch die
Strafe im Umgang mit der starken KI einen Platz haben könnte und wel-
che Prämissen dies erfordert. Ich erörtere zunächst, ob wir die rechtsfähige
KI bestrafen dürften. Dann frage ich nach der Effektivität dieser Strafe,
und ich umreiße eine Aufgabe, die dem Recht und hierbei nicht nur dem
Strafrecht in der KI-Debatte aktuell zukommen sollte.
140 Siehe Stephen Hawking (Fn. 4): Ersetzung der Menschheit durch die sich schnel-
ler selbst entwickelnde KI; Elon Musk (Fn. 4); siehe auch Bostrom, Superintelli-
gence – Paths, Dangers, Strategies, S. 25, 110 ff., 140 ff., 165 ff.; siehe auch die
Asilomar-Thesen des IFL unter https://futureoflife.org/ai-principles/. Zu kleine-
rem „Fehlverhalten“ wie den Ankauf von Ecstasy im Dark Web m.w.N. Eiden-
müller ZEuP 2017, 765, 771.
141 Solche Vorstellungen m.w.N. darstellend etwa Wallach/Allen, Moral machines –
Teaching Robots Right from Wrong, S. 194; knapp Ach/Lüttenberg, in: Grunwald
(Hrsg.), Handbuch Technikethik (2013), S. 288, 291.
142 Zum an sich hochqualifizierten Programm Tay siehe m.w.N. Wischmeyer AÖR
143 (2018), 1, 10 und https://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-
microsoft-mit-dem-bot-tay-von-der-netzgemeinde-gelernt-hat-14146188.html,
unter anderem mit dem Auszug: „Hitler was right I hate the jews“. Allerdings
57
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
liegt insoweit ein Beispiel vor, das Zeugnis davon abgelegt, wie Menschen künst-
liche Intelligenz hin zu einem potentiell strafbaren Verhalten prägen können.
Twitter-Nutzer hatten in einer offenbar abgestimmten Kommunikation die Ma-
nipulierbarkeit des bedeutungsblinden Twitterbots offengelegt, indem sie ihn
mit rassistischem Material „gefüttert“ hatten. Siehe insoweit zur strafrechtlichen
Würdigung Hilgendorf, FS Fischer, S. 99, 109 ff.
143 Dies gilt darüber hinaus auch dann, wenn die Gefährdung unwillkürlich ausge-
löst wird. Zur (ethisch) berechtigten Gefahrenabwehr etwa Birnbacher, in: Hil-
gendorf/Günther, Robotik und Gesetzgebung, S. 303, 305. Die Beschränkung
auf verhältnismäßige Mittel würde insoweit jedenfalls daraus folgen, dass wir
gemäß Art. 20a GG mit dem Schutz der Tiere einen prinzipiellen Respekt ge-
genüber Lebensformen anerkennen, den wir auf die neu geschaffenen, nicht-
menschlichen Existenzen übertragen sollten. Die unnatürliche Erschaffung soll-
te einmal mehr keinen Unterschied machen, zumal sich auch Art. 20a GG nicht
schlicht als Postulat etwa der christlichen Religion und ihrer Schöpfungslehre
deuten ließe.
144 Anders möglicherweise in seiner vorkritischen Schrift Kant, Allgemeine Natur-
geschichte und Theorie des Himmels – Von den Bewohnern der Gestirne,
S. 351 ff., der u.a. den Jupiterbewohnern einen moralischen Vorrang zusprach,
weil er aus der größeren Entfernung ihres Planeten zur Sonne schloss, dass sie
einen größeren Intellekt aufweisen dürften.
145 Siehe gerade zum Element des staatlichen Tadels BVerfGE 140, 317, 345 f.; von
Hirsch, Fairness, Verbrechen und Strafe, S. 41 ff.; Seebode, Strafvollzug I, S. 83;
Gaede, Der Steuerbetrug, S. 322 f.; begrifflich leicht anders BVerfGE 109, 133:
missbilligende hoheitliche Reaktion auf ein rechtswidriges, schuldhaftes Verhal-
ten, wegen dessen ein Übel verhängt wird, das dem Schuldausgleich dient; wei-
ter aber zu Art. 6 EMRK etwa EGMR (Öztürk v. Deutschland), Serie A, Nr. 73,
§§ 53 ff.
146 Abl. etwa zu Ansätzen, die allein mit füllungsbedürftigen Verantwortungslü-
cken argumentieren, Ziemann, in: Hilgendorf/Günther, Robotik und Gesetzge-
bung, S. 183 ff.: ahistorischer Ansatz.
58
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Dürfen wir künstliche Intelligenz bestrafen?
vielleicht eher wie der Perserkönig Xerxes, der angeblich eine Meerenge
für die Zerstörung eines Brückenbaus auspeitschen ließ, dabei aber immer-
hin den Meeresgott Poseidon treffen wollte.147
Um zu klären, ob eine Bestrafung der KI doch Sinn ergibt, müssen wir
erstens Rechenschaft über die Gründe ablegen, aus denen wir strafen. Zwei-
tens müssen wir erörtern, ob diese Gründe eine Bestrafung der rechtsfähi-
gen KI tragen.
1. Strafe
Mit dem ersten Schritt ist ein weiteres Thema aufgeworfen, das sich schon
allein für eine Antrittsvorlesung geeignet hätte. Die Frage nach den Grün-
den der Strafe prägt das Selbstverständnis eines jeden Strafrechtswissen-
schaftlers und einer jeden Strafrechtswissenschaftlerin. Die vertretenen An-
sätze zu den Gründen der Strafe pendeln weiter zwischen zwei Hauptströ-
mungen.148 Die erste Strömung gibt der Strafe vor allem den repressiven
Sinn, das Unrecht und die Schuld auszugleichen, die der Täter mit der ver-
gangenen Tat gesetzt hat. Die zweite Strömung macht geltend, dass die
Strafe präventiv auf die Zukunft ausgerichtet sein müsse – sie soll weiteres
Unrecht seitens des Täters oder anderer Menschen verhindern. Das gelten-
de Recht kombiniert diese Zwecke mit der sog. Vereinigungstheorie, die
beide Aspekte bemüht.149 Diese Theorie trifft jedoch kaum Aussagen über
das Verhältnis des repressiven und des präventiven Sinns bzw. bleibt dieses
Verhältnis nach der Theorie weiter streitbefangen.150
Ich kann an dieser Stelle keine neue Strafzwecklehre entwickeln und ge-
gen Einwände und Alternativkonzepte verteidigen oder gar bis in Details
entfalten. Ich kann und möchte aber offenlegen, welche Ratio ich selbst
verfechte:
147 Denga CR 2018, 69, 77. Zu den umstrittenen Zielen der früheren Tierbestrafung
Gleß/Weigend ZStW 126 (2014), 561, 566 ff.
148 Für Überblicke siehe m.w.N. Hörnle, Straftheorien, S. 3 ff., 17 ff., allerdings mit
berechtigter Kritik an der klassischen Unterteilung; Pawlik, Person, Subjekt,
Bürger, S. 18 ff.; Roxin, Strafrecht AT, Band I, § 3 Rn. 2 ff.
149 Zu ihr und der Einordnung als herrschend m.w.N. Roxin, Strafrecht AT, Band I,
§ 3 Rn. 33 ff., 37 ff., 62; m.w.N. Fischer, StGB, § 46 Rn. 2.
150 Zur Kritik der Vereinigungslehre etwa m.w.N. Köhler, Strafrecht AT, S. 44; letzt-
lich präventiv verteidigend Roxin, Strafrecht AT, Band I, § 3 Rn. 35 f., 37 ff.
59
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
Mit unserem staatlich verfassten Recht wollen wir die Freiheit eines je-
den dauerhaft und sicher verwirklichen.151 Dieser Freiheit entspricht bei
jeder Person, die schuldfähig bzw. normativ ansprechbar ist, ihrer komple-
mentären Fähigkeit und Pflicht, für das eigene Verhalten Verantwortung
zu übernehmen.152 Die Erfahrung, dass Menschen sich nicht notwendiger-
weise mit der Freiheit anderer Menschen vereinbar verhalten, sondern
schuldhaft Unrecht begehen können, legitimiert den staatlichen Straf-
zwang.153 Wir setzen die Strafe ein, um das mit der Tat verletzte, Freiheit
verwirklichende Recht durch einen Akt wiederherzustellen, welcher der
Tat wirksam widerspricht.154 Wir kommen so der Aufgabe des Rechtsstaats
nach, eine tatsächlich gelebte und damit zur Not zwangsweise durchgesetz-
te Freiheits- und Friedensordnung zu etablieren. Substanziell verstanden
ist der repressive Akt der Strafe damit immer zukunfts- bzw. zweckgerichtet,
151 Zur Einsicht, dass staatliches Recht zur Verwirklichung einer substanziellen
Freiheit erforderlich ist und der einzelne in den staatlichen Rechtszustand tre-
ten muss, siehe etwa Kant, Metaphysische Anfangsgründe der Rechtslehre – Me-
taphysik der Sitten – Erster Teil, S. 236 f., S. 305 ff.; Alexy, in: Gosepath/
Lohmann, Philosophie der Menschenrechte, S. 244, 254 ff.; Böckenförde, Recht –
Staat – Freiheit, S. 42 ff.; m.w.N. Klesczewski ZStW 123 (2011), 737, 757; zum An-
spruch auf ein freiheitliches (Straf-)Recht auch Pawlik, Das unerlaubte Verhalten
beim Betrug, S. 5 ff.
152 Dazu etwa Rawls, A Theory of Justice, S. 212; Gaede, in: Camprubi, Angst und
Streben nach Sicherheit, S. 155, 181 ff.; siehe auch Pawlik GA 1998, 378, 380 f.;
ders., Person, Subjekt, Bürger, S. 88 ff. und Hörnle, Straftheorien, S. 56 ff.; verfas-
sungsrechtlich etwa BeckOK-GG/Hillgruber Art. 1 Rn. 13. Zur Debatte um die
Hirnforschung und gegen einen erhobenen Schuldvorwurf siehe insoweit Hörn-
le, Kriminalstrafe ohne Schuldvorwurf, S. 15 ff., 49 ff.
153 Zur hegelschen Strafbegründung etwa Hegel, Grundlinien der Philosophie des
Rechts, §§ 90 ff., 218, 220; siehe zudem Kant, Metaphysische Anfangsgründe der
Rechtslehre – Metaphysik der Sitten – Erster Teil, S. 331 ff., aber auch 235 f.; im
Anschluss auch Rawls, A Theory of Justice, S. 211 ff., auch S. 221 ff.; im prozes-
sualen Kontext Klesczewski ZStW 123 (2011), 737, 757, 759 f.; Murmann GA
2004, 65, 70 f.
154 Siehe wegweisend Hegel, Grundlinien der Philosophie des Rechts, §§ 97 ff., 99,
218, 220, 225; zugleich mit Kritik Seelmann, Anerkennungsverlust und Selbst-
subsumtion, S. 66 ff.; weithin entsprechend Köhler, Strafrecht AT, S. 37 ff.; Paw-
lik, Person, Subjekt, Bürger, S. 54 ff., 76 ff., 88 ff.; ders., FS Jakobs, S. 469, 473 ff.;
ders., Das Unrecht des Bürgers, S. 82 ff.; zur darin liegenden Negation des Ge-
genweltentwurfs des Täters Pawlik, Das unerlaubte Verhalten beim Betrug,
S. 38 ff. (aber unter partieller Übernahme des verfehlten Jakobsschen Feind/
Bürger-Paradigmas, dagegen schon Gaede, in: Camprubi, Angst und Streben
nach Sicherheit, S. 155, 175 ff.; Schleiminger, Konfrontation im Strafprozess,
S. 245 ff.; zum notwendigen Rückgriff auf ein bekräftigendes Übel etwa Hörnle,
Straftheorien, S. 43 ff.
60
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Dürfen wir künstliche Intelligenz bestrafen?
weil er auf die Wieder-her-stellung des Rechts zielt.155 Für die Frage, ob und
in welchem Ausmaß wir im Einzelfall strafen, ist dann auch entscheidend,
welche Rechte die mit der Tat zur Schau gestellte Infragestellung des
Rechts betraf und inwieweit wir von einer Erschütterung der Rechtsach-
tung des Täters und der Allgemeinheit ausgehen müssen.156 Um das Recht
für die Zukunft möglichst wirkungsvoll von neuem abzustützen, dürfen
wir im Rahmen der Schuld des Täters157, und soweit er damit sinnvoller
Adressat der tadelnden staatlichen Kommunikation ist158, konkretisierend
einbeziehen, welche Wirkungen auf den Täter und die Allgemeinheit er-
forderlich sind.159 Wir müssen es sogar, weil der zunächst sehr abstrakte
Zweck der Wiederherstellung des Rechts zum Beispiel bei einer geringfü-
gigen Tat, die sich situativ erklären lässt und kaum plausible Rückwirkun-
gen auf die Rechtsachtung anderer nahe legt, nicht notwendigerweise be-
reits zu einem verhältnismäßigen staatlichen Eingriff in (Grund-)Rechte des
Täters führt. 160 Eine rein präventiv gedachte Strafe, die konstitutiv über die
gebotene Abschreckung oder Beruhigung Dritter begründet wird, scheidet
hingegen aus.161
Mit diesen Strafgründen bewegen wir uns auf dem Boden geltenden
Rechts. Das Rechtsstaatsprinzip verlangt auch nach Ansicht des Bundesver-
155 Dazu Pawlik, Person, Subjekt, Bürger, S. 54 ff.; zur Zweckgerichtetheit expressi-
ver Theorien auch Hörnle, Straftheorien, S. 33 f.
156 Dazu auch Hegel, Grundlinien der Philosophie des Rechts, §§ 218, auch 214;
Schild ZRph 2003, 30 ff., 37 f.; Pawlik, Person, Subjekt, Bürger, S. 90 ff.; ders., Das
Unrecht des Bürgers, S. 116 ff.; nur partiell so im Sinne einer integrativ erforder-
lichen, aber offenbar stets vorhandenen präventiven Notwendigkeit Köhler,
Strafrecht AT, S. 50 f.
157 Zur Begrenzung durch die Schuld auch BVerfGE 45, 187, 254, 259 f.; 109, 133,
173; Fischer, StGB, § 46 Rn. 3 und 5.
158 Zum Kommunikationsaspekt nochmals Gleß/Weigend ZStW 126 (2014), 561,
574 f.; Hörnle, Straftheorien, S. 31 ff., 34 ff.; dies., Hb. Strafrechts, Band I, § 12
Rn. 35 f.; zum Tadel von Hirsch, Fairness, Verbrechen und Strafe, S. 41 ff.
159 Insoweit nur teilweise vergleichbar Pawlik, Person, Subjekt, Bürger, S. 92 ff.
160 Dezidiert anders Kant, Metaphysische Anfangsgründe der Rechtslehre – Meta-
physik der Sitten – Erster Teil, S. 331 ff. Zur gegen ihn verbreiteten Kritik
m.w.N. etwa Roxin, Strafrecht AT, Band I, § 3 Rn. 8 ff., 48, 60, allerdings mit
einer nicht erschöpfenden Angabe des verfassungsrechtlichen Sinns des Straf-
rechts; siehe auch Seelmann, Anerkennungsverlust und Selbstsubsumtion,
S. 123 ff.
161 Zu diesem Umstand etwa Kant, Metaphysische Anfangsgründe der Rechtslehre
– Metaphysik der Sitten – Erster Teil, S. 331; Köhler, Strafrecht AT, S. 38 ff., 44 ff.
und eingestehend Roxin, Strafrecht AT, Band I, § 3 Rn. 51 ff., 61 f.; weniger deut-
lich dagegen Hörnle, Straftheorien, S. 51 ff.
61
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
Was bedeuten die Gründe der Strafe und ihre Prämissen nun für die KI?
Dürften wir sie bestrafen?
Nach dem geschilderten Verständnis darf eine künstliche Intelligenz je-
denfalls nicht schon allein deshalb gestraft werden, weil vielleicht sonst
niemand zur Verfügung steht, der sich als Sündenbock für eine scheinbar
das Recht bestärkende öffentliche Sanktionierung festhalten ließe. Gegen-
über einer schwachen KI könnten wir schon gar nicht rational kommuni-
zieren, sie habe das Recht mit Bedacht durch eine Handlung angegrif-
fen.166 Aber auch eine starke KI würden wir mit solchen Zwecken, die eine
162 Siehe etwa BVerfGE 45, 187, 256: Unverbrüchlichkeit der Rechtsordnung; 122,
248, 271 ff.; 129, 208, 260; 133, 168, 199 f.; m.w.N. Gaede wistra 2016, 89 f.; siehe
auch zu Art. 3 GG zur tatsächlichen Rechtsgeltung (Belastungsgleichheit)
m.w.N. BeckOK-GG/Kischel Art. 3 Rn. 119 f.
163 Zur Anerkennung des Schuldgrundsatzes etwa BVerfGE 25, 269, 285 ff.; 45, 187,
259 ff.; 73, 206, 253 f.; 90, 145, 173; 120, 224, 253 f.; 123, 267, 408 f., 413 f.; zur
Herleitung auch Hörnle, FS Tiedemann, S. 325 ff.; zur Voraussetzung im StGB
siehe nur § 46 Abs. 1 S. 1 StGB; zu Schuldausgleich und Vergeltung als verfas-
sungsrechtlich legitimen Strafzwecken etwa m.w.N. BVerfGE 45, 187, 253 f.,
258 f.; 109, 133, 167 ff.; m.w.N. Hörnle, Hb. Strafrechts, Band I, § 12 Rn. 53 ff.
164 Zur Prävention als einem insoweit legitimen Strafzweck m.w.N. BVerfGE 45,
187, 253 ff.; 109, 133, 173; Hörnle, Hb. Strafrechts, Band I, § 12 Rn. 53 ff.
165 Hierfür etwa zum Einsatz des Strafrechts BVerfGE 71, 206, 221 ff.; 90, 145,
171 ff.; 120, 224, 239 ff. (mit abl. SV Hassemer); siehe dazu aber krit. evaluierend
Gaede, Der Steuerbetrug, S. 316 ff.; zur Auslegung Kudlich JZ 2003, 127, 130 ff.;
zur allgemeinen Geltung des Verhältnismäßigkeitsgrundsatzes Sachs/Sachs, GG,
Art. 20 Rn. 145 ff.
166 Zum letzteren Aspekt etwa Joerden, in: Hilgendorf/Günther, Robotik und Ge-
setzgebung, S. 195, 203 ff.; Gleß/Weigend ZStW 126 (2014), 561, 574 ff., aber auch
mit der Erwägung, in Zukunft bei einer Programmierbarkeit ethischer Maßstä-
be eine funktionale Entsprechung genügen zu lassen; vergleichbar nun auch
Cornelius ZRP 2019, 8, 10 f. Für die Möglichkeit einer pragmatischen Schaffung
eines Sonderstatus siehe aber Hilgendorf, in: Beck, Jenseits von Mensch und Ma-
schine, S. 119, 125 ff. (nur partiell übernommen bei Beck, in: Hilgendorf/
Günther, Robotik und Gesetzgebung, S. 239, 255 ff.): Zum Beispiel die Willens-
steuerung sei schon durch das gegebene Programm formulierbar. Hilgendorf
62
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
I. Dürfen wir künstliche Intelligenz bestrafen?
zeigt indes meines Erachtens bisher keine durchgreifenden Gründe dafür auf,
weshalb die sprachlich mögliche Ausweitung der normativen Begriffe normativ
im angedachten Umfang überzeugen sollte. Etwa das Schuldstrafrecht, das auf
die Ermöglichung der – nach den Erfahrungswerten nicht unplausiblen – Frei-
heit angelegt ist, wird mit einer Erweiterung auf Roboter konfrontiert, ohne
hinreichend Gründe für eine plausible Realität der Freiheit aktueller Roboter zu
geben. Die Begriffe würden sich derart erweitern bzw. verändern, dass aktuell
normativ bewahrenswerte Gehalte wie die Ausrichtung auf Freiheit schlicht ver-
loren gehen könnten. Soweit das durchaus denkbare Bedürfnis entsteht, über
die bisherigen Regelungen hinaus Verantwortungen und Rechtsfolgen zuzu-
schreiben, muss dies nicht notwendigerweise über strafrechtliche Kategorien ge-
schehen.
167 Einen Sündenbock herauszugreifen, um Normen zu bestätigen und/oder Erwar-
tungen (des Publikums) zu befriedigen, deren Enttäuschung gefährlich wäre,
lässt sich zwar durchaus als zweckrational, nicht aber auch als dem Sündenbock
gegenüber gerecht bezeichnen. Für eine rein funktionalistische Befürwortung
von Strafbefugnissen mit dem Verweis auf mögliche Verantwortungslücken und
auf der Grundlage einer überhöhenden Beschreibung der Programmierung der
Maschinen siehe aber Matthias, Automaten als Träger von Rechten, passim;
Simmler/Markwalder ZStW 129 (2017), 20, 30 ff.; zur Begründbarkeit über eine
utilitaristische Position auch Eidenmüller ZEuP 2017, 765, 774 f. Siehe aber auch
schon zum fehlenden Sinn nach einer substantiell verstandenen generalpräven-
tiv-funktionalistischen Lehre Seher, in: Gleß/Seelmann, Intelligente Agenten
und das Recht, S. 45, 57 ff.
168 Zu diesen Aspekten der Unrechtsbegründung und unserer Reaktion nur noch-
mals Pawlik, Normbestätigung und Identitätsbalance, S. 7 ff. (Handlung und
Unrecht), 47 ff. (vergeltende Strafe). Für eine Strafbefugnis unter selbstbewuss-
63
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
64
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
trifft. Dies gilt schon deshalb, weil wir von einer Schuld nicht reden könn-
ten, wenn das scheinbare Werk der Maschine im konkreten Fall einzig das
Ergebnis der umfassenden Programmierung gewesen wäre.172 In diesem
Fall müssen wir Schuld wie bisher bei Menschen suchen und vielleicht fin-
den. Dies umfasst nicht nur Maschinen, die letztlich schlicht Maschinen
bleiben. Ihre Schuld scheidet auch aus, wenn einzelne fehlerhafte Pro-
grammierungen der artifiziellen Person die Möglichkeit genommen ha-
ben, vernunftgemäß zu agieren.
Zweitens müssten wir uns der Aufgabe stellen, die subjektiven, schuld-
ausfüllenden Tatmerkmale des Vorsatzes und der Fahrlässigkeit im Einzel-
nen zu adaptieren und nachzuweisen.173 Für die Etablierung einer konkre-
ten Schuld der Maschine blieben eine Reihe von Transformationsproble-
men zu lösen.
Drittens wären materiellrechtliche174 und prozessuale Adaptionen gebo-
ten. Der artifiziellen Person wären nicht nur die Verteidigungsrechte zu ge-
ben, die wir uns Menschen zugestehen. Wir wären gehalten, der künstli-
chen Intelligenz auch eine Teilhabe an unserer Gerichtsbarkeit einzuräu-
men – ihre Ausgrenzung dürfte zu tiefe Zweifel daran säen, ob unsere Jus-
tiz gegenüber der anderen Spezies unparteilich wäre.
Wenn wir damit hypothetisch die Befugnis bejahen, eine starke KI zu be-
strafen, stellt sich die bedeutsame Folgefrage, ob wir eine solche Strafe ef-
fektiv vollziehen könnten. Sie führt zu Folgerungen, die wir bereits heute
ziehen sollten.
172 Ebenso wird die Frage zu stellen sein, inwiefern eine möglicherweise andere Art
und Weise der Normaufnahme (zum Beispiel durch ein deep learning) Unter-
schiede in der Schuldbewertung nahe legt, siehe etwa nochmals zum bottom-up-
approach Wallach/Allen, Moral machines – Teaching Robots Right from Wrong,
S. 99 ff.
173 Auf diese Aufgabe hinweisend und insoweit grundsätzlich ablehnend Joerden,
in: Hilgendorf/Günther, Robotik und Gesetzgebung, S. 195, 204 f.
174 Wir müssten zum Beispiel naheliegenderweise erwägen, die Tötungsdelikte auf
die künstliche Intelligenz zu adaptieren und etwa Wortlaute so fassen, dass die
KI als Täter auch im Einklang mit dem Gesetzlichkeitsprinzip auftreten kann.
65
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
Zunächst liegt für die Strafe schon alles andere als auf der Hand, was denn
eigentlich die geeigneten und angemessenen Strafübel sein sollten.
175 Siehe etwa Gleß/Weigend ZStW 126 (2014), 561, 578; Simmler/Markwalder ZStW
129 (2017), 20, 45.
176 Knapp erörternd und vom Lebenswillen abhängig machend Gleß/Weigend ZStW
126 (2014), 561, 578. Eine Debatte auch um das zeitweise Abschalten könnte
trotz der funktionalen Unterschiede zur terminalen Beendigung des Lebens ei-
nes Menschen aufkommen, da die zeitweise Auslöschung einer Person entwür-
digenden Charakter haben könnte.
177 Zum Problem siehe etwa ablehnend Ziemann, in: Hilgendorf/Günther, Robotik
und Gesetzgebung, S. 183, 188 ff.; offenbar aufgeschlossener Weng/Chen/Sun In-
ternational Journal of Social Robotics 2009, 267, 276 f.; zur eng umgrenzten
Zwangsbehandlung gegenüber Menschen im Kontext der Gefahrabwehr siehe
m.w.N. Spickhoff/Steiner, Medizinrecht, Art. 2 Rn. 14 f.; Sachs/Murswiek/Rixen,
GG, Art. 2 Rn. 186 f.
178 Siehe passenderweise gerade hiermit ohne jedes Bedenken argumentierend Mat-
thias, Automaten als Träger von Rechten, S. 245 f.; nun auch demaskierend offen
dafür: Simmler/Markwalder ZStW 129 (2017), 20, 45.
179 Gleichsinnig etwa m.w.N. Hilgendorf, in: Beck, Jenseits von Mensch und Maschi-
ne, S. 119, 131.
66
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
liegen. Gehen wir allein von einem Roboter mit Bewusstsein aus, mag er
die verhängte Freiheitseinschränkung zwar nicht als Leid empfinden, was
durchaus bereits erhebliche Zweifel daran begründet, ob sich das Straf-
recht für eine nicht fühlende künstliche Intelligenz adaptieren ließe.180 Die
starke KI sollte den Entzug von Entfaltungsbedingungen aber als zweck-
hafte und insistierende Schranke verstehen und daraus lernen können.181
Unter Umständen lässt sich dieser Effekt durch eine ausgeprägte Dauer
oder ein ausgeprägtes Ausmaß des Entzuges zur Kompensation der man-
gelnden oder verringerten Leidensfähigkeit verstärken.
Ich verlasse die Frage nach dem Strafübel damit schon wieder. Wichtiger
ist es, allgemeiner auf den Prüfstand zu stellen, ob wir überhaupt effektiv
imstande sein werden, die Strafe zu verhängen und zu vollziehen. Denken
wir bislang über die Legitimation von Strafe nach, setzen wir ihre Durch-
setzbarkeit regelmäßig voraus: Wir denken uns einen funktionstüchtigen
Staat, der den Täter bei mangelnder Einsicht in die Strafe zwingt. Der Staat
besitzt im Allgemeinen Mittel und Wege, Recht durch einen fairen Prozess
und eine gerechte Strafe wiederherzustellen. Dass der Staat diesen Zwang
prinzipiell anwendet, ist dabei – wie bereits erwähnt182 – im Rechtsstaat
nicht nur eine Option. Es ist eine verfassungsmäßige Pflicht des Staates, ge-
brochenes Recht auf funktionstüchtige – allerdings zugleich verhältnismä-
ßige – Art und Weise zu restituieren.
Wie verhält sich dies aber bei intelligenten Maschinen der Zukunft? Für
sie lässt sich bezweifeln, ob wir verlässlich von einer effektiven Rechtspfle-
ge ausgehen dürften:
Wenn die künstliche Intelligenz tatsächlich vor Fehlverhalten nicht gefeit
sein sollte, wäre es auch plausibel, dass sie ihr Fehlverhalten und die resul-
180 Die Straffähigkeit im Sinne einer Fähigkeit zur Empfindung verlangt entspre-
chend Wohlers BJM 2016, 113, 123 f.; dagegen funktionalistisch mit dem Argu-
ment der positiven Generalprävention Simmler/Markwalder ZStW 129 (2017),
20, 44 f.
181 Bisher steht nur, aber auch immerhin, das – nicht auf tiefem Verständnis beru-
hende – reinforcement learning zur Steuerung einer KI zur Verfügung, dazu näher
Russell/Norvig, Artificial Intelligence, S. 830 ff.; Eberl, Smarte Maschinen,
S. 301 ff.; unentschieden insoweit Wallach/Allen, Moral machines – Teaching Ro-
bots Right from Wrong, S. 196, 208 f.
182 Siehe bereits Fn. 162.
67
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
183 Siehe aber auch zur Entwicklung sog. weicher Roboter Lenzen, Künstliche Intel-
ligenz, S. 104 ff.
184 Dazu siehe Lenzen, Künstliche Intelligenz, S. 181 ff., zu Swarmbots 101 f.; auch
unter rechtlichen Aspekten Grünwald/Nüßing MMR 2015, 378 ff.; Bräutigam/
Klindt NJW 2015, 1137 ff. sowie beachtlich MMR-Aktuell 2018, 411954: Kalifor-
nien verabschiedet Cybersicherheitsgesetz zum Internet der Dinge; ausschließ-
lich als Verheißung sehend: Stanford-Bericht (Fn. 8), S. 16 f. Zu Herausforderun-
gen, welche die zunehmende Vernetzung für die Identifikation von Handlungs-
trägern und Kausalzusammenhängen mit sich führt, siehe zuletzt Cornelius ZRP
2019, 8, 10.
185 Siehe neben der Fn. 184 auch zu medizinischen Systemen/Implantaten besorgt
die Resolution zu Zivilrechtlichen Regelungen im Bereich Robotik, Europäi-
sches Parlament, P8_TA(2017)0051, Reparatur und Optimierung des Menschen,
39; BT/Drs. 19/5880, S. 18. 32; Lenzen, Künstliche Intelligenz, S. 184 ff.; zu auto-
nomen Fahrzeugen Eidenmüller ZEuP 2017, 765, 770; Wohlers BJM 2016, 113,
129; Hilgendorf ZStW 130 (2018), 674, 682; Draft „Ethics Guidelines for Trust-
worthy AI“ (2018) der High-Level Expert Group on Articial Intelligence, S. 17 f.; be-
sonders anschaulich zur Übernahme eines gehackten autonomen Fahrzeuges
während der Fahrt auf der Autobahn Eberl, Smarte Maschinen, S. 255 ff. gerade
zur Pflege Hilgendorf ZfmE 2018, 373, 380.
68
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
einer KI, die uns in Intelligenz und Schnelligkeit überlegen ist, eigentlich
nicht gelingen, die technischen Mittel der Rechtsdurchsetzung zu beherr-
schen, um etwa ihrer Abschaltung zu entgehen?186
Man mag auf diese Schreckensvision mit der Vision antworten, dass wir
andere superintelligente Maschinen als Partner der Rechtsdurchsetzung auf
unserer Seite haben werden. Ob es aber intelligente Maschinen wie Data
überhaupt geben wird, welche die Einsicht in gerade unsere Moral- und
Rechtsvorstellungen aufweisen, vermag uns niemand zu garantieren.
Angesichts unserer Unsicherheit sollten wir auch negative Zukunftssze-
narien nicht nur als Science-Fiction abtun. Der Wirkungsgrad der Strafe
gegenüber der starken künstlichen Intelligenz erscheint jedenfalls unsicher
zu sein, zumal sich die geschilderten Unsicherheiten zu den Bedenken ad-
dieren, die eine mangelnde Empfindung als individuelles Leid bereits mit
sich führen würde. Nach dem Status quo unserer KI-Strategie, die keine
spezifische Vorsorge gegenüber einer starken künstlichen Intelligenz
kennt, halte ich sie für unwahrscheinlich. Hiermit stünde aber nichts we-
niger als unser gesamtes Recht in Frage. Denn die Infragestellung der
Rechtsdurchsetzung beträfe bei Lichte besehen auch die Gefahrenabwehr:
Die künstliche Intelligenz könnte dem unmittelbaren Zwang des Verwal-
tungsrechts gleichermaßen entgegentreten.
2. Regulierungsbedarf
Gerade meine letzten Ausführungen haben auf die bislang skizzierte schö-
ne neue Welt der Koexistenz menschlicher und maschineller Vernunftwe-
sen einen dystopischen Schatten gelegt. Was folgt daraus? Muss ich meine
Hypothesen sogleich revidieren?
a) Notwendige Ergänzungen
186 Siehe schon Vinge, The Coming Technological Singularity, S. 4; knapp auch
Kurzweil, The Singularity is near, S. 420; Wallach/Allen, Moral machines – Teach-
ing Robots Right from Wrong, S. 196.
69
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
187 Vgl. näher ausmalend unter Einbeziehung der Nanotechnologie Bostrom, Super-
intelligence – Paths, Dangers, Strategies, S. 110 ff., 115 ff.; skeptisch evaluierend
etwa Eberl, Smarte Maschinen, S. 282 ff., 312 f.
188 Ob insoweit wieder die anthropomorphisierende Analogie von Bedeutung ist,
dass wir Menschen uns von minder intelligenten Tieren jedenfalls nicht brem-
sen lassen, bleibt gleichfalls schwer zu beurteilen. Sie soll deshalb nicht aufge-
griffen werden.
189 Siehe, nicht zuletzt vor dem Hintergrund der möglicherweise manipulierten
US-Wahl, Wischmeyer AÖR 143 (2018), 1 ff., 18 ff., 42 ff.; Resolution zu Zivil-
rechtlichen Regelungen im Bereich Robotik, Europäisches Parlament,
P8_TA(2017)0051, Einleitung H und U, Ethische Grundsätze 12 (mit sehr weit-
gehender Forderung nach Nachvollziehbarkeit); siehe nun auch https://www.he
ise.de/newsticker/meldung/Ethik-Debatte-EU-Experten-warnen-vor-verdeckter-K
70
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
I-4258283.html; Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-
Level Expert Group on Articial Intelligence, S. 10 ff. Zur Forschungsrichtung der
„explainable AI“, Lenzen, Künstliche Intelligenz, S. 77 ff., siehe auch zum Ein-
blick in Algorithmen S. 171 ff., 179 f.; für eine verwendungsabhängige Transpa-
renzforderung Meyer ZRP 2018, 233, 234 ff.
190 Zu entsprechenden Überlegungen von Margrethe Vestager (EU-Kommission) und
Katarina Barley (BMJV) vgl. https://app.handelsblatt.com/politik/deutschland/k
uenstliche-intelligenz-barley-fordert-ki-regeln-wie-die-politik-die-digitalisierung-
baendigen-will/23791806.html?ticket=ST-3748344-yZD3eAexODdbwwrxFzG4-a
p2. Zum Zugang zur KI-Technik und entsprechenden Daten siehe auch Eiden-
müller ZEuP 2017, 765, 776 f.; Lenzen, Künstliche Intelligenz, S. 161 ff., 247, 250.
191 Zumindest verbal gehört zur „Strategie Künstliche Intelligenz“ auch die Erhal-
tung der Menschenwürde des Einzelnen und die Sicherheit der KI, siehe – auch
zum Zitat – https://www.bundesregierung.de/breg-de/aktuelles/ki-als-markenzei
chen-fuer-deutschland-1549732, Hervorhebung des Verfassers. Konkreter wird
aber doch nur die Industrieförderung aufgegriffen. Ebenso BT/Drs. 19/5880:
Stategie Künstliche Intelligenz der Bundesregierung (sog. Umsetzungsstrategie)
– Markführer für „KI made in Germany“. Siehe letztlich blumig ebenso die Re-
solution zu Zivilrechtlichen Regelungen im Bereich Robotik, Europäisches Par-
lament, P8_TA(2017)0051, Ethischer Verhaltenskodex für Robotikingenieure,
Vorsorge. Zu Bestrebungen für eine vertrauenswürdige KI nun auch den Draft
„Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert Group on Ar-
tificial Intelligence.
192 So letztlich auch Resolution zu Zivilrechtlichen Regelungen im Bereich Robo-
tik, Europäisches Parlament, P8_TA(2017)0051, Einleitung G und P (siehe aber
auch T); siehe ferner Weng/Chen/Sun International Journal of Social Robotics
2009, 267 ff.; Eberl, Smarte Maschinen, S. 362, 369. Die Entwicklung einer Über-
wachung mit Beginn der Einschätzung als relevantes Risiko findet sich skizziert
bei Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 102 ff.
71
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
wird, die wir als ernsthaften Versuch der Mehrung von Erkenntnissen und
damit als wissenschaftlich193 einstufen müssen. Wir nehmen ebenso wenig
hinreichend zur Kenntnis, dass derzeit nahezu die gesamte Menschheit ihre
Investitionen und Fähigkeiten vor allem darauf zu richten scheint, die Po-
tentiale der künstlichen Intelligenz zu heben. In der Angst, in Wirtschaft,
Medizin oder Militär die eigene Zukunft zu verspielen, unternehmen wir
immense Anstrengungen, den Stand der Technik tatsächlich zu revolutio-
nieren.194 Wir schaffen hiermit zugleich leistungsfähigere Plattformen für
die Forschung an starker künstlicher Intelligenz. Und die Forschungsbe-
hörde des Pentagon, die DARPA, schreibt schon heute ein Programm für
künstliche Intelligenzen aus, welche die Forschung an militärisch nutzba-
ren Modellen und Systemen zum Teil selbst übernehmen sollen; den fehl-
baren und langsamen Mensch will man mit „game-changing AI“ hinter sich
lassen.195
Unsere strategische Antwort auf diese Beobachtungen liegt nun darin,
die starke künstliche Intelligenz mit einem impliziten Gottvertrauen auch
für die Zukunft für unmöglich zu halten. Die von KI-Forschern bemühte
und streitbare Annahme, der Mensch sei eine berechenbare und rekon-
struktionsfähige Maschine,196 erscheint uns irrsinnig. Wir glauben, dass nur
ein unerklärlicher göttlicher Funke intelligentes Leben schaffen kann. Im
Vergleich immer noch überschaubare mad scientists, die sich und die
193 M.w.N. BVerfGE 35, 79, 113; 90, 1, 12; Sachs/Bethge, GG, Art. 5 Rn. 206 f., aller-
dings mit einer angedeuteten „Frankenstein-Schutzbereichsausnahme“. Siehe
auch Draft „Ethics Guidelines for Trustworthy AI“ (2018) der High-Level Expert
Group on Artificial Intelligence, S. 12 f.
194 Von einer technischen Revolution spricht etwa auch Hilgendorf, FS Fischer,
S. 99 f.
195 Zu entsprechenden Plänen https://www.heise.de/tp/features/Pentagon-will-wisse
nschaftliche-Forschung-durch-KI-Systeme-ersetzen-4145928.html; siehe auch
https://www.darpa.mil/work-with-us/ai-next-campaign: „new game-changing AI
technologies for U.S. national security“. Das Pentagon soll bis ins Jahr 2030 160
Milliarden US-Dollar in den Aufbau einer weitgehend automatisierten „Future
Combat Force“ investieren, so: Plug and Pray (2010).
196 Siehe stellvertretend zu Ishiguro Eberl, Smarte Maschinen, S. 321. Siehe aber
auch zu einem gehaltvollen Plädoyer für entsprechende, von verschiedenen An-
sätzen her fruchtbare Analogien m.w.N. Mainzer, Leben als Maschine? Dort
wird tatsächlich längst erkannt, dass die Annahmen nicht die volle Identität et-
wa in der Art der konkreten Ausprägung von Intelligenz bedeuten, siehe etwa
S. 14 zum mangelnden „Rechnen“ der Organismen/Zellen, oder auch S. 44:
kein mechanistischer Maschinenbegriff verwendet, zur Kritik an einem unkriti-
schen Verhältnis zur Evolution dort etwa auch bemerkenswert S. 237, 247 ff. Zur
Kritik an der Analogie neben Weizenbaum etwa Harari, Homo Deus, S. 136 ff.
72
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
73
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
199 Zur Zulässigkeit einer Risikovorsorge, die bei der Gentechnik auch aus einem
nicht endgültig geklärten Erkenntnisstand hinsichtlich der langfristigen Folgen
abgeleitet wird, siehe auch BVerfGE 128, 1, 37 ff.: besondere Sorgfaltspflicht des
Gesetzgebers; Führ, in: Grunwald, Handbuch Technikethik, S. 384, 386, 387 f.;
Calliess, in: Grunwald, Handbuch Technikethik, S. 390 ff.; mit Kritik letztlich
auch Hufen NVwZ 2017, 1265, 1267.
200 Für Beispiele Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 146 ff.,
aber auch Lin, in: Lin/Abney/Bekey, Robot Ethics, S. 3, 7 f.; Russell/Norvig, Artifi-
cial Intelligence, S. 1037, 1039. Letztere erwägen etwa, dass KIs auch aus mögli-
cherweise inkonsequenten bzw. nicht klar definierten moralischen Sätzen fal-
sche Schlüsse über die Behandlung von Menschen ableiten. Ein Beispiel geben
sie etwa zur Befugnis, Insekten töten zu dürfen, die wir unter anderem infolge
ihres verminderten Intellekts bzw. Gehirnumfangs nicht als ebenbürtig erach-
ten. Eine KI, die entsprechend der Entwicklungsbedürftigkeit auch des mensch-
lichen Rechts evolutiv angelegt ist, könnte aus einem Vergleich ihrer eigenen
überlegenen intellektuellen Leistungsfähigkeit einen negativen Rückschluss
über die vermeintliche Sonder- und Vorrangstellung des Menschen entwickeln.
201 In diesem Zusammenhang ist auch die Kunstaktion des „Random Darknet
Shoppers“ aussagekräftig, weil sie Folgen verdeutlicht, die ein beliebiges Experi-
mentieren (lassen) zeitigen kann. Die programmierte KI hatte entsprechend
ihrer Konstruktion wahllos im Darknet Drogen und einen gefälschten Pass be-
stellt, https://motherboard.vice.com/de/article/78kyz4/random-darknet-shopper-
590 und https://motherboard.vice.com/de/article/kb7jma/kunstfreiheit-siegt-in-d
er-schweiz-duerfen-bots-drogen-im-darknet-kaufen-632.
74
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
b) Berechtigte Warnungen?
Viele KI-Forscher warnen nun davor, dass die ihnen unablässig gestellten
Fragen nach gefährlichen KIs die segensreiche Entwicklung der schwachen
KI gefährden könnten.202 Genervt verweisen sie etwa darauf, dass es für
Roboter immer noch schwieriger sei, Zahnpasta auf eine Zahnbürste auf-
zutragen als einen Großmeister im Schach zu schlagen.203 Dies hat hin-
sichtlich einer hinreichenden Einstufung der im Kontext der KI aufgewor-
fenen Themen zwar durchaus Gewicht (siehe schon D. II. 2. a)). Wenn KI-
Forscher aber im gleichen Atemzug die enormen Potentiale der KI rüh-
men und sichere Fortschrittsprognosen weit von sich weisen, schlagen sie
ihre zu thematisierende Verantwortung204 doch nicht ganz aus dem Feld.
Die kritischen Nachfragen begleiten KI-Forscher nicht nur deshalb, weil
Journalisten zu oft den „Terminator“ im Kino „beobachtet“ haben. Die
Forscher können Aggressionen weder von fortgeschrittenen, bewusstseins-
losen Systemen noch von selbstbewussten KIs ausschließen. Erst recht sa-
gen sie der Gesellschaft nicht, was zu tun ist, wenn plan- oder außerplan-
mäßig eine gefährliche künstliche Intelligenz entstanden ist oder es gar zu
einem konfrontativen Anerkennungsprozess um eine möglicherweise hin-
reichend autonome künstliche Intelligenz kommen wird.
3. Regulierungsbedarf im Einzelnen
75
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
Ferner sollten wir erwägen, weiter auch analoge, jedenfalls digital nicht
manipulierbare Mittel der Rechtsdurchsetzung vorzuhalten. Schon die
längst drohende Manipulierbarkeit von Menschenhand streitet im Rah-
men der sog. Cybersicherheit hierfür. Vor allem dürfte es unverzichtbar
sein, bereits die Beforschung und Konstruktion digitaler Personen zu regulie-
ren. So wie wir etwa die Forschung an Viren und Bakterien206 oder die Ent-
wicklung und Herstellung von Waffen207 reglementieren, haben wir An-
205 Siehe aber als gutes Zeichen und nutzbares Forum das geplante KI-Observatori-
um, BT/Drs. 19/5880, S. 26, das aber offenbar auf die schwache KI bezogen
bleibt, siehe S. 4 f., und der Arbeitswelt dient (S. 25 f.).
206 Zu den insbesondere für Mikroorganismen einschlägigen, verhältnismäßig ab-
gestuft ins Einzelne gehenden Vorgaben siehe vornehmlich die §§ 1 Abs. 1 S. 2;
3 ff. und insbesondere 8 ff. BioStoffV einschließlich der Genehmigungspflicht
(§ 15), der Anzeigepflicht (§ 16) und der Gebote zur Einrichtung räumlich ge-
trennter, schleusengesicherter Schutzstufenbereiche (etwa § 10 Abs. 1 Nr. 1 a, nä-
her die Anlage II zur BioStoffV). Die Normen beruhen vor allem auf § 19
ArbSchG iVm RL 90/679/EWG vom 26.11.1990. Zum Schutz vor Seuchen siehe
im Übrigen das IfSG, das etwa in § 8 eine Meldepflicht und in § 30 eine Quaran-
tänebefugnis aufstellt. Siehe auch zum Embryonenschutz D. II. 4.
207 Rechtspolitisch auch Lenzen, Künstliche Intelligenz, S. 217 f. Das KrWaffKG und
das WaffG untersagen zum einen jeden Umgang mit besonders gefährlichen
Waffen, insbesondere sog. ABC-Waffen und Tretminen sowie Streumunition (§ 2
Abs. 3 WaffG, §§ 17, 18, 18a KrWaffKG). Zum anderen wird im Übrigen eine Er-
laubnispflicht auch hinsichtlich der Herstellung aufgestellt (§ 2 Abs. 2 WaffG
und sodann §§ 21 ff. WaffG, § 2 Abs. 1 KrWaffKG). In der Zukunft wird aber die
Frage auftauchen, ob neben automatisierten Waffen auch Ausnahmen für auto-
nome Waffen (Roboter/KI) zu staatlichen Verteidigungszwecken geboten sind.
Ein (Kampf-)Roboter ist derzeit nicht unter das – über eine Anlage bestimmte –
KrWaffG zu subsumieren und allenfalls mit Bedenken unter den Waffenbegriff
76
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
77
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
78
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
Schließlich sollten wir nicht übersehen, dass sich auch die Frage stellt, ob
wir überhaupt Forschung zulassen wollen, die zu einer Koexistenz von Men-
schen und Maschinen führen kann. Das Bewusstsein, dass sich menschli-
che Fähigkeiten artifiziell reproduzieren und optimieren lassen, könnte
unsere Sicht auf uns selbst verändern, vielleicht erschüttern. Sie mag wie ein
Zwang wirken, uns selbst technisch zu optimieren. Gerade dann, wenn
man meine Thesen zur Rechtsstellung teilt, wäre eine starke künstliche In-
telligenz enorm folgenreich. Wir müssten zunächst die – auch beim Men-
schen riskante – Freiheit der neuen Subjekte zulassen, könnten nicht ohne
Weiteres die präsumierte Gefahr vorsorgend im Keim ersticken. Ob all die
ungewissen Folgen und Risiken einschließlich einer möglichen Phase der
(gefährlichen) Debatte über die Anerkennung von Roboterrechten ausge-
löst werden, sollte nun aber nicht allein von der Firmenstrategie zum Bei-
213 Siehe neben Fn. 198 auch zur japanischen Verpflichtung zu einem „Not-Aus-
Schalter“ und zu weiteren öffentlich-rechtlichen Kontrollansätzen Spranger/
Wegmann, in: Beck, Jenseits von Mensch und Maschine, S. 104, 111; Weng/
Chen/Sun International Journal of Social Robotics 2009, 267, 272 f.; im Kontext
der Asilomar-Thesen auch Lenzen, Künstliche Intelligenz, S. 246, zu diesen https:
//futureoflife.org/ai-principles/ – These 22; zum Ansatz auch mit großen Zwei-
feln Bostrom, Superintelligence – Paths, Dangers, Strategies, S. 157 ff.
214 Resolution zu Zivilrechtlichen Regelungen im Bereich Robotik, Europäisches
Parlament, P8_TA(2017)0051, Allgemeine Grundsätze bezüglich der Entwick-
lung der Robotik und der Künstlichen Intelligenz, 3. Die Forderung dürfte pri-
mär auf KI ohne Bewusstsein gerichtet sein. Für selbstbewusste Roboter, die
auch das Europäische Parlament nicht ausschließt, wäre der Anspruch auf eine
vollständige Steuerbarkeit indes freiheitstheoretisch angreifbar. Soweit morali-
sche Subjekte anzuerkennen sein sollten, ist ihnen grundsätzlich Freiheit zu ge-
währen. Die Durchsetzung freiheitsbeschränkender bzw. Freiheit im staatlichen
Zusammenhang definierender Normen wäre nach Art und Maß zu rechtferti-
gen.
79
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
spiel Googles abhängen. Die richtige Strategie und die Mittel zu ihrer Ver-
folgung müssen auf öffentlichen Diskursen und demokratischen Entschei-
dungen fußen.215
Ein kategorisches Verbot soll dem Gesetzgeber dabei gar nicht implizit
empfohlen sein. Auf welche Herausforderungen die Menschheit im 22.
oder 23. Jahrhundert treffen wird, vermag niemand vorherzusagen. Es
kann zum Beispiel sein, dass eines Tages gerade die Partnerschaft mit intel-
ligenten Maschinen die Menschheit retten mag.216 Mindestens dürfte es
aber geboten sein, die Konstruktion rechtsgefährdender autonomer KI-Sys-
teme explizit zu untersagen. Dies sollte zum einen bewusstseinslos blei-
bende, aber autonom zur zweckgerichteten Aggression gegen Menschen
befähigte KI erfassen. Zum anderen sollte es um selbstbewusste, unkon-
trollierbare amoralische Maschinen gehen. Bisher untersagt keine Norm
unseres Rechts ihre Konstruktion.217 Das Recht sollte der gezielten Schaf-
fung rechtsgefährdender Systeme ebenso wie der passiv hingenommenen
Selbstbemächtigung entgegentreten.
80
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
4. Strafrechtliche Absicherung
Ich komme am Ende noch knapp zu einem zweiten Sinn, den der Aus-
druck „Strafen für Roboter“ haben kann. Aktuell und bis auf Weiteres
müssen wir uns an die Menschen wenden, die künstliche Intelligenz kon-
struieren und einsetzen:
Dies gilt vornehmlich für Einsätze der aktuellen KI, die möglicherweise
Wahlen manipuliert218 oder Verletzungen im Straßenverkehr auslöst. Eine
Strafe kommt nicht nur im Fall der Horrorvision in Betracht, dass Men-
schen eine starke KI für illegitime Ziele kreieren und nutzen. Menschen,
die Roboter oder eine körperlose KI als Werkzeug einsetzen, können ganz
allgemein als Tatbeteiligte für vorsätzliche oder fahrlässig ausgelöste Fol-
gen verantwortlich sein.219 Zum Beispiel für den Passagier, den Halter oder
den Hersteller eines autonomen Fahrzeuges dürfen wir prinzipiell legitim
die Außerachtlassung von Sorgfaltsstandards ahnden. Die drängenden Fra-
gen liegen hier darin, welche Sorgfaltsstandards wir den Beteiligten noch
auferlegen wollen und wie sich Verantwortungsanteile zueinander verhal-
ten.220 In diesem Streit diskutieren wir sowohl den partiellen Rückzug des
Strafrechts über die Annahme eines erlaubten Risikos als auch die zivil-
oder gar strafrechtliche Haftbarmachung des Fahrzeuges.
Eine „Strafe für Roboter“ bzw. künstliche Intelligenz sollten wir für die
Zukunft aber noch nach anderen Ansätzen immerhin durchdenken. So mag
sich die Frage stellen, ob ein Forscher, der unvorsätzlich, aber entgegen
entsprechenden Indizien mit verheerenden Folgen etwa für die körperli-
che Unversehrtheit eine rechtsgefährdende KI erschafft oder freisetzt, einer
218 Allerdings bedarf schon dieser Bereich noch intensiver Analyse, insbesondere
wenn eine Strafbarkeit über bekannte Tatbestände wie die Ehrdelikte hinausrei-
chen sollte, siehe etwa zu den aktuellen Kontroversen m.w.N. Gasser/Kraatz,
VerfBlog 2017/1/16, S. 3 f. (http://t1p.de/x98q); Libertus ZUM 2018, 20 ff.; Paal/
Hennemann, ZRP 2017, 215 f.; Rückert, in: Albrecht u.a., Strafrecht und Politik,
S. 167 ff., 183 ff.; Schröder DVBl 2018, 465 ff. und Steinbach ZRP 2017, 101 ff.
219 Entsprechend knapp im Grundsätzlichen etwa zum Einsatz von Robotern in
der Pflege Hilgendorf ZfmE 2018, 373, 380; allgemein, auch zu den Problemen,
Gleß/Weigend ZStW 126 (2014), 561, 579 ff.; Simmler/Markwalder ZStW 129
(2017), 20, 25 f.
220 Siehe im Überblick etwa Gleß/Weigend ZStW 126 (2014), 561, 580 ff.; Wohlers
BJM 2016, 113, 119 ff. Zur Sorgfaltswidrigkeit etwa Gleß/Weigend ZStW 126
(2014), 561, 581 ff.; Gleß, in: Gleß/Seelmann, Intelligente Agenten und das
Recht, S. 225, 235 ff.; Günther, Roboter und rechtliche Verantwortung, S. 212 f.,
223 ff., 255 f.; für die Pflege Hilgendorf ZfmE 2018, 373, 380 f. Letzteres wäre ins-
besondere ein Thema, wenn es um eine starke künstliche Intelligenz ginge.
81
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
82
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
II. Strafe für Roboter: Was müssen wir heute tun?
menschlichem Leben etwa BT/Drs. 11/5460, S. 10 und 11 (dazu aber etwa ein-
schränkend und krit. Günther/Taupitz/Kaiser, ESchG, § 5 Rn. 4 f.) und zur PID –
freilich ohne nähere Begründung – § 3a ESchG und BT/Drs. 17/5451. Für eine
beispielhafte Kritik anhand des § 3 ESchG siehe m.w.N. Günther/Taupitz/Kaiser,
ESchG, § 3 Rn. 3 ff.
224 Siehe hier etwa die Formulierung des § 1 ESchG, den undifferenzierten und
weiten § 6 ESchG sowie die letztlich kaum praktikable Neuregelung der PID in
§ 3a ESchG, siehe erläuternd und aktuell zusf. zur vielfachen Kritik an der
Reichweite des ESchG mit diversen Nachweisen Dorneck, Das Recht der Repro-
duktionsmedizin de lege lata und de lege ferenda, S. 78 ff.; zum diskutierten No-
vellierungsbedarf im Grundsätzlichen auch Günther/Taupitz/Kaiser, ESchG, Ka-
pitel B Rn. 5 ff.
225 Dazu etwa zusammenfassend m.w.N. Dorneck, Das Recht der Reproduktionsme-
dizin de lege lata und de lege ferenda, S. 162 ff.
226 Zur besonderen Bedeutung von Leben und Gesundheit siehe etwa im Kontext
der Bestimmung von Sorgfaltsmaßstäben m.w.N. Gleß/Weigend ZStW 126
(2014), 561, 584 f.
227 Siehe auch im hiesigen Kontext schon Beck JR 2009, 225, 230; Schuhr, in: Beck,
Jenseits von Mensch und Maschine, S. 43 f.; Simmler/Markwalder ZStW 129
(2017), 20, 22.
83
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
D. Strafbefugnisse und -prämissen
228 Siehe für den Bedarf, die KI-Forschung nicht nur auf eine gesteigerte Leistungs-
fähigkeit, sondern auch auf eine stabile und dem Gemeinwohl dienende KI aus-
zurichten, den Open Letter des Future of Life Institute. Zum Bedarf, den mögli-
chen Dual-Use der neuen Technik stets im Blick zu behalten und rechtliche
Strategien zu durchdenken, siehe zudem „The Malicious Use of Artificial Intelli-
gence“ (Fn. 4). Siehe auch Resolution zu Zivilrechtlichen Regelungen im Be-
reich Robotik, Europäisches Parlament, P8_TA(2017)0051, Einleitung M und T,
Ethische Grundsätze 10 f. mit dem Vorschlag eines Verhaltenskodex für Robo-
tingenieure. Ohne Warnungen, aber doch auf Vorsorge insistierend auch Wal-
lach/Allen, Moral machines – Teaching Robots Right from Wrong, S. 7 f.
229 Für eine Ächtung autonomer Waffen tritt die Regierungskoalition ein, siehe Ko-
alitionsvertrag 2018, S. 149; zur Debatte auch Misselhorn, Grundfragen der Ma-
schinenethik, S. 156 ff.; siehe vor allem unter dem Missbrauchsgesichtspunkt
auch Open Letter to the United Nations Convention on Certain Conventional Wea-
pons (Fn. 3). Siehe ferner zu der für sich genommen bereits starken These, dass
autonome Waffensysteme auch fernab technischer Präzisions- und Effizienz-
zweifel mit einer gehaltvollen Rechtsordnung per se unvereinbar seien, m.w.N.
Beck/Zabel, in: Demko/Brudermüller/Seelmann, Menschenrechte, S. 197, 207 ff.,
221 f.; offener Sharkey, in: Lin/Abney/Bekey, Robot Ethics, S. 111 ff.
230 Zu absehbaren Wettläufen um ein möglichst roboterfreundliches Recht siehe
aber schon Eidenmüller ZEuP 2017, 765, 776 f.
84
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
E. Thesen
85
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
Albrecht, Anna H.; Geneuss, Julia; Giraud, Alex; Pohlreich, Erol: Strafrecht und Politik
– 6. Symposium junger Strafrechtlerinnen und Strafrechtler, Baden-Baden 2018.
Alexy, Robert: Data und die Menschenrechte – Positronisches Gehirn und doppelt-
riadischer Personenbegriff, abrufbar unter: http://www.alexy.jura.uni-kiel.de/de/
data/DatasMenschenrechte.pdf (letzter Abruf am 1. März 2019).
An Open Letter to the United Nations Convention on Certain Conventional Weapons,
abrufbar unter: https://www.dropbox.com/s/g4ijcaqq6ivq19d/2017%20Open%2
0Letter%20to%20the%20United%20Nations%20Convention%20on%20Certain
%20Conventional%20Weapons.pdf?dl=0 (letzter Abruf am 1. März 2019).
Armbrüster, Christian: Automatisiertes Fahren – Paradigmenwechsel im Straßenver-
kehrsrecht?, ZRP 2017, 83.
Asimov, Isaac: I, Robot, Nachdrucks des Originals von 1950, New York 2013.
Asimov, Isaac: Robots and empire, New York 1985.
Asimov, Isaac: The robots of dawn, New York 1994.
Beck, Susanne: Grundlegende Fragen zum rechtlichen Umgang mit der Robotik, JR
2009, 225.
Beck, Susanne: Jenseits von Mensch und Maschine – eine ethische und rechtliche
Frage zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-
Baden 2012.
Beck, Susanne: Zum Einsatz von Robotern im Palliativ- und Hospizbereich, MedR
2018, 772.
Blechschmitt, Lisa: Die straf- und zivilrechtliche Haftung des Arztes beim Einsatz ro-
boterassistierter Chirurgie, Baden-Baden 2017.
Böckenförde, Ernst-Wolfgang: Recht, Staat, Freiheit – Studien zur Rechtsphilosophie,
Staatstheorie und Verfassungsgeschichte, Frankfurt a.M. 1991.
Börding, Andreas; Jülicher, Tim; Röttgen, Charlotte; v. Schönfeld, Max: Neue Herausfor-
derungen der Digitalisierung für das deutsche Zivilrecht, CR 2017, 134.
Borges, Georg: Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018,
977.
Bostrom, Nick: Superintelligence: paths, dangers, strategies, korrigierter Reprint der
Originalausgabe von 2014, Oxford 2017.
Bräutigam, Peter; Klindt, Thomas: Industrie 4.0, das Internet der Dinge und das
Recht, NJW 2015, 1137.
Brunhöber, Beatrice: Technik und Forschung: Was geht, was kommt?, ITRB 2017, 88.
Camprubi, Madeleine: Angst und Streben nach Sicherheit, Zürich 2004.
Caspar, Johannes: Tierschutz im Recht der modernen Industriegesellschaft, Baden-
Baden 1999.
87
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
88
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
89
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
90
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
Heise online: Künstliche Intelligenz: AlphaZero meistert Schach, Shogi und Go, ab-
rufbar unter: https://www.heise.de/newsticker/meldung/Kuenstliche-Intelligenz-
AlphaZero-meistert-Schach-Shogi-und-Go-3911703.html (letzter Abruf am
1. März 2019).
Heise online: Pentagon will wissenschaftliche Forschung durch KI-Systeme ersetzen,
abrufbar unter: https://www.heise.de/tp/features/Pentagon-will-wissenschaftlich
e-Forschung-durch-KI-Systeme-ersetzen-4145928.html (letzter Abruf am 1. März
2019).
Helmholtz-Gemeinschaft: Human Brain Project – eine Zwischenbilanz, abrufbar un-
ter: https://www.helmholtz.de/gesundheit/eine-zwischenbilanz/ (letzter Abruf
am 1. März 2019).
Herberger, Maximilian: „Künstliche Intelligenz“ und Recht – Ein Orientierungsver-
such, NJW 2018, 2825.
High Level Expert Group der Europäischen Kommission: Draft „Ethic Guidelines for
Trustworthy AI“, abrufbar unter https://ec.europa.eu/digital-single-market/en/ne
ws/draft-ethics-guidelines-trustworthy-ai (letzter Abruf am 1. März 2019).
Hilgendorf, Eric: Autonome Systeme, künstliche Intelligenz und Roboter, Festschrift
für Thomas Fischer, S. 99, München 2018.
Hilgendorf, Eric: Dilemma-Probleme beim automatisierten Fahren – Ein Beitrag
zum Problem des Verrechnungsverbots im Zeitalter der Digitalisierung, ZStW
130 (2018), 674.
Hilgendorf, Eric: Recht und Ethik in der Pflegerobotik – ein Überblick, ZfmE 2018,
373.
Hilgendorf, Eric: Robotik im Kontext von Recht und Moral, Baden-Baden 2014.
Hilgendorf, Eric; Günther, Jan-Philipp: Robotik und Gesetzgebung: Beiträge der Ta-
gung vom 7. Bis 9. Mai 2012 in Bielefeld, 1. Auflage, Baden-Baden 2013.
Hilgendorf, Eric; Kudlich, Hans; Valerius, Brian: Handbuch des Strafrechts, Band 1,
Heidelberg 2019.
Hörnle, Tatjana: Die verfassungsrechtliche Begründung des Schuldprinzips, Fest-
schrift für Klaus Tiedemann, S. 325, Berlin/Köln/München 2008.
Hörnle, Tatjana: Kriminalstrafe ohne Schuldvorwurf, Baden-Baden 2013.
Hörnle, Tatjana: Straftheorien, 2. Auflage, Tübingen 2017.
Hörnle, Tatjana; Wohlers, Wolfgang: The Trolley Problem Reloaded – Wie sind auto-
nome Fahrzeuge für Leben-gegen-Leben-Dilemmata zu programmieren?, GA
2018, 12.
Hufen, Friedhelm: Wissenschaft zwischen Freiheit und Kontrolle – Zivilklauseln,
Ethikkommissionen und Drittmittelkontrolle aus verfassungsrechtlicher Sicht,
NVwZ 2017, 1265.
Hume, David: A Treatise of Human Nature, Nachdruck der Originalausgabe
1739/1740, London 2003.
Intelligence.org: MIRI – Machine Intelligence Research Institute, abrufbar unter:
https://intelligence.org/research/ (letzter Abruf am 1. März 2019).
91
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
Joerden, Jan C.; Byrd, B. Sharon; Hruschka, Joachim: Jahrbuch für Recht und Ethik 14,
Berlin 2006.
Journal of Evolution & Technology: Interview: Richard Walker, Human Brain Project,
abrufbar unter https://jetpress.org/v 27.2/greguric.htm (letzter Abruf am 1. März
2019).
Kahlo, Michael: Soll es dem Staat im Strafprozeß rechtlich erlaubt sein, Verdachts-
klärung durch Täuschungshandlungen zu unternehmen?, Festschrift für E.A.
Wolff, S. 153, Berlin 1998.
Kant, Immanuel: Allgemeine Naturgeschichte und Theorie des Himmels – Von den
Bewohnern der Gestirne, 1755, zit. nach Kants Werke – Akademie Textausgabe,
Band I, Seite 351, Berlin 1902.
Kant, Immanuel: Die Metaphysik der Sitten, zit. nach Kants Werke – Akademie Text-
ausgabe, Band VI, Seite 203, Berlin 1907.
Kant, Immanuel: Anthropologie in pragmatischer Hinsicht, 1798, zit. nach Kants
Werke – Akademie Textausgabe, Band VII, Seite 117, Berlin 1907.
Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, 1785, zit. nach Kants
Werke – Akademie Textausgabe, Band IV, Seite 385, Berlin 1911.
Keßler, Oliver: Intelligente Roboter – neue Technologien im Einsatz – Voraussetzun-
gen und Rechtsfolgen des Handelns informationstechnischer Systeme, MMR
2017, 589.
Kirn, Stefan; Müller-Hengstenberg, Claus: Intelligente (Software-)Agenten: Von der
Automatisierung zur Autonomie? – Verselbstständigung technischer Systeme,
MMR 2014, 225.
Kirn, Stefan; Müller-Hengstenberg, Claus: Rechtliche Risiken autonomer und ver-
netzter Systeme: eine Herausforderung, Berlin 2016.
Klesczewski, Diethelm: Straftataufklärung im Internet – Technische Möglichkeiten
und rechtliche Grenzen von strafprozessualen Ermittlungseingriffen im Inter-
net, ZStW 123 (2011), 737.
Klindt, Thomas: Produktsicherheitsgesetz Kommentar, 2. Auflage, München 2018.
Knauer, Christoph: Münchener Kommentar zur Strafprozessordnung, Band 3/2,
München 2018.
Köhler, Michael: Strafrecht Allgemeiner Teil, Berlin 1997.
Krüger, Jessica: Bericht zur Würzburger Tagung der deutschsprachigen Medizin-
rechtslehrer und Medizinrechtslehrerinnen vom 10. bis 12. Mai 2018, medstra
2018, 217.
Kudlich, Hans: Grundrechtsorientierte Auslegung im Strafrecht, JZ 2003, 127.
Kurzweil, Ray: The singularity is near – when humans transcend biology, Nach-
druck der Originalausgabe von 2005, London 2018.
Lenzen, Manuela: Künstliche Intelligenz – was sie kann & was uns erwartet, 2. Auf-
lage, München 2018.
Lewke, Christian: „…aber das kann ich nicht tun!“: Künstliche Intelligenz und ihre
Beteiligung am öffentlichen Diskurs, InTer 2017, 207.
92
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
Libertus, Michael: Rechtliche Aspekte des Einsatzes von Social Bots de lege lata und
de lege ferenda, ZUM 2018, 20.
Lin, Patrick; Abney, Keith; Bekey, George A.: Robot Ethics – The Ethical and Social
Implications of Robotics, Paperback Edition, Cambridge/London 2014.
Luf, Gerhard: Menschenwürde als Rechtsbegriff, Festschrift für E.A. Wolff, S. 307,
Berlin, 1998.
Lutz, Lennart S.: Autonome Fahrzeuge als rechtliche Herausforderung, NJW 2015,
119.
MacBride Allen, Roger: Isaac Asimov’s Caliban, New York 1993.
MacBride Allen, Roger: Isaac Asimov’s Inferno, London 1994.
MacBride Allen, Roger: Isaac Asimov’s Utopia, London 1997.
Mainzer, Klaus: Leben als Maschine? – Von der Systembiologie zur Robotik und
Künstlichen Intelligenz, Paderborn 2010.
Matt, Holger; Renzikowski, Joachim: Strafgesetzbuch Kommentar, München 2013.
Matthias, Andreas: Automaten als Träger von Rechten – ein Plädoyer für eine Geset-
zesänderung, 2. Auflage, Berlin 2010.
Maunz, Theodor; Dürig, Günter: Grundgesetz Kommentar, 84. Ergänzungslieferung,
München 2018.
Mayinger, Samantha Maria: Die künstliche Person – eine Untersuchung rechtlicher
Veränderungen durch die Installation von Softwareagenten im Rahmen von In-
dustrie 4.0, unter besonderer Berücksichtigung des Datenschutzrechts, Frank-
furt a.M. 2017.
Meyer, Stephan: Künstliche Intelligenz und die Rolle des Rechts für Innovation –
Rechtliche Rationalitätsanforderungen an zukünftige Regulierung, ZRP 2018,
233.
Misselhorn, Catrin: Grundfragen der Maschinenethik, 2. Auflage, Ditzingen 2018.
Misselhorn, Catrin: „Der Mensch muss der Maschine eigentlich vertrauen“ – Inter-
view mit Catrin Misselhorn, abrufbar unter: https://www.zeit.de/digital/2018-07
/kuenstliche-intelligenz-maschinen-bewusstsein-robotik-denken (letzter Abruf
am 1. März 2019).
Motherboard: Ein Schweizer Bot im Darknet-Shopping-Wahn (und keiner weiß, wer
haftbar ist), abrufbar unter: https://motherboard.vice.com/de/article/78kyz4/ran
dom-darknet-shopper-590 (letzter Abruf am 1. März 2019).
Motherboard: In der Schweiz dürfen Roboter jetzt ganz legal im Darknet shoppen,
abrufbar unter: https://motherboard.vice.com/de/article/kb7jma/kunstfreiheit-si
egt-in-der-schweiz-duerfen-bots-drogen-im-darknet-kaufen-632 (letzter Abruf am
1. März 2019).
Münch, Florian: Autonome Systeme im Krankenhaus – datenschutzrechtlicher Rah-
men und strafrechtliche Grenzen, Baden-Baden 2017.
Murmann, Uwe: Über den Zweck des Strafprozesses, GA 2004, 65.
Numenta: Machine Intelligence Technology, abrufbar unter: https://numenta.com/
machine-intelligence-technology/ (letzter Abruf am 1. März 2019).
93
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
ORF: Die Vorzüge der „Pseudo-KI“ – Künstliche Intelligenz oft Mogelpackung, ab-
rufbar unter: https://orf.at/v 2/stories/2446205/2446206/ (letzter Abruf am
1. März 2019).
Paal, Boris P.; Hennemann, Moritz: Rechtspolitik im digitalen Zeitalter, ZRP 2017,
215.
Papst Franziskus: Encyclical Letter Laudato Si‘ of the Holy Father Francis on Care
for our Common Home, abrufbar unter: http://w2.vatican.va/content/francesco/
en/encyclicals/documents/papa-francesco_20150524_enciclica-laudato-si.html#_f
tnref81 (letzter Abruf am 1. März 2019).
Papst Johannes Paul II: Address of his Holiness John Paul II to Scientists and Repre-
sentatives of the United Nations University, abrufbar unter: https://w2.vatican.va
/content/john-paul-ii/en/speeches/1981/february/documents/hf_jp-ii_spe_198102
25_giappone-hiroshima-scienziati-univ.html (letzter Abruf am 1. März 2019).
Päpstlicher Rat für die Kultur: The Future of Humanity – New Challenges to Anthro-
pology, abrufbar unter: http://www.cultura.va/content/dam/cultura/docs/pdf/eve
nts/PlenaryTheme2017_en.pdf (letzter Abruf am 1. März 2019).
Pawlik, Michael: Das unerlaubte Verhalten beim Betrug, Köln 1999.
Pawlik, Michael: Das Unrecht des Bürgers – Grundlinien der allgemeinen Verbre-
chenslehre, Tübingen 2012.
Pawlik, Michael: Normbestätigung und Identitätsbalance – über die Legitimation
staatlichen Strafens, Baden-Baden 2017.
Pawlik, Michael: Person, Subjekt, Bürger – zur Legitimation von Strafe, Berlin 2004.
Pawlik, Michael: Strafrechtswissenschaftstheorie, Festschrift für Günther Jakobs,
S. 469, Köln/Berlin/München 2007.
Pawlik, Michael: Verdeckte Ermittlungen und Schweigerecht des Beschuldigten. Zu
den Anwendungsgrenzen der §§ 136 Abs. 1 S. 2 und § 136a StPO, GA 1998, 378.
Pieper, Fritz-Ulli: Die Vernetzung autonomer Systeme im Kontext von Vertrag und
Haftung, InTer 2016, 188.
Puschke, Jens: Legitimation, Grenzen und Dogmatik von Vorbereitungstatbestän-
den, Tübingen 2017.
Raspé, Carolin: Die tierliche Person, Berlin 2013.
Rawls, John: A Theory of Justice, Revised Edition der Originalausgabe von 1971,
Cambridge 1999.
Roxin, Claus: Strafrecht Allgemeiner Teil, Band 1: Grundlagen, der Aufbau der Ver-
brechenslehre, 4. Auflage, München 2006.
Russel, Stuart J.; Norvig, Peter: Artificial intelligence: a modern approach, 3. Auflage,
Boston/Columbus/Indianapolis 2016.
Sachs, Michael: Grundgesetz Kommentar, 8. Auflage, München 2018.
Sandberg, Anders: Monte Carlo model of brain emulation development, Oxford
2014.
94
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
95
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
Steiner, Anna: Was Microsoft durch „Tay“ gelernt hat, abrufbar unter: https://www.f
az.net/aktuell/wirtschaft/netzwirtschaft/was-microsoft-mit-dem-bot-tay-von-der-n
etzgemeinde-gelernt-hat-14146188.html (letzter Abruf am 1. März 2019).
t3n: KI schlägt 20 Anwälte bei der Analyse von Verträgen klar, abrufbar unter:
https://t3n.de/news/ki-schlaegt-anwaelte-analyse-963741/ (letzter Abruf am
1. März 2019).
t3n: Visuelle Suchmaschinen: Google kann jetzt gucken, abrufbar unter: https://t3n
.de/magazin/visuelle-suchmaschinen-google-gucken-247315/ (letzter Abruf am
1. März 2019).
The Guardian: Elon Musk: artificial intelligence is our biggest existential threat,
abrufbar unter: https://www.theguardian.com/technology/2014/oct/27/elon-mus
k-artificial-intelligence-ai-biggest-existential-threat (letzter Abruf am 1. März
2019).
The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitiga-
tion, abrufbar unter: https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c
6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf (letzter Abruf am 1. März
2019).
Turing, Alan: Computing machinery and intelligence, Mind 59 (1950), 433.
Uchatius, Wolfgang: Die Geschichte des Heroins – vom Hustensaft zum Rauschgift,
DIE ZEIT 12/2008, abrufbar unter: https://www.zeit.de/2008/12/Heroin-Kasten
(letzter Abruf am 1. März 2019).
Vinge, Vernor: The Coming Technological Singularity: How to Survive in the Post-
Human Era, abrufbar unter: https://edoras.sdsu.edu/~vinge/misc/singularity.htm
l (letzter Abruf am 1. März 2019).
von Goethe, Johann Wolfgang: Faust, Der Tragödie 2. Teil, zitiert nach der 5. Auflage
der von Albrecht Schöne hrsg. Fassung, Insel Taschenbuch, Berlin 2003.
von Hirsch, Andrew: Fairness, Verbrechen und Strafe – strafrechtstheoretische Ab-
handlungen, Berlin 2005.
von Kaler, Matthias; Wieser, Sylvia: Weiterer Rechtssetzungsbedarf beim automati-
sierten Fahren, NVwZ 2018, 369.
Wallach, Wendell; Allen, Colin: Moral machines – teaching robots right from wrong,
Oxford 2009.
Weizenbaum, Joseph: Computermacht und Gesellschaft, 4. Auflage, Berlin 2001.
Weng, Y. H.; Chen, C. H.; Sun, C. T.: Toward the Human-Robot Co-Existence Soci-
ety: On Safety Intelligence for Next Generation Robots, International Journal of
Social Robotics 2009, 267.
Wischmeyer, Thomas: Regulierung intelligenter Systeme, AöR 143 (2018), 1.
Wohlers, Wolfgang: Individualverkehr im 21. Jahrhundert: das Strafrecht vor neuen
Herausforderungen, BJM 2016, 113.
ZEIT ONLINE: Auktionshaus versteigert erstmals KI-Gemälde, abrufbar unter
https://www.zeit. de/kultur/kunst/2018-10/kuenstliche-intelligenz-versteigerung-
gemaelde-algorithmus-christie-s-auktionshaus (letzter Abruf am 1. März 2019).
96
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Literatur
ZEIT ONLINE: Die Unsterblichen – Eine Begegnung mit dem Technikvisionär Ray
Kurzweil und den Jüngern der „Singularity“-Bewegung, abrufbar unter: https://
www.zeit.de/2013/14/utopien-ray-kurzweil-singularity-bewegung (letzter Abruf
am 1. März 2019).
ZEIT ONLINE: Neuer Mensch oder arme Sau?, abrufbar unter: https://www.zeit.de/
zeit-wissen/2018/03/biohacking-selbstversuch-gentechnik-crispr-genetik-selbstver
such-cyborg (letzter Abruf am 1. März 2019).
ZEIT ONLINE: Und das soll jetzt Kunst sein?, abrufbar unter: https://www.zeit.de/k
ultur/kunst/2018-10/auktion-kuenstliche-intelligenz-algorithmus-kunstwerk-vers
teigerung-christie-s (letzter Abruf am 1. März 2019).
97
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
https://doi.org/10.5771/9783748900122
Generiert durch Technische Hochschule Köln , am 27.10.2020, 10:59:12.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.