Beruflich Dokumente
Kultur Dokumente
Studienzentrum Köln
Berufsbegleitender Studiengang:
Wirtschaftsinformatik
2. Semester
1.1 Problemstellung
Das Buzzword KI (Künstliche Intelligenz) ist mittlerweile den meisten geläufig. In der
Regel werden damit personalisierte Werbungen, autonome Fahrzeuge oder Socialmedia-
Giganten, assoziiert. Allerdings ist diese neue und aufstrebende Technologie
weiterverbreitet als es den Anschein erweckt. Von der Batterieoptimierung in einem
Smartphone oder dem Retuschieren von roten Augen bei Blitzlichtfotografie bis hin zur
Aufbereitung und Analyse von Daten aus Produktionsketten, werden KIs oder ML-
Algorithmen (Machine Learning) verwendet.
Einer KI liegt ein mathematisches Modell zugrunde, dass in der Lage ist Muster
zu erkennen und selbstständig Vorhersagen über diese Muster zu treffen. Dies geschieht
anhand der Auswertung von Merkmalen, die entweder von dem Entwickler vorgegeben
werden oder die KI selbst herausgefunden hat. Wenn das Modell, nach dem es trainiert
wurde, unbekannte Daten präsentiert bekommt, versucht es Anhand der beschriebenen
Merkmale Aussagen zu Treffen. Je besser das Modell ist, desto genauer ist die KI in ihren
Vorhersagen.
Der technologische Fortschritt allein in den letzten Jahren in diesem
Forschungsbereich ist immens. Vergleicht man beispielsweise einen Deepfake1 von vor
drei Jahren mit einem heutigen ist der Unterschied signifikant. Für einen Menschen ist
der Unterschied eines aktuellen Deepfakes und einem echten Video nahezu
unverkennbar.
Die Kombination dieser sich schnell entwickelnden Technologie mit dem
aufstrebenden Feld der Waffensysteme, liegt also nicht fern. Hätte man eine KI die
selbständig, potenzielle Bedrohungen identifizieren, beurteilen wie damit umgegangen
werden sollte und dies dann auch selbstständig tut, würde dies den Weg der heutigen
Kriegsführung revolutionieren. Eine solche KI bringt jedoch eine Reihe an Problemen
1
„Deep fakes are the product of artificial intelligence (AI) applications that merge, combine, replace, and
superimpose images and video clips to create fake videos that appear authentic.” [1]
1
mit sich. Begonnen mit der Entwicklung über die Testung, Anwendung, Rechtliche
Grundlage und ethische Vertretbarkeit.
Ziel ist es, die in der Problemstellung genannten Aspekte zu beleuchten und abzuwägen.
Es geht hierbei weniger darum eine allgemeingültige Richtline aufzustellen, sondern
auszuloten welche Möglichkeiten es zum jetzigen Zeitpunkt gibt und einen Blick in die
Zukunft zu werfen. Aufgrund der Tatsache, dass beide Felder neu sind, ist ein
substanzieller Teil der Arbeit, das Sammeln und Darstellen des Status quo beider
Technologien. Die konkrete Frage, die dem Ganzen zu Grunde liegen soll, ist
dementsprechend folgende:
Was sind die Möglichkeiten und Grenzen des Einsatzes von künstlicher Intelligenz bei
Waffensystemen?
Hierzu sollen die Grenzen und Möglichkeiten von KIs und Waffensystemen erarbeitet
und zusammengebracht werden. Zu Beginn soll ein Überblick über die historische
Entwicklung beider Felder gegeben werden. Das erstmalige Auftauchen in
wissenschaftlicher Literatur, der Fortführung der Forschung und eine Momentaufnahme
des Standes der Technik sollen hierbei im Fokus stehen.
Zentral in der Grundlagenerarbeitung ist vor allen Dingen die genaue Definition
beider Begriffe. Auf Grundlage dieser Definitionen soll im Verlauf genau bestimmt
werden wie die Funktionalitäten beider Forschungsfelder zusammengebracht werden
können. Daraufhin werden diese auf moralische und etische Bedenken untersucht. Auf
Grundlage der gewonnen Erkenntnisse soll die Grenze erarbeitet werden, bis zu welcher
Stufe der Autonomität ein LAW (Letales autonomes Waffensystem) vertretbar ist.
2
2 Grundlagen
Der moderne Begriff der künstlichen Intelligenz hat seinen Geburtsort in Dartmouth,
Hanover, New Hampshire. In dem ortsansässigen College organisierte John McCarthy
mit Kollegen anderer Universitäten einen sechswöchigen Workshop mit folgender
Zielsetzung [2]:
“An attempt will be made to find how to make machines use language, form
abstractions and concepts, solve kinds of problems now reserved for humans, and
improve themselves. […] For the present purpose the artificial intelligence problem is
taken to be that of making a machine behave in ways that would be called intelligent if a
human were so behaving.” [3]
Das Problem wurde in sieben größere Teilbereiche unterteilt, an denen jeweils in Gruppen
gearbeitet wurde.
1) Automatische Computer:
3
3) Neuronale Netze
Wenn einem Algorithmus ein Problem vorgelegt wird, soll verhindert werden,
dass dieser durch reines Raten aller Möglichkeiten auf das Ergebnis kommt.
Dies soll durch ein System erreicht werden, das die Größe und Komplexität
einer Kalkulation einschätzen kann. Anhand dessen soll dann die beste oder
effizienteste Möglichkeit gewählt werden.
5) Selbstverbesserung
6) Abstraktion
Manche Arten von Abstraktion können direkt klassifiziert werden und manche
weniger. Das Untersuchen dieser soll auch Teil des Workshops sein. Weiterhin
soll betrachtet werden, wie eine Maschine aus Sensorik Daten und abstrakte
Schlüsse ziehen kann.
Ein gewisses Maß an Zufälligkeit soll für eine Art von „kreativen Denken“
sorgen. Hierbei soll jedoch reines Raten vermieden werden, sondern mehr auf
Intuition und auf fundierte Vermutungen gesetzt werden, um ein kontrolliertes
Maß an Zufälligkeit einzubringen.
(vlg. [3])
Von hier an entwickelte sich das akademische Fachgebiet in großen Schritten weiter.
1966 entwickelte Joseph Weizenbaum am MIT den wohl ersten Chat-Bot der Welt:
ELIZA. Das Programm konnte zum ersten Mal menschliche Sprache in Schriftform
interpretieren und darauf antworten. ELIZA ist an sich jedoch keine KI. Die eingegebenen
4
Worte werden über Baumstrukturierte Bibliotheken interpretiert und nicht mithilfe eines
neuronalen Netzwerkes. Jedoch gilt das Programm als die erste Umsetzung des Turing
Tests. Bestanden hat der Chatbot ihn in den meisten Fällen jedoch nicht, da er wenig
flexibel war und mit komplexeren Fragestellungen nicht zurechtkam [4].
In den achtziger und neunziger Jahren wurden genetische Algorithmen zum Trainieren
von KIs weiter erforscht. Zwischenzeitlich hat man diese Methode jedoch fallen gelassen,
da sie oftmals schwer nachzuvollziehen war. Diese Methode findet heutzutage durch
erhöhte Rechenleistung und Wissen, in dem Feld, wieder Anwendung in modernen
Projekten [5].
Weitere Meilensteine, die im 21. Jahrhundert erreicht wurden, sind Dinge wie das
autonom fahrende Auto von Waymo2 oder BPL Algorithmen3. Man kann also festhalten,
dass das Feld der künstlichen Intelligenz in einem relativ kurzen Zeitraum um ein
Vielfaches seiner selbst gewachsen ist. Die Frage, die sich auftut, ist demnach, wie eine
künstliche Intelligenz heutzutage definiert ist.
2.1.2 Definition
Grundsätzlich stehen dieser Definition zwei Probleme im Weg. Zum ersten wird der
Begriff der künstlichen Intelligenz meist fälschlicher Weise mit dem des künstlichen
Bewusstseins verwechselt. Kern dieses Problems ist die Darstellung intelligenter
Maschinen in der Pop-Kultur. Dieses Missverständnis in der Wahrnehmung der
Allgemeinheit ist in der wissenschaftlichen Literatur zwar behandelt, aber nicht zentral.
Zum zweiten ist der Begriff „künstliche Intelligenz" sehr breit gefächert und
unspezifisch formuliert. Es gibt zahllose Definitionen von unterschiedlichen
wissenschaftlichen Einrichtungen und Forschern. Je nach Anwendungsfeld oder
Diskussionsrahmen wird der Begriff unterschiedlich ausgelegt. Dazu kommt noch die
Weiterentwicklung des Begriffes im Laufe der Zeit und Prognosen über Dinge, die KI in
der Zukunft bewältigen können soll. Das Resultat ist ein vager Sammelbegriff für
2
Tochterunternehmen Googles, dass das autonome Fahrzeugprogramm seit 2016 fortführt.
3
Abkürzung für: „Bayesian program learning“. Dieser Algorithmus soll die Antwort für one-shot
learning sein. Eine KI soll damit in der Lage sein mit einem einzigen Beispiel als Grundlage zu agieren.
Dies ist weit aus effizienter als deep neural networks die verhältnismäßig große Datensätze für ein
erfolgreiches Training benötigen, jedoch ist das Ergebnis weit aus begrenzter aufgrund der geringen
Datengrundlage.
5
unterschiedliche Technologien und Vorstellungen. Die JRC4 hat aufgrund dieses
Problems eine Erörterung dieses Begriffs veröffentlicht um als Grundlage zu fungieren.
In der Abhandlung ist ein Konzept entwickelt worden, um für die meisten Facetten des
Feldes eine passende Definition zu finden.
"Artificial intelligence (AI) systems are software (and possibly also hardware) systems
designed by humans(2) that, given a complex goal, act in the physical or digital
dimension by perceiving their environment through data acquisition, interpreting the
collected structured or unstructured data, reasoning on the knowledge, or processing
the information, derived from this data and deciding the best action(s) to take to achieve
the given goal. AI systems can either use symbolic rules or learn a numeric model, and
they can also adapt their behaviour by analysing how the environment is affected by
their previous actions."[6]
Diese Definition wurde von der „HLEG for AI“5 verfasst und wird als grundlege
Definition von KI verstanden. Auf diese kann aufgebaut werden. Diese wird auch der
Grundstein dieser Untersuchung sein.
KI kann in begrenzte KI und allgemeine KI eingeteilt werden, basierend auf dem Grad,
inwieweit sie Arbeit auf einem ähnlichen Niveau wie der Mensch erledigen kann. KI ist
im Vergleich zum Menschen anders. Wie in Abbildung 1 zu sehen ist, sind die Aufgaben,
die von Menschen gelöst werden können, recht vielfältig und weniger kompliziert,
während
4
Joint Research Center; Die Vereinigung stellt Wissenschaftler ein, um unabhängige wissenschaftliche
Empfehlungen und Unterstützung für die Europäische Kommision auszusprechen
5
High-level expert group for AI; Die Europäische Kommission hat eine Expertengruppe ernannt, die sie
zu ihrer KI-Strategie berät. Mitglieder sind Vertreter aus Wissenschaft, Zivilgesellschaft und Industrie
6
die Aufgaben, die von KI bewältigt werden, verhältnismäßig kompliziert sind, jedoch ist
der Umfang der Lösung stark begrenzt. Darüber hinaus können einfache Aufgaben, die
von begrenzter KI gelöst werden, zu komplexen Aufgaben erweitert werden. Diese
können von allgemeiner KI gelöst werden.[7]
7
2.2 Grundlagen Waffensysteme
Anders als bei der KI können wir das erste Waffensystem nicht klar mit einem
Erscheinungsjahr datieren. Vermutungen nach lässt sich das erste Waffensystem im
Jahre 1916 ausmachen. Es handelt sich hierbei um einen Panzer namens „Mark-I“.
Dieser Panzer unterschied sich zu simplen gepanzerten Fahrzeugen, da er über
Maschinengewehre verfügte. Die Kombination aus einem gepanzerten, mit
motorbetriebenem Fahrzeug und der Bewaffnung durch Maschinengewehre, bildet das
erste Waffensystem. Die erste Idee eines solchen Fahrzeugs gab es jedoch bereits im
Jahre 1903. Hier erzählte Herbert George Welles eine fiktive Geschichte über ein
Fahrzeug, in welchem die Soldaten durch eine Panzerung geschützt sind und mit
Maschinengewehren zielen und schießen können. [8]
Einen großen Meilenstein in der Entwicklung von Waffensystemen ist folglich die
Erfindung des Verbrennungsmotors durch Carl Benz. Hiermit konnten Fahrzeuge ohne
menschliche Kraft fahren und Geschützte mechanisch ausgerichtet werden. Seither hat
sich jedoch durch die Erfindung von Computern, Fortschritten in der Sensorik und der
daraus resultierenden Möglichkeit der Automatisierung vieles verändert. Die
Waffensysteme sind längst nicht mehr nur mechanische Maschinen, welche durch
Verbrennungsmotoren bewegt werden. Ein großer Durchbruch war der Computer. Mit
Computern konnten Waffensysteme „intelligenter“ mit Programmen gesteuert werden.
Hinzu kamen die Entwicklung von Infrarotziel- & Radarzielsensoren. Diese
ermöglichen es heutigen Systemen, Ziele, ohne mitwirken eines Menschen, zu erkennen
und zu verfolgen. Mit der heutigen Rechenleistung und umfangreicheren Programmen,
können Waffensysteme bereits viel schneller Flugbahnen und Geschwindigkeiten, von
anfliegenden oder zu abfeuernden Geschossen berechnen. Diese können sich dank
vieler Sensoren und der Steuerung durch Computer automatisiert ausrichte. In unserem
Jahrhundert stehen wir erneut vor einer großen Veränderung. Mit selbstlernenden
Programmen wie künstlicher Intelligenz kann der menschliche Faktor vollständig
substituiert werden.
8
2.2.2 Definition
Ein Waffensystem zu definieren ist schwerer als es zuerst scheint. Das liegt daran, dass
Waffensysteme oft im Kontext mit einfachen Waffen verwendet werden oder noch
häufiger mit autonomen Waffensystemen assoziiert werden. Doch ein Waffensystem ist
genau zwischen diesen beiden Themen. Ein Waffensystem ist komplexer als eine
einfache Waffe, wie ein Sturmgewehr, aber muss deshalb nicht zwingend autonom sein.
Eine Waffe ist ein Instrument, das im Kampf eingesetzt wird, um Feinde wie Tiere,
Menschen und anderes zu töten, zu verletzten oder zu besiegen.[9]
Tatsächlich handelt es sich nicht mehr um ein Werkzeug, wie eine Sense, welches
neben seiner Funktion auch für die oben genannten Zwecke verwendet werden kann.
Eine Waffe ist rein für kämpferische Zwecke entwickelt worden.
Kommen wir zum zweiten Wort: „System“. Ein System beschreibt ein Ganzes, dass aus
mehreren Bestandteilen besteht. In einem System werden die einzelnen Bestandteile
mittels einer gegliederten Verknüpfung zusammengesetzt.[10]
Nun zu dem Begriff „Waffensystem“. Ein Waffensystem ist ein Verbund, welcher die
Steuerung und den Betrieb von Waffen bestimmter Art ausführt. Hierbei müssen in
diesem Verbund nicht zwingend nur verschiedene Waffen sein. Oftmals besteht ein
Waffensystem aus einer Waffe und vielen Hilfsmitteln. Man unterscheidet zwischen
zwei Arten von Waffensystemen: den strategischen und den taktischen
Waffensystemen.[11]
Die strategischen Waffensysteme zielen darauf ab, einen Feind an der Quelle seiner
militärischen, wirtschaftlichen oder politischen Macht zu treffen. Hierunter fallen
Waffensysteme wie beispielsweise Interkontinentalraketen und
Langstreckenbomber.[12]
9
Im Gegensatz dazu gibt es die taktischen Waffensysteme. Diese sind für den offensiven
und defensiven Einsatz auf kurze Distanz gedacht. Ihre Folgen treten unmittelbar nach
dem Abschuss ein. Zu ihnen gehören Systeme wie die Flugabwehr oder
Schlachtwaffen.[13]
Aktuelle Systeme wie die „Taranis“ Drohne, des britischen Herstellers BAE Systems
zeigen, wie KI in Waffensystemen eingesetzt werden kann. Diese Drohne kann neben
der vollautomatischen Flugnavigation selbst Routen entwerfen und nach Zielen suchen.
Noch fortgeschrittener ist ein KI-Waffensystem namens „ALPHA“. Dieses verfügt über
einen Modus, in dem es Kampfmanöver übernehmen kann. Es wurde in einer
Simulation gegen einen Oberst der US Air Force getestet. Hier wich es simultan
Geschossen aus, feuerte eigenständig auf Ziele, beteiligte sich an koordinierten
Manövern und lernte von feindlichen Taktiken. Das auffällige daran ist, dass dieses
Programm, für heutige Verhältnisse, keiner nennenswerten Rechenleistung bedarf. Die
oben genannte Simulation wurde von dem System auf einem 35 USD teuren Raspberry
Pi absolviert.
Allerdings werden nicht nur die Waffensysteme besser. Sondern auch die eigentlichen
Waffen verändern sich. Es werden nicht mehr ausschließlich Waffen genutzt, welche
durch verschiedenste Pulvertypen eine Explosion verursachen, um ein Geschoss zu
beschleunigen. Beispielsweise arbeiten sogenannte „Railguns“ mit Strom, welcher ein
Magnetfeld erzeugt. Dieses Magnetfeld beschleunigt daraufhin das Geschoss. Des
Weiteren gibt es, seitdem die Laserforschung vorrangegangen ist, fortschrittlichste
Laserwaffen. Diese schießen mit gebündeltem Licht und brennen sich durch
verschiedenste Materialien. Besonders ist auch, dass diese Laserwaffen durch Schüsse
nicht verschleißen. Zudem benötigen Sie kein Munitionslager, was Platz spart und das
10
Risiko einer versehentlichen Explosion senkt. Ein weiterer Vorteil ist, dass mit Lasern
deutlich präziser geschossen werden kann und der Schuss selbst viel günstiger ist, da
lediglich Energie gebündelt und verschossen wird.
Diese Arbeit soll ein breites Bild an Waffensystemen aufzeigen. Deshalb soll auf ein
besonderes Thema eingegangen werden, welches sich nicht mit physischen
Waffensystemen beschäftigt. Es handelt sich um den Cyberwar und die darin
eingesetzten Waffen. Im Cyberwar sind die Waffen lediglich Software ohne eine
physische Komponente. Solche Software wird konkreter Schadsoftware oder
Schadprogramm genannt. Beispiele für solche Schadsoftware sind Rootkits, Trojaner,
Viren und Würmer.[14]
Die Erläuterung wo sich hier ein System aus Waffen befindet ist schnell gegeben. Ein
Rootkit selbst besteht bereits aus mehreren Programmen welche erst als Verbund dann
ein Rootkit ergeben. Aber auch ein Rootkit kann in einem System agieren. Die
einzelnen Schadprogramme werden nämlich oft nicht nur einzeln eingesetzt. Denn
durch das Verbinden zweier Schadprogramme unterstützen diese sich gegenseitig.
Beispielsweise kann über ein bereits installiertes Rootkit ein Virus unbemerkt
nachinstalliert werden. Die Folgen von Cyber-Angriffen können genauso verheerend
sein, wie Angriffe von physischen Waffen. Vorstellbare Angriffe sind beispielsweise
das passive Überwachen jeglicher Kommunikation, über das Manipulieren dieser
Kommunikation, bis hin zum Überlasten von Kraftwerken, woraus ein Zusammenbruch
der Infrastruktur resultieren kann.
11
3 Umsetzung
Wie bei den Grundlagen der Waffensysteme angekündigt, wird nun ausführlicher auf
den derzeitigen Stand der Technik eingegangen. Im Folgenden werden aktuelle Systeme
vorstellen. Dabei wird sowohl auf defensive wie auch auf offensive Systeme
eingegangen.
Im ersten Moment scheint es etwas untypisch, aber auch in der Luft können sich
defensive Waffensysteme befinden. Das System, welches wir hier vorstellen ist
untypischer Weise weder im, noch in der Nähe des Herkunftslandes, den USA, im
Einsatz. Es handelt sich um ein Raketenabwehrsystem, dass an einem Flugzeug
installiert werden soll. Dieses System wurde „Self-Protect High Energy Laser
Demonstrator“, kurz „Shield“, getauft. Es nutzt einen Laser, welcher als „Demonstrator
Laser Weapon System“ bezeichnet wird. Mit dem Laser werden feindliche Raketen, im
Bestfall, gleich über feindlichem Gebiet untauglich gemacht. Hierbei brennt der Laser
sich durch die Ummantelung der Rakete und bringt diese zur vorzeitigen Auslösung.
Die Entwicklungen begannen im Jahr 2016 durch die US-Luftwaffe. Ab 2017 wurde die
Entwicklung des Systems an den Rüstungskonzern „Lockheed Martin“ gegeben. 2019
wurde dann, am Boden, ein erfolgreicher Test durchgeführt. Für den tatsächlichen
Einsatz am Flugzeug muss die Technik allerdings noch kompakter entwickelt
werden.[15]
12
Situationen handelt. Hierbei überzeugt der Laser, dessen Schüsse sich mit
Lichtgeschwindigkeit bewegen. In dem Zusammenhand ist wichtig zu nennen, dass dies
auch der Grund eines Nachteils ist. Denn der Laser kann von den
Witterungsverhältnissen beeinflusst werden.
Bei offensiven Waffensystemen wird KI primär zur Erkennung und Verfolgung von
Zielen eingesetzt. So auch bei der Kamikaze-Drohne „HARPY“. Hergestellt von dem
israelischen Rüstungsunternehmen „Israel Aerospace Industries“, kurz „IAI“. Das
System ist darauf ausgelegt bis zu 9 Stunden über einem vorab programmierten Gebiet
zu patrouillieren und autonom nach Zielen zu suchen. Es wird vermutet, dass die
Drohne auf Radiowellen, von den Radarstationen, der Flugabwehr reagiert. Der
Hersteller gibt jedoch nur an, dass das System nach Strahlung sucht. Sobald die Drohne
ein solches Ziel ausfindig gemacht hat, greift sie es an. Hierbei startet die Drohne einen
Kamikaze-Sturzflug und zerstört die Radarsender. Dabei unterdrückt Harpy, „Surface-
to-air“- und Radar-Abwehr. Die Drohne agiert beim Suchen, in einer Höhe von bis zu
4572 Metern. Harpy kann mit bis zu 416 km/h fliegen. Gestartet wird die Drohne von
einem Lastwagen aus.[16]
6
Akronym aus den Wörtern: EXtreme ACcuracy Tasked Ordnance
13
Flugbahnmanipulation nur spekulieren. Es wird vermutet, dass dies durch das
Verändern des Schwerpunktes der Kugel in Resonanz mit dem Drall geschieht oder die
Form mithilfe des Piezoeffekts7 verändert wird. [17]
3.2.1 Entwicklung
Das Nutzen von KIs im Konflikt bietet das Potenzial, die militärische Überlegenheit in
vielen Bereichen zu sichern. Daten können schneller ausgewertet werden und der
„sensor-to-shoot“ Ablauf drastisch verkürzt werden. Zusätzlich stellen zukünftige
Technologien wie Schwarmdrohnen eine Bedrohung dar, die nicht von einem
menschengesteuerten System bekämpft werden kann. Das Einbinden von KI ist
unausweichlich.
Das Zusammenbringen des etablierten Feldes der konventionellen Waffen mit dem
neuartigen der KI, bringt jedoch eine Reihe an technischen Herausforderungen mit sich,
die zumeist auf Seiten der KI liegen. Betrachtet man den Entwicklungszyklus einer KI
treten hierbei mehrere Probleme auf. Drei sind hierbei kritisch.
7
Bei gewissen Kristallen treten an der Oberfläche positive und negative Ladungen auf, wenn die Kristalle
gedehnt oder gestreckt werden. Andersherum kann es durch das Anlegen von Spannung dazu kommen,
dass die Kristalle sich strecken und Stauchen. In diesem Kontext könnte die Form der Kugel, mit
Piezoelementen und dem Anlegen von Spannung an diesen, verändert werden.
8
Es gibt auch Methoden wie das zuvor erwähnte Bayesian program learning das auf Grundlage eines
einzigen Datensatzes trainiert werden. Diese Methode ist jedoch nicht passend für LAWs da hierbei nicht
genug Flexibilität gewährleistet werden kann.
14
Sobald die KI mit Gesichtserkennung oder ähnlichen Konzepten arbeiten soll, wird der
Datenschutz zum Problem. Das Erfassen und Speichern der Daten müssen anonym und
vor allen Dingen sicher geschehen. Dazu kommt das erhobene Daten meist unter
Homogenität leiden. Fragt man an Universitäten nach Freiwilligen wird der Datensatz
aus durchschnittlich 24-Jährigen [19] bestehen mit etwas mehr Männern als Frauen
[20]. Würde die Datenerhebung nur in Deutschland erfolgen, hätten nur 20% der
Freiwilligen einen Migrationshintergrund [21]. Dies hätte fatale Folgen. Das
durchlaufende Muster wäre ein/e 24 Jahre alte/r Europäer/in. Würde die
Gesichtserkennungs-KI jetzt in einem Land eingesetzt werde, in dem die Demographie
drastisch unterschiedlich ist, hätte sie große Probleme Gesichter zu erkennen das diese
von dem gelernten Muster abweichen. Ein gutes Beispiel für ein solches Problem ist,
automatische Bildanpassungen die, die meisten Smartphones vornehmen. Die KI, die im
Hintergrund läuft, ist i.d.R. für helle Hautfarben angepasst9.
Das zweite große Problem bei der Entwicklung von KI ist die mangelnde
Transparenz. Ein KI arbeitet nicht wie ein herkömmliches Programm. Man kann nicht
Zeile für Zeile nachvollziehen, wie der Ablauf des Algorithmus ist. Deep Learning
Modelle sind, aufgrund der komplexen Struktur äußerst schwierig nachzuvollziehen.
Die mathematische Struktur, die dem zu Grunde liegt, besteht aus, in der Regel,
tausenden neuronalen Knoten, die untereinander verknüpft sind. Das führt dazu, dass
sich KIs oftmals nicht so verhalten wie man es erwartet hätte. Googles Versuch ihrer
OpenAI das Laufen beizubringen, resultierte darin, dass die KI zwar einen humanoiden
Körper von A nach B bewegen konnte, allerdings nicht in einem natürlichen Weg [22].
Das Ergebnis ist äußerst unterhaltsam und ein anschauliches Beispiel für das dritte
Problem.
Die KI weiß nicht was wir von Ihr wollen. Als Entwickler hat man eine Vision
wie die KI agieren soll. Diese gilt es umzusetzen. Die einzigen Mittel, die hier zur
Verfügung stehen sind das Setzen und Gewichten der Features10, das Definieren der
9
Google hat in der i/o Keynote 2021 angekündigt das an diesem Problem gearbeitet wird und mit
Android 12 adressiert werden soll.
10
Ein Feature ist ein Input Parameter. Wenn man beispielsweise eine KI entwickelt die
Grundstückspreise vorhersagen soll, könnte ein Feature der aktuelle Preis pro Quadratmeter sein. Features
sind in der Regel nicht gekoppelt. Auch wenn die kartesische Lage des Grundstücks den Preis i.d.R.
15
Motivation und das Setzten der Regeln. Es gibt bis jetzt keine Möglichkeit das
komplexe Konzept der Vorstellung des Entwicklers was die KI machen soll, zu
kommunizieren.
Des Weiteren kann KI neben den oben genannten Problemen auch vorsätzlich
manipuliert oder angegriffen werden. Bei Waffensystemen, welche mit Künstlicher
Intelligenz gesteuert werden, bestehen technisch einige Gefahren. Sowohl die
eigentliche Waffe als auch die KI kann „Sabotiert“ werden. Hierbei handelt es sich dann
konkreter um eine Manipulation. In diesem Teil soll primär auf die
Manipulationsmöglichkeiten der KI als auf Schwachstellen bei der Waffe, eingegangen
werden.
Wenn KI über die Eingabe manipuliert werden soll, geht es darum die Eingabe so
vorzubereiten, dass Sie etwas anderes darstellt, als sie tatsächlich ist. In unserem
Beispiel besitzt Partei A ein Raketenabwehrsystem, welches KI basiert, vollautonom
anfliegende Raketen mittels Radars und Kameras abschießt. Es wurde viel Wert auf
Sicherheit gelegt und dieses System unterscheidet zwischen Raketen und Flugzeugen,
da nicht versehentlich ein Passagierjet abgeschossen werden soll. Partei B hat nun
mehrere Möglichkeiten, um seine abgeschossenen Raketen vor diesem Abwehrsystem
zu verstecken.
bestimmt, findet die KI diesen Zusammenhang selbst heraus. Diese Aufgabe ist so komplex, dass sich das
Berufsfeld des „feature engineer“ darum gebildet hat.
16
Sollte Partei B es gelingen, Zugriff auf eine der Kameras zu bekommen, so könnten sie
der KI gefälschte Aufnahmen als Eingabe geben, wodurch diese keine Raketen sehen
würde. Umgekehrt könnte Partei B die Bilder der Kamera so verändern, dass ein
Passagierflugzeug keine Flügel mehr hätte und unter Umständen als angreifende Rakete
klassifiziert wird. Sollte Partei B nicht an die Kameras des Abwehrsystems kommen, so
könnten Sie Ihre Raketen auch mit typischen Merkmalen von Flugzeugen ausstatten.
Beispielsweise indem kleine Flügel angebracht und Fenster aufgemalt werden.
Dr. Mathieu Sinn vom IBM-Forschungslabor sagte zu diesem Ansatzpunkt der
Manipulation: „Bei Bilderkennungssystemen reicht es aus, weniger als ein Prozent der
Eingabepixel zu verändern, um eine falsche Entscheidung des KI-Systems zu
verursachen.“
Forensisch sind diese Fehler in der Eingabe leicht und konventionell zu entdecken. [24]
17
Ein Resultat daraus könnte sein, dass Aufgrund seiner Größe ein Segelflieger als
Kampfjet eingestuft wird, obwohl dieser deutlich langsamer ist.
Besonders schwer bei dieser Art Manipulation ist es, diese überhaupt aufzuspüren.
Hierzu ist ein aufwendiger Prozess der Überprüfung sämtlicher Datensätze und ihrer
Herkunft nötig. [24]
Ein dritter Ansatzpunkt ist die IT-Infrastruktur hinter der KI. Gerade autonome Systeme
erheben über verschiedenste Sensoren eigenständig Daten und werten diese mittels
Berechnungen über Hardware aus. Über verschiedene Angriffspunkte sind diese anfällig
für Störungen. Es handelt sich beim Angriff auf „Computersysteme“ nicht direkt um
Manipulation, sondern eher um Störung der KI mittels Hardware. Sollte es gelingen die
KI von weiteren Eingaben zu trennen so kann nichts mehr entschieden werden.
Bedeutet, sollten Kameras, Radar und weitere Sensoren nicht mehr senden, so wird die
KI keine Daten für eine begründete Entscheidung haben. Ähnlich verhält es sich bei der
Rechenleistung. Schafft es der Gegenspieler die Hardware des Computersystems mit
sinnlosen Berechnungen zu beschäftigen, so wird sich die Auswertung der Daten und
die Entscheidungsfindung erheblich verlangsamen. Dies kann gerade in zeitkritischen
Situationen zu verheerenden Schäden führen. [24]
Neben den technischen Risiken gibt es gerade bei den vollautonomen Waffensystemen
eine Diskussion um ethische und rechtliche Fragen. Bei Waffen mit menschlicher
Entscheidungsverantwortlichkeit gibt es hier nicht so viele Probleme. Viele Fragen
kommen auf, wenn es um sogenannte „LAWS“ geht. Es handelt sich um Lethal
Autonomous Weapon Systems. Diese sind voll autonom und bedürfen keiner
menschlichen Einwirkung. Weder Entscheidungstechnisch noch mit Möglichkeit auf ein
Veto. Der größte Kritikpunkt hieran ist offensichtlich die Fähigkeit zu töten.
18
Im Hinblick auf das Töten, sollte man zwischen dem Zweck der Waffe differenzieren.
Die Waffen können sich in Hinblick auf den Schaden unterscheiden. Z.B. kann eine
Waffe für Attentate aber auch zur Massenvernichtung genutzt werden. In der ethischen
Diskussion ist jeder Tote einer zu viel, jedoch ist es ein großer Unterschied, ob eine
Drohne eingesetzt wird, um den feindlichen Befehlshaber gezielt auszuschalten oder ob
die Drohne ein gesamtes Militärcamp bombardiert. Gerade bei
Massenvernichtungswaffen sind oftmals auch zivile Opfer zu beklagen, weshalb
Attentatssysteme ethisch betrachtet besser sind.
Besonders mit der Nutzung von KI in Waffensystemen, haben diese die Möglichkeit,
beispielsweise durch Gesichtserkennung, konkrete Ziele zu lokalisieren und
auszuschalten, ohne unbeteiligte zu treffen.
Auch die Diskussion um ein neues Wettrüsten wird lauter. Diese werden befeuert durch
Investitionen in die Forschung und Aussagen von Staatsoberhäuptern. So beispielsweise
auch Vladimir Putin der zu Beginn des neuen Schuljahres 2017 in einer Ansprache
folgendes sagte: „Artificial intelligence is the future, not only for Russia but for all
humankind, […]. Whoever becomes the leader in this sphere will become the ruler of
the world.” Auch das Russian Military Industrial Committee verkündete, dass bis zum
19
Jahr 2025, 30% der Militärtechnologie durch Robotik und autonome Systeme ersetzt
werden soll. China teilte ebenso mit, dass sie in den nächsten Jahren 150 Milliarden
Dollar investieren wollen. Ihr Plan ist es bis 2030 zum Innovationszentrum für KI zu
werden.
Ein guter Weg, um die oben genannten Probleme zu lösen, sind sicherlich auch die
Formulierung von Regeln. So gab im November 2019 das Pentagon bekannt, dass KI-
Anwendungen im US-Militär fünf Prinzipien folgen sollen. [25] Diese sind:
• Der Mensch soll für Entwicklung, Verbreitung, Einsatz und Ergebnisse der KI
verantwortlich sein.
• Jede KI-Anwendung soll fair bleiben, daher müssen Vorurteile in den Daten
vermieden werden.
• Transparente und überprüfbare Methoden, Datenquellen, Designverfahren und
Dokumentation sollen sicherstellen, dass beteiligte Mitarbeiter ein Verständnis
für die KI-Systeme entwickeln und deren Entscheidungen rückverfolgbar sind.
• Alle Einsatzbereiche für KI sollen klar definiert und getestet werden und
verlässlich, sicher und robust funktionieren.
• Alle KI-Systeme sollen steuerbar bleiben – und im Notfall abschaltbar sein.
Unbeabsichtigtes Verhalten soll so erkannt und verhindert werden.
Wie gut sich diese Regeln umsetzen lassen, wird sich in der weiteren Entwicklung
zeigen.
Es besteht jedoch ein Bedarf an einem gemeinsamen Grundsatz. Die Position der EU ist
hierbei klar definiert und lässt sich in vier Punkte zusammenfassen. [26]
Abgesehen der politischen Orientierung der BRD gibt es ein zentrales, ethisches
Problem. Im Grundgesetz ist verankert das die Würde des Menschen unantastbar ist.
Diese ist Bestandteil der Menschlichkeit und setzt voraus, dass ein Mensch nie als
Mittel zum Zweck missbraucht wird. Wird im Kriegsfall die Entscheidung getroffen zu
21
töten, so wird diese bis heute von einem Menschen getroffen, der in der Lage ist,
moralische und menschliche Konzepte zu verstehen und nachzuvollziehen. Als Deep
Blue Kasparov 1996 im Schach schlug, wusste der Computer nicht was er tat und
warum. Er wusste nicht was Schach-Spielen bedeutet oder warum dieser Sieg
Geschichte geschrieben hat. Es ist im Kern eine Rechenmaschine das nicht über ein
Bewusstsein verfügt das Handlungen in einen Kontext setzen kann. Übertragen auf
moderne KIs ändert sich daran nichts. Eine KI kann nicht verstehen was Begriffe wie
„Leben“ und „Tod“ bedeuten. Wenn ein Mensch bewusst die Entscheidung triff zu
töten, ist er sich im Klaren welche Folgen dies hat und was es heißt ein Leben zu
nehmen. Er versteht wie schwerwiegend diese Entscheidung ist und hat eine Motivation
mit er diese Handlung begründen kann. Durch die schlichte Unfähigkeit, die
menschliche Würde zu begreifen, verstößt eine LAW gegen Kants Menschheits-Zweck-
Formel11 des kategorischen Imperativs und somit auch gegen den ersten Absatz im
ersten Paragrafen des Grundgesetzes. Ein Mensch würde von der KI auf eine
mathematische Operation reduziert und als Mittel zum Zweck der Erfüllung seiner
Aufgabe missbraucht werden. [26]
Ein Gedanke, den man nicht vergessen sollte, ist vor allen Dingen, dass gerade solche
Waffen sehr günstig, im Sinne der Beschaffung, sein können. Beispielsweise kann es
Möglichkeiten geben über Open-Source KI-Modell kostengünstig an die Software zu
kommen. Auch die Drohnen selbst sind bereits in diesen Jahren nicht mehr als teuer zu
betrachten. Somit hätten auch Terrororganisationen und andere kriminelle Strukturen
die Möglichkeit, mit geringen Kosten voll funktionale LAWS zu bauen. [28]
11
„Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern
jederzeit zugleich als Zweck, niemals bloß als Mittel brauchest.“ – Immanuel Kant
22
keine Diskussion laut. Erst seitdem über die Akzeptanz von autonomen
Waffensystemen gesprochen wird, die in Anwendungsszenarien agieren, die bisher rein
manuell betrieben wurden, ist die Diskussion aufgekommen. Diese
Anwendungsszenarien sind Kämpfe gegen belebte Ziele, wie besetzte Panzer, Schiffe
oder einfache Infanterie. [29]
3.4 Verantwortlichkeit
Da kein Mensch mehr die direkte Verantwortung für einen Abschuss trägt, ist unklar
wer die Verantwortlichkeit und Haftbarkeit trägt. Diese ist jedoch fundamental für die
rechtliche Absicherung des humanitären Völkerrechts und der Menschenrechte. Im
Folgenden ist jedoch zwischen individueller strafrechtlicher, zivilrechtlicher und
Staatenverantwortlichkeit zu unterscheiden.
Wenn es durch eine Handlung einer LAW zu einer Verletzung des Völkerrechts kommt,
gibt es in Bezug auf die Frage wer zur Rechenschaft gezogen wird zwei Ansatzpunkte:
Die Entwickler des Systems oder die Kommandeure im Feld. Im Einzelfall kann man
erwägen die übergeordneten Generäle oder die grundsätzlichen politischen
Entscheidungsträger zur Verantwortung zu ziehen. Geht es um vorsätzliche
Kriegsverbrechen ist die Rechtslage klar. Wenn der Entwickler bewusst den
Algorithmus so konstruiert, dass dieser im Feld Zivilisten attackiert und die Intention
auch dieser Natur ist, dann ist die strafrechtliche Verfolgung in diesem Fall klar.
Dasselbe gilt auch dafür, wenn ein Kommandeur wissentlich eine LAW einsetzt, die
Völkerrechtswidrig agiert. Kompliziert wird es, wenn alle beteiligten Parteien davon
ausgehen das die LAW einwandfrei und Völkerrechtskonform agiert.
23
reagieren kann. Diese Faktoren, das im tatsächlichen Einsatz Einflüsse auftreten, die
nicht vorauszusehen waren, müssen im Strafprozess berücksichtigt werden. Hierbei tritt
jedoch dann die Gefahr auf, dass alle Fehltritte einer LAW wie höhere Gewalt
dargestellt werden, die ein Entwickler unmöglich hätte vorhersehen können. Verschärft
wird dieses Dilemma, wenn das KI-System mit einem lernfähigen Algorithmus
versehen ist. Das Antizipieren der Handlungen einer solchen LAW ist umso
schwieriger.
24
Angesichts der heutigen Konfliktsituation haben die Opfer meist nicht die Möglichkeit
oder Ressourcen ein Verfahren gegen den Hersteller zu führen. [30]
3.4.3 Staatenverantwortlichkeit
Nach der Friedrich-Ebert-Stiftung müssen sich Staaten für Ihre Organe verantworten.
Sollte also ein Befehlshaber den Einsatz eines autonomen Waffensystems anordnen, so
wurde diese Entscheidung von einem Organ des Staates getroffen und rechnet somit
sämtliche Komplikationen dem Staat zu. Der Streitpunkt um die Verantwortung beginnt
bei der Vorsätzlichkeit oder der Fahrlässigkeit. Sollten diese nicht vorliegt, wird es
schwer zu entscheiden, ob es nun ein Verschulden des Staates ist. Kann jedoch
nachgewiesen werden, dass die Entscheidungen und Vorgehensweisen der autonomen
Waffen nicht unmittelbar und vollständig kontrolliert wurden, so werden Staaten ohne
Zweifel haftbar gegenüber Schäden.
Dies ist der Fall, da der Einsatz somit Risiko behaftet war und der Staat somit für das in
Kauf nehmen des Risikos haftet. Ähnlich verhält sich das bei Weltraumobjekten.
Sollten Objekte, die ein Staat in den Weltraum befördert hat, auf die Erdoberfläche
hinabstürzen, so haftet der Staat in dem Fall ebenfalls, da er das Risiko des hinabstürzen
in Kauf genommen hat. Des Weiteren haben Staaten Präventions-, Überwachungs- und
Schadensverhinderungspflichten. Diese sind jedoch nicht klar definiert. [30]
4 Fazit
4.1 Zielerreichung
Wie in der Zielsetzung festgelegt, soll eine Grenze erarbeitet werden, bis zu welcher
Stufe der Autonomität ein LAW (Letales autonomes Waffensystem) vertretbar ist.
Diese Frage kann nicht pauschal für alle Arten von LAWS beantwortet werden.
Zu beachtende Aspekte bei der Grenze sind die Komplexität des Umfeldes und der
Rahmen, in dem das Waffensystem eingesetzt wird. Bei dem Einsatzgebiet des
Waffensystems unterscheidet man zwischen dem defensiven, welches reagiert und dem
25
offensiven, welches agiert. Bei dem offensiv eingesetzten Waffensystem ist noch zu
werten, ob es als Massenvernichtungswaffe oder als gezielte Attentatswaffe eingesetzt
wird. Bei den defensiven Waffensystemen kann unterschieden werden zwischen dem
Abschuss von bemannten Objekten oder unbemannten, wie z.B. Raketen und Drohnen.
Unabhängig der zuvor genannten Einflüsse sollte, bei dem Einsatz von KI in
Waffensystemen, eine zentrale Stelle wie beispielsweise ein Ausschuss der UN das KI-
Modell überprüfen. Hierzu müssen die Entwicklerfirmen sowohl die Trainingsdaten als
auch den Entwicklungsprozess, sowie die internen Testergebnisse bei der
entsprechenden Stelle einreichen. Sollte diese zentrale Stelle, dass KI-Modell als
zuverlässig genug einstufen, so wird ein Zertifikat ausgegeben, dass gleichzeitig auch
den Einsatzrahmen der Waffensysteme festlegt, welche mit diesem Modell betrieben
werden. Erst dann sind die Staaten, welche dieses Modell einsetzen, haftungsfrei, sollte
etwas bei einem Einsatz fehlschlagen.
Wie in den Kapiteln 3.2.1 - 3.2.3 dargestellt wurde, besteht auch ein gewisses Risiko
der Manipulation bei KIs. Dies kann über die Eingabe, Trainingsdaten oder über das
Hardware- bzw. Computersystem an sich geschehen. Hierbei stellt sich die Frage, ob
die Zuverlässigkeit eines vollständig validierten und getesteten KI-Systems
zuverlässiger ist als ein menschlicher Operator. Dies würde jedoch den Rahmen dieser
Arbeit übersteigen und bietet Stoff für zukünftige Untersuchungen.
Des Weiteren ist die Komplexität des Einsatzgebietes ein großes Problem. Je mehr
Parameter sich verändern, beispielsweise durch Ortswechsel, desto unzuverlässiger
werden LAWS. Zumindest gilt dies im Jahre 2021 noch. Bedeutet, dass gerade Systeme
die offensiv eingesetzt werden, z.B. im Häuserkampf, eher zu Fehlentscheidungen
neigen, da in sekundenbruchteilen Situationen entstehen können, die nicht trainiert
worden sind. Somit sollten bei Systemen, die eher von Ortswechseln und hektischen
26
Situationen betroffen sind, eine geringere Autonomität vorliegen. Diese LAWS könnten
zum Beispiel kleine Roboter sein, die nur in bestätigte, rein feindliche Raume gelassen
werden und daraufhin selbstständig agieren.
Trotz der Unklarheiten, wie KI in Waffensystemen eingesetzt werden sollte, ist die
Entwicklung solcher Systeme wichtig und sollte nicht aufgeben werden.
Da politische Parteien wie Russland und China aktiv an Technologien wie KI arbeiten
und diese ebenfalls in Waffensystemen einsetzen, ist es für die restlichen Länder
unausweichlich ebenfalls daran zu forschen.
27
4.2 Perspektive
Der Bereich der KI-Forschung hat in den letzten Jahren stark zugenommen, wie man in
Abbildung 2 sehen kann. Dieser Trend wird sich in den kommenden Jahren fortführen.
Mit steigender Forschung und steigenden Investitionen steigt auch die
Wahrscheinlichkeit, ein bisher unerreichtes Level an Intelligenz zu erreichen.
Abbildung 2 [2]
28
Abbildung 3 [3]
Wie man in Abbildung 3 sehen kann, sind sich viele Experten einig, dass wir bereits in
den Jahren 2050 bis 2100 gute Chancen haben, eine high level machine intelligence zu
entwickeln. Auf der Zeitachse etwas weiter sieht man das Jahr 2300. Dieses Jahr
werden wir zwar nicht mehr miterleben, allerdings ist es, auf die gesamte
Menschheitsgeschichte gesehen, ein doch sehr naher Zeitpunkt. In 2300 sind sich die
Experten einig. Über 90% der Experten schätzen, dass in diesem Jahr sowohl die 10%-
tige, als auch die 50%-tige und die 90%-tige Wahrscheinlichkeit besteht high level
machine intelligence zu entwickeln. Das zeigt, dass es bei der Diskussion nicht darum
geht, ob die Menschheit dieses Intelligenz-Level erschaffen kann. Es wird viel mehr
diskutiert wann die Menschheit diesen Meilenstein erreichen wird.
Auch das Wettrüsten kann in Zukunft noch stark zunehmen und sollte verhindert
werden. Nach der Meinung von Dr. Jürgen Altmann von der Technischen Universität
Dortmund könnte man dies durch ein internationales, rechtlich verbindliches Verbot
erreichen. [31]
29
In Zukunft ist, nach Auffassung von dem Robotikwissenschaftler Ronald Arkin,
denkbar, dass ein autonomes Waffensystem vor dem tödlichen Abschuss um Erlaubnis
bittet. Diese wird jedoch nicht mehr durch einen Menschen gegeben, da dies gerade bei
zeitkritischen Situationen zu lange dauert, sondern durch eine einprogrammierte
Überprüfungsinstanz. Diese prüft alle Daten und entscheidet nach den Regeln des
humanitären Völkerrechts, ob die tödliche Gewalt angemessen ist. Arkin weist ebenfalls
daraufhin, dass sicherlich Fehler auftreten können. Die Fehlerquote wird jedoch
signifikant niedriger sein.
30
5 Literaturverzeichnis
[1] Mika Westerlund (2021, März, 18) The emergence of deepfake technology: A review
(Online)
DOI: www.timreview.ca/article/1282
[2] Gil Press (2016, August 28) Artificial Intelligence Defined As A New Research
Discipline: This Week In Tech History (Online)
DOI: www.forbes.com/sites/gilpress/2016/08/28/artificial-intelligence-defined-as-a-
new-research-discipline-this-week-in-tech-history/
[4] Joseph Weizenbaum (1966 Januar) ELIZA - A Computer Program for the Study of Natural
Language Communication Between man and machine (Online)
DOI: https://cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf
[6] Gianluca Misuraca, Colin van Noordt (2020) AI Watch - Artificial Intelligence in
public services
DOI: https://publications.jrc.ec.europa.eu/repository/handle/JRC120399
[7] Hye-Wuk Jung (2020) A Study on the Current State of Artificial Intelligence Based
Coding Technologies and the Direction of Future Coding Education
DOI: https://doi.org/10.17703/IJACT.2020.8.3.186
31
[11] Amy Tikanen Weapon system Definition
DOI: https://www.britannica.com/technology/weapons-system
[23] Fraunhofer Group For Defense And Security (Mai 2020) Rise Of Artificial
Intelligence In Military Weapons Systems
DOI: https://www.fraunhofer.de/content/dam/zv/de/forschungsthemen/schutz-
sicherheit/rise-of-intelligent-systems-in-military-weapon-systems-position-paper-
fraunhofer-vvs.pdf
[24] Deutschlandfunk: Peter Welchering im Gespräch mit Manfred Kloiber Angriffe auf
KI-Systeme sind simpel und erfolgreich
DOI: https://www.deutschlandfunk.de/datenverwirrung-angriffe-auf-ki-systeme-sind-simpel-
und.684.de.html?dram:article_id=438784
33
[27] Oberstleutnant i.G. Dr. Jörg Wellbrink (Januar 2014) Mein neuer Kamerad –
Hauptgefreiter Roboter?
DOI: http://www.ethikundmilitaer.de/de/themenueberblick/20141-drohnen/wellbrink-
mein-neuer-kamerad-hauptgefreiter-roboter/
[29] Frank Sauer Künstliche Intelligenz in den Streitkräften: Zum Handlungsbedarf bei
Autonomie in Waffensystemen
https://www.baks.bund.de/de/arbeitspapiere/2018/kuenstliche-intelligenz-in-den-
streitkraeften-zum-handlungsbedarf-bei-autonomie
[30] Robin Geiss (Juni 2015) Die völkerrechtliche Dimension autonomer Waffensysteme
DOI: https://library.fes.de/pdf-files/id/ipa/11444-20150619.pdf
[31] Dr. Jürgen Altmann Autonome Waffen-systeme: Wenn Maschinen über Le-ben und
Tod ent-scheiden
DOI: https://www.bundestag.de/dokumente/textarchiv/2020/kw45-pa-bildung-
waffensysteme-798846
34
6 Abbildungsverzeichnis
[1] Abbildung 1
DOI: https://doi.org/10.17703/IJACT.2020.8.3.186
[2] Abbildung 2
DOI: https://www.cni.org/wp-content/uploads/2019/01/CNI_Scaling_Grant.pdf
[3] Abbildung 3
DOI: https://www.nickbostrom.com/papers/survey.pdf
35
Eidesstattliche Erklärung
Hiermit versichere ich, dass die vorliegende Arbeit von mir selbstständig und ohne
unerlaubte Hilfe angefertigt worden ist, insbesondere dass ich alle Stellen, die wörtlich
oder annähernd wörtlich aus Veröffentlichungen entnommen sind, durch Zitate als solche
gekennzeichnet habe. Ich versichere auch, dass die von mir eingereichte schriftliche
Version mit der digitalen Version übereinstimmt. Weiterhin erkläre ich, dass die Arbeit
in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde/Prüfungsstelle vorgelegen
hat. Ich erkläre mich damit einverstanden/nicht einverstanden, dass die Arbeit der
Öffentlichkeit zugänglich gemacht wird. Ich erkläre mich damit einverstanden, dass die
Digitalversion dieser Arbeit zwecks Plagiatsprüfung auf die Server externer Anbieter
hochgeladen werden darf. Die Plagiatsprüfung stellt keine Zurverfügungstellung für die
Öffentlichkeit dar.
36
Eidesstattliche Erklärung
Hiermit versichere ich, dass die vorliegende Arbeit von mir selbstständig und ohne
unerlaubte Hilfe angefertigt worden ist, insbesondere dass ich alle Stellen, die wörtlich
oder annähernd wörtlich aus Veröffentlichungen entnommen sind, durch Zitate als solche
gekennzeichnet habe. Ich versichere auch, dass die von mir eingereichte schriftliche
Version mit der digitalen Version übereinstimmt. Weiterhin erkläre ich, dass die Arbeit
in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde/Prüfungsstelle vorgelegen
hat. Ich erkläre mich damit einverstanden/nicht einverstanden, dass die Arbeit der
Öffentlichkeit zugänglich gemacht wird. Ich erkläre mich damit einverstanden, dass die
Digitalversion dieser Arbeit zwecks Plagiatsprüfung auf die Server externer Anbieter
hochgeladen werden darf. Die Plagiatsprüfung stellt keine Zurverfügungstellung für die
Öffentlichkeit dar.
37