Sie sind auf Seite 1von 40

FOM Hochschule für Oekonomie & Management Essen

Studienzentrum Köln

Berufsbegleitender Studiengang:
Wirtschaftsinformatik

2. Semester

Hausarbeit im Modul Fallstudie/Wissenschftliches Arbeiten

Möglichkeiten und Grenzen des Einsatzes von künstlicher Intelligenz


bei Waffensystemen

Betreuer: Dennis Häuser M.Sc.


Autor: Titus Azevedo Neuschütz, Philipp-Alexander Halfen
Matrikelnummer: 563703, 563179
Abgabedatum: 26.07.2021
Köln, den 22.07.2021
Anmerkung zum Genus des Substantives
Auf geschlechtsspezifische Umschreibungen wurde hier verzichtet. Ein Maskulinum,
wie zum Beispiel Autor, meint selbstredend auch eine weibliche oder diverse Person.
Gliederung
1 EINLEITUNG ........................................................................................................... 1
1.1 PROBLEMSTELLUNG ............................................................................................ 1
1.2 ZIELSETZUNG UND VORGEHENSWEISE ................................................................ 2
2 GRUNDLAGEN ........................................................................................................ 3
2.1 KÜNSTLICHE INTELLIGENZ .................................................................................. 3
2.1.1 HISTORISCHE ENTWICKLUNG .......................................................................... 3
2.1.2 Definition .................................................................................................... 5
2.1.3 Stand der Technik ....................................................................................... 6
2.2 GRUNDLAGEN WAFFENSYSTEME .............................................................................. 8
2.2.2 Definition .................................................................................................... 9
2.2.3 Stand der Technik ..................................................................................... 10
3 UMSETZUNG ......................................................................................................... 12
3.1 STAND DER TECHNIK ......................................................................................... 12
3.1.1 Defensive Waffensysteme ......................................................................... 12
3.1.2 Offensive Waffensysteme ......................................................................... 13
3.2 TECHNISCHE HERAUSFORDERUNGEN ................................................................ 14
3.2.1 Entwicklung .............................................................................................. 14
3.2.1 KI-Manipulation über die Eingabe............................................................ 16
3.2.2 KI-Manipulation über die Trainingsdaten ................................................. 17
3.2.3 KI-Manipulation über die Computersysteme ............................................ 18
3.3 ETHISCHE DISKUSSION ...................................................................................... 18
3.4 VERANTWORTLICHKEIT ..................................................................................... 23
3.4.1 Strafrechtliche Verantwortlichkeit ............................................................ 23
3.4.2 Zivilrechtliche Verantwortlichkeit ............................................................ 24
3.4.3 Staatenverantwortlichkeit.......................................................................... 25
4 FAZIT ...................................................................................................................... 25
4.1 ZIELERREICHUNG .............................................................................................. 25
4.2 PERSPEKTIVE ..................................................................................................... 28
5 LITERATURVERZEICHNIS ................................................................................. 31
6 ABBILDUNGSVERZEICHNIS ............................................................................. 35
1 Einleitung

1.1 Problemstellung

Das Buzzword KI (Künstliche Intelligenz) ist mittlerweile den meisten geläufig. In der
Regel werden damit personalisierte Werbungen, autonome Fahrzeuge oder Socialmedia-
Giganten, assoziiert. Allerdings ist diese neue und aufstrebende Technologie
weiterverbreitet als es den Anschein erweckt. Von der Batterieoptimierung in einem
Smartphone oder dem Retuschieren von roten Augen bei Blitzlichtfotografie bis hin zur
Aufbereitung und Analyse von Daten aus Produktionsketten, werden KIs oder ML-
Algorithmen (Machine Learning) verwendet.
Einer KI liegt ein mathematisches Modell zugrunde, dass in der Lage ist Muster
zu erkennen und selbstständig Vorhersagen über diese Muster zu treffen. Dies geschieht
anhand der Auswertung von Merkmalen, die entweder von dem Entwickler vorgegeben
werden oder die KI selbst herausgefunden hat. Wenn das Modell, nach dem es trainiert
wurde, unbekannte Daten präsentiert bekommt, versucht es Anhand der beschriebenen
Merkmale Aussagen zu Treffen. Je besser das Modell ist, desto genauer ist die KI in ihren
Vorhersagen.
Der technologische Fortschritt allein in den letzten Jahren in diesem
Forschungsbereich ist immens. Vergleicht man beispielsweise einen Deepfake1 von vor
drei Jahren mit einem heutigen ist der Unterschied signifikant. Für einen Menschen ist
der Unterschied eines aktuellen Deepfakes und einem echten Video nahezu
unverkennbar.
Die Kombination dieser sich schnell entwickelnden Technologie mit dem
aufstrebenden Feld der Waffensysteme, liegt also nicht fern. Hätte man eine KI die
selbständig, potenzielle Bedrohungen identifizieren, beurteilen wie damit umgegangen
werden sollte und dies dann auch selbstständig tut, würde dies den Weg der heutigen
Kriegsführung revolutionieren. Eine solche KI bringt jedoch eine Reihe an Problemen

1
„Deep fakes are the product of artificial intelligence (AI) applications that merge, combine, replace, and
superimpose images and video clips to create fake videos that appear authentic.” [1]
1
mit sich. Begonnen mit der Entwicklung über die Testung, Anwendung, Rechtliche
Grundlage und ethische Vertretbarkeit.

1.2 Zielsetzung und Vorgehensweise

Ziel ist es, die in der Problemstellung genannten Aspekte zu beleuchten und abzuwägen.
Es geht hierbei weniger darum eine allgemeingültige Richtline aufzustellen, sondern
auszuloten welche Möglichkeiten es zum jetzigen Zeitpunkt gibt und einen Blick in die
Zukunft zu werfen. Aufgrund der Tatsache, dass beide Felder neu sind, ist ein
substanzieller Teil der Arbeit, das Sammeln und Darstellen des Status quo beider
Technologien. Die konkrete Frage, die dem Ganzen zu Grunde liegen soll, ist
dementsprechend folgende:

Was sind die Möglichkeiten und Grenzen des Einsatzes von künstlicher Intelligenz bei
Waffensystemen?

Hierzu sollen die Grenzen und Möglichkeiten von KIs und Waffensystemen erarbeitet
und zusammengebracht werden. Zu Beginn soll ein Überblick über die historische
Entwicklung beider Felder gegeben werden. Das erstmalige Auftauchen in
wissenschaftlicher Literatur, der Fortführung der Forschung und eine Momentaufnahme
des Standes der Technik sollen hierbei im Fokus stehen.
Zentral in der Grundlagenerarbeitung ist vor allen Dingen die genaue Definition
beider Begriffe. Auf Grundlage dieser Definitionen soll im Verlauf genau bestimmt
werden wie die Funktionalitäten beider Forschungsfelder zusammengebracht werden
können. Daraufhin werden diese auf moralische und etische Bedenken untersucht. Auf
Grundlage der gewonnen Erkenntnisse soll die Grenze erarbeitet werden, bis zu welcher
Stufe der Autonomität ein LAW (Letales autonomes Waffensystem) vertretbar ist.

2
2 Grundlagen

2.1 Künstliche Intelligenz

2.1.1 Historische Entwicklung

Der moderne Begriff der künstlichen Intelligenz hat seinen Geburtsort in Dartmouth,
Hanover, New Hampshire. In dem ortsansässigen College organisierte John McCarthy
mit Kollegen anderer Universitäten einen sechswöchigen Workshop mit folgender
Zielsetzung [2]:

“An attempt will be made to find how to make machines use language, form
abstractions and concepts, solve kinds of problems now reserved for humans, and
improve themselves. […] For the present purpose the artificial intelligence problem is
taken to be that of making a machine behave in ways that would be called intelligent if a
human were so behaving.” [3]

Das Problem wurde in sieben größere Teilbereiche unterteilt, an denen jeweils in Gruppen
gearbeitet wurde.

1) Automatische Computer:

Eines der Grundlegenden Problemstellungen war es ein Programm zu schreiben,


dass automatisch abläuft. Man war sich bewusst, dass die Rechenleistung von
damaligen Computern nicht ausreichen würde, um ein menschlichen
Gedankenprozess zu simulieren, jedoch wollte man versuchen die
Selbstständigkeit eines solchen abzubilden.

2) Sprachinterpretation und Nutzung

Man spekulierte, dass ein Großteil der menschlichen Gedankengänge, an


Sprache gebunden ist. Die Idee das Worte anhand von Regeln und Implikationen
durch Manipulation dieser zu einem Satz geformt werden können, war in der
Computerwissenschaft nicht allzu weit erforscht.

3
3) Neuronale Netze

Hierbei geht es um die Frage wie eine Gruppe an hypothetischen Neuronen


arrangiert und in Kontext gebracht werden können, um Konzepte zu formen. In
diesem Bereich wurde im Vorfeld bereits Forschung betrieben, auf die aufgebaut
werden sollte.

4) Größenabschätzung einer Kalkulation

Wenn einem Algorithmus ein Problem vorgelegt wird, soll verhindert werden,
dass dieser durch reines Raten aller Möglichkeiten auf das Ergebnis kommt.
Dies soll durch ein System erreicht werden, das die Größe und Komplexität
einer Kalkulation einschätzen kann. Anhand dessen soll dann die beste oder
effizienteste Möglichkeit gewählt werden.

5) Selbstverbesserung

Ein tatsächlich intelligentes Programm soll in der Lage sein, Handlungen


auszuführen, die als Selbstverbesserung beschrieben werden können.

6) Abstraktion

Manche Arten von Abstraktion können direkt klassifiziert werden und manche
weniger. Das Untersuchen dieser soll auch Teil des Workshops sein. Weiterhin
soll betrachtet werden, wie eine Maschine aus Sensorik Daten und abstrakte
Schlüsse ziehen kann.

7) Zufälligkeit und Kreativität

Ein gewisses Maß an Zufälligkeit soll für eine Art von „kreativen Denken“
sorgen. Hierbei soll jedoch reines Raten vermieden werden, sondern mehr auf
Intuition und auf fundierte Vermutungen gesetzt werden, um ein kontrolliertes
Maß an Zufälligkeit einzubringen.

(vlg. [3])
Von hier an entwickelte sich das akademische Fachgebiet in großen Schritten weiter.
1966 entwickelte Joseph Weizenbaum am MIT den wohl ersten Chat-Bot der Welt:
ELIZA. Das Programm konnte zum ersten Mal menschliche Sprache in Schriftform
interpretieren und darauf antworten. ELIZA ist an sich jedoch keine KI. Die eingegebenen

4
Worte werden über Baumstrukturierte Bibliotheken interpretiert und nicht mithilfe eines
neuronalen Netzwerkes. Jedoch gilt das Programm als die erste Umsetzung des Turing
Tests. Bestanden hat der Chatbot ihn in den meisten Fällen jedoch nicht, da er wenig
flexibel war und mit komplexeren Fragestellungen nicht zurechtkam [4].
In den achtziger und neunziger Jahren wurden genetische Algorithmen zum Trainieren
von KIs weiter erforscht. Zwischenzeitlich hat man diese Methode jedoch fallen gelassen,
da sie oftmals schwer nachzuvollziehen war. Diese Methode findet heutzutage durch
erhöhte Rechenleistung und Wissen, in dem Feld, wieder Anwendung in modernen
Projekten [5].
Weitere Meilensteine, die im 21. Jahrhundert erreicht wurden, sind Dinge wie das
autonom fahrende Auto von Waymo2 oder BPL Algorithmen3. Man kann also festhalten,
dass das Feld der künstlichen Intelligenz in einem relativ kurzen Zeitraum um ein
Vielfaches seiner selbst gewachsen ist. Die Frage, die sich auftut, ist demnach, wie eine
künstliche Intelligenz heutzutage definiert ist.

2.1.2 Definition

Grundsätzlich stehen dieser Definition zwei Probleme im Weg. Zum ersten wird der
Begriff der künstlichen Intelligenz meist fälschlicher Weise mit dem des künstlichen
Bewusstseins verwechselt. Kern dieses Problems ist die Darstellung intelligenter
Maschinen in der Pop-Kultur. Dieses Missverständnis in der Wahrnehmung der
Allgemeinheit ist in der wissenschaftlichen Literatur zwar behandelt, aber nicht zentral.
Zum zweiten ist der Begriff „künstliche Intelligenz" sehr breit gefächert und
unspezifisch formuliert. Es gibt zahllose Definitionen von unterschiedlichen
wissenschaftlichen Einrichtungen und Forschern. Je nach Anwendungsfeld oder
Diskussionsrahmen wird der Begriff unterschiedlich ausgelegt. Dazu kommt noch die
Weiterentwicklung des Begriffes im Laufe der Zeit und Prognosen über Dinge, die KI in
der Zukunft bewältigen können soll. Das Resultat ist ein vager Sammelbegriff für

2
Tochterunternehmen Googles, dass das autonome Fahrzeugprogramm seit 2016 fortführt.
3
Abkürzung für: „Bayesian program learning“. Dieser Algorithmus soll die Antwort für one-shot
learning sein. Eine KI soll damit in der Lage sein mit einem einzigen Beispiel als Grundlage zu agieren.
Dies ist weit aus effizienter als deep neural networks die verhältnismäßig große Datensätze für ein
erfolgreiches Training benötigen, jedoch ist das Ergebnis weit aus begrenzter aufgrund der geringen
Datengrundlage.
5
unterschiedliche Technologien und Vorstellungen. Die JRC4 hat aufgrund dieses
Problems eine Erörterung dieses Begriffs veröffentlicht um als Grundlage zu fungieren.
In der Abhandlung ist ein Konzept entwickelt worden, um für die meisten Facetten des
Feldes eine passende Definition zu finden.

"Artificial intelligence (AI) systems are software (and possibly also hardware) systems
designed by humans(2) that, given a complex goal, act in the physical or digital
dimension by perceiving their environment through data acquisition, interpreting the
collected structured or unstructured data, reasoning on the knowledge, or processing
the information, derived from this data and deciding the best action(s) to take to achieve
the given goal. AI systems can either use symbolic rules or learn a numeric model, and
they can also adapt their behaviour by analysing how the environment is affected by
their previous actions."[6]

Diese Definition wurde von der „HLEG for AI“5 verfasst und wird als grundlege
Definition von KI verstanden. Auf diese kann aufgebaut werden. Diese wird auch der
Grundstein dieser Untersuchung sein.

2.1.3 Stand der Technik

KI kann in begrenzte KI und allgemeine KI eingeteilt werden, basierend auf dem Grad,
inwieweit sie Arbeit auf einem ähnlichen Niveau wie der Mensch erledigen kann. KI ist
im Vergleich zum Menschen anders. Wie in Abbildung 1 zu sehen ist, sind die Aufgaben,
die von Menschen gelöst werden können, recht vielfältig und weniger kompliziert,
während

4
Joint Research Center; Die Vereinigung stellt Wissenschaftler ein, um unabhängige wissenschaftliche
Empfehlungen und Unterstützung für die Europäische Kommision auszusprechen
5
High-level expert group for AI; Die Europäische Kommission hat eine Expertengruppe ernannt, die sie
zu ihrer KI-Strategie berät. Mitglieder sind Vertreter aus Wissenschaft, Zivilgesellschaft und Industrie
6
die Aufgaben, die von KI bewältigt werden, verhältnismäßig kompliziert sind, jedoch ist
der Umfang der Lösung stark begrenzt. Darüber hinaus können einfache Aufgaben, die
von begrenzter KI gelöst werden, zu komplexen Aufgaben erweitert werden. Diese
können von allgemeiner KI gelöst werden.[7]

Abbildung 1. Beziehung von begrenzter und allgemeiner KI [1]

Begrenzte KI wird genutzt, um bestimmte Aufgaben zu bewältigen wie beispielsweise,


Bild- und Stimmerkennung. Diese Methode kann bestimmte Handlungen ausführen
oder Entscheidungen treffen auf Grundlage von vordefinierten Regeln, Algorithmen und
Daten. Der Großteil aller KI-Systeme die, heutzutage, im Einsatz sind gehören zur
Kategorie der begrenzten KI.
Allgemeine KI besitzt dieselbe Flexibilität wie ein Mensch. Aufgrund dessen ist
die KI in der Lage gelernte Inhalte auch in anderen Kontexten anzuwenden und mehrere
Dinge gleichzeitig zu tun. Diese Methode hat ein Intelligenzniveau ähnlich dessen des
Menschen und hat den Vorteil außerhalb der vorgegebenen Regeln agieren zu können.
Ansätze die allgemeine KI nutzen, haben i.d.R. „deep learning“ als Grundlage, sind
jedoch noch in sehr frühen Stadien [7].

7
2.2 Grundlagen Waffensysteme

2.2.1 Historische Entwicklung

Anders als bei der KI können wir das erste Waffensystem nicht klar mit einem
Erscheinungsjahr datieren. Vermutungen nach lässt sich das erste Waffensystem im
Jahre 1916 ausmachen. Es handelt sich hierbei um einen Panzer namens „Mark-I“.
Dieser Panzer unterschied sich zu simplen gepanzerten Fahrzeugen, da er über
Maschinengewehre verfügte. Die Kombination aus einem gepanzerten, mit
motorbetriebenem Fahrzeug und der Bewaffnung durch Maschinengewehre, bildet das
erste Waffensystem. Die erste Idee eines solchen Fahrzeugs gab es jedoch bereits im
Jahre 1903. Hier erzählte Herbert George Welles eine fiktive Geschichte über ein
Fahrzeug, in welchem die Soldaten durch eine Panzerung geschützt sind und mit
Maschinengewehren zielen und schießen können. [8]

Einen großen Meilenstein in der Entwicklung von Waffensystemen ist folglich die
Erfindung des Verbrennungsmotors durch Carl Benz. Hiermit konnten Fahrzeuge ohne
menschliche Kraft fahren und Geschützte mechanisch ausgerichtet werden. Seither hat
sich jedoch durch die Erfindung von Computern, Fortschritten in der Sensorik und der
daraus resultierenden Möglichkeit der Automatisierung vieles verändert. Die
Waffensysteme sind längst nicht mehr nur mechanische Maschinen, welche durch
Verbrennungsmotoren bewegt werden. Ein großer Durchbruch war der Computer. Mit
Computern konnten Waffensysteme „intelligenter“ mit Programmen gesteuert werden.
Hinzu kamen die Entwicklung von Infrarotziel- & Radarzielsensoren. Diese
ermöglichen es heutigen Systemen, Ziele, ohne mitwirken eines Menschen, zu erkennen
und zu verfolgen. Mit der heutigen Rechenleistung und umfangreicheren Programmen,
können Waffensysteme bereits viel schneller Flugbahnen und Geschwindigkeiten, von
anfliegenden oder zu abfeuernden Geschossen berechnen. Diese können sich dank
vieler Sensoren und der Steuerung durch Computer automatisiert ausrichte. In unserem
Jahrhundert stehen wir erneut vor einer großen Veränderung. Mit selbstlernenden
Programmen wie künstlicher Intelligenz kann der menschliche Faktor vollständig
substituiert werden.

8
2.2.2 Definition

Ein Waffensystem zu definieren ist schwerer als es zuerst scheint. Das liegt daran, dass
Waffensysteme oft im Kontext mit einfachen Waffen verwendet werden oder noch
häufiger mit autonomen Waffensystemen assoziiert werden. Doch ein Waffensystem ist
genau zwischen diesen beiden Themen. Ein Waffensystem ist komplexer als eine
einfache Waffe, wie ein Sturmgewehr, aber muss deshalb nicht zwingend autonom sein.

Waffensystemen als Wort liegen Waffe und System zugrunde. Um Waffensysteme


besser von Waffen abgrenzen zu können, werden die einzelnen Bestandteile des Wortes
„Waffensystem“ nachfolgend definiert.

Eine Waffe ist ein Instrument, das im Kampf eingesetzt wird, um Feinde wie Tiere,
Menschen und anderes zu töten, zu verletzten oder zu besiegen.[9]
Tatsächlich handelt es sich nicht mehr um ein Werkzeug, wie eine Sense, welches
neben seiner Funktion auch für die oben genannten Zwecke verwendet werden kann.
Eine Waffe ist rein für kämpferische Zwecke entwickelt worden.

Kommen wir zum zweiten Wort: „System“. Ein System beschreibt ein Ganzes, dass aus
mehreren Bestandteilen besteht. In einem System werden die einzelnen Bestandteile
mittels einer gegliederten Verknüpfung zusammengesetzt.[10]

Nun zu dem Begriff „Waffensystem“. Ein Waffensystem ist ein Verbund, welcher die
Steuerung und den Betrieb von Waffen bestimmter Art ausführt. Hierbei müssen in
diesem Verbund nicht zwingend nur verschiedene Waffen sein. Oftmals besteht ein
Waffensystem aus einer Waffe und vielen Hilfsmitteln. Man unterscheidet zwischen
zwei Arten von Waffensystemen: den strategischen und den taktischen
Waffensystemen.[11]

Die strategischen Waffensysteme zielen darauf ab, einen Feind an der Quelle seiner
militärischen, wirtschaftlichen oder politischen Macht zu treffen. Hierunter fallen
Waffensysteme wie beispielsweise Interkontinentalraketen und
Langstreckenbomber.[12]

9
Im Gegensatz dazu gibt es die taktischen Waffensysteme. Diese sind für den offensiven
und defensiven Einsatz auf kurze Distanz gedacht. Ihre Folgen treten unmittelbar nach
dem Abschuss ein. Zu ihnen gehören Systeme wie die Flugabwehr oder
Schlachtwaffen.[13]

2.2.3 Stand der Technik

Um im Thema nicht vorzugreifen, wird hier noch nicht ausführlich auf KI in


Waffensystemen eingegangen, aber bereits eine kurze Vorstellung geben, wohin die
Technik sich entwickelt hat.

Aktuelle Systeme wie die „Taranis“ Drohne, des britischen Herstellers BAE Systems
zeigen, wie KI in Waffensystemen eingesetzt werden kann. Diese Drohne kann neben
der vollautomatischen Flugnavigation selbst Routen entwerfen und nach Zielen suchen.

Noch fortgeschrittener ist ein KI-Waffensystem namens „ALPHA“. Dieses verfügt über
einen Modus, in dem es Kampfmanöver übernehmen kann. Es wurde in einer
Simulation gegen einen Oberst der US Air Force getestet. Hier wich es simultan
Geschossen aus, feuerte eigenständig auf Ziele, beteiligte sich an koordinierten
Manövern und lernte von feindlichen Taktiken. Das auffällige daran ist, dass dieses
Programm, für heutige Verhältnisse, keiner nennenswerten Rechenleistung bedarf. Die
oben genannte Simulation wurde von dem System auf einem 35 USD teuren Raspberry
Pi absolviert.

Allerdings werden nicht nur die Waffensysteme besser. Sondern auch die eigentlichen
Waffen verändern sich. Es werden nicht mehr ausschließlich Waffen genutzt, welche
durch verschiedenste Pulvertypen eine Explosion verursachen, um ein Geschoss zu
beschleunigen. Beispielsweise arbeiten sogenannte „Railguns“ mit Strom, welcher ein
Magnetfeld erzeugt. Dieses Magnetfeld beschleunigt daraufhin das Geschoss. Des
Weiteren gibt es, seitdem die Laserforschung vorrangegangen ist, fortschrittlichste
Laserwaffen. Diese schießen mit gebündeltem Licht und brennen sich durch
verschiedenste Materialien. Besonders ist auch, dass diese Laserwaffen durch Schüsse
nicht verschleißen. Zudem benötigen Sie kein Munitionslager, was Platz spart und das

10
Risiko einer versehentlichen Explosion senkt. Ein weiterer Vorteil ist, dass mit Lasern
deutlich präziser geschossen werden kann und der Schuss selbst viel günstiger ist, da
lediglich Energie gebündelt und verschossen wird.

Diese Arbeit soll ein breites Bild an Waffensystemen aufzeigen. Deshalb soll auf ein
besonderes Thema eingegangen werden, welches sich nicht mit physischen
Waffensystemen beschäftigt. Es handelt sich um den Cyberwar und die darin
eingesetzten Waffen. Im Cyberwar sind die Waffen lediglich Software ohne eine
physische Komponente. Solche Software wird konkreter Schadsoftware oder
Schadprogramm genannt. Beispiele für solche Schadsoftware sind Rootkits, Trojaner,
Viren und Würmer.[14]
Die Erläuterung wo sich hier ein System aus Waffen befindet ist schnell gegeben. Ein
Rootkit selbst besteht bereits aus mehreren Programmen welche erst als Verbund dann
ein Rootkit ergeben. Aber auch ein Rootkit kann in einem System agieren. Die
einzelnen Schadprogramme werden nämlich oft nicht nur einzeln eingesetzt. Denn
durch das Verbinden zweier Schadprogramme unterstützen diese sich gegenseitig.
Beispielsweise kann über ein bereits installiertes Rootkit ein Virus unbemerkt
nachinstalliert werden. Die Folgen von Cyber-Angriffen können genauso verheerend
sein, wie Angriffe von physischen Waffen. Vorstellbare Angriffe sind beispielsweise
das passive Überwachen jeglicher Kommunikation, über das Manipulieren dieser
Kommunikation, bis hin zum Überlasten von Kraftwerken, woraus ein Zusammenbruch
der Infrastruktur resultieren kann.

11
3 Umsetzung

3.1 Stand der Technik

Wie bei den Grundlagen der Waffensysteme angekündigt, wird nun ausführlicher auf
den derzeitigen Stand der Technik eingegangen. Im Folgenden werden aktuelle Systeme
vorstellen. Dabei wird sowohl auf defensive wie auch auf offensive Systeme
eingegangen.

3.1.1 Defensive Waffensysteme

Im ersten Moment scheint es etwas untypisch, aber auch in der Luft können sich
defensive Waffensysteme befinden. Das System, welches wir hier vorstellen ist
untypischer Weise weder im, noch in der Nähe des Herkunftslandes, den USA, im
Einsatz. Es handelt sich um ein Raketenabwehrsystem, dass an einem Flugzeug
installiert werden soll. Dieses System wurde „Self-Protect High Energy Laser
Demonstrator“, kurz „Shield“, getauft. Es nutzt einen Laser, welcher als „Demonstrator
Laser Weapon System“ bezeichnet wird. Mit dem Laser werden feindliche Raketen, im
Bestfall, gleich über feindlichem Gebiet untauglich gemacht. Hierbei brennt der Laser
sich durch die Ummantelung der Rakete und bringt diese zur vorzeitigen Auslösung.
Die Entwicklungen begannen im Jahr 2016 durch die US-Luftwaffe. Ab 2017 wurde die
Entwicklung des Systems an den Rüstungskonzern „Lockheed Martin“ gegeben. 2019
wurde dann, am Boden, ein erfolgreicher Test durchgeführt. Für den tatsächlichen
Einsatz am Flugzeug muss die Technik allerdings noch kompakter entwickelt
werden.[15]

Die Vorteile von Laserwaffen wurden bereits in den Waffensystem-Grundlagen


behandelt. Diese werden durch folgende besondere Vorteile ergänzt. Im Gegensatz zu
herkömmlichen Raketenabwehrsystemen kann der Laser nicht durch Täuschkörper der
Angriffsrakete umgelenkt werden. Des Weiteren haben viele klassische Systeme
Probleme, kleine, schnelle oder tieffliegende Ziele abzuwehren. Speziell in der
Verteidigung ist der Laser vielversprechend, da es sich im Ernstfall um zeitkritische

12
Situationen handelt. Hierbei überzeugt der Laser, dessen Schüsse sich mit
Lichtgeschwindigkeit bewegen. In dem Zusammenhand ist wichtig zu nennen, dass dies
auch der Grund eines Nachteils ist. Denn der Laser kann von den
Witterungsverhältnissen beeinflusst werden.

3.1.2 Offensive Waffensysteme

Bei offensiven Waffensystemen wird KI primär zur Erkennung und Verfolgung von
Zielen eingesetzt. So auch bei der Kamikaze-Drohne „HARPY“. Hergestellt von dem
israelischen Rüstungsunternehmen „Israel Aerospace Industries“, kurz „IAI“. Das
System ist darauf ausgelegt bis zu 9 Stunden über einem vorab programmierten Gebiet
zu patrouillieren und autonom nach Zielen zu suchen. Es wird vermutet, dass die
Drohne auf Radiowellen, von den Radarstationen, der Flugabwehr reagiert. Der
Hersteller gibt jedoch nur an, dass das System nach Strahlung sucht. Sobald die Drohne
ein solches Ziel ausfindig gemacht hat, greift sie es an. Hierbei startet die Drohne einen
Kamikaze-Sturzflug und zerstört die Radarsender. Dabei unterdrückt Harpy, „Surface-
to-air“- und Radar-Abwehr. Die Drohne agiert beim Suchen, in einer Höhe von bis zu
4572 Metern. Harpy kann mit bis zu 416 km/h fliegen. Gestartet wird die Drohne von
einem Lastwagen aus.[16]

Ein weiteres Beispiel offensiver Waffensysteme ist das EXACTO6 Forschungsprojekt


von DARPA. Hierbei handelt es sich um ein System bestehend aus
Scharfschützengewehr und zielsuchender Munition. Dieses wurde Lockheed Martin und
Teledyne Scientific & Imaging entwickelt. Die Waffe verschießt Kugeln im Kaliber .50
die aktiv auf ein, mit einem Laser markierten Ziel, zusteuern können. Dazu manövriert
das Projektil im Flug und erhöht damit die Zielgenauigkeit auf großen Distanzen und
bewegliche Ziele. Das neuartige an diesem Projekt ist, das das Projektil nach Verlassen
des Laufes die Flugbahn korrigieren kann und somit Einflüssen wie z.B. Wind
entgegenwirken kann. Über die Technik, die zum Steuern der Kugel verwendet wird, ist
aus Gründen der Geheimhaltung nur wenig bekannt. Demnach kann man über die

6
Akronym aus den Wörtern: EXtreme ACcuracy Tasked Ordnance
13
Flugbahnmanipulation nur spekulieren. Es wird vermutet, dass dies durch das
Verändern des Schwerpunktes der Kugel in Resonanz mit dem Drall geschieht oder die
Form mithilfe des Piezoeffekts7 verändert wird. [17]

DARPA hat ein Demonstrationsvideo des Waffensystems veröffentlicht, in dem


man sehen kann, wie ein Schütze absichtlich daneben zielt und die Kugel die Flugbahn
automatisch korrigiert. Vor allem auf große Distanzen soll dies die Treffergenauigkeit
erhöhen. Auch einem unerfahrenen Schützen ist es laut DARPAs Aussage gelungen,
beim ersten Versuch ein Bewegliches Ziel zu treffen. [18]

3.2 Technische Herausforderungen

3.2.1 Entwicklung

Das Nutzen von KIs im Konflikt bietet das Potenzial, die militärische Überlegenheit in
vielen Bereichen zu sichern. Daten können schneller ausgewertet werden und der
„sensor-to-shoot“ Ablauf drastisch verkürzt werden. Zusätzlich stellen zukünftige
Technologien wie Schwarmdrohnen eine Bedrohung dar, die nicht von einem
menschengesteuerten System bekämpft werden kann. Das Einbinden von KI ist
unausweichlich.

Das Zusammenbringen des etablierten Feldes der konventionellen Waffen mit dem
neuartigen der KI, bringt jedoch eine Reihe an technischen Herausforderungen mit sich,
die zumeist auf Seiten der KI liegen. Betrachtet man den Entwicklungszyklus einer KI
treten hierbei mehrere Probleme auf. Drei sind hierbei kritisch.

Die meisten KI-Algorithmen benötigen eine große Menge an Daten, um trainiert


zu werden8. Diese müssen in irgendeiner Form erhoben und gespeichert werden.

7
Bei gewissen Kristallen treten an der Oberfläche positive und negative Ladungen auf, wenn die Kristalle
gedehnt oder gestreckt werden. Andersherum kann es durch das Anlegen von Spannung dazu kommen,
dass die Kristalle sich strecken und Stauchen. In diesem Kontext könnte die Form der Kugel, mit
Piezoelementen und dem Anlegen von Spannung an diesen, verändert werden.
8
Es gibt auch Methoden wie das zuvor erwähnte Bayesian program learning das auf Grundlage eines
einzigen Datensatzes trainiert werden. Diese Methode ist jedoch nicht passend für LAWs da hierbei nicht
genug Flexibilität gewährleistet werden kann.
14
Sobald die KI mit Gesichtserkennung oder ähnlichen Konzepten arbeiten soll, wird der
Datenschutz zum Problem. Das Erfassen und Speichern der Daten müssen anonym und
vor allen Dingen sicher geschehen. Dazu kommt das erhobene Daten meist unter
Homogenität leiden. Fragt man an Universitäten nach Freiwilligen wird der Datensatz
aus durchschnittlich 24-Jährigen [19] bestehen mit etwas mehr Männern als Frauen
[20]. Würde die Datenerhebung nur in Deutschland erfolgen, hätten nur 20% der
Freiwilligen einen Migrationshintergrund [21]. Dies hätte fatale Folgen. Das
durchlaufende Muster wäre ein/e 24 Jahre alte/r Europäer/in. Würde die
Gesichtserkennungs-KI jetzt in einem Land eingesetzt werde, in dem die Demographie
drastisch unterschiedlich ist, hätte sie große Probleme Gesichter zu erkennen das diese
von dem gelernten Muster abweichen. Ein gutes Beispiel für ein solches Problem ist,
automatische Bildanpassungen die, die meisten Smartphones vornehmen. Die KI, die im
Hintergrund läuft, ist i.d.R. für helle Hautfarben angepasst9.

Das zweite große Problem bei der Entwicklung von KI ist die mangelnde
Transparenz. Ein KI arbeitet nicht wie ein herkömmliches Programm. Man kann nicht
Zeile für Zeile nachvollziehen, wie der Ablauf des Algorithmus ist. Deep Learning
Modelle sind, aufgrund der komplexen Struktur äußerst schwierig nachzuvollziehen.
Die mathematische Struktur, die dem zu Grunde liegt, besteht aus, in der Regel,
tausenden neuronalen Knoten, die untereinander verknüpft sind. Das führt dazu, dass
sich KIs oftmals nicht so verhalten wie man es erwartet hätte. Googles Versuch ihrer
OpenAI das Laufen beizubringen, resultierte darin, dass die KI zwar einen humanoiden
Körper von A nach B bewegen konnte, allerdings nicht in einem natürlichen Weg [22].
Das Ergebnis ist äußerst unterhaltsam und ein anschauliches Beispiel für das dritte
Problem.

Die KI weiß nicht was wir von Ihr wollen. Als Entwickler hat man eine Vision
wie die KI agieren soll. Diese gilt es umzusetzen. Die einzigen Mittel, die hier zur
Verfügung stehen sind das Setzen und Gewichten der Features10, das Definieren der

9
Google hat in der i/o Keynote 2021 angekündigt das an diesem Problem gearbeitet wird und mit
Android 12 adressiert werden soll.
10
Ein Feature ist ein Input Parameter. Wenn man beispielsweise eine KI entwickelt die
Grundstückspreise vorhersagen soll, könnte ein Feature der aktuelle Preis pro Quadratmeter sein. Features
sind in der Regel nicht gekoppelt. Auch wenn die kartesische Lage des Grundstücks den Preis i.d.R.

15
Motivation und das Setzten der Regeln. Es gibt bis jetzt keine Möglichkeit das
komplexe Konzept der Vorstellung des Entwicklers was die KI machen soll, zu
kommunizieren.

Es gibt noch weitere, technische Herausforderungen, in der KI-Entwicklung.


Diese Drei formen jedoch den Kern des Problems. Ein letales autonomes Waffensystem
muss vertrauenswürdig und zuverlässig sein, um moralisch und juristisch vertretbar zu
sein [23]. Das Problem wird dadurch verstärkt, dass es keinen Prüfstandart gibt, über
den man feststellen kann, ob eine KI vertrauenswürdig ist oder nicht.

Des Weiteren kann KI neben den oben genannten Problemen auch vorsätzlich
manipuliert oder angegriffen werden. Bei Waffensystemen, welche mit Künstlicher
Intelligenz gesteuert werden, bestehen technisch einige Gefahren. Sowohl die
eigentliche Waffe als auch die KI kann „Sabotiert“ werden. Hierbei handelt es sich dann
konkreter um eine Manipulation. In diesem Teil soll primär auf die
Manipulationsmöglichkeiten der KI als auf Schwachstellen bei der Waffe, eingegangen
werden.

Um Künstliche Intelligenz zu manipulieren, gibt es drei konkrete Ansätze. Über die


Eingabe, den Trainingsdatensatz oder das Computersystem auf dem die KI läuft.

3.2.1 KI-Manipulation über die Eingabe

Wenn KI über die Eingabe manipuliert werden soll, geht es darum die Eingabe so
vorzubereiten, dass Sie etwas anderes darstellt, als sie tatsächlich ist. In unserem
Beispiel besitzt Partei A ein Raketenabwehrsystem, welches KI basiert, vollautonom
anfliegende Raketen mittels Radars und Kameras abschießt. Es wurde viel Wert auf
Sicherheit gelegt und dieses System unterscheidet zwischen Raketen und Flugzeugen,
da nicht versehentlich ein Passagierjet abgeschossen werden soll. Partei B hat nun
mehrere Möglichkeiten, um seine abgeschossenen Raketen vor diesem Abwehrsystem
zu verstecken.

bestimmt, findet die KI diesen Zusammenhang selbst heraus. Diese Aufgabe ist so komplex, dass sich das
Berufsfeld des „feature engineer“ darum gebildet hat.
16
Sollte Partei B es gelingen, Zugriff auf eine der Kameras zu bekommen, so könnten sie
der KI gefälschte Aufnahmen als Eingabe geben, wodurch diese keine Raketen sehen
würde. Umgekehrt könnte Partei B die Bilder der Kamera so verändern, dass ein
Passagierflugzeug keine Flügel mehr hätte und unter Umständen als angreifende Rakete
klassifiziert wird. Sollte Partei B nicht an die Kameras des Abwehrsystems kommen, so
könnten Sie Ihre Raketen auch mit typischen Merkmalen von Flugzeugen ausstatten.
Beispielsweise indem kleine Flügel angebracht und Fenster aufgemalt werden.
Dr. Mathieu Sinn vom IBM-Forschungslabor sagte zu diesem Ansatzpunkt der
Manipulation: „Bei Bilderkennungssystemen reicht es aus, weniger als ein Prozent der
Eingabepixel zu verändern, um eine falsche Entscheidung des KI-Systems zu
verursachen.“
Forensisch sind diese Fehler in der Eingabe leicht und konventionell zu entdecken. [24]

3.2.2 KI-Manipulation über die Trainingsdaten

Angriffe die über die Trainingsdaten erfolgen, werden auch Vergiftungsangriffe


genannt. Sie setzen schon vor der In-Betreibnahme einer KI an und beeinflussen die
Entscheidungsfindung der KI. Künstliche Intelligenz entsteht durch das Trainieren eines
Mathematischen Modells. Dieser Vorgang nennt sich „maschine learning“. Hierbei
bekommt das Modell Daten, anhand derer Zusammenhänge erkannt und erlernt werden.
Schafft es ein Angreifer gefälschte Daten in den Trainings-, Validierungs- und
Testdatensatz einzuschleusen, so wird das Modell mit seinen Daten trainiert und
passende Eingaben falsch einsortieren. Dies ist der Fall, da sie zu den erlernten Daten
passen. Es handelt sich hierbei um eine statistische Verzerrung. So könnte Partei A
beispielsweise das Flugabwehrsystem von Partei B vorab mit falschen Flugdaten
manipuliert haben, sodass beim Berechnen der Abfangraketenflugbahn nicht
kollidierende Flugbahnen das Ergebnis sind.
Auch die Gewichtung von Parametern kann durch den Datensatz verfälscht werden.
Dies würde sich zeigen, wenn beispielsweise die Größe eines Flugzeuges 7-Fach
gewichtet wird, wobei die Geschwindigkeit lediglich 0,5-Fach in die Gewichtung fällt.

17
Ein Resultat daraus könnte sein, dass Aufgrund seiner Größe ein Segelflieger als
Kampfjet eingestuft wird, obwohl dieser deutlich langsamer ist.
Besonders schwer bei dieser Art Manipulation ist es, diese überhaupt aufzuspüren.
Hierzu ist ein aufwendiger Prozess der Überprüfung sämtlicher Datensätze und ihrer
Herkunft nötig. [24]

3.2.3 KI-Manipulation über die Computersysteme

Ein dritter Ansatzpunkt ist die IT-Infrastruktur hinter der KI. Gerade autonome Systeme
erheben über verschiedenste Sensoren eigenständig Daten und werten diese mittels
Berechnungen über Hardware aus. Über verschiedene Angriffspunkte sind diese anfällig
für Störungen. Es handelt sich beim Angriff auf „Computersysteme“ nicht direkt um
Manipulation, sondern eher um Störung der KI mittels Hardware. Sollte es gelingen die
KI von weiteren Eingaben zu trennen so kann nichts mehr entschieden werden.
Bedeutet, sollten Kameras, Radar und weitere Sensoren nicht mehr senden, so wird die
KI keine Daten für eine begründete Entscheidung haben. Ähnlich verhält es sich bei der
Rechenleistung. Schafft es der Gegenspieler die Hardware des Computersystems mit
sinnlosen Berechnungen zu beschäftigen, so wird sich die Auswertung der Daten und
die Entscheidungsfindung erheblich verlangsamen. Dies kann gerade in zeitkritischen
Situationen zu verheerenden Schäden führen. [24]

3.3 Ethische Diskussion

Neben den technischen Risiken gibt es gerade bei den vollautonomen Waffensystemen
eine Diskussion um ethische und rechtliche Fragen. Bei Waffen mit menschlicher
Entscheidungsverantwortlichkeit gibt es hier nicht so viele Probleme. Viele Fragen
kommen auf, wenn es um sogenannte „LAWS“ geht. Es handelt sich um Lethal
Autonomous Weapon Systems. Diese sind voll autonom und bedürfen keiner
menschlichen Einwirkung. Weder Entscheidungstechnisch noch mit Möglichkeit auf ein
Veto. Der größte Kritikpunkt hieran ist offensichtlich die Fähigkeit zu töten.

18
Im Hinblick auf das Töten, sollte man zwischen dem Zweck der Waffe differenzieren.
Die Waffen können sich in Hinblick auf den Schaden unterscheiden. Z.B. kann eine
Waffe für Attentate aber auch zur Massenvernichtung genutzt werden. In der ethischen
Diskussion ist jeder Tote einer zu viel, jedoch ist es ein großer Unterschied, ob eine
Drohne eingesetzt wird, um den feindlichen Befehlshaber gezielt auszuschalten oder ob
die Drohne ein gesamtes Militärcamp bombardiert. Gerade bei
Massenvernichtungswaffen sind oftmals auch zivile Opfer zu beklagen, weshalb
Attentatssysteme ethisch betrachtet besser sind.

Besonders mit der Nutzung von KI in Waffensystemen, haben diese die Möglichkeit,
beispielsweise durch Gesichtserkennung, konkrete Ziele zu lokalisieren und
auszuschalten, ohne unbeteiligte zu treffen.

Die konventionelle Rüstungskontrolle würde wegfallen, da dies bei autonomen


Waffensystemen nicht möglich ist. Derzeit sind Raketen nicht dauerhaft abschussbereit
und Sprengköpfe müssen separat zu den Raketen gelagert werden. U-Boote mit
entsprechenden Waffen müssen ebenfalls in Küstennähe bleiben. Vieles wäre durch die
Autonomie nicht möglich umzusetzen. Gerade in dem Bereich der Deeskalation zeigt
die Vergangenheit, das oft der Mensch viele Eskalationen verhindert hat. So
beispielsweise im Kalten Krieg als ein Offizier einen technischen Fehlalarm
identifizierte und somit eine nukleare Eskalation verhinderte. Durch Autonomie mittels
KI steigt die Wahrscheinlichkeit einer Eskalation. So auch im Mai 2010. Der
sogenannte „Flash Crash“ an der New Yorker Börse. Hier führte eine
Marktmanipulation dazu das computergesteuerte Hochfrequenzhändler eine
Abwärtsspirale erschufen. Solche aufeinander reagierenden Eskalationen können auch
bei Waffensystemen vorkommen. Bei dem Börsenbeispiel ist noch zu sagen, dass gegen
solch einen Fall nun Sicherheitsmechanismen (CFTC/SEC 2010) etabliert wurden.

Auch die Diskussion um ein neues Wettrüsten wird lauter. Diese werden befeuert durch
Investitionen in die Forschung und Aussagen von Staatsoberhäuptern. So beispielsweise
auch Vladimir Putin der zu Beginn des neuen Schuljahres 2017 in einer Ansprache
folgendes sagte: „Artificial intelligence is the future, not only for Russia but for all
humankind, […]. Whoever becomes the leader in this sphere will become the ruler of
the world.” Auch das Russian Military Industrial Committee verkündete, dass bis zum
19
Jahr 2025, 30% der Militärtechnologie durch Robotik und autonome Systeme ersetzt
werden soll. China teilte ebenso mit, dass sie in den nächsten Jahren 150 Milliarden
Dollar investieren wollen. Ihr Plan ist es bis 2030 zum Innovationszentrum für KI zu
werden.

Neben den kritischen Stimmen zu autonomen Waffensystemen gibt es auch


Befürworter, welche die Menschen lieber an die Ethik von Maschinen anpassen würden.
Denn Maschinen entscheiden objektiv und rational. Die Entscheidungen beinhalten
keine Vorurteile. Besonders dieser Punkt lässt viele an einen guten Nutzen bei KI in
Waffensystemen glauben. Dies gilt nur, wenn wie oben beschrieben, qualitative Daten
erhoben werden, die frei von Vorurteilen oder statistischen Unreinheiten sind.

Ein guter Weg, um die oben genannten Probleme zu lösen, sind sicherlich auch die
Formulierung von Regeln. So gab im November 2019 das Pentagon bekannt, dass KI-
Anwendungen im US-Militär fünf Prinzipien folgen sollen. [25] Diese sind:

• Der Mensch soll für Entwicklung, Verbreitung, Einsatz und Ergebnisse der KI
verantwortlich sein.
• Jede KI-Anwendung soll fair bleiben, daher müssen Vorurteile in den Daten
vermieden werden.
• Transparente und überprüfbare Methoden, Datenquellen, Designverfahren und
Dokumentation sollen sicherstellen, dass beteiligte Mitarbeiter ein Verständnis
für die KI-Systeme entwickeln und deren Entscheidungen rückverfolgbar sind.
• Alle Einsatzbereiche für KI sollen klar definiert und getestet werden und
verlässlich, sicher und robust funktionieren.
• Alle KI-Systeme sollen steuerbar bleiben – und im Notfall abschaltbar sein.
Unbeabsichtigtes Verhalten soll so erkannt und verhindert werden.

Wie gut sich diese Regeln umsetzen lassen, wird sich in der weiteren Entwicklung
zeigen.

Auch in Europa werden letale autonome Waffensysteme diskutiert. Im September 2018


wurde eine Resolution mit großer Mehrheit verabschiedet, die ein Verbot von
Waffensystem verlangt, die vollständig autonom und ohne jegliche menschliche
Kontrolle agieren. Diese Resolution ist nicht bindend da alle Mitgliedsstaaten selbst
20
entscheiden können, ob sie zustimmen oder nicht. Erschwert wird das Vorhaben durch
das breit gestreute Feld der Meinungen. Das Vereinigte Königreich lehnt ein Verbot
oder Regulierung ab, Deutschland und Frankreich tendieren zu einem Mittelweg und
Österreich ist für ein allumfassendes Verbot.

Es besteht jedoch ein Bedarf an einem gemeinsamen Grundsatz. Die Position der EU ist
hierbei klar definiert und lässt sich in vier Punkte zusammenfassen. [26]

• Alle Waffensysteme müssen sich an internationales Recht halten.


• Menschen müssen die Entscheidung über die Ausübung tödlicher Gewalt, volle
Kontrolle über die Waffensysteme, die sie nutzen und Verantwortung über alle
Entscheidungen die Leben und Tod betreffen haben
• Die UN-Konvention für bestimmte konventionelle Waffen ist der angebrachte
Rahmen um Regulationen für Waffen dieser Art zu Diskutieren
• Aufgrund der Nutzung aufstrebender Technologien im zivilen Bereich sollen
Beschränkungen im militärischen Bereich diese nicht beeinflussen, KI mit
inbegriffen.

Die Bundesregierung in Deutschland ist im Gegensatz zur EU noch unentschlossen.


2013 wurde in einem Koalitionsvertrag festgehalten sich für eine völkerrechtliche
Ächtung vollautomatisierter Waffensysteme einzusetzen, die dem Menschen die
Entscheidung über den Waffeneinsatz entziehen. Es fehlt jedoch eine deutsche
Definition des Begriffs der LAW, um Deutschlands Standpunkt in internationalen
Debatten zu spezifizieren.
Bei der Bundeswehr steht eine Debatte rund um das Für und Wider eines
autonomen Waffensystems auch noch aus. Der Einsatz ferngesteuerter Drohnen trifft
auf Zustimmung, die Möglichkeit diese auch vollautonom agieren zu lassen jedoch
nicht. Es fehlt das Vertrauen in die Fähigkeiten eines LAW wobei die, als Kotrollverlust
der Soldaten aufgefasste, Automatisierung dem nicht zuträglich ist. [27]

Abgesehen der politischen Orientierung der BRD gibt es ein zentrales, ethisches
Problem. Im Grundgesetz ist verankert das die Würde des Menschen unantastbar ist.
Diese ist Bestandteil der Menschlichkeit und setzt voraus, dass ein Mensch nie als
Mittel zum Zweck missbraucht wird. Wird im Kriegsfall die Entscheidung getroffen zu
21
töten, so wird diese bis heute von einem Menschen getroffen, der in der Lage ist,
moralische und menschliche Konzepte zu verstehen und nachzuvollziehen. Als Deep
Blue Kasparov 1996 im Schach schlug, wusste der Computer nicht was er tat und
warum. Er wusste nicht was Schach-Spielen bedeutet oder warum dieser Sieg
Geschichte geschrieben hat. Es ist im Kern eine Rechenmaschine das nicht über ein
Bewusstsein verfügt das Handlungen in einen Kontext setzen kann. Übertragen auf
moderne KIs ändert sich daran nichts. Eine KI kann nicht verstehen was Begriffe wie
„Leben“ und „Tod“ bedeuten. Wenn ein Mensch bewusst die Entscheidung triff zu
töten, ist er sich im Klaren welche Folgen dies hat und was es heißt ein Leben zu
nehmen. Er versteht wie schwerwiegend diese Entscheidung ist und hat eine Motivation
mit er diese Handlung begründen kann. Durch die schlichte Unfähigkeit, die
menschliche Würde zu begreifen, verstößt eine LAW gegen Kants Menschheits-Zweck-
Formel11 des kategorischen Imperativs und somit auch gegen den ersten Absatz im
ersten Paragrafen des Grundgesetzes. Ein Mensch würde von der KI auf eine
mathematische Operation reduziert und als Mittel zum Zweck der Erfüllung seiner
Aufgabe missbraucht werden. [26]

Ein Gedanke, den man nicht vergessen sollte, ist vor allen Dingen, dass gerade solche
Waffen sehr günstig, im Sinne der Beschaffung, sein können. Beispielsweise kann es
Möglichkeiten geben über Open-Source KI-Modell kostengünstig an die Software zu
kommen. Auch die Drohnen selbst sind bereits in diesen Jahren nicht mehr als teuer zu
betrachten. Somit hätten auch Terrororganisationen und andere kriminelle Strukturen
die Möglichkeit, mit geringen Kosten voll funktionale LAWS zu bauen. [28]

In einem Arbeitspapier der Bundesakademie für Sicherheitspolitik beschreibt die


Autorin einen weiteren wichtigen Punkt. Die KI in Waffensystemen ist grundsätzlich
nicht das Problem. Sondern das Problem liegt darin, ob politische Entscheidungsträger
eine militärische Praktik mit autonomen Waffensystemen als akzeptabel oder nicht-
akzeptabel einstufen. Solange es gegen unbelebte Objekte wie Munition ging, wurde

11
„Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern
jederzeit zugleich als Zweck, niemals bloß als Mittel brauchest.“ – Immanuel Kant
22
keine Diskussion laut. Erst seitdem über die Akzeptanz von autonomen
Waffensystemen gesprochen wird, die in Anwendungsszenarien agieren, die bisher rein
manuell betrieben wurden, ist die Diskussion aufgekommen. Diese
Anwendungsszenarien sind Kämpfe gegen belebte Ziele, wie besetzte Panzer, Schiffe
oder einfache Infanterie. [29]

3.4 Verantwortlichkeit

Da kein Mensch mehr die direkte Verantwortung für einen Abschuss trägt, ist unklar
wer die Verantwortlichkeit und Haftbarkeit trägt. Diese ist jedoch fundamental für die
rechtliche Absicherung des humanitären Völkerrechts und der Menschenrechte. Im
Folgenden ist jedoch zwischen individueller strafrechtlicher, zivilrechtlicher und
Staatenverantwortlichkeit zu unterscheiden.

3.4.1 Strafrechtliche Verantwortlichkeit

Wenn es durch eine Handlung einer LAW zu einer Verletzung des Völkerrechts kommt,
gibt es in Bezug auf die Frage wer zur Rechenschaft gezogen wird zwei Ansatzpunkte:
Die Entwickler des Systems oder die Kommandeure im Feld. Im Einzelfall kann man
erwägen die übergeordneten Generäle oder die grundsätzlichen politischen
Entscheidungsträger zur Verantwortung zu ziehen. Geht es um vorsätzliche
Kriegsverbrechen ist die Rechtslage klar. Wenn der Entwickler bewusst den
Algorithmus so konstruiert, dass dieser im Feld Zivilisten attackiert und die Intention
auch dieser Natur ist, dann ist die strafrechtliche Verfolgung in diesem Fall klar.
Dasselbe gilt auch dafür, wenn ein Kommandeur wissentlich eine LAW einsetzt, die
Völkerrechtswidrig agiert. Kompliziert wird es, wenn alle beteiligten Parteien davon
ausgehen das die LAW einwandfrei und Völkerrechtskonform agiert.

Wie bereits in vorangegangenen Kapiteln erläutert, ist die Entwicklung eines


autonomen Waffensystems äußerst komplex. Selbst die Entwickler können im
Vorhinein nicht alle Handlungen der KI testen. Der Vorteil einer KI gegenüber einem
herkömmlichen System, ist eben nun mal das sie auf vorher unbekannte Situationen

23
reagieren kann. Diese Faktoren, das im tatsächlichen Einsatz Einflüsse auftreten, die
nicht vorauszusehen waren, müssen im Strafprozess berücksichtigt werden. Hierbei tritt
jedoch dann die Gefahr auf, dass alle Fehltritte einer LAW wie höhere Gewalt
dargestellt werden, die ein Entwickler unmöglich hätte vorhersehen können. Verschärft
wird dieses Dilemma, wenn das KI-System mit einem lernfähigen Algorithmus
versehen ist. Das Antizipieren der Handlungen einer solchen LAW ist umso
schwieriger.

Die Verantwortlichkeit des Kommandeurs ist genauso problematisch. Man kann


argumentieren, dass wenn der Befehlshaber im Bild ist, dass die KI fehlerhaft ist, und
diese trotzdem einsetzt, dieser auch die volle Verantwortung trägt. Weiß der
Kommandeur jedoch nicht über einen solchen Fehler Bescheid kann man nicht sinnvoll
davon ausgehen, dass der Kommandeur „hätte wissen müssen“, dass die LAW das
Völkerrecht verletzt. Beobachtet jedoch der Kommandeur wie die LAW aufgrund von
einer Fehlfunktion droht ein Kriegsverbrechen zu begehen und bricht den Einsatz nicht
umgehend ab, dann trägt er die strafrechtliche Verantwortung für alle Verbrechen ab
diesem Zeitpunkt.

Dieser Aspekt illustriert die Zunahme der Verantwortlichkeitsgrauzone bei wachsender


Autonomität. Verantwortlichkeit hängt von Kontrolle ab. Desto autonomer ein System
wird, desto größer wird die mögliche Verantwortungslücke. Die Strafbarkeit des
Kommandeurs oder Entwicklers kann dementsprechend ab einem bestimmten Punkt der
Autonomie nicht mehr begründet werden. Der Verweis, dass ein menschlicher Einfluss
notwendig ist, löst das Problem nicht. [30]

3.4.2 Zivilrechtliche Verantwortlichkeit

Die Zivilrechtliche Verantwortlichkeit ist von der strafrechtlichen Verantwortlichkeit


abzugrenzen. Eine Möglichkeit wäre eine strikte Produkthaftung, die den Entwickler der
LAW betrifft. Dies würde den Hersteller dazu anregen möglichst sichere und
ausgereifte Waffensysteme zu entwickeln. Das Kernproblem hier ist das viele Staaten
keine Rechtslage in der Art etabliert haben. Weiterhin ist es bei ziviler
Verantwortlichkeit in der Hand des Opfers den entstandenen Schaden anzuklagen und

24
Angesichts der heutigen Konfliktsituation haben die Opfer meist nicht die Möglichkeit
oder Ressourcen ein Verfahren gegen den Hersteller zu führen. [30]

3.4.3 Staatenverantwortlichkeit

Nach der Friedrich-Ebert-Stiftung müssen sich Staaten für Ihre Organe verantworten.
Sollte also ein Befehlshaber den Einsatz eines autonomen Waffensystems anordnen, so
wurde diese Entscheidung von einem Organ des Staates getroffen und rechnet somit
sämtliche Komplikationen dem Staat zu. Der Streitpunkt um die Verantwortung beginnt
bei der Vorsätzlichkeit oder der Fahrlässigkeit. Sollten diese nicht vorliegt, wird es
schwer zu entscheiden, ob es nun ein Verschulden des Staates ist. Kann jedoch
nachgewiesen werden, dass die Entscheidungen und Vorgehensweisen der autonomen
Waffen nicht unmittelbar und vollständig kontrolliert wurden, so werden Staaten ohne
Zweifel haftbar gegenüber Schäden.
Dies ist der Fall, da der Einsatz somit Risiko behaftet war und der Staat somit für das in
Kauf nehmen des Risikos haftet. Ähnlich verhält sich das bei Weltraumobjekten.
Sollten Objekte, die ein Staat in den Weltraum befördert hat, auf die Erdoberfläche
hinabstürzen, so haftet der Staat in dem Fall ebenfalls, da er das Risiko des hinabstürzen
in Kauf genommen hat. Des Weiteren haben Staaten Präventions-, Überwachungs- und
Schadensverhinderungspflichten. Diese sind jedoch nicht klar definiert. [30]

4 Fazit

4.1 Zielerreichung

Wie in der Zielsetzung festgelegt, soll eine Grenze erarbeitet werden, bis zu welcher
Stufe der Autonomität ein LAW (Letales autonomes Waffensystem) vertretbar ist.
Diese Frage kann nicht pauschal für alle Arten von LAWS beantwortet werden.

Zu beachtende Aspekte bei der Grenze sind die Komplexität des Umfeldes und der
Rahmen, in dem das Waffensystem eingesetzt wird. Bei dem Einsatzgebiet des
Waffensystems unterscheidet man zwischen dem defensiven, welches reagiert und dem
25
offensiven, welches agiert. Bei dem offensiv eingesetzten Waffensystem ist noch zu
werten, ob es als Massenvernichtungswaffe oder als gezielte Attentatswaffe eingesetzt
wird. Bei den defensiven Waffensystemen kann unterschieden werden zwischen dem
Abschuss von bemannten Objekten oder unbemannten, wie z.B. Raketen und Drohnen.

Unabhängig der zuvor genannten Einflüsse sollte, bei dem Einsatz von KI in
Waffensystemen, eine zentrale Stelle wie beispielsweise ein Ausschuss der UN das KI-
Modell überprüfen. Hierzu müssen die Entwicklerfirmen sowohl die Trainingsdaten als
auch den Entwicklungsprozess, sowie die internen Testergebnisse bei der
entsprechenden Stelle einreichen. Sollte diese zentrale Stelle, dass KI-Modell als
zuverlässig genug einstufen, so wird ein Zertifikat ausgegeben, dass gleichzeitig auch
den Einsatzrahmen der Waffensysteme festlegt, welche mit diesem Modell betrieben
werden. Erst dann sind die Staaten, welche dieses Modell einsetzen, haftungsfrei, sollte
etwas bei einem Einsatz fehlschlagen.

Wie in den Kapiteln 3.2.1 - 3.2.3 dargestellt wurde, besteht auch ein gewisses Risiko
der Manipulation bei KIs. Dies kann über die Eingabe, Trainingsdaten oder über das
Hardware- bzw. Computersystem an sich geschehen. Hierbei stellt sich die Frage, ob
die Zuverlässigkeit eines vollständig validierten und getesteten KI-Systems
zuverlässiger ist als ein menschlicher Operator. Dies würde jedoch den Rahmen dieser
Arbeit übersteigen und bietet Stoff für zukünftige Untersuchungen.

Nun konkreter zur Eingrenzung. Bei defensiven Waffensystemen, welche unbemannte


Objekte abwehren, sind nahezu keine Einschränkungen notwendig, solange die
Fehlerquote nahe dem Nullpunkt liegt. Mit nahezu keine Einschränkungen ist gemeint,
dass weder die menschliche Zustimmung noch ein Veto eingeräumt werden müsste. Das
Veto sollte dennoch implementiert werden, da es in den normalen autonomen Ablauf
keinen Einfluss nimmt und lediglich als Sicherheitsmaßnahme, für Notfälle, fungiert.

Des Weiteren ist die Komplexität des Einsatzgebietes ein großes Problem. Je mehr
Parameter sich verändern, beispielsweise durch Ortswechsel, desto unzuverlässiger
werden LAWS. Zumindest gilt dies im Jahre 2021 noch. Bedeutet, dass gerade Systeme
die offensiv eingesetzt werden, z.B. im Häuserkampf, eher zu Fehlentscheidungen
neigen, da in sekundenbruchteilen Situationen entstehen können, die nicht trainiert
worden sind. Somit sollten bei Systemen, die eher von Ortswechseln und hektischen
26
Situationen betroffen sind, eine geringere Autonomität vorliegen. Diese LAWS könnten
zum Beispiel kleine Roboter sein, die nur in bestätigte, rein feindliche Raume gelassen
werden und daraufhin selbstständig agieren.

Trotz der Unklarheiten, wie KI in Waffensystemen eingesetzt werden sollte, ist die
Entwicklung solcher Systeme wichtig und sollte nicht aufgeben werden.

Da politische Parteien wie Russland und China aktiv an Technologien wie KI arbeiten
und diese ebenfalls in Waffensystemen einsetzen, ist es für die restlichen Länder
unausweichlich ebenfalls daran zu forschen.

27
4.2 Perspektive

Der Bereich der KI-Forschung hat in den letzten Jahren stark zugenommen, wie man in
Abbildung 2 sehen kann. Dieser Trend wird sich in den kommenden Jahren fortführen.
Mit steigender Forschung und steigenden Investitionen steigt auch die
Wahrscheinlichkeit, ein bisher unerreichtes Level an Intelligenz zu erreichen.

Abbildung 2 [2]

28
Abbildung 3 [3]

Wie man in Abbildung 3 sehen kann, sind sich viele Experten einig, dass wir bereits in
den Jahren 2050 bis 2100 gute Chancen haben, eine high level machine intelligence zu
entwickeln. Auf der Zeitachse etwas weiter sieht man das Jahr 2300. Dieses Jahr
werden wir zwar nicht mehr miterleben, allerdings ist es, auf die gesamte
Menschheitsgeschichte gesehen, ein doch sehr naher Zeitpunkt. In 2300 sind sich die
Experten einig. Über 90% der Experten schätzen, dass in diesem Jahr sowohl die 10%-
tige, als auch die 50%-tige und die 90%-tige Wahrscheinlichkeit besteht high level
machine intelligence zu entwickeln. Das zeigt, dass es bei der Diskussion nicht darum
geht, ob die Menschheit dieses Intelligenz-Level erschaffen kann. Es wird viel mehr
diskutiert wann die Menschheit diesen Meilenstein erreichen wird.

Auch das Wettrüsten kann in Zukunft noch stark zunehmen und sollte verhindert
werden. Nach der Meinung von Dr. Jürgen Altmann von der Technischen Universität
Dortmund könnte man dies durch ein internationales, rechtlich verbindliches Verbot
erreichen. [31]

29
In Zukunft ist, nach Auffassung von dem Robotikwissenschaftler Ronald Arkin,
denkbar, dass ein autonomes Waffensystem vor dem tödlichen Abschuss um Erlaubnis
bittet. Diese wird jedoch nicht mehr durch einen Menschen gegeben, da dies gerade bei
zeitkritischen Situationen zu lange dauert, sondern durch eine einprogrammierte
Überprüfungsinstanz. Diese prüft alle Daten und entscheidet nach den Regeln des
humanitären Völkerrechts, ob die tödliche Gewalt angemessen ist. Arkin weist ebenfalls
daraufhin, dass sicherlich Fehler auftreten können. Die Fehlerquote wird jedoch
signifikant niedriger sein.

30
5 Literaturverzeichnis

[1] Mika Westerlund (2021, März, 18) The emergence of deepfake technology: A review
(Online)
DOI: www.timreview.ca/article/1282

[2] Gil Press (2016, August 28) Artificial Intelligence Defined As A New Research
Discipline: This Week In Tech History (Online)
DOI: www.forbes.com/sites/gilpress/2016/08/28/artificial-intelligence-defined-as-a-
new-research-discipline-this-week-in-tech-history/

[3] J. McCarthy, M. L. Minsky, N. Rochester, C.E. Shannon (1955, August, 31) A


PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON
ARTIFICIAL INTELLIGENCE (Online)
DOI: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

[4] Joseph Weizenbaum (1966 Januar) ELIZA - A Computer Program for the Study of Natural
Language Communication Between man and machine (Online)
DOI: https://cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf

[5] Stylianos Kampakis(unbekannt) Genetic algorithms: A bit of history (Online)


DOI: https://thedatascientist.com/genetic-algorithms-neural-networks/

[6] Gianluca Misuraca, Colin van Noordt (2020) AI Watch - Artificial Intelligence in
public services
DOI: https://publications.jrc.ec.europa.eu/repository/handle/JRC120399

[7] Hye-Wuk Jung (2020) A Study on the Current State of Artificial Intelligence Based
Coding Technologies and the Direction of Future Coding Education
DOI: https://doi.org/10.17703/IJACT.2020.8.3.186

[8] H G Wells (26.09.2017) The Land Ironclads


DOI: http://gutenberg.net.au/ebooks06/0604041h.html

[9] Adam Augustyn Weapon Definition


DOI: https://www.britannica.com/technology/weapon

[10] Hans F. Bünting Organisatorische Effektivität von Unternehmen


DOI: https://link.springer.com/chapter/10.1007%2F978-3-663-08833-2_2

31
[11] Amy Tikanen Weapon system Definition
DOI: https://www.britannica.com/technology/weapons-system

[12] The editors of encyclopaedia Britannica Strategic weapons systems


DOI: https://www.britannica.com/technology/strategic-weapons-system

[13] The editors of encyclopaedia Britannica Tactical weapons systems


DOI: https://www.britannica.com/technology/tactical-weapons-system

[14] Kaspersky Lab Types of Malware


DOI: https://www.kaspersky.com/resource-center/threats/malware-classifications

[15] Hans-Christian Dirscherl US Luftwaffe schießt Raketen mit Laser ab


DOI: https://www.pcwelt.de/news/US-Luftwaffe-schiesst-Raketen-mit-Laser-ab-
10586828.html

[16] Israel Aerospace Industries Harpy


DOI: https://www.iai.co.il/p/harpy

[17] DARPA (2009) EXtreme ACcuracy Tasked Ordnance (EXACTO) (Archived)


(Online)
DOI: https://www.darpa.mil/program/extreme-accuracy-tasked-ordnance

[18] DARPA (27.04.2015) EXACTO Guided Bullet Demonstrates Repeatable


Performance against Moving Targets (Online)
DOI: https://www.darpa.mil/news-events/2015-04-27

[19] Statistisches Bundesamt (06.10.2020) Studierende im Schnitt 23,4 Jahre alt


DOI: https://www.forschung-und-lehre.de/lehre/studierende-im-schnitt-23-4-jahre-alt-
3163/#:~:text=7.100%20Studierende%20waren%20es%202019,Studierenden%20bei%
2023%2C4%20Jahren.
32
[20] V. Pawlik (25.01.2021) Studenten in Deutschland nach Geschlecht im Vergleich
mit der Bevölkerung im Jahr 2020
DOI: https://de.statista.com/statistik/daten/studie/859976/umfrage/umfrage-in-
deutschland-zum-geschlecht-der-
studenten/#:~:text=Im%20Jahr%202020%20waren%20rund,rund%2049%2C4%20Proz
ent%20M%C3%A4nner.

[21] Studentenwerk (2020) Studieren mit Migrationshintergrund


DOI: https://www.studentenwerke.de/de/content/studieren-mit-
migrationshintergrund#:~:text=20%20Prozent%20der%20Studierende%20in,ausl%C3
%A4ndische%20Staatsangeh%C3%B6rigkeit%20mit%20deutscher%20Hochschulzuga
ngsberechtigung)

[22] Science Museum (23.03.2018)


DOI: https://www.youtube.com/watch?v=imOt8ST4Ejc

[23] Fraunhofer Group For Defense And Security (Mai 2020) Rise Of Artificial
Intelligence In Military Weapons Systems
DOI: https://www.fraunhofer.de/content/dam/zv/de/forschungsthemen/schutz-
sicherheit/rise-of-intelligent-systems-in-military-weapon-systems-position-paper-
fraunhofer-vvs.pdf

[24] Deutschlandfunk: Peter Welchering im Gespräch mit Manfred Kloiber Angriffe auf
KI-Systeme sind simpel und erfolgreich
DOI: https://www.deutschlandfunk.de/datenverwirrung-angriffe-auf-ki-systeme-sind-simpel-
und.684.de.html?dram:article_id=438784

[25] Maximilian Schreiner KI-Ethik: So will das US-Militär Künstliche Intelligenz


einsetzen
DOI: https://mixed.de/ki-ethik-so-will-das-us-militaer-kuenstliche-intelligenz-einsetzen/
[26] Anja Dahlmann/Marcel Dickow (Januar 2019) Präventive Regulierung autonomer
Waffensysteme
DOI: https://www.swp-berlin.org/publications/products/studien/2019S01_dkw_dnn.pdf

33
[27] Oberstleutnant i.G. Dr. Jörg Wellbrink (Januar 2014) Mein neuer Kamerad –
Hauptgefreiter Roboter?
DOI: http://www.ethikundmilitaer.de/de/themenueberblick/20141-drohnen/wellbrink-
mein-neuer-kamerad-hauptgefreiter-roboter/

[28] LETHAL AUTONOMOUS WEAPONS: AN OPEN LETTER FROM THE GLOBAL


HEALTH COMMUNITY
DOI: https://futureoflife.org/medical-lethal-autonomous-weapons-open-letter/

[29] Frank Sauer Künstliche Intelligenz in den Streitkräften: Zum Handlungsbedarf bei
Autonomie in Waffensystemen
https://www.baks.bund.de/de/arbeitspapiere/2018/kuenstliche-intelligenz-in-den-
streitkraeften-zum-handlungsbedarf-bei-autonomie

[30] Robin Geiss (Juni 2015) Die völkerrechtliche Dimension autonomer Waffensysteme
DOI: https://library.fes.de/pdf-files/id/ipa/11444-20150619.pdf

[31] Dr. Jürgen Altmann Autonome Waffen-systeme: Wenn Maschinen über Le-ben und
Tod ent-scheiden
DOI: https://www.bundestag.de/dokumente/textarchiv/2020/kw45-pa-bildung-
waffensysteme-798846

34
6 Abbildungsverzeichnis

[1] Abbildung 1
DOI: https://doi.org/10.17703/IJACT.2020.8.3.186

[2] Abbildung 2
DOI: https://www.cni.org/wp-content/uploads/2019/01/CNI_Scaling_Grant.pdf

[3] Abbildung 3
DOI: https://www.nickbostrom.com/papers/survey.pdf

35
Eidesstattliche Erklärung

Hiermit versichere ich, dass die vorliegende Arbeit von mir selbstständig und ohne
unerlaubte Hilfe angefertigt worden ist, insbesondere dass ich alle Stellen, die wörtlich
oder annähernd wörtlich aus Veröffentlichungen entnommen sind, durch Zitate als solche
gekennzeichnet habe. Ich versichere auch, dass die von mir eingereichte schriftliche
Version mit der digitalen Version übereinstimmt. Weiterhin erkläre ich, dass die Arbeit
in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde/Prüfungsstelle vorgelegen
hat. Ich erkläre mich damit einverstanden/nicht einverstanden, dass die Arbeit der
Öffentlichkeit zugänglich gemacht wird. Ich erkläre mich damit einverstanden, dass die
Digitalversion dieser Arbeit zwecks Plagiatsprüfung auf die Server externer Anbieter
hochgeladen werden darf. Die Plagiatsprüfung stellt keine Zurverfügungstellung für die
Öffentlichkeit dar.

Leverkusen, den 22.07.2021

36
Eidesstattliche Erklärung

Hiermit versichere ich, dass die vorliegende Arbeit von mir selbstständig und ohne
unerlaubte Hilfe angefertigt worden ist, insbesondere dass ich alle Stellen, die wörtlich
oder annähernd wörtlich aus Veröffentlichungen entnommen sind, durch Zitate als solche
gekennzeichnet habe. Ich versichere auch, dass die von mir eingereichte schriftliche
Version mit der digitalen Version übereinstimmt. Weiterhin erkläre ich, dass die Arbeit
in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde/Prüfungsstelle vorgelegen
hat. Ich erkläre mich damit einverstanden/nicht einverstanden, dass die Arbeit der
Öffentlichkeit zugänglich gemacht wird. Ich erkläre mich damit einverstanden, dass die
Digitalversion dieser Arbeit zwecks Plagiatsprüfung auf die Server externer Anbieter
hochgeladen werden darf. Die Plagiatsprüfung stellt keine Zurverfügungstellung für die
Öffentlichkeit dar.

Köln, den 22.07.2021

37

Das könnte Ihnen auch gefallen