Sie sind auf Seite 1von 3

Rüstungsindustrie

Sorge über fehlende Regeln für autonome


Waffen
Eine neue Studie niederländischer Friedensforscher zeigt die mangelhafte Selbstregulierung
der Waffenindustrie

23. Dezember 2019, 07:00

Immer wieder gibt es Bestrebungen, autonome Waffen zu verbieten.

Foto: REUTERS/Annegret Hilse

Es ist nicht weniger als die dritte große Revolution in der Waffenindustrie. Die erste war das
Schießpulver, die zweite waren Nuklearwaffen und die dritte seien nun die autonomen
Waffensysteme, warnt die niederländische NGO Pax, die sich mit ihrer Forschung weltweit
für eine Stärkung des Friedens einsetzt. Noch sind keine vollautonomen Systeme bekannt, die
aktuell im Einsatz wären, zweifelsfrei habe sich in den vergangenen zehn Jahren aber ein
Trend gezeigt, wonach immer mehr Unternehmen in immer mehr Staaten an der Entwicklung
dieser Systeme arbeiten. Autonome Waffen würden "fundamentale rechtliche und ethische
Prinzipien verletzten und den internationalen Frieden gefährden", warnen die Forscher.

INFORMIEREN SIE SICH JETZT!

Karriereplanung 2020: Ab in den Hörsaal


Große Pläne im neuen Jahr? Mit einem Management-Studium an der FH OÖ in Steyr haben
schon viele ihre Karriere-Pläne verwirklicht. Auch neben dem Job. 10 berufsbegleitende
Studiengänge stehen zur Auswahl.

Werbung

Besonders besorgniserregend ist für Pax, dass es aktuell keine international rechtlich
verbindlichen Regeln für die Produktion oder den Einsatz dieser Systeme gibt. Zwar gibt es
immer wieder Forderungen von Aktivisten, aber auch ranghohen Militärs nach scharfen
Regeln oder gar einem gänzlichen Verbot der gesamten Waffengattung – allen voran
Russland und die USA legen sich aber regelmäßig quer. Die Waffenindustrie ist also auf sich
alleingestellt und setzt sich ihre eigenen Regeln und Grenzen – oder eben nicht.

Fast alle säumig

Für den aktuellen Bericht befragte Pax die 50 führenden Rüstungsunternehmen nach deren
Guidelines für die Produktion autonomer Waffensysteme. Nach Einschätzung der Forscher
hätten sich nur vier Unternehmen zufriedenstellende Regeln auferlegt. 16 werden aufgrund
fehlender oder lascher Vorschriften mit "mittlerer Sorge" und ganze 30 mit "großer Sorge"
betrachtet – darunter Lockheed Martin, Boeing und Rafael. Entscheidend bei der Bewertung
ist vor allem, inwiefern der sogenannte "human in der the loop", der Faktor Mensch in der
Schleife garantiert wird – also die Frage, ob nach wie vor ein Mensch die Entscheidung zu
töten trifft.

Vox

Bei zahlreichen defensiven Systemen – etwa bei der Raketenabwehr – haben Menschen
bereits heute nur noch eine unterstützende Funktion. Die Geräte erkennen die Geschoße von
allein und fangen diese auch vollautonom ab. Der Geschwindigkeitsvorteil durch die
Automatisierung ist selbstverständlich auch attraktiv für offensive militärische Operationen –
droht aber das Töten noch ein Stück weiter zu entmenschlichen, als es der Einsatz von
Drohnen ohnehin schon tat. Hauptkritikpunkt bleibt vor allem die Unterscheidung von
Algorithmen zwischen mutmaßlich legitimen Zielen und Zivilisten – wenngleich Menschen
hier auch schon katastrophale Fehler begangen haben. Immerhin könnte theoretisch aber
jemand zur Verantwortung gezogen werden.

Die Forscher identifizieren im Bericht vor allem die sogenannten Loitering Weapons als
Gefahr, weil bei ihnen nur mehr ein winzig kleiner Schritt zur tatsächlichen Autonomie
notwendig ist. Diese "schlummernden" beziehungsweise "herumlungernden" Waffen sind
Drohnen, die nach ihrem Start erst einmal für einige Minuten, in Extremfällen aber bis zu
zwei Stunden, über einem Einsatzgebiet herumschwirren, ehe sie zuschlagen. Noch trifft ein
Mensch die Entscheidung über den Beschuss von Zielen. Dank ausgereifter
Gesichtserkennungssoftware und präziser Ortungstechnik könne aber auch dieser Schritt
theoretisch recht leicht autonom umgesetzt werden, warnt Pax. (faso, 23.12.2019)