Autonome Waffensysteme: Keiner ist verantwortlich

USS George H.W. Bush launches X-47B

Autonome Waffensysteme, die unabhängig von einem einzelnen menschlichen Befehl selbständig über einen Waffeneinsatz entscheiden, können nach Darstellung der Menschenrechtsorganisation Human Rights Watch (HRW) dazu führen, dass es keinerlei Verantwortlichkeiten mehr für unrechtmäßige Gewalt, Tote und Verletzte gibt. Programmierer, Hersteller und Militärpersonal könnten für rechtswidrige Tötungen nicht mehr zur Verantwortung gezogen werden, wenn solche vollkommen autonomen Waffen entwickelt und eingeführt würden, warnte die Organisation in einem am (heutigen) Donnerstag in Genf vorgelegten Bericht.

Als Konsequenz müssten autonome Waffensysteme grundsätzlich geächtet werden, wie das beispielsweise mit blind machenden Laserwaffen geschehen sei, fordert die Organisation. Neben der straf- und zivilrechtlichen Verantwortlichkeit sei auch die Vereinbarkeit mit dem humanitären Völkerrecht und den Menschenrechten nicht gegeben, wenn Maschinen über Leben und Tod entscheiden könnten.

Human Rights Watch setzt sich mit der Kampagne Stop Killer Robots seit Jahren dafür ein, dass Entwicklung und Nutzung autonomer Waffensysteme international verboten und geächtet werden. Kern der jetzt vorgelegten Argumentation ist das Problem, dass eine Maschine für rechtswidrige oder auch nur fahrlässige Handlungen nicht zur Verantwortung gezogen werden kann. Weder nach dem Straf- noch nach dem Zivilrecht könne dann jemand für eine unrechtmäßige tödliche Aktion verantwortlich gemacht werden.

Aus der Zusammenfassung des Berichts Mind the Gap – The Lack of Accountability for Killer Robots:

Existing mechanisms for legal accountability are ill suited and inadequate to address the unlawful harms fully autonomous weapons might cause. These weapons have the potential to commit criminal acts—unlawful acts that would constitute a crime if done with intent—for which no one could be held responsible. A fully autonomous weapon itself could not be found accountable for criminal acts that it might commit because it would lack intentionality. In addition, such a robot would not fall within the “natural person” jurisdiction of international courts. Even if such jurisdiction were amended to encompass a machine, a judgment would not fulfill the purposes of punishment for society or the victim because the robot could neither be deterred by condemnation nor perceive or appreciate being “punished.”
Human commanders or operators could not be assigned direct responsibility for the wrongful actions of a fully autonomous weapon, except in rare circumstances when those people could be shown to have possessed the specific intention and capability to commit criminal acts through the misuse of fully autonomous weapons. In most cases, it would also be unreasonable to impose criminal punishment on the programmer or manufacturer, who might not specifically intend, or even foresee, the robot’s commission of wrongful acts.

Kurzgefasst: Einen Roboter zu bestrafen, ist wenig sinnvoll – und eine Maschine handelt ja nicht mit Vorsatz. Zugleich könnten, so die Befürchtung von HRW, allerdings auch die menschlichen Kommandeure oder Bediener nicht zur Verantwortung gezogen werden, weil ihnen falsche Aktionen der Maschine nur in Ausnahmefällen persönlich angelastet werden können.

(Randbemerkung: Die Argumentation von HRW hat Implikationen weit über die militärische Nutzung hinaus – zum Beispiel für autonome Landtransportsysteme, auf Deutsch: selbstfahrende Autos. Auch dabei könnte, wenn man dieser Argumentation folgt, niemand für einen tödlichen Unfall zur Verantwortung gezogen werden.)

HRW legte den Bericht in Genf vor, weil dort vom 13. bis zum 17. April eine Konferenz der Vereinten Nationen zu letalen autonomen Waffensystemen stattfindet. Erste Gespräche im UN-Rahmen dazu hatte es bereits im November 2013 gegeben. Gegner unbemannter Systeme, insbesondere von bewaffneten Drohnen, hatten dagegen argumentiert, eine Konvention über autonome Systeme verringere die Chance, bereits von Menschen gesteuerte, nicht-autonome Systeme völkerrechtlich zu ächten.

In Deutschland hat sich die derzeitige Bundesregierung bereits im schwarz-roten Koalitionsvertrag zu autonomen Waffensystemen festgelegt:

Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen.

Auch die USA lehnen nach ihrer derzeitigen Strategie autonome Waffensysteme ab, arbeiten aber an der Ausweitung des Einsatzes unbemannter Systeme, wenn auch unter menschlicher Kontrolle:

The US Army is drafting doctrine for the first time that would govern its robotic and unmanned systems, with the service’s sights set on robots for supply convoys, tactical reconnaissance and as robotic wingmen for soldiers on foot.
Driving the push for a unified strategy is the worry an enemy would use robots on the battlefield first, said Lt. Col. Matt Dooley, lethality branch chief at the Army Capabilities Integration Center (ARCIC). (…)
Dooley was firm that there was no effort to create a lethal autonomous function, in keeping with the Pentagon’s 2012 directive on the topic. „We’re not going to leave those types of decisions to a robot,“ he said.

(Foto: An X-47B Unmanned Combat Air System demonstrator flies near the aircraft carrier USS George H.W. Bush (CVN 77), 14 May 2013. George H.W. Bush is the first aircraft carrier to successfully catapult launch an unmanned aircraft from its flight deck – U.S. Navy photo by Erik Hildebrandt)