Anlauf für Verbot ‚von ‚Killer-Robotern‘ in der UN-Waffenkonvention
Kaum haben Union und SPD im Entwurf ihres Koalitionsvertrages vereinbart Deutschland wird … sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen, schon folgen die Vereinten Nationen… Im Ernst: Seit dem (heutigen) Freitag steht fest, dass im Rahmen der UN-Waffenkonvention im kommenden Jahr Gespräche beginnen sollen, voll-autonome Systeme (manche sagen auch: Killer-Roboter) in die Konvention und damit in die Liste geächteter Waffen aufzunehmen.
Eine offizielle Bestätigung dafür habe ich noch nicht gefunden, am nächsten kommt dem ein Tweet der schwedischen Mission bei den Vereinten Nationen:
Today the Conference of #CCWUN adopted a mandate to discuss lethal autonomous weapons in 2014. New and forward-looking issue on the agenda
Etwas ausführlicher erläutert das die Menschenrechtsorganisation Human Rights Watch, die sich schon länger für ein Verbot solcher Systeme einsetzt:
An agreement on November 15, 2013, to begin international discussions on fully autonomous robot weapons is the beginning of a process that should conclude in a treaty banning these weapons, Human Rights Watch said today. Governments attending a weapons meeting in Geneva have agreed to begin international discussions in May 2014 on these weapons, which would select and engage targets without further human intervention.
“The decision to begin international discussions next year is a major leap forward for efforts to ban killer robots pre-emptively,” said Steve Goose, arms director at Human Rights Watch, a co-founder of the Campaign to Stop Killer Robots. “Governments have recognized that fully autonomous weapons raise serious legal and ethical concerns, and that urgent action is needed.”
Governments that are part of the Convention on Conventional Weapons (CCW) agreed to convene in Geneva on May 13-16 to discuss the issues related to “lethal autonomous weapons systems,” also known as fully autonomous weapons or killer robots. These weapons have not yet been developed, but technology is moving rapidly toward increasing autonomy.
Die, so der volle Name, Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects as amended on 21 December 2001( CCW) ächtet den Einsatz bestimmter Waffensysteme wie blendenden Laserwaffen oder Sprengköpfen mit nicht zu entdeckenden Splittern; außerdem regeln die Protokolle der Konvention einschränkend bestimmte Waffensysteme wie Landminen. Eine Debatte über autonome Waffensysteme bedeutet noch lange nicht, dass es auch zu einer Ächtung kommt – der Einsatz von Streumunition ist zwar mittlerweile durch eine Vereinbarung verboten, aber nicht im Rahmen dieser UN-Konvention.
(Foto: Noch kein autonomes Waffensystem, aber ein Schritt auf dem Weg dorthin: Die X-47B-Drohne der U.S.Navy, die autonom starten und landen kann – An X-47B Unmanned Combat Air System (UCAS) demonstrator launches from the flight deck of the aircraft carrier USS George H.W. Bush (CVN 77). – U.S. Navy photo by Mass Communication Specialist 2nd Class Timothy Walter via Flickr unter CC-BY-Lizenz)
@NMcM:
Natürlich ist mit Bildererkennung bereits viel möglich (siehe bspw. Picassa), aber die Unterscheidung getarnter Soldat/ Aufständischer/ Milizangehöriger/ bewaffneter Schäfer bei Tag und Nacht ist halt was anderes.
Das ist mein Punkt – und das sehen auch Softwareentwickler so die ich kenne.
Nachtrag zu den speziellen Herausforderungen von automatisierten Zielerkennungen im militärischen Anwendungsbereich: http://sajie.journals.ac.za/pub/article/view/650
Wie es ausschaut, haben sich die Killerroboter bereits selbständig gemacht und wenden sich jetzt gegen ihre Herren …
Am Samstag Nachmittag wurde bei einer Übung vor der kalifornischen Küste die USS Chancellorsville von einer abstürzenden Drohne, die eigentlich als Ziel dienen sollte, getroffen. Zwei Matrosen wurden leicht verletzt.
http://www.usatoday.com/story/news/nation/2013/11/17/drone-navy-ship-california/3617687/
Was ist der Mehrwehrt der Bilderkennung in einem Krieg? Auf welche Entfernung sind solche Systeme ausgelegt? Was unterscheidet einen Gegner von den eigenen Truppen? Von welchem Szenario wird hier ausgegangen?
Bilderkennung um Personen/Gesichter zu unterscheiden ist wichtig für Polizei, Bundespolizei, Geheimdienste, Sondertuppen und Kriminalisten, für das Militär eher weniger.
Von welchen Geräten reden wir? Eher nicht von ISR MALE/HALE!?
http://www.stripes.com/intelligent-autonomous-robots-set-to-change-combat-landscape-1.185261
@Elahan:
„Von welchem Szenario wird hier ausgegangen?“
Über die Zukunft denkt man deswegen ja auch in der Bundeswehr nicht konsequent nach, sondern lebt in einer Traumwelt der „Anlehnungsmacht Deutschland“.
Allein schon Themen wie COIN, CT, hybride Kriege, A2/AD, etc. werden ja nirgends in der Bundeswehr ernsthaft betrachtet. Stattdessen selbstauferlegte Denkblockaden.
Wenn man als Armee nicht (mehr?) über Krieg nachdenkt, dann hat man ein weitaus größeres Problem als die Zweckmäßigkeit oder Nichtzweckmäßigkeit von UAS und RPA.
Und genau das ist der Fall bei der Bundeswehr in der angeblichen Neuausrichtung.
Aber stört ja niemand – schon gar nicht die selbstgefällige militärische Führung.
@ Memoria
„Die Gefahr ist aus meiner Sicht minimal – die Bw schöpft auf einmal die Möglichkeiten die sie im Bereich der Wirkung hat aus? Nur weil es Drohnen gibt?“
Wobei die BW in Afghanistan den Luxus hat, dass weder vom Auftrag her erwartet wird dass sie etwas bewirkt, noch dass die Sicherheit des eigenen Personals davon abhängt.
Sollte sich einer der beiden Punkte ändern (etwa weil eine Bundesregierung beschließt „mitzukämpfen“, oder weil sich ein BW-Kontingen vor Ort bedroht fühlt), sehe ich durchaus die Gefahr, dass eben zum größtmöglichen Hammer gegriffen wird, der sich aus maximaler Deckung einsetzen läßt.
Da sehe ich dann auch keinen Widerspruch zur „Bürokratenarmee“. Oberst Klein war ja auch kein killgeiler Rambo, und die USA sind auch nicht mit der Prämisse „Wir machen mal Counterterrorism“ in das vermeintlich geschenkte Irak-Endspiel rein.
@J.R.
Die BW hätte schon mehr bewirken können, auch in ihrem Aufgabenbereich. Dann hätten wir nicht die Hilfe der USA so sehr benötigt.
Und wenn es um Leben oder Tod geht, setzt man immer alle Werkzeuge ein die man hat. Aber das werden dann keine Drohnen sein denn den Luxus der absoluten Luftüberlegenheit hat man dann nicht mehr.
@ T.W.
Die Bezeichnung „Vereinbarung“ für die Konvention zu Streumunitionen ist etwas irreführend, weil sie eine völkerrechtliche Minderwertigkeit suggerieren könnte. Dem ist nicht so. Bei der „Convention on Cluster Munitions“ handelt es sich um eine völkerrechtlich bindende Konvention, die „all use, stockpiling, production and transfer of cluster munitions, as defined in the Convention“ verbietet und ein vollwertiger Bestandteil des Völkerrechts ist, der lediglich deshalb nicht Teil oder Protokoll zum CCW wurde, weil in diesem Verhandlungskontext ein Konsens erforderlich gewesen wäre, den es damals nicht gab.
Die Convention wurde deshalb in Anlehnung an das Verfahren bei Landminen auf einer internationalen Staatenkonferenz von einer „Koalition der Willigen“ beschlossen.. Depositar ist deshalb auch der UN-Generalsekretär. Im Falle der Landminen konnte zusätzlich im CCW ein begrenzterer Konsens erreicht werden, der in ein Protokoll mündete, aber nicht die volle Tragweite des sogenannten Ottawa-Vertrag zu Anti-Personenminen hat.
@Hans
Evtl bei der Verteidigung, aber eben nicht immer bei Interventionen und Druck von außen.
Ob man machen kann was man will oder es auch grenzenlos ohne Rücksicht dann tut ist selbst bei den USA ein Unterschied. Wenn alles auf die Optimierung der Plattform gerichtet ist, ohne moralische Schranken, warum werden dann nicht auch die Soldaten mit Implantaten und Erbgut verbessert?
Ich glaube, dass es Grenzen gibt und es wird immer welche geben, die diese überschreiten, die Frage ist, was wird zum Standard?
„Perceptual and/or psychophysiological implications of mind-machine interfaces ranging from optimizing auditory, visual and/or somatosensory display, and control systems based on physiological or psychological states through modeling of individual cognitive dynamics is relevant to this research area.“
http://www.arl.army.mil/www/default.cfm?page=200
http://www.arl.army.mil/www/default.cfm?page=181
Wann ist der Mensch Maschine und wann die Maschine Mensch.
Nicht jeder kurzfristige militärische Vorteil erhöht langfristig die Sicherheit der zu schützenden Bürger. Man sollte auch hier die Sachlage vom möglichen Ende denken.
@J.R.:
„Wobei die BW in Afghanistan den Luxus hat, dass weder vom Auftrag her erwartet wird dass sie etwas bewirkt“
Der Auftrag war kein defensiver, die Erwartungshaltung von den Afghanen und ISAF war auch entsprechend. Und spätestens als die QRF übernommen wurde gab es auch von der deutschen Politik einen offensiven Auftrag – auch man dies nach den ersten Verlusten gern vergessen hat.
Die Geisteshaltung war jedoch überwiegend: „Just be“.
Aber das wird sich nach Afghanistan wohl nicht ändern.
Die USA werden jegliche UN Vorgabe zu „Killer Robotern“ verhindern. Die wollen ihren Handlungsspielraum nicht eingrenzen. Killer Roboter kann man ja auch weiter definieren.
Bevor sich die Bw bewaffnete Drohnen Unikate schafft, sollte man erst Anfangen eine Heron 1 hier zuzulassen. Ansonsten bleibt weiter unklar was man hier so fliegen kann und was nicht. Sonste droht ein weiteres Drohnen Debakel. Auf die Lobby von EADS zu vertrauen hilft bei der Problemlösung nicht weiter.
@Benedikt: Man darf davon ausgehen, daß die Heron 1 eine militärische Zulassung für gesperrte Lufträume haben. Sonst dürften diese auch nicht im ICAO-Land AFG fliegen.
@ONA
Mit ein bisschen Verspätung (sorry) noch eine Überlegung zu dem Kommentar von gestern: Diese Ansicht reduziert allerdings auch Organisationen wie das International Committee for Robot Arms ControlICRAC auf die Rolle von nützlichen Idioten?
@ T.Wiegold
Bedauerlicherweise kann es de facto hinsichtlich der Wirkung darauf hinauslaufen, auch wenn ICRAC das sicher nicht beabsichtigt hat. U.a. mit diesem Kreis fand die erwähnte Debatte statt.