Rotes Kreuz mahnt Regulierung autonomer Waffensysteme an: „Kein gezielter Einsatz gegen Menschen“
Die Debatte über so genannte autonome Waffensysteme, die ohne menschliches Eingreifen ein Ziel erfassen und bekämpfen, läuft zeitgleich mit der Diskussion über die zunehmende Bedeutung künstlicher Intelligenz schon eine Weile – und auch die Debatte über eine mögliche (völkerrechtliche) Regulierung dieser Systeme. Dazu hat sich jetzt eine Organisation zu Wort gemeldet, die im Kriegsvölkerrecht eine gewichtige Stimme hat: Das Internationale Komitte vom Roten Kreuz.
Das IKRK (oder ICRC, nach der englischen Bezeichnung) veröffentlichte in der vergangenen Woche ein Positionspapier, das öffentlich bislang noch nicht so recht Wiederhall fand, in Fachkreisen dagegen schon. Einige Kernaussagen aus der ICRC Position on Autonomous Weapon Systems:
With a view to supporting current efforts to establish international limits on autonomous weapon systems that address the risks they raise, the ICRC recommends that States adopt new legally binding rules. In particular:
• Unpredictable autonomous weapon systems should be expressly ruled out, notably because of their indiscriminate effects. This would best be achieved with a prohibition on autonomous weapon systems that are designed or used in a manner such that their effects cannot be sufficiently understood, predicted and explained.
• In light of ethical considerations to safeguard humanity, and to uphold international humanitarian law rules for the protection of civilians and combatants hors de combat, use of autonomous weapon systems to target human beings should be ruled out. This would best be achieved through a prohibition on autonomous weapon systems that are designed or used to apply force against persons.
In order to protect civilians and civilian objects, uphold the rules of international humanitarian law and safeguard humanity, the design and use of autonomous weapon systems that would not be prohibited should be regulated, including through a combination of:
• limits on the types of target, such as constraining them to objects that are military objectives by nature
• limits on the duration, geographical scope and scale of use, including to enable human judgement and control in relation to a specific attack
• limits on situations of use, such as constraining them to situations where civilians or civilian objects are not present
• requirements for human–machine interaction, notably to ensure effective human supervision, and timely intervention and deactivation.
Aus militärischer Sicht ist vermutlich eine Aussage recht unbequem:
Im Lichte der ethischen Betrachtungen zum Schutz der Menschlichkeit und um das internationale humanitäre Recht zum Schutz von Zivilisten und Kombattanten außerhalb der Gefechtssitutation (hors de combat) zu beachten, sollte die Nutzung autonomer Waffensysteme verboten werden, die gezielt gegen Menschen eingesetzt werden.
Aber was bedeutet es, wenn das Rote Kreuz sich mit einer solchen Position zu Wort meldet? Ich habe einen Experten gefragt, Frank Sauer von der Bundeswehruniversität in München, der unter anderem als Wissenschaftler auch in UN-Gremien sitzt, die über mögliche rechtliche Regulierungen autonomer Waffensysteme beraten:
Das IKRK hat die Aufgabe, das Kriegsvölkerrecht zu bewahren. Es ist somit schon qua Mandat eine konservative Institution. Rufen nach Änderungen oder Neuerungen begegnet sie mit Argwohn. Deswegen ist es selten und außergewöhnlich, wenn das IKRK selbst der Staatengemeinschaft die Schaffung neuen Völkerrechts empfiehlt. Das ist hier der Fall. Durch Nichthandeln mit Blick auf Autonomie in Waffensystemen droht laut IKRK die Erosion der im Kriegsvölkerrecht kodifizierten humanitären Prinzipien. Damit kann das, übrigens auch in Deutschland ab und an geäußerte, Argument, das bestehende Völkerrecht reiche aus und es gebe keine Regelungslücke, ad acta gelegt werden.
Und wie wirkt sich die Position konkret auf die derzeitigen internationalen Gespräche über den Umgang mit diesen Systemen aus?
Die Stimme des IKRK hat aufgrund seiner besonderen Rolle und der in ihm gebündelten Völkerrechts-Expertise enormes Gewicht im Rahmen der UN-Waffenkonvention. Die Forschung zu Rüstungskontroll- und Abrüstungsprozessen der Vergangenheit zeigt, dass eine Positionierung des Roten Kreuzes das Zünglein an der Waage sein kann – so war es etwa bei Blendlasern oder Anti-Personen-Minen. Blendlaser waren allerdings eine etwas exotische Idee; und aus dem Verzicht auf sie entstand keine nennenswerte Fähigkeitslücke. Man blieb einfach bei Projektilwaffen.
Waffensystemautonomie ist demgegenüber flächendeckend anwendbar und mit dem Versprechen auf erheblich gesteigerte militärische Effektivität verbunden. Man muss sich also vor „Äpfel-Birnen-Vergleichen“ hüten.
Richtig ist aber auch, dass unregulierte Waffenautonomie, anders als Blendlaser oder Anti-Personen-Minen, neue strategische Eskalationsrisiken erzeugt – was den USA, China und Russland sehr klar vor Augen steht. Man wird also sehen müssen, wie diese Kalkulationen aufgehen. Sicher ist, dass viele Staaten im Rahmen der UN-Waffenkonvention die Stellungnahme des IKRK zum Anlass nehmen werden, ihre Position entschlossener in die darin vorgeschlagene Richtung weiterzuentwickeln.
Gibt das Positionspapier des IKRK denn Hilfestellung bei den weiteren Bemühungen, eine Kontrolle und/oder Regulierung autonomer Waffensysteme zu erreichen?
Auch die alte, leidige Definitionsdebatte können wir nun hoffentlich endlich hinter uns lassen. Die Stellungnahme des IKRK hat erneut unterstrichen, dass der funktionale Blick auf das Thema der zielführende ist. Statt zu versuchen, eine Klasse bestimmter, vermeintlich „intelligenter“ Waffensysteme – samt dazugehöriger Akronyme – von allem anderen abzugrenzen, gilt es, zugespitzt formuliert, folgende Frage zur Mensch-Maschine-Interaktion auf dem Schlachtfeld beantworten: Wer oder was – Mensch oder Maschine – übernimmt wann und wo welche Funktion in der Entscheidungsschleife hin zur Zielbekämpfung?
Das IKRK gibt hier noch keine abschließenden Antworten – und die Stellungnahme bleibt mit Blick auf einige Knackpunkte vage genug, um ausreichend Stoff für Diskussion um Präzisierungen zu liefern. Aber das IKRK legt eine sehr klare Fährte, die die Staaten nun hoffentlich verfolgen, um am Ende die vereinbarten Regeln in verbindliches neues Völkerrecht zu gießen.
(Offenlegung: Unter anderem zusammen mit Frank Sauer mache ich den Podcast Sicherheitshalber. Und wenn man einen Wissenschaftler kennt, der sich auf diesem Gebiet gut auskennt, kann man ihn ja auch mal zu dem Thema befragen.)
(Archivbild Sommer 2020: At Fort Carson, Col., modified Bradley Fighting Vehicles, known as Mission Enabling Technologies Demonstrators, and modified M113 tracked armored personnel carriers, or Robotic Combat Vehicles, were used for the Soldier Operational Experimentation Phase 1 to further develop learning objectives for the Manned Unmanned Teaming (MUM-T) concept – Jerome Aliotta/CCDC Ground Vehicle Systems Center)
Hoch spannend und absolut begrüßenswert. Mögen alle Initiativen erfolgreich sein, neues Recht schaffen und dieses auch anerkannt werden.
Kann mir irgendwie nicht so recht vorstellen, dass die relevanten Staaten (USA, Russland, China, Israel etc) hier sich einschränken lassen. Kann mir einige Einsatzgebiete vorstellen in denen die Autonomen Systeme durch den Zeitfaktor jede, von Menschen kontrollierten System deutlich überlegen sein könnten.
Man hätte diese Initiative viel früher starten müssen, als die meisten Politiker das Ganze noch für Science Fiction hielten und sich des Potentials nicht bewusst waren. Ich fürchte, dieses Zeitfenster wurde verpasst. Spätestens der Armenisch-Aserbaidschanische Krieg hat gezeigt, wozu selbst teilautonome Systeme in der Lage sind.
Die Geschichte legt nahe: Sollten sich militärisch potente Staaten wie die USA oder autoritäre wie Russland und China jetzt noch auf Einschränkungen einlassen, dann nur als Reaktion auf, gelinde gesagt, unschöne Entwicklungen und in der Erkenntnis, dass es besser wäre, nicht mit dem Feuer zu spielen.
Das sind Forderungen aus dem akademischen Elfenbeinturn. Inzwischen rüsten sogar paramilitärische NGOs (so genannte oder auch Terrororganisationen) auf, indem sie Drohnen einsetzen, während sich einzelne Parteien noch nicht ausreichend beraten fühlen. Niemand wird auf die Befindlichkeiten der Deutschen bzw. Europäer Rücksicht nehmen und die Geschichte kennt ausreichend Beispiele dafür was mit denen passiert, die nicht an der Spitze der Entwicklung bleiben.
[Bitte beim Thema bleiben. Jetzt so zu tun, als wäre das IKRK eine akademische Hobby-Veranstaltung der Europäer, ist schon ein billiger Derailing-Versuch. Man darf das Rote Kreuz hassen, das ist hier aber nicht das Thema. T.W.]
@Trevor Faith
Organisationen wie das IKRK haben auf diesem Weg durchaus Erfolge erzielt. Dass überraschend viele Staaten heutzutage auf Brandwaffen, Giftgas, Streubomben, Schützenminen und andere besonders gefährliche Waffen verzichten, beruht auf internationalen Übereinkünften.
Klar gibt es Länder, die aus der Reihe tanzen oder sich den Einsatz bestimmter Waffen zumindest vorbehalten. Trotzdem ist es gelungen, sie weitgehend von modernen Schlachtfeldern zu verdrängen; ein freiwilliger Verzicht, den man so vor hundert Jahren nicht für möglich gehalten hätte.
Und dass Terrororganisationen sich nicht an internationales Recht halten, da erzählen Sie nichts Neues. Ist das allein aber ein Grund, sich gegen die Ächtung bestimmter Waffen auszusprechen? Zumal die Ächtung nicht die Möglichkeit berührt, Gegenmaßnahmen zu entwickeln?
Ich muss hier mal den advocatus diaboli spielen…
Welche der oben genannten Faktoren und Limitierungen erfüllt denn ein „klassischer (=menschlicher) Kombattant“?
„their effects cannot be sufficiently understood, predicted and explained“ – Können Effekte von Soldaten und Handlungen von Soldaten denn auch verstanden, antizipiert und erklärt werden? Soll der „geniale“ militärische Führer nicht idealerweise Entscheidungen treffen und Aktionen ausführen, die „überraschend“ und damit „non-predicted“ sind?
„use of autonomous weapon systems to target human beings should be ruled out. This would best be achieved through a prohibition on autonomous weapon systems that are designed or used to apply force against persons“ – Da stelle ich nur das General Patton zugeschriebene Bonmot gegenüber: „No bastard ever won a war by dying for his country. He won it by making the other poor dumb bastard die for his country.“
Das Attackieren und Töten von Menschen – bevorzugt natürlich feindlichen Kombattanten – gehört zum Wesen des Krieges. Man kann Kriege auch anders gewinnen – Ziel ist es, den Willen des Gegners zum Widerstand oder Fortführen des Krieges zu brechen, was man auf vielfältige Art erreichen kann – aber bisher ist die tödliche Gewalt das, was den Kern der Sache ausmacht. Häßlich, aber wahr.
Die dann weiter folgenden Einschränkungen zum Gebrauch sind lobenswert und möglicherweise etwas, was tatsächlich nur Maschinen können. Aber man müsste an der eigentlichen Natur des Krieges sehr stark herumschrauben, um die o.g. Forderungen umsetzen zu können. Dazu ist aber meinem Gefühl nach Krieg etwas zu „regelloses“, um hier tatsächlich zu nennenswerten Fortschritten zu kommen.
Was heisst das? Eigentlich spricht alles dafür, dann gar keine autonomen Systeme zu verwenden, aber ich fürchte, den Geist kriegen wir nicht wieder zurück in die Flasche.
Ich finde die Diskussion richtig, verstehe aber nicht, warum systematisch ausgeblendet wird, dass vollautomatische Entscheidungsabläufe seit mehr als vierzig Jahren in Luftabwehrsystemen eingesetzt werden? Diese werden auch in der Bundeswehr verwendet, mindestens Patriot und die F124 können ohne menschliche Entscheidungen Luftziele bekämpfen. In heutigen Einsatzszenarien kann es dazu kommen, dass zivile Flugzeuge vollautomatisch abgeschossen werden. Siehe z.B. Iran Air 655 – hier wurde der Abschuss zwar letztlich von Menschen entschieden, das System hätte aber wohl die gleiche Entscheidung getroffen.
Die grundlegende Technik stammt dabei aus den 70ern, so dass ich mich schon wundere, dass das vollkommen ausgeblendet wird: vollautomatisch entscheidende Waffensysteme sind seit Jahrzehnten Realität!
@Tw Ich finde dass es nicht so sehr um das Rote Kreuz und die Aussage als solches geht. Sondern eher um die begrenzte Schlagkraft und Wirkung. Dass ist als würde sich der Papst hinstellen und sagen. „Die Entwicklung macht mir Sorge. Dass finde ich gar nicht gut“. Dass ist wie mit umfallenden Reissäcken. Am Ende wird es niemanden interessieren.
[Ich warne mal ganz allgemein davor, so zu tun, als sei das Internationale Komitee vom Roten Kreuz – und als Folge dann auch die Genfer Konvention – nur ne kleine Bürgerinitiative, die folgenlos Forderungen aufstellt. Wer dieser These anhängt und als Soldat in den Einsatz geht, kann sich schon mal beim Kriegsverbrechertribunal in Den Haag anmelden. T.W.]
Der Papst hat auch mal die Armbrust als unchristlich verboten sie gegen Christen einzusetzen. Hat nur Niemanden gekümmert.
Ja, wie qmuck ein Stück weiter oben anmerkt sind Schützenminen, Streubomben, Giftgas, Brandbomben geächtet sind. Derzeit. Es gab ja keinen großen Vaterländischen mehr und diese Waffen sind alles andere als kompliziert für eine industrialisierte Nation herzustellen. Und Giftgas ist sowieso ziemlich ineffektiv, da fällt der Verzicht leicht. Biowaffen sind ziemlich unkontrolierbar, also auch nicht wirklich praktisch und verzichtbar. Wie @MFG ganz richtig anmerkt sind ja auch schon seit Jahrzehnten vollautomatische autonome System in der Verwendung. Neben Flugabwehr fire-and-forget Waffen auch. Das einzig wirklich neue ist eigentlich die heute viel größere Verbreitung selbstständiger Waffensysteme und ferngelenkter Systeme wegen der geringen Kosten. Deshalb wohl in der breiteren Öffentlichkeit jetzt bekannter und sogar zum IKRK Kommitee durchgedrungen. Ob der Appell etwas bringen wird oder wie das Armbrust Beispiel endet, wird man sehen müssen. Persönlich habe Ich das nicht viel Hoffnung. Die Möglichkeiten sind zu verlockend um auf autonome waffensysteme zu verzichten und man ist schwer im NAchteil, wenn der Gegener sie hat und die eigene Seite nicht.
Eine gute Initiative des IKRK und schon längst überfällig. Vielleicht wird sogar ein internationales Übereinkommen ähnlich dem Chemiewaffenübereinkommen (CWÜ).
ich habe allerdings die Befürchtung, das nicht alle mitmachen oder sich daran halten werden. Ein teil des unrühmlichen Trump-Nachlasses, internationale Verträge nach Belieben zu kündigen oder einseitig ändern zu wollen. So etwas wirkt nach.
Die gute Nachricht: Man darf einen Schwarm von Kleindrohnen vollautomatisch bekämpfen. Die Einschränkung ist, dass ein Soldat der KI bestätigen muss, dass da ein Drohnenschwarm ist. Verstehe ich das richtig?
@T.W.: Ich hasse das Rote Kreuz nicht. (Das Wort ‚Hass‘ wird für meinen Geschmack ohnehin zu inflationär verwendet.) Ich habe seine Forderung kritisiert. Diese Waffen sind Multiplikatoren, auf welche die Großmächte nicht verzichten werden, insbesondere dort nicht, wo man eigene Kräfte (Infanterie) großen Bedrohungen ausgesetzt sieht. In der Ukraine sind zwei Infanterie-Bataillone durch Artillerie innerhalb weniger Minuten vernichtet worden. Das hätten die Ukrainer evtl. verhindern können, wenn sie solche Systeme gehabt hätten.
@AoR
Wenn es so wäre müßte es eine Abgrenzung zu abstandsaktiven Systemen geben.
@ Tw Wass machen wir denn wenn der Staat das Gericht in Dem Haag nicht anerkennt und sagt „Wir sind dem Abkommen nicht beigetreten, wir machen was wir wollen und die UN, kann uns mal und wir haben Flugzeugträger und Atomuboote“. Und nu?
@Thomas Melber: Auch die werden aktiv von einem aufgesessenen Kameraden betreut. Nicht dass die Reaktivpanzerung einen eigenen Kameraden bekämpft.
Als IT- Laie stellt sich mir der Unterschied so dar, dass hier zusätzlich eine Art KI zwischen Soldat und WaSys geschalten werden kann, die dann z.B 50 Kleindrohnen automatisch bekämpft, bevor diese den Panzer zerstören und damit die Besatzung töten. Ähnliches würde für ein Feldlager z.B in Verbindung mit dem System Mantis gelten.
Sind die Drohnen zerstört, wird der KI das mitgeteilt und diese stellt das Feuer ein, Das zuvor von der KI gesteuerte WaSys wir dann wieder herkömmlich bedient. Angreifer, welche Personen darstellen, werden durchgehend und danach von den Soldaten direkt abgewehrt.
@Fussgaenger
Bitte genau lesen das IKRK sagt nur das man Systeme die direkt Personen automatisch bekämpfen verboten sein sollen. Also:
Drohne Ziel Mensch => No go.
Drohne Ziel Panzer/LKW mit Menschen drin/drauf => OK.
CRAM Systeme wie Mantis => OK
z.B. Samsung SGR-A1
mit HOTL => No go
mit HITL => OK.
Sollte man zu keiner vollständigen Ächtung von automatisch gegen Personen gerichteten Waffensystemen kommen. Dann sollen sie im Einsatzraum/zeit beschränkt werden.
Also CRAM/Phalanx nicht im Regelfall aktiv.
Oder SGR-A1 Wird vom Soldaten als HITL in Angriffsfall auf HOTL umgestellt, Und stellt sich idealerweise selber nach x Minuten oder beim Nachladen wieder in den HITL mode.
@Dante
Nichts für ungut, aber das ist ein äußerst schwaches Argument. Wir geben unsere zivilen Strafgesetze ja auch nicht deshalb auf, weil sie gelegentlich missachtet werden – übrigens mehrheitlich von einem trennscharf abgrenzbaren Personenkreis, was die Analogie umso bestechender macht.
In meinen Augen kommt es nicht darauf an, ob alle Staaten die völkerrechtliche Ächtung eines Waffensystems respektieren, solange es nur möglichst viele tun, was bereits ein unbezahlbarer Fortschritt wäre. Ob und wie autonome Waffensysteme zu ächten oder reglementieren sind, muss freilich ergebnisoffen diskutiert werden.
Immerhin ist es ja zumindest denkbar, dass sie langfristig den größten humanitären Fortschritt überhaupt ermöglichen: einen Krieg, der weitgehend ohne menschliche Beteiligung, und damit weitgehend ohne menschliche Opfer geführt wird.