DroneWatch: Auf der Rutschbahn zu autonomen Waffensystemen?
Die niederländische kirchliche Friedensorganisation PAX hat eine Übersicht zur Entwicklung bei autonomen Waffensystemen vorgelegt – und kommt zu dem Ergebnis, dass bei vielen bereits bestehenden Systemen die Entwicklung so weit fortgeschritten ist, dass zur Autonomie nicht mehr viel fehlt. Es bestehe die Gefahr einer Rutschbahn, einer slippery slope, so auch der Titel der Studie.
Unabhängig davon, ob man die Bewertung von PAX teilt: Interessant ist die Übersicht deshalb, weil sie nicht von einer mehr oder weniger fernen Zukunft handelt, sondern bereits existierende oder kurz vor der Einführung stehende Waffensysteme in den Fokus nimmt:
“Many companies are on a slippery slope to producing ever more autonomous weapons, “ says Frank Slijper, author of the report. “While some arms companies claim they will never develop weapons that can operate without human control over lethal action, we see others developing that very technology with no clear human in the loop. We are dangerously close to crossing the line to lethal autonomous weapons.”
Das gilt aus Sicht der Organisation zum Beispiel für die Brimstone-Lenkflugkörper des europäischen Herstellers MBDA, bei deren Bewertung sich PAX auf das schwedische Friedensforschungsinstitut SIPRI beruft:
According to SIPRI, the “vast majority of guided munitions use autonomy only to find, track and hit targets or target locations that have been pre-assigned by humans. In that sense, autonomy does not support the target selection process; it solely supports the execution of the attack”.
It considers the Dual-Mode Brimstone, produced by the UK arm of MBDA (itself a joint venture of Airbus, BAE and Leonardo), as one of the few guided munitions with some target selection autonomy. “In contrast to regular guided missiles, […] they are assigned a target area, where they will have the task of finding targets that match a predefined target type”. SIPRI labels the Dual-Mode Brimstone as “the only guided munition featuring target selection autonomy that is currently operational. It works like a fire-and-forget missile. Once launched, the missile operates in full autonomy; it does not include a human-in-the-loop mode”.
Die Royal Air Force nutzt bereits die Brimstone (Foto oben); die deutsche Luftwaffe will diese Waffe ebenfalls am Eurofighter einsetzen*. Insofern hat diese Debatte dann auch Bedeutung für die Beschaffungspläne der Bundeswehr.
Während die Brimstone in der PAX-Übersicht mit besonders Besorgnis erregend (High Concern) markiert ist, ist das unbemannte Bodenfahrzeug Mission Master von Rheinmetall und der Wiesel Wingman für das Robotic Combat Vehicle/Light-Vorhaben der U.S. Army mit Medium Concern gekennzeichnet. Das, immerhin, bedeutet laut den Autoren der Übersicht: Company working on relevant autonomous weapons technologies + explaining in response to our survey how human control is ensured.
Die ganze Studie Slippery Slope – The arms industry and increasingly autonomous weapons gibt es hier zum Herunterladen. Wie auch immer man die Systeme einschätzt: Für eine Übersicht, was auf dem Markt oder in Entwicklung ist, ist es hilfreich.
*Angesichts des bevorstehenden Relaunchs der Bundeswehr-Webseiten diese Luftwaffen-Übersicht als pdf:
20190228_Luftwaffe_Eurofighter
(Archivbild März 2019: A pair of RAF Typhoons wait to taxi out and depart from RAF Akrotiri on an Op SHADER night mission. RAF Typhoons are now upgraded and equipped with a new ‚Centurion‘ weapon configuration that now includes Brimstone missiles – Cpl Rich Denton/Royal Air Force/Queen Copyright/MOD News License)
Was technologisch realisiert werden kann, das wird auch realisiert.
Was mein Gegner baut (oder bauen kann) brauche ich daher auch. Haben bevor es der andere hat. Machtprojektion.
In Zeiten schwindender Rüstungskontrolle und Unübersichtlichkeit extrem gefährlich meiner Ansicht.
Ich finde diese Diskussion, insbesondere von Pax-Christi, einer kirchlichen Friedensbewegung geschürt, als bigott. Wir führten sie zuletzt 2015, als es um die Einführung von bewaffneten Drohnen für die Bw ging. Leider tendierte damals der katholische Militärbischof zu der Haltung von Pax-Christi und unterstützte diese ethischen Bedenken gegen die Einführung von bewaffneten Drohnen.
Wo bitte schön ist die Neuerung bei der „Brimstone“ gegenüber der Smarten Artillierie-Munition, die im Freifall Modus sich selbstständig ihr Ziel sucht, in diesem Fall den Panzer von oben angreift, wo er die geringste Panzerung hat ? Diese smarte Artilleriesuchmunition gab es schon vor 10 – 20 Jahren. Da hat niemand gerufen, aber da ist kein „man in the loop“ im Zielfindungsprozess. Es ist ein autonomer Suchkopf, genauso wie es tausende autonome Suchköpfe in andere Munition gibt, z.b. den Infrarotsuchkopf in einer Sidewinder oder einer Iris-T-Missile. Was hier das grundlegend technologisch Neue bei der „Brimstone“ sein soll, sehe ich nicht .
Was ich aber sehe, ist das „PAX Christi“, eine katholische Friedensbewegung, die schon zu Zeiten des Kalten Krieges mit der Bundeswehr und jeglicher militärischer Verteidigung im Clinch lag, wieder etwas aus der Mottenkiste holt um gegen eine militärische gesellschaftliche Haltung zu demonstrieren.
Auch dies ist in der 2000 jährigen katholischen Geschichte nicht Neues. Irgendwann in den früheren Jahrhunderten nach Christus, wollte man die Armbrust ächten, eine damals moderne, überaus wirksame und durchschlagende Abstandswaffe. Sie sollte nicht gegen christliche Ritter (man erinnere sich an deren menschenfreundlichen Kreuzzüge nach Jerusalem), sondern nur gegen die feindlichen Barbaren eingesetzt werden dürfen.
Aus dieser „Mottenkiste“, kommt jetzt wieder Pax Christi hervor und versucht die technologischen Entwicklungen der Waffentechnologie als unethisch zu brandmarken !
Ob autonomes Bekämpfen möglich ist oder nicht ist oft nur eine Frage der aufgespielten Software. Bei immer kürzer werdenden Reaktionszeiten bzw. „overload“ des Operateurs (Bsp. Drohnenschwarm) wird an automatisierten Verfahren kein Weg vorbei führen.
Ich sehe schon einen Unterschied zwischen einer IR-gesteuerten Rakete, die ja auf 1 konkretes Ziel angesetzt ist, im Vergleich zu einer Rakete, welches auf einen Typ angesetzt ist und selbstständig entscheidet, ob es Objet1 oder Objekt 2 als Ziel auswählt.
Fire-and-Forget Waffen sind ja nun wirklich nichts neues. Die wurden bereits im 2. Weltkrieg eingesetzt, in Form des „Zaunkönig“-Torpedos der Kriegsmarine. Im Prinzip ist auch jede Mine eine Autonomes Waffensystem. Einmal ausgebracht und geschärft attackiert sie wahllos jeden Auslösenden ohne menschliche Kontrolle. DIE RAF hatte bis 2013 die ALARM-Rakete an ihren Tornados und in mehreren Kriegen im Gefechtseinsatz, Golf, Kosovo usw.. Bei den Saudis ist sie weiterhin im Bestand. Auch eine autonome Waffe – sie hängt sich über dem Zielgebiet an den Fallschirm und wartet, bis sich ein Radar aktiviert. PAX kommt also ein kleines bißchen zu spät – oder wärmt bloß Debatten der Vergangenheit wieder auf.
Nehmen wir an vollautonome Waffensysteme reduzieren die Zahl der zivilen Toten signifikant. Wären solche autonome System dann immer noch unmoralisch? Welches Kriterium legen wir hier zu Grunde? Krieg ist eigentlich nie eine moralisch saubere Angelegenheit.
Ich habe so meine Probleme der ganzen Diskussion wirklich zu folgen. Auch damals bei den bewaffneten Drohnen schon nicht. Macht es für das Ziel wirklich einen Unterschied ob man von einer Rakete von einem Kampfjet oder einer Drohne getroffen wird? Die Eigengefährdung von Kampfjets ist in vielen aktuellen Konflikten asymetrischer Natur sowieso vernachlässigbar.
Problematisch wird es für mich erst dann wenn die Frage des „Ob“ der Kriegsführung autonom gehandhabt wird. Aber bis dahin dauert es noch.
@aussenstehender sagt: 12.11.2019 um 10:57 Uhr
„Ich sehe schon einen Unterschied zwischen einer IR-gesteuerten Rakete, die ja auf 1 konkretes Ziel angesetzt ist, im Vergleich zu einer Rakete, welches auf einen Typ angesetzt ist und selbstständig entscheidet, ob es Objet1 oder Objekt 2 als Ziel auswählt.“
Ich nicht. Es müssen sowieso beide (oder besser: alle) Ziele bekämpft werden, die Reihenfolge ist dabei zweitrangig.
uiuiui na da bin ich mal auf die Beiträge hier im Thread gespannt. Da werden bestimmt wieder die ‚I am not a touchy-feely but a hard-nosed blood and sweat warriors‘ aus dem Unterholz kommen.
@Georg:
Sie bezeichnen den Beitrag von PAX als „bigott“ – gehen aber nicht näher darauf ein wie sie zu dieser Einschätzung kommen. Weil die selbe Organisation eine Position zu einem anderen Thema hatte die sich auch nicht geteilt haben?
Was sie etwas salopp als „Mottenkiste“ bezeichnen sind Jahrhunderte bzw. eigentlich sogar Jahrtausende an Tradition in der Reglementierung von Krieg. Wundere mich immer über die Haltung wenn das Thema moralischer oder juristischer Einschränkungen in Kriegen on Konflikten aufkommt, wenn Soldaten doch sonst sehr angetan von Tradition sind. Das war mit der Armbrust in der Tat so – 1139 beim zweiten Laterankonzil. Aber ich finde sie untergraben da ihre eigene Argumentation. So lange die historischen Aufzeichnungen von Kriegen und Konflikten zurückgehen, so lange gibt es Einschränkungen in der Art und Weiße wie sie geführt werden. Das kann man als Mottenkiste abtun, aber ich würde ihnen Empfehlen mal was zur Just War Tradition zu lesen (Alex J Bellamy hat eine gute Übersicht in seinem Buch und James Turner Johnson hat gleich mehrere historische accounts über Just War geschrieben. Ian Clark hat auch ein sehr gutes Buch, das aber nicht nur Just War untersucht).
Unser heutiges Völkerrecht und die Hager als auch Genfer Konventionen haben ihren Ursprung in diesem konstanten Dialog der im Wesentlichen seinen Ausdruck in der Just War Tradition findet. Moralische Restriktionen (obgleich aus religiösen oder Naturrecht abgeleitet) und Kriegsführung sind da untrennbar. Ich finde deswegen Beiträge die sich darauf reduzieren lassen dass man eine Organisation weil sie in ihrer Ausrichtung religiös ist nicht ernst nehmen könne, weil haben ja keine Ahnung, dann doch eher…uninformiert und undifferenziert. Man sollte deren Beiträge schätzen und wenn man nicht einer Meinung ist das auf argumentativer Basis darlegen.
Gleiches gilt für was-man-bauen-kann-wird-auch-gebaut-und-daran-führt-kein-Weg-vorbei Argumenten. Die Geschichte der Kriegsführung ist voll mit gegenteiligen Beispielen. Ich finde man sollte sich mit den Argumenten under Technik auseinandersetzen anstatt diese a priori Alibiargumente anzuführen. Es gibt hier sehr legitime Bedenken die nicht nur von nicht-Soldaten (Bedenkenträger im Duktus vieler) angeführt werden sondern durchaus kritisch von militärischer Seite gesehen werden.
Es ist doch unvermeidlich, dass der kämpfende Soldat eine Notlösung werden wird – nur noch verwendet, wenn automatische Kampfsysteme nicht verfügbar sind. Das autonome Waffensystem wird zwangsläufig zugleich zuverlässiger und entbehrlich sein, und daher prinzipiell unschlagbar überlegen.
Es hat keinen Sinn, hier auf internationale Abkommen oder Verbote zu hoffen. Würde das in diesem Maßstab funktionieren, gäbe es gar keine Streitkräfte auf der Welt – es gibt sie aber. Diese technische Entwicklung hat Implikationen für alles, bis hin zu unserer politischen Ordnung. Das mag beunruhigen, aber das ändert nichts an den Tatsachen.
Nach Hiroshima und Nagasaki war das Entsetzen bei fast allen Protagonisten, vor allem auf wissentschaftlicher Seite, sehr groß.
„Mein Gott, was haben wir getan!“
Es wäre schön, wenn es dann demnächst nicht heißt:
„Mein Gott, was haben wir schon wieder getan!“
Wenn einem bei Smart das Problem bisher nicht aufgefallen ist, darf man bei Brimstone also auch nicht mehr darauf hinweisen?
Was für eine Logik.
Wenn Man in the Loop fehlt ist das definitiv ei Thema, auf jeden Fall wenn ein einzelner EF Dutzende dieser LFK mitführen kann.
Ist SMART im Heer eigentlich im aktiven Dienst, oder wurd es irgendwann zu teuer etc…. ?
Es ist wichtig, darüber zu diskutieren und ethische und moralische Leitplanken zu setzen. Man kann sie auch in internationale Regelungen und Verträge einbringen, z.B. der Genfer Konvention.
Nur verhindern wird das die Entwicklung und wahrscheinlich auch die Anwendung solcher Systeme nicht.
Und was die Genfer Konvention wert ist, sieht man doch an den Konflikten. Selbst im Bosnien-Krieg war das bevorzugte Ziel entweder die Tür zum Transportraum eines Mannschaftstransportpanzers oder das Rote Kreuz an Sanitätsfahrzeugen. Da muss man gar nicht weit schauen.
@ tt.kreischwurst
Zitat: „Sie bezeichnen den Beitrag von PAX als „bigott“ – gehen aber nicht näher darauf ein wie sie zu dieser Einschätzung kommen. Weil die selbe Organisation eine Position zu einem anderen Thema hatte die sich auch nicht geteilt haben?“
Weil Pax Christi sich in ihrer Argumentation wie der Vogel Strauss verhält, den Kopf vor einer kriegerischen Auseinandersetzung in den Sand steckt und darauf vertraut, dass irgendjemand einen Krieg schon führen wird und ihre Freiheit erhalten wird, damit sie solche Position überhaupt vertreten können.
Meine Ablehnung von Pax Christi kommt aber aus einer jahrelangen Auseinandersetzung mit den Posiition von Pax Christi, z.B. auf Katholikentagen, wo ich als aktiver Soldaten und aktiver Katholik mich als Teilnehmer mit ihnen in Uniform auseinandergesetzt habe.
Das geht zurück bis auf die Position der „Sozialen Verteidigung“ im Kalten Krieg, die bedeutete man solle die Waffen niederlegen, sich vom Feind überrennen lassen und dann passiven Widerstand leisten, z.B. dem Feind kein Benzin und keine Lebensmittel geben. Wie weltfremd die Position der „Sozialen Verteidigung“ war, können Sie vermutlich nachvollziehen.
Gleiches Argumentationsmuster gab es bei den bewaffneten Drohnen und jetzt bei den autonomen, bzw. teilautonomen Waffensystemen. Wenn Sie heute bei irgendeinem High-Tech Waffensystem die Betriebsart auf „Automatik“ schalten, dann wird beim Erkennen einer gegnerischen Bedrohung z.B. beim Erfassen des „Lock On“-Impulses eines Zielerfassungsradars automatisch eine Abwehrmaßnahme z.B. durch das Abfeueren einer HARM-Rakete ausgelöst. Dies war vor 20 Jahren im Kosovo-Krieg schon so, kein „man in the middle“, wenn auf „Automatik“ geschaltet wurde.
Wenn also heute wieder damit angefangen wird, dass es moralisch verwerflich ist, dass eine Waffe selbstständig sein Ziel sucht, nachdem der Operateur auf Automatikbetrieb umgeschaltet hat, dann ist dies für mich eine „bigotte“ Haltung. Der eigentliche Beweggrund von Pax Christi ist, dass sie überhaupt keine bewaffnete Verteidigung will und wenn es trotzdem zu einenm Krieg kommen sollte, dann soll bitte kein technologische Überlegenheit der eigenen Seite dabei ist.
Die Angst ist viel zu groß, dass die Regierung in Berlin zu leicht in einen Krieg einsteigt, wenn er zu wenig „Blutzoll“ bei den eigenen Soldaten fordert. Das ist zynisch und die Denkweise von Pax Christi !
Das ist der eigentliche Beweggrund von „Pax Christi“ und deshalb lehne ich sowohl die Organisation als auch dieses Papier als überzeugter Katholik und Soldat ab !
Zitat: „Ich finde deswegen Beiträge die sich darauf reduzieren lassen dass man eine Organisation weil sie in ihrer Ausrichtung religiös ist nicht ernst nehmen könne, weil haben ja keine Ahnung, dann doch eher…uninformiert und undifferenziert. Man sollte deren Beiträge schätzen und wenn man nicht einer Meinung ist das auf argumentativer Basis darlegen.“
Warum ich als engagierter katholischer Soldat die Haltung von Pax Christi nicht schätze, habe ich eben hoffentlich ausreichend dargelegt!
Mir fiel ebenfalls die Suchmunition Artillerie (SMArt, DM702) ein. Diese ist weiterhin in Nutzung. Eine Folgebeschaffung ist in Vorbereitung, da die Munition für LV/ BV erhebliche Bedeutung hat. Es gibt auch eine Variante für die Raketenartillerie. Diese wurde jedoch aufgrund fehlender Haushaltsmittel bisher nicht beschafft.
Suchmunition ist (neben der AT-2 als Mine) beim Kampf gegen harte Ziele das einzige Wirkmittel der Artillerie.
Die Brimstone wäre das Pendant für die Luftwaffe.
Man kann natürlich auch noch auf Suchmunition verzichten, aber was ist die Alternative?
Gleiches geschah bei der Abschaffung von Bomblet-Munition (aus ethischen und praktischen Gründen nachvollziehbar).
Entsprechende Alternativen (GMLRS-AW, https://armyrecognition.com/weapons_defence_industry_military_technology_uk/the_new_m30a1_gmlrs_alternate_warhead_to_replace_cluster_bombs_for_us_army_central_71601171.html) sind marktverfügbar, wurden aber nicht beschafft.
Nun wird die Diskussion um autonome Systeme dafür benutzt weitere Munitionsarten in Frage zu stellen. Untermauert mit fragwürdigen Begründungen (einzigartige Funktionsweise von Brimstone).
Es wäre eher mal an der Zeit die Brimstone endlich in Nutzung zu bringen und die Raketenartillerie zu modernisieren.
Kostet Geld und erfordert in der politischen Debatte Geradlinigkeit.
Denn am Ende ist Joint Fires eben ausgerichtet auf die Zielbekämpfung. Schon das scheint man oftmals verdrängen zu wollen.
Teilweise aus pazifistischer Weltsicht – jeweils aufgehangen an dem aktuellen politischen Diskurs.
@tt.kreischwurst sagt: 12.11.2019 um 13:47 Uhr
„uiuiui na da bin ich mal auf die Beiträge hier im Thread gespannt. Da werden bestimmt wieder die ‚I am not a touchy-feely but a hard-nosed blood and sweat warriors‘ aus dem Unterholz kommen.“
Hoffentlich, denn diese sind es ja auch, die am Ende die Konsequenzen einer möglicherweise verkopften und wirklichkeitsfremden Diskussion/Entscheidung auszubaden haben!
@Bundesbürger sagt: 12.11.2019 um 14:50 Uhr
„Es wäre schön, wenn es dann demnächst nicht heißt:
„Mein Gott, was haben wir schon wieder getan!““
Ja, aber genauso schön wäre es auch, wenn man nicht dereinst sagen müsste: Dumm das wir diesen Krieg um unsere Freiheit verloren haben und/oder unzählige unserer Soldaten unnötig sterben mussten, nur weil wir uns der Realität nicht stellen wollten.
Hier stept aber der Bär!
Dann etwas OT:
@Frank
Aktiv, und wird demnächst sogar wieder aufgelegt.
Holla Herr @Koffer,
selbstverständlich, da gibt es gar kein Vertun! Das wird so auch niemals passieren!
Wenn sie ein Kleinkind davon abhalten wollen auf eine heiße Herdplatte zu fassen, ist das ein durchaus nachvollziehbares und löbliches Unterfangen. Wie erfolgreich sie damit sind, ohne die ganze Zeit daneben zu stehen, ist Fall abhängig. Sollte es dem Kind dennoch gelingen, haben sie für den Rest ihres Lebens frei. In der Regel fässt das Kind keine heiße Herdplatte mehr an. Das Ganze ist natürlich als Bild zu betrachten.
Ich glaube aber, dass es sich hier um eine vergleichbare Situation zu „heißen“ Waffen/systemen handelt.
Ohne Hiroshima und Nagasaki – Achtung, das Folgende ist an Perfidität und Zynismus kaum zu überbieten – gäbe es diesen weltweiten Konsens darüber, daß Atom- und Nuklearwaffen absolut ächtenswert sind, nicht! Meiner Meinung nach.
Die Menschheit hat sich hier „die Finger verbrannt“!
Genauso verhält es sich jetzt mit den autonomen Waffensystemen. Bitte, machen sie ihre Erfahrungen damit! Verbote werden sie kaum davon abhalten.
Denken sie aber bitte immer die „Terminator-Filme“ mit!
@T.W.
Memoria funktioniert nicht mehr
[Reden Sie nicht weiter Unsinn, natürlich funktioniert Memoria, siehe weitere Kommentare. Was wollen Sie eigentlich ausdrücken und warum tun Sie’s nicht? T.W.]
Georg, Koffer, Memoria: Zustimmung.
@ Georg:
„ Wo bitte schön ist die Neuerung bei der „Brimstone“ gegenüber der Smarten Artillierie-Munition, die im Freifall Modus sich selbstständig ihr Ziel sucht, in diesem Fall den Panzer von oben angreift, wo er die geringste Panzerung hat?“
Man korrigiere mich, wenn ich falsch liege, aber nach meiner Kenntnis kann SMArt autonom im Umkreis nur von ca. 150m wirken. So gut muss die Ari schon zielen. Das Szenario bei SMArt ist doch wohl eher so: Panzer sind aufgeklärt, Ari bekommt Feuerbefehl, gibt Lösung entspr. Position des aufgeklärten Ziels ein, und kann es dann mit ziemlicher Wahrscheinlichkeit mit geringem Wirkmitteleinsatz treffen, wenn die Lösung wenigstens so gut war, dass der Aussstosszeitpunkt der Effektoren so erfolgt dass das Ziel sich im Umkreis von ca. 150m darunter befindet. Alternative für Ari wäre ansonsten viele viele Wirkmittel zu verschiessen um den Panzer auszuschalten.
Brimstone ist erstmal was anderes. Mit einer für die Grösse erstaunlichen Reichweite (>60 km für Brimstone 2 wird angegeben), und mit einer Area, die nun wohl wesentlich grösser als der direkte Umkreis eines aufgeklärten Ziels ist, die der FK nach möglichen Zielen absuchen kann (wie gross genau bleibt mir unklar). Brimstone kann man auch unter Drohnen hängen. Ein Szenario, bei dem ein Drohnen-Operator über irgendeinem „Failed State“ etc in einem unerklärten Krieg einen „blinden“ Schwarmangriff mit 6 Brimstones auslöst, die dann irgendwas vom Flugkörper als angriffswürdiges Erkanntes in erheblicher Entfernung von der Drohne treffen, geht mit Brimstone technisch wohl. Der Drohnenoperator wird nach Start des/der FKs nicht mit TV-Daten des FKs versorgt, und Brimstone ist wohl erstmal egal, ob das Ziel sich feindlich verhält, es muss nur in die Signaturparamater passen.
Pax macht da zum Thema eben nun eine Debatte auf. Das ist völlig legitim, und ich sage diese Debatte muss unbedingt geführt werden. Das Pax in deren Äusserungen keine Abwägungen hins. wahrscheinlichen Einsatzmodi der Brimstone z.B. durch eine BW vornimmt etc. ist ja klar, und bisher hat niemand die Beschaffung der Brimstone durch die BW in Frage gestellt.
Persönlich würde ich sagen: Brimstone ist sicher ein super Wirkmittel für die BW und sollte dringend beschafft werden. Ob die BW bei dem Ding die autonome Zielsuche will oder nutzen soll, wird noch festzulegen und ggf. von RoE abhängig sein. Man kann sich da bei den Modi der Dual-Mode-Brimstone ja entscheiden.
Persönlich bekomme ich aber bei der Option Heron2 mit einer autonom suchenden Brimstone (und eben nicht mit dem Human-In-the-Loop-Modus, der ja wohl auch geht) und allerspätestens bei sowas wie MBDA-MILREM-Landrobotern mit Brimstones (siehe MBDA: https://www.mbda-systems.com/air-dominance/brimstone/ , dann den ersten Fotoslider zwei Bilder weiter nach rechts schieben) Bauchschmerzen.
Persönlich will ich keine Welt mit von Künstlicher Intelligenz gesteuerten Killerrobotern. Auch nicht mit dem Argument, dass die ja die Zahl von Opfern senken könnten. Irgendwo bei der Spirale, die sich daraus ergeben kann, muss Schluss sein. Wo, das ist die spannende Frage, und dazu brauch man unbedingt eine Debatte. Und nur die Militärs werden das in keinem Fall entscheiden können.
Klarstellung: Ein komplett autonomer KI-gesteuerter Killerroboter ist Brimstone wohl auch noch nicht, aber die Gefahr zur „Slippery Slope“ sehe ich grundsätzlich auch, da gebe ich Pax erstmal Recht.
Zum Thema bzw. Schreckensbild eines autonomen Schwarmangriffs (=landläufig: nicht vom Menschen mehr gesteuerte Dinger, die Ihren Kurs selbständig ändern, denen kaum auszuweichen ist und die killen was eben in Ihre Parameter passt) ist Brimstone wohl aber wohl eben näher dran als SMArt.
Bei der Entwicklung, die bei gerade bei KI ansteht, werden entsprechende Fragen irgendwann kommen. Solche Debatten sollten entweder lieber früher geführt werden oder Sie werden erst nach schmerzlichem Erwachen geführt. Und dass die Menschheit eben alles macht was geht stimmt nur begrenzt: Zu Antipersonenminen oder ABC-Waffen, haben sich die meisten Staaten ja auch entsprechende Selbstbeschränkungen auferlegt, und auch die Haager Landkriegsordnung hätte es nie gegeben, wenn man das Thema „Menschlichkeit“ im Kriege nicht ausdefinieren könnte. Wohlan, auf zur Debatte!
Nochmal @ Georg:
sicher nervt es, wenn man als katholischer Soldat von Pax-Aktivisten nicht richtig gehört/respektiert wird. Ich gebe nur zu bedenken, dass die Zahl der Menschen die unter nerviger Kommunikation mit Friedensaktivisten leiden insgesamt wohl weit geringer ist als die Zahl def Menschen, die ohne Schuld Opfer von Waffeneinsätzen wurden, von der Art der Auswirkungen mal ganz abgesehen…das Recht zu sowas Stellung zu beziehen kann man der Gruppierung Pax kaum absprechen und die sind da immer noch weit näher an der christlichen Botschaft dran als viele andere Aktivitäten der Katholischen Kirche. Muss man aushalten.
Zu „ Wie weltfremd die Position der „Sozialen Verteidigung“ war..“
Ich bin sicher kein Pazifist, aber ob die Grundidee der „sozialen Verteidigung“ wirklich so völlig bekloppt war wage ich zu bezweifeln. Mir ist aus dem 20. und 21. Jahrhundert kein Fall bekannt, in dem ein Krieg nach militärischem Sieg gegen den folgenden Widerstand der Bevölkerung gelungen ist. Dagegen viele, bei dem aller Einsatz des Militärs nicht den gewünschten Erfolg gebracht hat. Ist aber eine andere Debatte.
@Mitleser 12.11.2019 um 12:00 Uhr Minen sind m.E. eine andere Kategorie, da sie sich nicht zum Ziel bewegen und man ihnen mit einfachen Mitteln ausweichen kann (und soll = Zweck der Minen).
Eine Waffe, welche kriterienbsiert ihr Ziel aussucht klingt so lange gut bis man sich überlegt, wie gut der kriterienbasierte Vorschlagmechanismus bei amazon funktioniert.
@Landmatrose3000 sagt: 13.11.2019 um 11:05 Uhr
„Ich gebe nur zu bedenken, dass die Zahl der Menschen die unter nerviger Kommunikation mit Friedensaktivisten leiden insgesamt wohl weit geringer ist als die Zahl def Menschen, die ohne Schuld Opfer von Waffeneinsätzen wurden, von der Art der Auswirkungen mal ganz abgesehen“
Ich gebe zu bedenken, dass eine geschwächte DEU Gesamtverteidigung die Freiheit und den Wohlstand aller gefährdet. Ich habe nun wirklich nicht gegen eine ethisch-motivierte Argumentationsführung und ganz bestimmt nichts gegen eine christlich motivierte. Aber das Problem der Friedensbewegung ist (und das wird hier am Beispiel von PAX wieder einmal deutlich), dass sie sachlichen Argumenten häufig nur sehr selektiv zugäugig ist. Man wünscht sich eine Welt und passt seine Argumente daran an…
@Koffer
„…wenn man nicht dereinst sagen müsste: Dumm das wir diesen Krieg um unsere Freiheit verloren haben und/oder unzählige unserer Soldaten unnötig sterben mussten, nur weil wir uns der Realität nicht stellen wollten.“
– Der Realität müssen wir uns in diesem neuen Bereich der Kriegführung tatsächlich stellen, so wie bei Nuklearen, Biologischen und Chemischen Waffen auch. – Das heißt aber eben nicht, dass eine Debatte über die Einschränkung der Verwendung solcher Waffensysteme bereits „Realitätsverweigerung“ ist. Das Gegenteil ist der Fall.
– Welche „Freiheit“ können wir denn verlieren wenn wir in einer Welt leben in der Waffensysteme völlig autonom Menschen töten?
– Wer die verlinkte Studie „slippery slope“ gelesen hat, der konnte folgende Position des BDI – der ja nicht unbedingt pazifistisch orientiert ist- lesen:
„Very clearly, and rather uniquely for such a broad representative body, the German industry association BDI (Bundesverband der Deutschen Industrie) released a position paper on artificial intelligence in early 2019, in which it states that “the final decision on the use of a weapon against humans must not be left to a machine”, and it “therefore calls on the Federal Government to advocate a binding ban on such systems”.
Diese Position des BDI bezeugt, dass es keineswegs nur pazifistische Träumer sind, die hier Handlungsbedarf sehen. Auch die Tatsache, dass China zu den Staaten gehört „Who wants to ban killer robots“ ist ein Indiz dafür, dass die Debatte ernst genommen werden sollte. Die Position Chinas, zwar nicht die Entwicklung und Produktion, sondern den Einsatz international zu ächten, geht meines Erachtens in die richtige Richtung.
https://www.stopkillerrobots.org/wp-content/uploads/2018/11/KRC_CountryViews22Nov2018.pdf
@Pete sagt: 13.11.2019 um 12:27 Uhr
Ein internationaler Vertrag zur Einhegung von autonomen Systemen? Wünschenswert sicherlich.
Realistisch? Eher weniger.
Trotzdem, versuchen sollte man es!
Bis dahin gilt aber: solange es keinen Vertrag gibt, ist es unlogisch und schädlich nicht selbst zu forschen und zu beschaffen.
Hier müssen Diplomatie und Rüstung solange parallel laufen, bis die Diplomatie hat (oder eben auch nicht).
Die Probleme rund um man-in-the-loop, man-out-of-the-loop, man-out-of-the-loop ist ja nicht neu. Ähnliche Diskussionen gibt es ja auch hier seit Jahren:
https://augengeradeaus.net/2013/11/anlauf-fur-verbot-von-killer-robotern-in-der-un-waffenkonvention/
Oftmals wird von den Kritikern nur ein Element herausgestellt und damit eine verzerrte Realität gezeichnet.
Am Beispiel der Brimstone 2:
Das Flugzeug schießt ja nicht blindlings die Brimstone ab. Zunächst erfolgt eine Zielaufklärung über das Radar des Flugzeuges oder weiterer Sensoren. Zudem kann die Zielauswahl räumlich und kategorisch eingegrenzt werden (https://www.army-technology.com/projects/brimstone/).
Dazu kommen ja weitere Fragen der ROE, daher hat Brimstone 2 ja ein SAL-Suchkopf.
Mehr man-in-the-loop geht nicht.
Noch ein grundlegender Gedanke:
Brimstone wurde als Ersatz für „dumme“ Bombletmunition mit erheblichem finanziellem Aufwand entwickelt.
Nun kritisieren diejenigen, die damals dumme Bombletmunition kritisierten, die Brimstone 2 als zu intelligent.
@ Landmatrose3000
Zitat:
„Zu „ Wie weltfremd die Position der „Sozialen Verteidigung“ war..“
„Ich bin sicher kein Pazifist, aber ob die Grundidee der „sozialen Verteidigung“ wirklich so völlig bekloppt war wage ich zu bezweifeln. Mir ist aus dem 20. und 21. Jahrhundert kein Fall bekannt, in dem ein Krieg nach militärischem Sieg gegen den folgenden Widerstand der Bevölkerung gelungen ist. Dagegen viele, bei dem aller Einsatz des Militärs nicht den gewünschten Erfolg gebracht hat. Ist aber eine andere Debatte.“
So so, dann spielen Sie mal folgendes Szenario durch. Ein Land lässt sich wehrlos aufgrund des Konzeptes der „Sozialen Verteidigung“ vom Gegner einnehmen und möchte dann als besetztes Land absoluten Widerstand leisten in Form der „Sozialen Verteidigung“. Der gegnerische Soldat kommt also an eine einheimische Tankstelle und sagt: „Du geben mir Benzin !“. Der Tankwart sagt, das verweigere ich. Er wird vom gegnerischen Soldaten daraufhin sofort erschossen. Was wird wohl der 2. Tankwart zu der Aufforderung ihm Benzin zu geben, sagen ? Wie wirksam ist also Soziale Verteidigung ?
@ Pete
Zitat vom BDI „… “the final decision on the use of a weapon against humans must not be left to a machine”, and it “therefore calls on the Federal Government to advocate a binding ban on such systems”.“
Es ja nicht so, dass so eine Maschine sein Ziel vollkommen selbstständig aussucht und völlig selbstständig das Ziel dann bekämpfen würde.
Die Final Decision trifft immer der Operateur und zwar in dem Moment wo er die Betriebsart auf „Automatik“ umstellt, nachdem er das Suchfenster zur Zielsuche der Maschine zugewiesen hat.
Übrigens ihr Standpunkt wird auch die Einführung von autonom fahrenden Autos verhindern. Sie wissen schon, der ethische Konflikt für die autonome Steuerung des Autos, bei der Wahrnehmung eines unmittelbar bevorstehenden Unfalles während der Fahrt richtig auszuweichen, nach rechts um dann den Rentner zu gefährden oder nach links um die junge Mutter mit Kind zu gefährden.
Kein Mensch will in Deutschland Killer-Roboter haben, aber die bewaffneten Drohnen-Debatte damit abzuwürgen, dass es in Zukunft auch autonome Drohnen geben könnte, die aber nichts mit der aktuell zu beschaffenden Drohne zu tun haben, ist menschenverachtend für die eigenen Soldaten, denen man Schutz und Wirkung im Kriegsfall entzieht.
Zu der Liste der Staaten, die keine Verbannung von weitgehend autonomen Waffensysteme wollen, gehört Deutschland
Zitat aus ihrer Verlinkung:
„Approximately a dozen states indicate they do not support negotiating a new treaty on fully autonomous weapons:
– Australia
– Belgium
– France
– Germany
– Israel
– Republic of Korea
– Russia
– Spain
– Sweden
– Turkey
– United States
– United Kingdom“
Wie man sieht, weitgehend alles Industriestaaten.
Warum verweigern die sich wohl ?
Erstmal aus industriepolitischen Gründen, Kuba hat keine solche High-Tech Industrie und kann deshalb bei einem solchen Verbot nichts verlieren.
Zum Zweiten weil in diesen Industriestaaten die Bereitschaft einen kriegerischen Konflikt mit Blutzoll der eigenen Soldaten zu bezahlen, wesentlich geringer ist als z.B. in Burkina Faso oder in Kolumbien. Und dies kommt unseren Soldaten direkt zu gute. Wenn man also dagegen ist, ist man auch gegen einen besseren Schutz und gegen eine besseren Ausrüstung unserer eigenen Soldaten.
Um dies nochmal klarzustellen. Es geht bei der Drohnendiskussion nicht um voll autonome Systeme. Alle bisherigen bewaffneten Drohnen werden von Menschen gesteuert, die Ziele von Menschen identifiziert und die Waffen von Menschen ausgelöst.
Was hier Pax Christi möchte ist etwas Anderes. Mit der Debatte um voll autonome Waffen, emotional Killerroboter genannt (als wäre eine Landmine für 10 Dollar, die jahrelang vergraben in der Erde lauert ein nicht viel heimtückischer Killerroboter), wollen sie die Debatte um bewaffnete Drohnen abwürgen und damit unseren Soldaten Schutz und Wirkung im Einsatz entziehen.
@Georg:
„wollen sie die Debatte um bewaffnete Drohnen abwürgen und damit unseren Soldaten Schutz und Wirkung im Einsatz entziehen.“
Was soll dieses Strohmannargument? Warum der Schlenker auf ein völlig anderes Feld?
Für mich ist die bewaffnete, ferngesteuerte Drohne was völlig anderes als ein automatisches, intelligentes Waffensystem (Roboter).
@ Georg
„ Mit der Debatte um voll autonome Waffen, emotional Killerroboter genannt (als wäre eine Landmine für 10 Dollar, die jahrelang vergraben in der Erde lauert ein nicht viel heimtückischer Killerroboter), wollen sie die Debatte um bewaffnete Drohnen abwürgen und damit unseren Soldaten Schutz und Wirkung im Einsatz entziehen.“
Mit Verlaub, haben Sie den Pax-Report überhaupt gelesen? Thema ist „Lethal autonomous Weapons“
„ Alle bisherigen bewaffneten Drohnen werden von Menschen gesteuert, die Ziele von Menschen identifiziert und die Waffen von Menschen ausgelöst.“
Tja, also da sind Sie leider nicht ganz up-to-date, glaube ich. Schauen Sie mal hier: https://www.edrmagazine.eu/killer-drones-from-turkey
STM (Türkei) produziert seit 2017 die kleinen Alpagu – (Fixed-wing, ca. 6 ,5 kg) und Kargu (Rotary, ca. 3,5 kg Gewicht) Systeme, erklärt die seit neuestem auch einzusetzen und bewirbt die derzeit auf Messen z.B. in Lateinamerika. Das sind Suicide-Drohnen, die sich selbst sprengen. Kann man im Schwarm von ca. 30 einsetzen. Reichweite so 5-10 km. Mit Video-Erkennung, die Drohne kann biometrische Daten von Personen mit den Kamerabildern selbständig abgleichen, dann auf das erkannte Ziel mit bis zu 130 km/h in der Fixed-Wing-Variante zurasen und dann letal wirken. Nach Ziel“erkennung“ vollautonom. Tja, da bekommt das biometrische Passbild völlig neue Relevanz.
Was machen eigentlich eineiige Zwillinge dann?
Wenn Sie jetzt politisch aktiver Kurde in der Südosttürkei wären – oder meinetwegen Oppositionsanhänger in einem lateinamerikanischen Land, dessen Regierung zwischenzeitlich eine etwas andere Interpretation von Bürgerrechten als DEU einnimmt – würden Sie die Debatte wahrscheinlich ein wenig anders führen.
Über Kargu steht auch was im Pax-Report. Deckt sich mich den ansonsten darüber frei zugänglichen Informationen – und ist nebenbei der Aufhänger des ganzen Reports.
Jemandem, der zu solchen Entwicklungen gern eine Debatte führen will zu unterstellen, er will primär gar nicht darüber sprechen sondern unseren Soldaten Schutz und Wirkung im Einsatz entziehen halte ich für doch ein starkes Stück.
Und nochwas: Man sollte auch so ehrlich sein und mal klar benennen, dass extralegale Tötungen, die USA seit Jahren im immensen Ausmass mit Drohnen betreiben, sicher nicht zu einer besserer gesellschaftlichen Akzeptanz von solchen Systemen führen. Das sicher sinnvolle Mittel Drohne für Unterstützung von Soldaten in einem rechtmässigen Einsatz wird durch Verwendung bei extralegale Tötungen – und dann noch mit erheblicher „Fehlerquote“, mir wird gleich schlecht bei den ganzen Euphemismen die man sich bei sowas schon angewöhnt hat – in der gesellschaftlichen Akzeptanz aus meiner Sicht viel mehr diskreditiert als durch jeden Report von Friedensaktivisten.
RoE ist das Zauberwort; wie der Landmatrose3000 schon ansagte.
Bislang wurden all die technisch famosen Waffen in westlichen Arsenalen allerseltenst unter Ausnutzung der möglichen technisch-taktischen Parameter eingesetzt. Die westlichen RoE haben den Waffeneinsatz stets limitiert. Eine Aufklärung des Zielgebietes und positive Identifizierung des Zieles, meist sogar durch mehrere Verfahren, ist generell übliches Procedere. Ein „wir feuern die Waffe in das Gebiet X und lassen sie dort selber ihr Ziel suchen“ gab es IIRC westlicherseits noch nie und wird es bei den üblichen Verfahrensregeln in den westlichen Staaten auch nicht geben, solange es keinen „all-out war“ gibt (und im dem Fall hätten wir ganz andere Probleme). Was PAX da veranstaltet ist weitestgehend eine Phantomdiskussion.
Brimstone: „Once launched, the missile operates in full autonomy; it does not include a human-in-the-loop mode.“
Aber warum wurde sie denn in eine bestimmte Richtung/einen bestimmten Bereich abgefeuert?
Einfach mal so „in’s Blaue“?
Mit dieser Sicht wäre jeder Feuerschlag der Artillerie mit ungelenkten bzw. nicht bis „Aufschlag“ zerstörbaren Geschossen ähnlich zu bewerten, denn die Dinger treffen nach Abschuß einfach das, was sich dann an ihrem Aufschlagspunkt befindet und der Beobachter zuvor dort nicht gesehen hat oder bei Auslösen des Feuers dort noch nicht war., z.B. eigene Teile, Tiere, Zivilisten oder Feind.
Korrektur zum Vor-Posting zu Aplagu/Kargu: Inklusive Ziel“erkennung“ vollnautonom.
@ Koffer
zu „ Aber das Problem der Friedensbewegung ist (und das wird hier am Beispiel von PAX wieder einmal deutlich), dass sie sachlichen Argumenten häufig nur sehr selektiv zugäugig ist“
Eine radikale Friedensbewegung gibt ja es doch heute kaum noch so wie in den späten 60ern-90ern. Bis zum Fall des eisernen Vorhanges war ich noch viel zu jung, um mich mit solchen Themen zu beschäftigen, aber die komplette Ablehnung alles militärischen und den Voll-Pazifismus und Dogmatismus, den es damals in weiter Form gegeben haben muss, finde ich egal ob in der Kirche oder im politischen Spektrum so heute nicht mehr in relevantem Ausmass. Das merkt man auch daran, dass die gesellschaftliche Debatte heute eine ganz andere ist. Ich würde behaupten, mit dem Kosovo-Einsatz (tja, damals wohl völkerrechtswidrig, aber tatsächlich aus meiner Sicht sehr richtig, da ziehe den Hut vor Fischer und Schröder hat und – auch wenn es etwas schwerfällt – Scharping) ist da in DEU vieles anders geworden. Ich denke, dass das auch mit der Radikalität der Optionen vielleicht zusammen hing – man war früher wohl eben von der Angst des nuklearen Overkills und dem befürchteten radikalen „totalen“ Krieg, mit dem Auslöschen von Millionen Menschen in kürzester Zeit und der Verlust des Habitats, geprägt. Dieser realen Gefahr wurde eben die Radikalität des totalen Friedens entgegen gestellt. Die geniale Aussage von Fischer damals „ Wir haben immer gesagt: ‚Nie wieder Krieg!‘ Aber wir haben auch immer gesagt: ‚Nie wieder Auschwitz!“ hat glaube ich ziemlich nachhaltig Wirkung in der deutschen Gesellschaft gezeigt, auch bei der deutschen Friedensbewegung. PAX ist nebenbei international, die deutsche Friedensbewegung war aber immer sehr deutsch geprägt. Nicht wirklich ausdiskutiert ist in DEU seit dem Kosovo-Einsatz, was mit denn unterhalb der Schwelle von „Nie wieder Auschwitz“ ist und wie die Schwelle definiert wird. Das „Deutschland wird auch am Hindukusch verteidigt“ von Herrn Struck danach hatte nie diese gesellschaftliche Überzeugungskraft, und die sicherheitspolitischen Leitlinien blieben bislang zu undefiniert lieb- und und ideenlos.
Die Debatte ist doch mindestens 30 Jahre hinter der Zeit. Mindestens so lange hat die Bundeswehr bereits Waffensysteme im Einsatz, die vollkommen autonom kämpfen können: Patriot und die Luftabwehrsysteme der Fregatten.
@ Landmatrose
Ich habe mir den Bericht von PAX durchgelesen, bzw. überflogen und mal ein paar Stellen raus kopiert.
„Increasingly, others have voiced concerns that lethal autonomous weapons would be seriously
destabilising and threaten international peace and security. For example, by enabling risk-free and
untraceable attacks, they could lower the threshold to war and weaken norms regulating the use
of force.“
Da haben wir wieder das Totschlagargument, autonome Waffensysteme vermindern das eigenen Risiko und deshalb sinkt die Schwelle zum Krieg.
Glauben Sie wirklich, dass Deutschland so handelt und deshalb leichter einen Krieg anfängt ?
Das nächste Argument, weil die Dinger angeblich „Fire and Forget“ sind, können auch Entwicklungsstaaten oder auch Terroristen diesen Waffen nutzen. Man spricht sogar, dass diese Waffen „Massenvernichtungswaffen“ seien, wohl um eine Ächtung zu erleichtern.
“Because they do not require individual human supervision, autonomous weapons are potentially
scalable weapons of mass destruction; an essentially unlimited number of such weapons can be
launched by a small number of people. This is an inescapable logical consequence of autonomy”,
wrote Stuart Russell, a computer science professor at the University of California in Berkeley.12
Die bisher weltweit am häufigsten verbreite „Massenvernichtungswaffe“ ist das Sturmgewehr. Auf vielen Bildern von Aufständen und ähnlichen sehen sie das AK 47 und das G3, meist auf unterschiedlichen Seiten der Parteien.
Dann kommt eine Auflistung wer alles autonome Waffensysteme produziert, die fünf großen Waffenproduzenten der westlichen Welt.
„A well-known product is its MIM-104 Patriot, one of the first air defence systems to introduce
autonomy.62 Its goal it is to “detect, identify and defeat tactical ballistic missiles, cruise missiles,
drones, advanced aircraft and other threats”.63 Each missile has a range of 70 kilometres and
a maximum flight time of less than three and a half minutes. While its performance has much
improved since its introduction on the battlefield during the 1991 Gulf War, there is scepticism
about the system’s effectiveness against cruise missiles and smaller targets, illustrated by the
September 2019 aerial attacks on Saudi oil infrastructure, which were partly protected by Patriots.“
Klar, die Patriot Missile ist auch ein autonomes Waffensystem, das haben Raketen mit einem eigenständigen Suchkopfsystem so an sich.
Northrop Grumman, wird mit der X47B, einer Stealth-Drohne, dem MQ-8 Fire Scout, ein unbemannter Bell 407 Helikopter und der MQ-4C Triton, einer Aufklärungsdrohne so groß wie der Euro-Hawk, aufgeführt. Sollen dies alles autonome Waffensysteme nach der PAX-Studie sein ?
Ohne einen „man in the loop“ funktioniert bei diesen Waffensystemen gar nichts.
Dann kommt eine Auflistung von den verschiedenen „Loiterung Munitions“, also meist fliegende oder schwimmende Systeme die für eine relativ lange Zeit über dem Einsatzgebiet verweilen können und dann ggf. ein Ziel angreifen können.
Bei der Mehrzahl dieser Systeme, vor allen von westlichen Staaten wird darauf hingewiesen, dass ein „man in the loop“ den Angriff oftmals bis zur letzten Sekunde abbrechen kann.
Aus ihrer Verlinkung von STM, Türkei
„STM skills in deep learning and big data were used to develop artificial intelligence and image processing algorithms allowing the Alpagu to navigate by video, and to detect and classify static or moving targets such as vehicles or people. The aircraft is fitted with day and thermal optronic sensors.“
Aber natürlich gibt es dann auch die Systeme der Schwellenländer, wie der Türkei. Die haben keinen „man in the loop“, sondern greifen direkt ein Ziel mittels Gesichtserkennung an. Sie glauben jetzt hoffentlich nicht, dass die Türkei diese Technologie beherrscht, gezielt einen Menschen aus einer Menge per Gesichtserkennung aus einer fliegenden Bombe heraus zu identifizieren. Was dieser Suchkopf haben wird, ist einen Menschen aus der Umgebung heraus abzubilden und die Bombe (Handgranate) in eine Menschenmenge oder auf einzelne Menschen detonieren zu lassen.
Die Türkei macht ja unter Erdogan seine eigenen Regeln. Die wird ein Verbot dieser Waffenkategorie auch nicht stören, genauso wenig wie es Israel gestört hat nach dem Libanonfeldzug 2006, die Grenzregion mit weißen Phoshorbomblets zu verseuchen und damit den ganzen Landzug unpassierbar zu machen.
Das alles sind aber keine Argumente solche Waffen, ausdrücklich die mit „man in the loop“ zu verteufeln. Sie fordern weniger Kollateralopfer als andere Waffen, Bomben, die einfach alles in der Umgebung platt machen.
Und mit einer israelischen „Mini Harpy“ riegeln sie einen breiten Küstenabschnitt vor einer Invasion einer Kommandotruppe (Palästinenser) wirkungsvoll für 2 Stunden ab, mit „man in the loop“ bis zur letzten Sekunde !
Sorry, nicht die Rakete ist autonom. Das Waffensystem Patriot entscheidet im automatischen Einsatzmodus ohne menschliches Zutun, ob und auf was geschossen wird, genau wie die FüWeS der Fregatten.
Die Bundeswehr hat damit schon Waffensysteme, die ohne menschlichen Eingriff schießen können. Wenn es schlecht läuft, halt auch auf Verkehrsflugzeuge.
@Landmatrose3000 sagt: 13.11.2019 um 17:56 Uhr
„Ich würde behaupten, mit dem Kosovo-Einsatz (tja, damals wohl völkerrechtswidrig, aber tatsächlich aus meiner Sicht sehr richtig, da ziehe den Hut vor Fischer und Schröder hat und – auch wenn es etwas schwerfällt“
Da OT, gehe ich hierauf nicht weiter ein, aber vermerke, dass diese weder politische noch gerichtliche Mehrheitsmeinung ist.
@ Georg sagt:
13.11.2019 um 20:23 Uhr
Bzgl. Patriot, Triton, Mini Harpy (hat auch soweit ich weiss Man-in-the-loop) etc.: Alles richtig.
Bzgl. Kargu etc./STM: Da wäre ich mir bei weitem nicht so sicher, dass der türkische Staatsbetrieb STM sowas nicht kann. Der hat nebenbei wohl u.a. einen recht engen Draht zur (US) Sierra Nevada Corp. (ein türkisch-amerikanisches Ehepaar ist übrigens dort Alleineigentümer), man entwickelt dort wohl einiges zusammen. TUR hat in den letzten Jahren Riesensprünge in der eigenen Rüstungs- und High-Tech-Industrie gemacht.
Der Punkt ist aber: Die Diskussion von Pax ist doch überhaupt nicht auf DEU und die hier eher zu erwartende Zurückhaltung zu autonomen Systemen bezogen. Und die Tendenz zu einem Mehr an Autonomie/Robotik ist doch nicht von der Hand zu weisen. Auch wenn Sie selbst da derzeit keine Bedenken haben – andere haben die, und für die gesellschaftliche Akzeptanz der BW und des Soldatenberufs ist doch nicht die Selbstbetrachtung der BW und Ihrer Angehörigen allein ausschlaggebend, sondern im erheblichen Maße der Blick und die Meinung aussenstehender.
Wenn man sich einer Debatte aber verschliesst, hat man tendenziell schon verloren. Das sollte die BW da besser vermeiden. Ansonsten kommt dann das heraus, was sie ja zu Recht befürchten: Dass bei irgendeiner RoE-Debatte oder einer Beschaffungsentscheidung im BT gegen den bewaffnete Heron2 o.ä., gegen Neubeschaffung sinnvoller Wirkmittel etc. entschieden wird, am Ende weil der normale BT-Abgeordnete sich nicht im Wahlkreis vor der Kirchengemeineratsangehörigen usw. für eine Entscheidung rechtfertigen will, die er ggf. selbst meint nicht ganz zu überblicken.
Ich würde dem BMVg empfehlen, diese Debatte offensiv anzugehen – und dann auch offen zu führen. Gerne auch mit Einbindung der Geistlichkeit,((Militär-)Bischöfe, Islamvertreter?), DBWv, Philosophen, Fachleuten für Human Rights etc. Ich glaube man käme eher zu einer tragfähigen Grundlage für die Zukunft als bei der derzeitigen Herumeierei.
@ Koffer sagt:
14.11.2019 um 0:43 Uhr
Korrigiere: Die Völkerrechtskonformität wurde damals kontrovers diskutiert.
Das Konzept der humanitäre Intervention begann ja damals erst sich heraus zu bilden. Habermas zum Beispiel hat ja damals (bei ihm „legitime Nothilfe“) elementare Beiträge zum deutschen Diskurs geliefert, und politisch bedurfte erst nach meiner Erinnerung auf Regierungsseite schon einen ziemlichen Arsch in der Hose um die deutsche Beteiligung in der Wählerschaft zu vertreten.
Ich glaube derartige Debatten brauchen wir viel öfter, die Akzeptanz von unbemannten/(Teil-) autonomen Systemen ist da eben ein Themenfeld.
@ all
Die Diskussion über die Wehrwilligkeit und Wehrfähigkeit der Deutschen sollte tatsächlich geführt werden. Es kann meiner Meinung nach nicht angehen, dass eine Regierungspartei sich nicht zu einer Position durchringen kann um bewaffnete Drohnen zu beschaffen. Wohl gemerkt ist die Heron_2 pilotengesteuert, da wird nichts autonom angegriffen. Aber natürlich wird bei Diskussion um bewaffnete Drohnen wieder die Angst geschürt wegen autonomen Waffensystemen, wegen den Einstieg zu autonomen Drohne, extralegale Tötungen usw.
Glaubt hier jemand das in Deutschland jemals so etwas wie extralegale Tötungen mittels Drohnen geben wird ? Ich nicht, der 04.09.2009 steckt allen Entscheidungsträgen noch viel zu sehr in den Knochen !
Da erhebt sich zu Recht die Frage ob dieser Teil der Gesellschaft überhaupt noch eine handlungsfähige Bw will, oder nur ein bewaffnetes THW. Da haben die Grünen vor 20 Jahren im Kosovo-Konflikt tatsächlich erstaunlich mehr „Haltung“ gezeigt, als die ängstliche SPD es heute tut.
Insofern ist immer wieder eine Debatte notwendig über die Frage was will Deutschland mit der Bw anfangen und welche Ausrüstung soll sie haben. Komischerweise funktioniert das bei der SPD wenn es um Schiffsneubauten geht ganz gut. Sind halt Arbeitsplätze in den Stammländern im Norden an der Küste.
Wie es ausschaut müssen dies in der nächsten Legislaturperiode sowieso die Konservativen mit den Grünen auskarten, wie es bei der Rüstungsbeschaffung weitergehen wird und die SPD wird aussen vor bleiben.
Moment. Jetzt droht es vom Thema autonome Waffensysteme doch deutlich abzukommen (und beim haha so lustigen Hinweis, die Kalaschnikow sei doch viel mehr Massenvernichtungswaffe, frage ich mich, wo da künstliche Intelligenz und Autonomie gesehen wird). Und um die Debatte über „Wehrwilligkeit und Wehrfähigkeit“ geht’s auch nicht. Außerdem: Die Debatte um bewaffnungsfähige deutsche Drohnen mit autonomen Systemen zu verquicken, kenne ich eigentlich nur von den Gegnern dieser unbemannten Waffensysteme, es hat mit deren Technik herzlich wenig zu tun.
Wäre nett, wenn die Debatte tatsächlich mal beim Ausgangspunkt bleiben könnte.
Okay, wieder nah ans Thema, for your information:
Zwei Links zu den Standpunkten der Kampagne „Ban the Killer Robots“:
International: https://www.stopkillerrobots.org/
Deutsche Sektion/Facing Finance e.V: http://www.killer-roboter-stoppen.de/ (jaja, mit Support der allseits beliebten DFG-VK und des Centres for Feminist Foreign Policy…nicht davon irre machen lassen, besonders deutsche Standpunkte zu der Debatte im politischen und gesellschaftlichen Spektrum sind da doch recht informativ zusammen getragen – und einige Widersprüche von DEU Regierungshandeln recht prägnant aufgezeigt. Menü-Bürger ist übrigens ziemlich oben links, sieht man kaum, hellgrau auf weiss).
Exzerpt des dort zu findenden und aus meiner Sicht lesenswerten Interviews mit MdB Katja Keul/B90Grüne zum Thema:
„ Das ist leider ein typisches Verhalten der deutschen Rüstungskontrollpolitik. Vor lauter Konsenssuche scheut man den Konflikt“….
„Ich glaube, die Industrie will in erster Linie Rechtssicherheit, damit sie weiß, wo sie wirtschaftlich sinnvoll investieren kann.“
@Landmatrose3000:
Ich finde den Gedanken von proaktiveren Debattenbeiträgen des BMVg (und auch von Verteidigungspolitikern) sehr gut und wichtig.
Leider hat das BMVg bereits bei bewaffneten Drohnen diese Debatte oftmals in falsche Richtungen gelenkt (eigene RoE für Drohnen).
Es bleibt zu hoffen, dass die neue Ministerin (auch) diese Debatte aufgreift.
Wobei ihre bisherigen Impulse ja nicht immer besonders geschickt waren.
Es wird wohl erst wieder eine Debatte werden, wenn es konkret wird. Also bei der Beschaffung von Brimstone 2 und Bewaffnung für HERON TP oder EuroDrohne. Bin mal gespannt, ob diese Themen in dieser Leguslatur überhaupt noch vertragsreif werden.
Die ganze Debatte ist eben mehr emotional als rational. Da dagegen zu halten erfordert politischen Mut. Wobei viele Wähler da aus meiner Sicht realistischer sind als die politisch-medialen Echokammern so vermuten lassen.
Jedes zielsuchende bzw. -verfolgende Waffensystem ist ab dem Abschuss autonom – mit Ausnahme von Funktionen zur Notsprengung einer Rakete im Fall einer falschen Zielauffassung.
Regelmäßig haben frühe Sidewinder auf die Sonne oder reflektierende Wolken aufgeschaltet und sind damit in eine völlig unerwartete Richtung geflogen. Wenn’s blöd kam und dann noch ein weiteres Flugzeug in der Nähe oder im Weg war, ging die Waffe eventuell dann auch wieder auf dessen Triebwerk. Die Waffen „smarter“ zu machen, damit das künftig nicht mehr so einfach passiert, ist eigentlich ein ziemlicher no-brainer. Schützenminen mit ihrer unterschiedslosen Gefährdung von Nichtkombattanten sind ja nicht umsonst geächtet.
Das kann also nicht gemeint sein, wenn über „autonome“ Waffensysteme gesprochen wird. Gemeint ist in der Regel eine Waffe, die Ziele selbsttätig identifiziert, sucht und bekämpft. Wobei aber auch dort menschliches Zutun über die Programmierung immer erforderlich bleibt.
Ob ich eine Rakete auf ein bestimmtes Ziel aufschalte, bevor ich sie abschieße, ob ich die Artilleriehaubitze mit bestimmten GPS-Daten programmiere, oder ob ich einer Drohne eine bestimmte Klasse von Zielen zuweise und den Bereich definiere, indem sie diese „selbständig“ bekämpfen soll, in jedem Fall treffen Menschen die wesentlichen Entscheidungen über den Waffeneinsatz. Im Falle der vernetzten Drohne, wo ich im Augenblick sogar meist noch die Möglichkeit habe, die Autonomie außer Kraft zu setzen, damit eventuelle Fehlidentifizierungen von Zielen vermieden werden, habe ich in aller Regel sogar noch mehr Möglichkeiten, Informationen zu bekommen und steuernd einzuwirken, als bei Artilleriegranaten oder Raketen. Da habe ich traditionell bestenfalls einen „Abort“-Knopf, der den Flugkörper sprengt, bevor der ins Ziel geht.
Perfide wird’s, wenn den Menschen, die bei Programmierung oder Einsatz der „autonomen“ Waffen die Entscheidungen treffen, schlicht egal ist, wen’s am Ende trifft, und wenn’s der falsche sein sollte. Aber da sehe ich dann auch keinen Unterschied zum großmaßstäblichen Verminen von Gelände mehr.
Bei der Debatte um die Bundeswehr-Drohnen und ihre Bewaffnung ist das nun wirklich eine Phantomdiskussion. Dass die Türkei kleine Drohnen vorhält und anbietet, die sich für gezielte extralegale Tötungen ohne menschliches Zutun nach Start der Waffe nicht nur eignen, sondern die praktisch für diesen Zweck konzipiert scheinen, ist davon, was die Bundeswehr kann, darf und soll doch recht weit entfernt.
Bei den Amerikanern hat m.E. selbst bei den umstrittensten Drohneneinsätzen immer noch ein menschlicher Pilot den Abzug für die Hellfire gedrückt. Schlimm genug, aber anscheinend möchte man auch dort die entscheidenden Maßgaben nicht den Programmierern überlassen. „Smarte“ Artilleriemunition schießt man nur dorthin, wo man feindliche Hartziele identifiziert hat, die man bekämpfen will, und nicht ins Blaue hinein. Die Bedeutung von Einsatzrichtlinien wurde ja schon genannt. Die eigentliche Befürchtung ist doch, dass Waffen, die von Leuten entwickelt werden, die sich ethisch ohnehin an nichts halten wollen, um größtmögliches Chaos zu stiften, gerade nicht smart genug sein werden und so zu gemeingefährlichen Waffen mutieren.
Da aber alle über den selben Kamm zu scheren, ist dann aber auch nicht sachgerecht. Gegen Fundamentalismus, der jede Art von Waffe verteufelt, weil man die Realität menschlicher Konflikte ignoriert, ist freilich argumentativ wenig auszurichten. Ein m.E. vertretbarer und auch aus Sicht realistischer Friedensaktivisten gültige Grund für einen Einsatz „smarter“ Waffen ist aber, die Bekämpfung falscher Ziele und Kollateralschäden zu vermeiden. Dazu gehört natürlich auch eine offene Debatte darüber, was diesem Ziel noch hinreichend dient und wo man aus Bequemlichkeit oder zur bloßen Vermeidung von eigenen Opfern wieder mehr Kollateralschäden billigend in Kauf nimmt.
Letzteres halte ich für extrem problematisch.
Fall A:
Ich kläre auf, dass im Waldstück 3 Leo2, 1 PzH2000 und 1 ARBA sind sowie deren aktuelle Position.Ich weise Ari/Jagdbomber an, diese 3 Leo2, 1 PzH2000 und 1 ARBA zu bekämpfen. Die Munition „bekommt den Auftrag“ an den Positionen X1…X5 +Umkreis 5 gepanzerte Objekte „zu treffen“
Fall B:
Ich „weise“ Munition an, im Waldstück 5 gepanzerte Obkjekte anzugreifen.
Bei Variante 2 ist mir die Gefahr zu hoch, dass da falsche Ziele getroffen werden, egal ob ein gepanzerte Sanitätsfahrzeug oder ein ziviler T5.
Der Verweis auf die Mustererkennung genügt mir dabei nicht. Im Labor mag es mag es ja zu 99,95 % sicher funktionieren, aber freilaufend? Ich muss nur an die amazon-Vorschläge oder google-Werbung denken um da Bedenken hinsichtlich die Treffsicherheit (im doppelten Sinne) der Zielerkennung haben.
@aussenstehender sagt: 15.11.2019 um 11:05 Uhr
„Der Verweis auf die Mustererkennung genügt mir dabei nicht. Im Labor mag es mag es ja zu 99,95 % sicher funktionieren, aber freilaufend? Ich muss nur an die amazon-Vorschläge oder google-Werbung denken um da Bedenken hinsichtlich die Treffsicherheit (im doppelten Sinne) der Zielerkennung haben.“
Ich teile Ihre „Unwohlsein“ über autonome Entscheidungen, aber es wird die Zeit kommen, in der die Maschinen eine höhere Wahrscheinlichkeit der richtigen Zielauswahl unter Zeitdruck haben werden, als Menschen.
Und dann stellt sich die ethisch-philosophisch wirkclih spannende Frage, ob eine höhe Wahrscheinlichkeit für eine fehlerhafte (tödliche) Entscheidung deswegen besser akzeptabel sein wird, weil sie von einem Menschen getroffen wurde.
@ aussenstehender
Wenn sie mit einer Wahrscheinlichkeit von 99,95 % nicht zufrieden sind, dann dürfen sie in einer technisierten Welt auf wenige Dinge vertrauen. Die meisten Prozesse werden mit einer Wahrscheinlichkeit von 95 % (= 2 sigma) gemessen. Eine Wahrscheinlichkeit von 99,5 % (= 3 sigma) werden für hochgenaue Messungen z.B. beim Eichamt verwendet. Mit einer Wahrscheinlichkeit von 99,9 % (=3,29 sigma) sind mir keine Messungen bekannt.
Also 99,5 % ist schon sehr sicher in der Auswahl eines Zieles. Es bedeutet dass bei lediglich 5 von 1000 Einsätze falsche Ziele bekämpft werden würden. Ich denke bei jeder menschlichen Zielzuweisung ist die Fehlerrate höher.
Bedenken Sie wie oft es bei Luftschlägen in AFG geheissen hat, eine Hochzeitgesellschaft wurde getroffen usw. Also die Fehler der Informationsbeschaffungen über menschliche Quellen sind um Potenzen höher, als ein technisches Gerät dann bei einer Zielzuweisung Fehler macht.
Ach so, auf die Bremsen ihres Autos sollten sie dann auch nicht vertrauen. Die Bremsleistung ist höchstens auf 99,5 % der Anwendungsfälle als ausreichend dimensoniert berechnet worden. Oder Sie fahren eben nicht die 100 % mögliche Leistung ihres Fahrzeuges aus.
@Koffer:
„aber es wird die Zeit kommen, in der die Maschinen eine höhere Wahrscheinlichkeit der richtigen Zielauswahl unter Zeitdruck haben werden, als Menschen. Und dann stellt sich die ethisch-philosophisch wirkclih spannende Frage, ob eine höhe Wahrscheinlichkeit für eine fehlerhafte (tödliche) Entscheidung deswegen besser akzeptabel sein wird, weil sie von einem Menschen getroffen wurde.“
Der richtigen Zielauswahl innerhalb der Parameter der Mustererkennung. @aussenstehender hat den Begriff zu Recht verwendet und nicht etwa künstliche Intelligenz. Man trainiert einen Algorithmus ein Muster aus einen vorgegebenen Datensatz zu erkennen. Das geht schon ganz gut nach einer Zeit….inerhalb des Trainingsdatensatzes (Laborbedingungen), aber, und hier hat aussenstehender auch wieder zu Recht darauf verwiesen, wie gut dass sonst so klappen kann kann man ja bei den Produkten großer Techunternehmen sehen.
@Georg:
Die Wahrscheinlichkeit mit der mein Sturmgewehr technisch verlässlich einen Schuss abgibt ist eine andere als die Wahrscheinlichkeit mit der ich als Schütze auch ein legitimes Ziel ausgewählt habe. Ein autonomes Waffensystem mag in der Bekämpfung eine hohe technische Verlässlichkeit haben, aber 99.5% sind verdammt schlecht wenn es um die Verlässlichkeit der Zielauswahl geht. Sie bringen einen Vergleich mit Zivilisten (Hochzeitsgesellschaft), aber ich frage mich ob sie überhaupt schon in Erwähnung gezogen haben dass sich ein autonomes System dass nach bestimmten Parametern Ziele aussucht auch schnell die eigenen Leute treffen könnte. Panzer, Soldaten, Fahrzeuge, Schiffe haben dann ja doch recht große Ähnlichkeiten ungeachtet ihrer hoheitlichen Zugehörigkeit.
@tt.kreischwurst sagt: 15.11.2019 um 22:51 Uhr
„Der richtigen Zielauswahl innerhalb der Parameter der Mustererkennung. @aussenstehender hat den Begriff zu Recht verwendet und nicht etwa künstliche Intelligenz. Man trainiert einen Algorithmus ein Muster aus einen vorgegebenen Datensatz zu erkennen. Das geht schon ganz gut nach einer Zeit….inerhalb des Trainingsdatensatzes (Laborbedingungen), aber, und hier hat aussenstehender auch wieder zu Recht darauf verwiesen, wie gut dass sonst so klappen kann kann man ja bei den Produkten großer Techunternehmen sehen.“
Kein Widerspruch.
Allerdings sehe ich auch keinen Zusammenhang mit meinen Aussagen.
@Koffer:
Worauf ich hinaus will ist dass wenn Sie sagen dass eine Zeit kommen wird wo die Genauigkeit von Systemen größer (und gleichzeitig schneller) als die des Menschen ist, dann muss man darauf verweisen dass das immer unter der Einschränkung/Bedingung (constraint) des Systems selbst passiert. Die Genauigkeit kann 100% haben und in Bruchteilen einer Millisekunde passieren, aber wenn die Erkennung sehr grob ist dann sind 100% halt auch einfach nicht gut. So lange wir beim maschinellen Lernen sind ist die Erkennung auf das beschränkt was man im Trainingsdatensatz beigebracht hat. Man kann natürlich dann mit real-Daten noch nachjustieren so dass ein System weiterlernt, aber das impliziert ja schon dass man aus falschen Entscheidungen (Fehler beider Kategorien) lernen muss.
Also, schneller und verlässlicher geht schon. Aber die systemimmanente Verlässlichkeit ist anders als eine ‚absolute‘. Darauf will ich hinaus.