Anlauf für Verbot ‚von ‚Killer-Robotern‘ in der UN-Waffenkonvention
Kaum haben Union und SPD im Entwurf ihres Koalitionsvertrages vereinbart Deutschland wird … sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen, schon folgen die Vereinten Nationen… Im Ernst: Seit dem (heutigen) Freitag steht fest, dass im Rahmen der UN-Waffenkonvention im kommenden Jahr Gespräche beginnen sollen, voll-autonome Systeme (manche sagen auch: Killer-Roboter) in die Konvention und damit in die Liste geächteter Waffen aufzunehmen.
Eine offizielle Bestätigung dafür habe ich noch nicht gefunden, am nächsten kommt dem ein Tweet der schwedischen Mission bei den Vereinten Nationen:
Today the Conference of #CCWUN adopted a mandate to discuss lethal autonomous weapons in 2014. New and forward-looking issue on the agenda
Etwas ausführlicher erläutert das die Menschenrechtsorganisation Human Rights Watch, die sich schon länger für ein Verbot solcher Systeme einsetzt:
An agreement on November 15, 2013, to begin international discussions on fully autonomous robot weapons is the beginning of a process that should conclude in a treaty banning these weapons, Human Rights Watch said today. Governments attending a weapons meeting in Geneva have agreed to begin international discussions in May 2014 on these weapons, which would select and engage targets without further human intervention.
“The decision to begin international discussions next year is a major leap forward for efforts to ban killer robots pre-emptively,” said Steve Goose, arms director at Human Rights Watch, a co-founder of the Campaign to Stop Killer Robots. “Governments have recognized that fully autonomous weapons raise serious legal and ethical concerns, and that urgent action is needed.”
Governments that are part of the Convention on Conventional Weapons (CCW) agreed to convene in Geneva on May 13-16 to discuss the issues related to “lethal autonomous weapons systems,” also known as fully autonomous weapons or killer robots. These weapons have not yet been developed, but technology is moving rapidly toward increasing autonomy.
Die, so der volle Name, Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects as amended on 21 December 2001( CCW) ächtet den Einsatz bestimmter Waffensysteme wie blendenden Laserwaffen oder Sprengköpfen mit nicht zu entdeckenden Splittern; außerdem regeln die Protokolle der Konvention einschränkend bestimmte Waffensysteme wie Landminen. Eine Debatte über autonome Waffensysteme bedeutet noch lange nicht, dass es auch zu einer Ächtung kommt – der Einsatz von Streumunition ist zwar mittlerweile durch eine Vereinbarung verboten, aber nicht im Rahmen dieser UN-Konvention.
(Foto: Noch kein autonomes Waffensystem, aber ein Schritt auf dem Weg dorthin: Die X-47B-Drohne der U.S.Navy, die autonom starten und landen kann – An X-47B Unmanned Combat Air System (UCAS) demonstrator launches from the flight deck of the aircraft carrier USS George H.W. Bush (CVN 77). – U.S. Navy photo by Mass Communication Specialist 2nd Class Timothy Walter via Flickr unter CC-BY-Lizenz)
Schade, ich hatte schon Wetten laufen ob es zuerst Skynet gibt oder Cylons erfunden werden……
Aha, der Klub der Diktaturen will also „autonome Waffensysteme“ verbieten, damit der edle Guerilla Kämpfer seine „faire“ road side IED weiter ungestört verbundeln darf.
@Ghost Bear
Ja, eine Schande. Auch das Giftgas-Verbot ist nicht nachvollziehbar, und dass man gefangene Gegner nicht mehr blenden darf… Verweichlichung allerorten. Wie ist’s denn so im Mittelalter?
*gähn
als ob man in 40 Jahren noch einen Unterschied erkenne würde? Bereits jetzt sind zahlreiche Waffensysteme autonom. Man denke an die Luftabwehr bei der F 124. sicherlich wird es auch in der Cyberwar Szene eigenständige Waffen/Viren/usw. geben, die einen Auftrag erhalten und den Rest machen Sie allein. Es gibt definitiv Bereiche, in denen autonome Systeme schon bald jedem teilautonomen überlegen sein wird.
pi
Um die sicherheitspolitische Handlungsfreiheit Deutschlands zu erhalten, müsste man nur darauf verzichten, die entsprechende Konvention zu ratifzieren. Selbst Chemiewaffen sind schliesslich nur für die Staaten verboten, die sich der entsprechenden Konvention unterworfen haben. Das Völkerrecht taugt hier also nicht als Ausrede für eine Regierung, die sicherheitspolitisch falsche Entscheidungen treffen will.
Falsch ist das Vorhaben der möglicherweise künftigen Regierung, weil es nicht der bald schon vorliegenden technischen Wirklichkeit entspricht, in der das Risiko für Unbeteiligte sehr wahrscheinlich höher sein wird, wenn ein möglicherweise übermüdeter und gestresster Humanfaktor, der nur eine geringe Zahl von Informationen gleichzeitig verarbeiten kann, bestimmte Entscheidungen beeinflusst. Selbst im Zivilleben verlassen sich die meisten Menschen mittlerweile auf Systeme, die autonom Entscheidungen treffen, die über Leben und Tod entscheiden können. ESP bei Fahrzeugen ist nur eines von vielen Beispielen dafür. Es stimmt einfach nicht, dass der Mensch unter allen Umständen bessere Entscheidungen treffen kann als die Maschine. Der Entwurf des Koalitionsvertrages ist in dieser Frage ein Beispiel für militärischen und technologischen Analphabetismus.
Westfale | 15. November 2013 – 21:12
„Um die sicherheitspolitische Handlungsfreiheit Deutschlands zu erhalten, müsste man nur darauf verzichten, die entsprechende Konvention zu ratifzieren.“
Genau und raus aus der NATO, EU und all diesem Zeugs … gell?!
@Heiko Kamann
Warum mir eine Aussage unterschieben wollen, die ich nicht vorgebracht habe, weiss ich nicht, aber vermutlich liegt es daran, dass Ihnen zur meiner eigentlichen Aussage kein vernünftiger Einwand einfällt.
Die Ratifizierung völkerrechtlicher Abkommen ist davon abgesehen ebenso wie die Mitgliedschaft in internationalen Organisationen eine souveräne Entscheidung von Regierungen, die eine rational handelnde Regierung davon abhängig macht, inwieweit z.B. ein Abkommen der Staatsräson entspricht, denn eine souveräne Regierung ist nicht den VN oder anderen Organisationen verpflichtet, sondern (im Falle von Demokratien) den nationalen Interessen.
Die Schweiz zeigt im Übrigen, dass es eine funktionierende Sicherheitspolitik ohne VN, EU und NATO in der Tat geben kann, nur um die mir unterschobene Aussage aufzugreifen, aber das wäre ein anderes Thema.
Wer an die Überlegenheit eines Computer bei solch einer schwerwiegenden Entscheidungsfindung glaubt (bei sehr zeitkritischen Entscheidungen mag es andere Argumente geben), der sei an den nahezu vollautomatischen Abschuss eines iranischen Airbusses durch einen amerikanischen Zerstörer erinnert.
Menschen können irren, Maschinen irren garantiert in kritischen, komplexen Situationen !
http://www.spiegel.de/spiegel/print/d-13529002.html
Das ist nun 25 Jahre her, aber anscheinend noch genauso aktuell wie damals !
(@ T.W. Ich hoffe der Link geht i.O., 25 Jahre alter Spiegel-Artikel)
@Georg
Der Artikel ist auch nach 25 Jahren noch schlecht.
Der Jet wurde eben nicht vollautomatisch und autonom bekämpft.
Die Abschussfreigabe wurde von Kapitän Rogers erteilt.
@Georg
Inwiefern soll denn ein 25 Jahre alter Vorfall noch „genauso aktuell wie damals“ sein, wenn es um die Bewertung der Leistungsfähigkeit von Technologie geht? Davon abgesehen entspricht die Darstellung des Artikel auch nicht dem, was mittlerweile über den Vorfall bekannt ist. Demnach war menschliches Versagen die Ursache des Vorfalls, und die Besatzung habe es unter Stress versäumt, die notwendigen Überprüfungen anzustellen. Die Entscheidung zum Abschuß wurde außerdem von einem Menschen getroffen.
http://homepage.ntlworld.com/jksonc/docs/ir655-dod-report.html
Dass „Maschinen garantiert irren“, stimmt so auch nicht. Im Flugverkehr oder im Straßenverkehr liegt immer mehr in der Hand von Technik, die zwar natürlich nicht fehlerfrei ist, aber im Durchschnitt besser funktioniert als der Mensch, gerade in kritischen Situationen. Das Beispiel ESP hatte ich ja schon angesprochen.
Mittelfristig wird Technologie zur Verfügung stehen, die ohne menschliche Störfaktoren wie Stress, Wut und langsame Informationsarbeitung Ziele besser bekämpfen können wird als der Mensch es alleine kann. Es gibt z.B. schon Ansätze für Technologie, die in der Lage ist, feindliche Kämpfer anhand von Mustererkennung in einer Gruppe von Unbeteiligten zuverlässiger zu erkennen als das durchschnittlich trainierte menschliche Gehirn, und das irgendwann sogar präventiv. Die wissenschaftlichen Grundlagen dafür, eine Entscheidung beim Menschen schon zu erkennen noch bevor sie dem Entscheidenden selbst bewusst wird, sind bereits vorhanden.
In manchen Situationen mag es sinnvoll sein, dem Menschen diese Information zur Verfügung zu stellen und ihn entscheiden zu lassen, aber schon bald könnten z.B. Systeme zur Verfügung stehen, die z.B. einen Schützen autonom erkennen, seinen Standort feststellen und ihn bekämpfen und vernichten können, noch bevor er den zweiten Schuss abgegeben hat. Bei Aktivschutzsystemen für Panzer wird so etwas ja schon ansatzweise verwirklicht, und auch wenn die Technologie noch verbesserbar ist, müssten deutsche Soldaten auf so etwas verzichten und sich abschiessen lassen, wenn die Bundesregierung ernst macht. Für so eine Entscheidung sollte die Bundesregierung daher gute Gründe vorlegen, was sie bislang versäumt hat. Es entsteht daher der Verdacht, dass es sich um eine rein populistische Reaktion auf mediengesteuerte Vorurteile in der Bevölkerung handelt.
@Westfale | 15. November 2013 – 21:12:
Und auch hier mal wieder der Hinweis, dass Beschränkungen von Kriegshandlungen und -methoden gerne im unmittelbaren Nachgang zu tragischen geschichtlichen Entwicklungen entstanden sind.
Aber warum sollten wir auf unsere leidgeprüften Ahnen und deren Läuterung hören?
Zaunkönig ick hör Dir singen!
Die meinen doch offensichtlich zielsuchende Torpos, oder?
Nicht?
Also meinen die vielleicht Luftabwehrraketen?
Auch nicht?
Dann vielleicht Cruise Missiles?
Schiff-Schiff-Raketen?
Hmmm. Also meinen die im Prinzip alles, was nicht schnell genug ist, so daß man als Zivilist noch davor weglaufen könnte?
Achso!
… sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen
Wie ist das eigentlich zukünftig mit Panzer- oder Richtminen, wenn ich mir den oben zitierten Satz durchlese?
„These weapons have not yet been developed, but technology is moving rapidly toward increasing autonomy.“
Wie ächte ich etwas, was es noch nicht gibt? Und wie argumentiere ich da, denn wenn z.B. ein Hersteller einen Schalter an sein Gerät baut, mit dem eine eventuelle vollautomatische Steuerung überbrückt werden könnte, würde er ja schon voll an der Definition vorbeilaufen. Hat was von den dB-Eatern an Motorrädern: Habe ich einen mit Seilzug, darf ich laut Gesetz nur im geschlossenen Zustand am Straßenverkehr teilnehmen. Kann das jemand von außen prüfen? Nein.
Ich bin eher skeptisch, was diese Intention betrifft, aber wir bewegen uns anscheinend ohnehin eher auf einem soziologischen Terrain, als denn einem sicherheitspolitischen. Wenn ich mir hier so die Reaktionen anschaue…
Über „blendende Laserwaffen“ (zumindest die, die nur temporär wirken) echauffieren ist übrigens kontraproduktiv, laufen diese doch auch unter NLW bzw. werden in diese Richtung entwickelt. Dann doch lieber Gummigeschosse?
@califax: SMArt wurde ja auch schon mal als „Streumunition“ tituliert. Ich sehe jetzt nicht, wie z. B. SMArt nicht von der Definition „weapons, which would select and engage targets without further human Intervention“ erfasst sein sollte.
Andererseits muss man wohl so offen formulieren, wenn man etwas ausschließen möchte, dass es noch gar nicht gibt.
@ Roland09:
Stimmt, ich bin gespannt, wie man die Definition finden will. Jede Mine ist in dem Sinn autonom, wenn sie einmal ausgelegt wurde. Und was heisst „select targets“?
Interessant ist eigentlich, dass man die in der Presse vielgeschmähten „Killerdrohnen“ meint, aber mit dieser Konvention nicht trifft, weil es derzeit gar keine autonom operierenden gibt.
Aber wir Deutschen werden in vorauseilendem Gehorsam mal wieder die weitestgehende Definition nehmen und unser schon arg dünnes Arsenal weiter einschränken. SMArt ist ein gutes Beispiel. Obwohl – ist das wirklich so schlimm? Kaum waren die Dinger einige Jahrzehnte im Depot, durften auch zum ersten Mal Soldaten damit schiessen. Und siehe, die Treffergebnisse im wahren Leben längst nicht so gut wie die Laborergebnisse aus Meppen….
Das wirklich erschreckende an der UN-Konvention ist, dass man über die Definition der geächteten Systeme mal wieder Juristen die Gestaltung von Aussenpolitik überlassen wird, weil Politiker dies möglichst nicht tun wollen.
Das Ottawa-Übereinkommen wurde am 3. und 4. Dezember 1997 in Ottawa von 121 Staaten, darunter Deutschland, unterzeichnet; inzwischen haben 161 Staaten ratifiziert beziehungsweise sind beigetreten.
Seine wichtigsten Bestimmungen sehen vor:
ein umfassendes Verbot von Herstellung, Einsatz, Transfer sowie Lagerung aller Arten von Antipersonenminen;
die Verpflichtung zur Zerstörung bestehender Bestände innerhalb von 4 Jahren;
die Verpflichtung zur Räumung verlegter Antipersonenminen innerhalb von 10 Jahren, wobei diese Frist im Einzelfall durch Beschluss der Vertragsstaatenkonferenz verlängert werden kann;
die Verpflichtung zur Zusammenarbeit bei Minenräumung (einschließlich ihrer technischen Unterstützung), Unterrichtung über die Minengefährdung und Opferfürsorge im Rahmen des Möglichen; ein glaubwürdiges Verifikationsregime.
Obwol die Insurgens in AFG Minen (manche IED sin nichts anderes) verwenden tun wir es nicht!
http://www.isaf.nato.int/article/news/after-insurgent-ied-kills-children-u.s.-soldiers-save-boys-life.html
Ich bin auch froh, dass der Einsatz von Atomwaffen nicht durch eine autonome Regelung erfolgt und hoffe, dass die moraslisch Handelden genau diesen Einsatz verhindern.
Wir sollten die Definition abwarten und dann das Ei bebrüten, bis jetzt ist es noch nicht einmal gelegt.
Es gibt gute sachliche Argumente für beide Seiten und diese sollten ohne perönliche Angriffe ausgetauscht werden.
@all: Also ich bin mir ja nicht sicher ob jede Mine wirklich autonom handelt, denn Minen sind ja eigentlich nur passiv. Minen werden ja nach Typ durch verschiedene trigger ausgelöst, währen ich mir denken würde, dass es bei dem Verbot um aktive, autonome Waffensysteme geht, sprich die sich selbst aktiv Ziele suchen.
In die Definition würden dann immer noch einige andere Systeme fallen, aber selbst da könnte man mit einer Verfeinerung noch erreiche, dass es die wirklich „richtigen“ autonomen Systeme sind die betroffen sind.
Mich wundern die Reaktionen hier etwas – auf der einen Seite kann ich verstehen dass man hier skeptisch ist, da man nach der ganzen Killerdrohnenhisterie wohl sorge hat das man sich unnötigerweise durchaus nützliche System sich selbst vorenthält. Auf der anderen Seite würde ich die Mitforisten doch mal bitten die Automatisierung die gerade bei Drohnen angestrebt wird bitte mal zu Ende zu denken, denn ich kann mir nicht vorstellen dass das hier vielen gefallen würde (und nein mit zu Ende denken meine ich NICHT dass am Ende Skynet rauskommt)
@Westfale: “ Es gibt z.B. schon Ansätze für Technologie, die in der Lage ist, feindliche Kämpfer anhand von Mustererkennung in einer Gruppe von Unbeteiligten zuverlässiger zu erkennen als das durchschnittlich trainierte menschliche Gehirn, und das irgendwann sogar präventiv.“
Klingt für mich dann arg nach signature strikes. Bestimmte Gruppen, die sich in einem bestimmten Gebiet aufhalten und bestimmte Verhaltensweisen aufzeigen, werden als feindlich interpretiert. Ob die Fehlinterpretation da durch den Controller oder eine eigene Software erfolgt ist egal, Ärger gibt es so oder so, wenn Zivilisten sterben.
@tt.kreischwurst: „… währen ich mir denken würde, dass es bei dem Verbot um aktive, autonome Waffensysteme geht, sprich die sich selbst aktiv Ziele suchen.“
Genau so versteht man doch vollkommen autonome Waffensysteme? Das Hauptproblem ist ja nicht ob der Roboter/die Drohne/das System sich selbstständig zum Ziel bewegt, oder wie bei Raketen und Torpedos das ihnen von einem menschlichen Controller zugewiesene Ziel angreifen.
Der Grund für die Idee, derartige vollkommen autonome Waffensysteme verbieten zu wollen, ist doch ganz klar, das die „Entscheidung über Leben und Tod“ von einem Menschen getroffen werden soll.
@Carafa
„Klingt für mich dann arg nach signature strikes. Bestimmte Gruppen, die sich in einem bestimmten Gebiet aufhalten und bestimmte Verhaltensweisen aufzeigen, werden als feindlich interpretiert. “
Das ist doch ganz normales militärisches Handeln. Auch der Soldat tut nichts anderes und muss aus Verhalten einer Person sowie äußeren Kennzeichen schlußfolgern, ob er sie bekämpft oder nicht, und wie er sie dann am besten bekämpft oder welche sonstigen Maßnahmen er trifft. Auch der Soldat folgt hier letztlich Algorythmen, was er v.a. wegen überlegener Mustererkennung oft noch besser kann als die Technik, so das die Technik ihn bestenfalls unterstützen kann. In absehbarer Zeit wird die Technik aber voraussichtlich alle Aspekte dieses Vorgangs besser beherrschen als die meisten Soldaten, und irgendwann dann besser als alle Soldaten, wobei der Zeithorizont hierzu wohl einige Jahrzehnte beträgt.
Man geht dabei langfristig von der zunehmenden Integration von Biologie und Technologie aus. Der Soldat des Jahres 2050 wäre demnach ein technologisch verbesserter Mensch oder eine biologische Maschine, so dass die Unterscheidung zwischen Mensch und Maschine hinfällig werden könnte. Anstatt mit Verboten um sich zu werfen, sollte die Bundesregierung jetzt die Voraussetzungen dafür schaffen, dass Deutschland frühzeitig über diese Mittel verfügt.
Die Amerikaner stecken bereits viel Geld in Forschung zur Integration von Gentechnik, Nanotechnologie und Robotik, und die Chinesen tun dies ebenfalls. Deutschland wird irgendwann im Vergleich zu diesen Mächten ein militärisches Freilichtmuseum werden, in dem eine überholte Armee zu Belustigung der Zuschauer allenfalls noch Re-Enactment vergangener Kriege betreiben kann, wenn wir so weitermachen.
@Westfale:
„In absehbarer Zeit wird die Technik aber voraussichtlich alle Aspekte dieses Vorgangs besser beherrschen als die meisten Soldaten.“
Diesen technologischen Optimismus teile ich aus 2 Gründen nicht:
1. Wird Feinderkennung in aktuellen und zukünftigen Konflikten immer schwieriger
(Bsp. AFG: INS, ANP, ALP, NDS, Arbakee, PSC, etc lassen sich wie unterscheiden?)
2. Die Bilderkennung aus verschiedenen Winkeln ist technisch weitaus aufwendiger als manches Hochglanzmagazin glauben machen will. Bereits ein gut getarntes Fahrzeug macht Probleme.
Die Kombination aus 1 und 2 verhindern aus meiner Sicht, dass es hier in „absehbarer Zeit“ zu Lösungen kommt. Der amerikanische Technologieoptimismus wurde schon mehrfach von der Realität überholt. Man sollte nicht vergessen, dass die Gegenseite sich meist schneller anpassen können als wir etwas neues entwickeln.
Dann ist der Soldat wieder im Vorteil.
Siehe auch: http://www.youtube.com/playlist?list=PL071C4376E93F6081
@ Memoria
Gerade was 2. angeht wäre ich nicht so optimistisch. Da geht mit Mustererkennng hat schon einiges, und Sensoren werden auch immer besser und billiger. Und Punkt 1 hängt halt sehr von der Bereitschaft zivile Verluste zu vermeiden ab. (Wie variabel der Punkt gewichtet wird sieht man ja an den US-Drohnenangriffen in Pakistan.)
An der Stelle auch nochmal ein Verweis auf: Militarizing Your Backyard with Python: Computer Vision and the Squirrel Hordes
Das ist eine von einem Zivilisten gebastelte do-it-yourself Selbstschussanlage mit großteils Off-the-Shelf Komponenten. Und selbst die kann bereits Eichhörnchen von Vögeln unterscheiden.
Ich denke zwar auch, dass man um einem Menschen in der Loop nicht drumherumkommt, und sei es nur um die Reaktionen des Gegners auf die Technologie auswerten zu können und diese darauf anpassen kann. Aber schon jetzt zeigt imho das Sniper/Artillerie-Radar in Kombination mit automatischer Berechnung der Zielkoordinaten wohin die Reise geht.
Und wenn die Technik erstmal da ist, dann dürfte auch der Wille zunehmen, diese in Zusammenhang mit Ausgehsperren und No-Go-Areas einzusetzen. Wer dann nach Einbruch der Dunkelheit abseits von Straßen unterwegs ist, ist dann „selbst schuld“. Die Bereitschaft, alle zivilen Abläufe einer Gemeinde dem Sicherheitsbedürfnis der eigenen Soldaten unterzuordnen, konnte man in Afghanistan ja immer wieder beobachten.
@J.R.:
Danke für den Hinweis. Natürlich können verschiedentlich aussehende Objekte klassifiziert werden. Mir ging es darum aufzuzeigen, dass die politisch vorgegebenen Anforderungen an ein solches System (ROE) sehr hoch sind und der Gegner schneller in der Lage ist sich anzupassen, als wir die Technik anpassen können (wie das Eichhörnchen).
Der Hinweis auf die signature strikes hinkt daher, da es dort bereits jetzt keine so hohen ROE wie bspw. bei ISAF gibt. Es handelt sich nunmal um ein CIA-Programm – und diese entziehen sich bereits jetzt völkerrechtlichen Regelungen.
Diese wird man also auch durch ein solches Regime nicht wirklich verhindern können (versuchen kann man es ja aber trotzdem…).
Auch Ausgangssperren und Free-Fire-Zones könnte man jetzt schon anlegen.
Bisher braucht man halt noch ne Drehstuhlschnittstelle.
Aber auch dies machen selbst die Amerikaner nicht mehr (im Gegensatz zu Vietnam).
Auch beim Radar springt der Vergleich zu kurz – derlei geben heutige ROE westlicher Staaten nicht her (rein technisch könnte man im Bereich der Artillerie seit Jahren durch Radar und Schallmess geortete ziele automatisiert bekämpfen). Die optische Zielerfassung ist da eben etwas anderes.
Diese Automatisierungsdiskussion ist aus meiner Sicht vorallem ein weiterer Angst-Faktor in der Drohnendiskussion.
Das soll nicht heißen, dass es solche Systeme nicht irgendwann geben wird, aber derlei stehen aus meiner Sicht – wirklich funktionierend – nicht unmittelbar bevor.
Automatisierung eignet sich aber – unmittelbar – sehr gut zur zusätzlichen Emotionalisierung der Drohnen-Debatte
@J.R.
Zustimmung und wenn die Geräte so perfekt und effektiv sind warum sie dann auch nicht in der JVA und im Polizeidienst einsetzen?
Diese Frage ist ernst gemeint!
Naja wie bei den Streubomben auch
Nur nicht China und Russland und USA
Bei den Deutschen jaaaaaaaaaaaaaaaaa
@ Elahan
Überspitzt formuliert:
– Weil sie nur schießen können.
– Weil dabei die menschliche, moralische und gesellschaftliche Kontrolle eingeschränkt ist.
Auch jetzt könnte man ja schon längst an Bewegungsmelder gekoppelte Selbstschussanlagen an Gefängnis- und Liegenschaftsgrenzen aufbauen. Oder Minen. Aber man hätte letztlich ein System, dass einen fliehenden Taschendieb umbringt und bei einer Geiselnahme total nutzlos wäre.
Das obige sind ja auch die Punkte, die vielen beim Einsatz der Streitkräfte im Innern Bauchgrimmen bereiten. (Oder warum Memoria zu Recht den Nutzen in komplexen Konfliktsituationen für eher gering hält.) Und da greift dann eben auch die Automatisierung der Gewalt: Denn damit kann eine kleine Elite Gewalt gegen eine große Masse ausüben. Das geht zwar auch mit Scud-Raketen. Aber mit besserer Automatisierung geht das gezielter und präsenter.
Worst-Case wäre da für jeden Bürger eine eigene Überwachungs-und-Hinrichtungs-Drohne. Und selbst das wäre technisch und finanziell schon fast möglich. Für Diktatoren wie Assad wäre das glaub ein feuchter Traum. Und auch die NSA könnte mit der Idee liebäugeln. Das ist dann auch der Punkt, wo das differenzieren der staatlichen Akteuer ins Leere läuft: Wenn der Staat moralische Regeln oder den Gesellschaftsvertrag brechen will, dann ist es ziemlich egal was er dazu nutzt. Entweder der Staat ist integer und vom Staatsaufbau her vor Verrat am Bürger „sicher“, oder eben nicht.
Und da ist, zu Recht, seitens der Bürder zum Glück keine Bereitschaft zu erkennen sich weiter dem Staat auszuliefern. (Ok, vielen ist es ziemlich egal.) Entsprechend auch die Automatisierungs- und Überwachungsskepsis. Da kann man natürlich Kompromisse finden und Safeguards festklopfen, und so Vertrauen gewinnen. Oder eben die Menschen mit einem „Wir entwickeln mal munter, aber betrifft euch ja noch nicht“ mit ihrer Angst allein lassen.
Da hilft es dann auch nichts, dass mit der NSA gerade die Stasi zurückkehrt, oder die Bundeswehr im scharfen Einsatz zeigt, dass ROEs für sie halt letztlich doch nur unverbindliche Empfehlungen sind.
Mein Eindruck ist, dass mittlerweile gegenüber den Streitkräften und Geheimdiensten wieder ein gehöriges Mißtrauen herrscht. Und das verdient und zu Recht.
@J.R.:
„die Bundeswehr im scharfen Einsatz zeigt, dass ROEs für sie halt letztlich doch nur unverbindliche Empfehlungen sind.“
Und wie kommen sie dazu? Wegen dem 4.09.09?
So oder so ist es eine sehr verzerrte Wahrnehmung der Bundeswehr.
@all:
Aktuelle Einschätzung zur Automatisierung in den USA:
„We are not anywhere near having Terminators with artificial intelligence now. The initial implementations are mostly human-dependent, but we are certainly going in that direction.“
http://sploid.gizmodo.com/us-army-robots-will-outnumber-human-soldiers-10-to-1-by-1465669535/@jesusdiaz
@politisch incorrect
Danke, Sie haben mir den Tag gerettet,
Auto Flugabwehr F124 – ist es in HRO tägliches Gebet, das dies mal klappt? Oder gilt, weil, es ist ja so beschrieben?
Ach so, red crown HAM war m.e, wohl auch nur per order de mufti erfolgreich.
Waffenketten die funktionieren,
softkill vor hardkill?
Aber wenn wenigstens auf f124 alles toll ist,,
na dann sind die Seewege ja sicher.
Ich sehe irgendwie schon das grinsende Gesicht eines T-800.
@J.R.
Respekt und Zustimmung, sauber herausgearbeitet.
@ Memoria
„Und wie kommen sie dazu? Wegen dem 4.09.09?“
Auch, aber vor allem wegen dem Umgang damit. Ein Versprechen, sich an irgendetwas zu halten, ist nichts wert. Das schafft kein Vertrauen, sondern beansprucht es. Wessen es letztlich Bedarf sind klare Vorgaben und deren wirksame Kontrolle.
Und was das angeht hat die BW im Einsatz halt immer wieder gezeigt, dass sie im zweifelsfalls lieber Partner krepieren läßt oder den Tod von Zivilisten in Kauf nimmt, als ein vergleichsweise geringes Eigenrisiko (bzw. teils auch einfach nur Zeit, Aufwand oder Kosten) in Kauf zu nehmen. Und dass man nicht willens und in der Lage ist, dieses Verhalten zu überprüfen.
Das mag zwar legal sein. Aber dann soll man sich bitte auch nicht wundern, wenn das derzeitige Handlungsschema „Der BW sind wenn’s halbwegs ernst wird alle Nicht-Deutschen reichlich egal“ auch für zukünftige Situationen angenommen wird.
„Mehr Bomben bei schlechterem Lagebild“ paßt da halt ins Bild, und der 04.09.09 könnte da tatsächlich zum Normalfall werden.
Oder was spricht dagegen? „Die Bundeswehr tut sowas nicht, Deutschland ist nicht Amerika?“
@Memoria
„Wird Feinderkennung in aktuellen und zukünftigen Konflikten immer schwieriger
(Bsp. AFG: INS, ANP, ALP, NDS, Arbakee, PSC, etc lassen sich wie unterscheiden?)“
Bestimmt arbeitet schon jemand daran und macht sich z.B. Gedanken darüber, wie die Ergebnisse von elektronischer Überwachung, biometrischer Erfassung, Erfassung von Bewegungsmustern, Erfassung persönlicher Netzwerke etc. automatisiert erfolgen kann, inklusive Auswertung. Schon jetzt erkennt man Aufständische mit einer gewissen Erfolgsquote u.a. ja daran, wie sie mit anderen Aufständischen kommunizieren.
Von hier bis zu einer automatisieren Bekämpfung ist es noch ein weiter Weg, aber prinzipiell sollte sich alles, was Algorythmen folgt, auch automatisieren lassen. Der menschliche Auswerter, der sich momentan damit beschäftigt den Gegner vom Neutralen oder Verbündeten zu unterscheiden, handelt ja nicht auf Grundlage von Magie, sondern folgt Abläufen, die sich mathematisch beschreiben lassen. Auch die Details, die er unbewusst erkennt und aus denen er ggf. unbewusst die richtigen Schlussfolgerungen zieht, sind mathematisch beschreibbar.
Es gibt bereits Technologie, die so etwas nutzt, um z.B. in anderen Zusammenhängen verdächtiges Verhalten zu erkennen. So etwas können erfahrene Polizeibeamte auch, aber sie folgen dabei ebenfalls mathematisch beschreibbaren Abläufen.
Schon seit längerem gibt es Systeme, die automatisch Auffälligkeiten im Straßenverkehr erkennen können, weil diese einfach mathematisch beschreibbar sind, z.B. ungewöhnlich schnell oder langsam fahrende Fahrzeuge, Fahrzeuge die ungewöhnlichen Routen folgen etc.
@fafnir
Gegen einen T-800 hilft nur ein eigener T-1000, so wie gegen einen Kampfpanzer in der Regel nur ein überlegener Kampfpanzer, mehr Kampfpanzer, Kampfhubschrauber oder andere militärische Überlegenheit hilft. Was nicht hilft, ist eine Moral die sich nicht an solche Waffen heranwagt, denn die führt dazu, dass am Ende nur der Gegner darüber verfügt.
@J.R.:
Das Verhalten gegenüber Partnern ist ja schonmal kein ROE-Thema. i.e.S.
Es gibt auch viele Fälle in denen durch Passivität der militärischen Führung ROE nicht genutzt bzw. nicht ausgeschöpft wurden – sogar beim Eigenschutz.
Die Fälle sind nur nicht so bekannt, wie der „Fall Klein“.
Wenn man Streitkräften bei der Gewaltanwendung nicht in einem Mindestmaß vertraut, dann ist das Problem aber nicht die Automatisierung von Plattformen, sondern die Armee als solche. Dann sollte die Bundeswehr eigentlich gar keine Waffen haben, oder?
Was wiederum die politische Kontrolle der Bw grundlegend in Frage stellt.
Wie gesagt, dann sollte man dies nicht an Drohnen aufhängen.
Erinnert mich an Anti-Personen-Minen-Diskussionen in denen von NGOs nach Beitritt zum Ottawa-Abkommen gefordert wurde die SMArt-Munition DM702 ebenfalls zu ächten, da diese auch das falsche Ziel treffen könnten – nach der Logik sollte man auch keine Gewehre haben.
Da haben wir dann wohl ein sehr unterschiedliches Bild von der Bundeswehr.
Ich teile ja viele ihrer kritischen Bewertungen bzgl. der Einsätze, aber da gehen sie aus meiner Sicht zu weit.
Die Bundeswehr hat ein kulturell gestörtes Verhältnis zu Gewaltandrohung und -anwendung – gerade wegen dem Selbstverständnis, dass sich insbesondere in den höheren Rängen mehr am Berufsbeamtentum als am Soldatentum orientiert.
Der 04.09.09 zeigte eben gerade das.
Aber da sind wir uns ja vielleicht sogar wieder einig.
@Westfale:
Der erneute Traum vom perfekten Krieg und dem dummen Gegner (siehe BBC/ZDF-Reportage oben). Dazu noch etwas von einem, der es wissen müßte (GenMaj McMaster):
„Concepts of “network-centric warfare,” “rapid, decisive operations,” “shock and awe” and “full-spectrum dominance” suggested that near-perfect intelligence would enable precise military operations and point a straight line to success. But in Afghanistan and Iraq, planning did not account for adaptations and initiatives by the enemy.“
http://www.nytimes.com/2013/07/21/opinion/sunday/the-pipe-dream-of-easy-war.html?_r=0
Das heißt nicht, dass es auch in diesem Bereich technischen Fortschritt gibt, aber der wird die Wechselwirkungen der Gegner nicht durchbrechen.
@ Memoria
„Dann sollte die Bundeswehr eigentlich gar keine Waffen haben, oder?“
Das wäre in der Tat die logische Fortführung des Gedankengangs.
Und der findet sich ja nicht nur in der Linksaußen-Ablehnung aller militärischen Gewalt. Sondern auch besonders anschaulich in der Schwerpunktsetzung bei den BW-Einsätzen und dem dort eingesetzten Kriegsgerät: Kasernen-Mentoring, Luftraumüberwachung, Flugabwehrraketen, Lazarettbetrieb, Zoll-Aufgaben. Da scheint der Bundeswehr tatsächlich nicht zugetraut zu werden mit Waffen in Konflikte einzugreifen.
Was meinen persönlichen Standpunkt angeht, dann bin ich einfach vom wenig professionellen und zielgerichteten Vorgehen der BW (und Deutschlands) in Afghanistan enttäuscht. Und die so desinteressierte Bereitschaft, andere für die eigene Larifari-Vorgehensweise bluten zu lassen, stößt mir in der Tat sauer auf. (Das geht eben schon beim Outsourcen der Lagerversorgung an ungeschützte zivile Logistikfirmen los, die dann leichte Ziele für die Feinde der BW sind. Aber für die ist man dann ja nicht mehr verantwortlich.)
Und das ist eben genau das Schema, in das Kampfdrohnen mit ihrer mehr schlecht als rechten Kombo aus „Aufklärung“ und Feuerkraft viel zu gut reinpassen: „Gleiche“ Wirkung wie andere Feuerunterstützung, minimales eigenen Risiko (keine Augen vor Ort mehr nötig) und halt größeres Risiko für Zivilisten.
Klar ist das simplistisch: Man kann auch Artillerie blind schießen, oder Kampfdrohnen von Leuten vor Ort einweisen lassen.
Aber letztlich ist mir die Gefahr zu groß, dass der nächste „robuste BW-Einsatz“ eben auch nicht das Feldlager verläßt, aber meint jetzt mit Kampfdrohnen toll Aufklärung und Wirkung in der Wundertüte zu haben, und damit Counter-Terrorismus wie im Jemen oder in Pakistan aus der Luft praktiziert. (Ganz legal mit Mandat etc.)
Dann halt lieber keinen BW-Einsatz, oder eine dieser Bringt-auch-nix-Tut-aber-nur-dem-Steuerzahler-weh BW-Alibi-Aktionen wie in Mali oder der Türkei.
Klar könnte die BW auch jetzt Counterterrorism versuchen (und teils tut sie das ja in Afghanistan), aber die Hürden sind nüchtern betrachtet halt derzeit doch noch höher.
@J.R.:
„Aber letztlich ist mir die Gefahr zu groß, dass der nächste “robuste BW-Einsatz” eben auch nicht das Feldlager verläßt, aber meint jetzt mit Kampfdrohnen toll Aufklärung und Wirkung in der Wundertüte zu haben, und damit Counter-Terrorismus wie im Jemen oder in Pakistan aus der Luft praktiziert. (Ganz legal mit Mandat etc.)“
Die Gefahr ist aus meiner Sicht minimal – die Bw schöpft auf einmal die Möglichkeiten die sie im Bereich der Wirkung hat aus? Nur weil es Drohnen gibt?
Die gleichen Leute die in Kunduz die PzH2000 nicht gegen IED-Placer eingesetzt haben?
Und weil wir bewaffnete Drohnen haben, nehmen wir auf einmal an CT-Operationen à la Jemen und Pakistan teil (warum auch immer das dann vom Mandat gedeckt sein soll) – nachdem wir 10 Jahre nicht am Abarbeiten der JPEL /Teilbereich kill in AFG teilgenommen haben?
Irgendwie nicht gerade schlüssig die Argumentation – wohl eher Bauchgefühl.
Ne, tut mir leid, dass ist ganz weit weg von der REALITÄT dieser Armee.
Wirkung ist ja in der Bw gar nicht das dominante Thema.
Gerade jetzt wo man sich gedanklich schon wieder voll auf den Grundbetrieb einstellt.
Aber genau deswegen sind die Drohnendebatten ja so interessant, weil man anhand dieser Plattform sieht wo es wirklich hakt.
Für mich ist die Bw-externe Diskussion – z.B. hier in AG – durchaus wertvoll, Bw-intern ist diese jedoch absolut lächerlich. Man schaffe sich z.B. und wie auch immer bei der Heron 1 eine Loadmargin von ca. 25 kg (z.B. weniger Sprit). Dann schmeißt man den IED-Legern unmittelbar nach Aufklärung eine GPS-gesteuerte 81mm Mörsergranate mit einem CEP von weniger als 5 m auf den Kopf und wenn es viele Talibans sind, können es auch bis zu 4 Mörsergranaten je ca. 4 kg sein. Der Entwicklungsaufwand für solch ein System ist minimal. Das könnte an den beiden BW-Unis binnen ca. 3 Monaten erledigt sein. Dem Bau und der Erprobung wäre nochmals max. 3 Monate zu geben. Denn es handelt sich ja komplett um eine pfiffige Zusammenstellung von OTS-Komponenten und einzig und allein wären möglichst simple Waffenträger bzw. Wurfvorrichtungen zu entwickeln. Über Gewicht und Zuladung eines Laser-Target-Designators müßte man sich deshalb auch nicht mehr den Kopf zerbrechen. Und politisch wäre die Sache entschärft, denn es ist ja nur ein „fliegender Granatwerfer“ und keine „autonome Kill-Maschine“. Die Sache hat nur einen einzigen Hacken, sie bringt nichts für die heimische Rüstungsindustrie und ist für das BAAINBw und für BMVG-AIN samt Rüstungslobbyisten bereits aufgrund der „pervesen“ Kostenstrukturen absolut absurd.
@Memoria
Irak und Afghanistan halte ich für kulturell bedingte Ausnahmefälle. Die Stärken der Aufständischen (große Zahl von Söhnen, geringe Nutzung von Technologie, traditionelles Kriegerethos) wirken sich dabei in konventionellen Schwächen aus, die bedeuten, das diese Staaten keine Bedrohung für Deutschland darstellen können, denn diese Stärken gibt es nur in traditionellen Agrargesellschaften, von denen keine relevante konventionelle Bedrohung ausgeht. Die Niederlage in Afghanistan wird für Deutschland dementsprechend folgenlos bleiben; ja man kann es sich sogar leisten, sie gar nicht als solche zur Kenntnis zu nehmen.
Zwischen modernen Industriegesellschaften hingegen gibt es natürlich den von Ihnen erwähnten ständigen Wettlauf, dem man aber nicht entkommt, wenn man darauf verzichtet, an ihm teilzunehmen.
Viel relevanter finde ich daher diesen Einwand Ihrerseits:
Die besten Waffen müssen wirkungslos bleiben, wenn der Geist, der sie führt, zu schwach ist.
@Westfale:
Den ersten Absatz verstehe ich nicht ganz.
Heißt das – aus Ihrer Sicht – werden nichtstaatliche Gegner die Ausnahme sein?
Wenn man auf der Welt unterwegs ist (Mali, Kosovo, Afghanistan, etc.), dann sind auch Gruppierungen, die keine Bedrohung für Deutschland sind, ein Problem.
@Memoria
Nichtstaatliche Gegner in Form von Drittwelt-Aufständischen dürften auf absehbare Zeit zumindest keine Bedrohung eigener vitaler Interessen wie der territorialen Integrität Deutschlands darstellen. Wo sich Deutschland an solchen Einsätzen beteiligt hat, wurde dementsprechend ja auch nicht mit harten nationalen Interessen, sondern mit weichen Faktoren wie „außenpolitischer Verantwortung“ oder „Bündnissolidarität“ argumentiert.
Zumindest im Fall des Kosovos hat man durch das Außerachtlassen nationaler Interessen Deutschlands sogar nichtstaatliche Gegner in Form der transnationalen OK durch die Intervention gestärkt, aber dieser Gegner unterscheidet sich strukturell doch deutlich von den erwähnten Aufstandsbewegungen und wäre, wenn man ihn denn bekämpfen wollte, nicht Thema der Streitkräfte.
Eine nicht konventionell militärisch ansprechbare Aufstandsbewegung, die vitale Interessen Deutschlands ernsthaft bedrohen würde, ist m.E. nirgendwo in Sicht, und die Themen Afghanistan, Irak und Mali halte ich für späte Episoden einer überholten postkolonialen Interventionspolitik. Das ist nicht als moralische Kritik gemeint, aber solche Interventionen wird man sich künftig kaum noch leisten können, vor allem die USA als Führungsmacht solcher Vorhaben. Es wäre daher m.E. ein Fehler, künftige Fähigkeiten an Szenaren auszurichten, die nur indirekt mit Deutschlands Sicherheit zu tun hatten und die es künftig wahrscheinlich so auch nicht mehr geben wird.
Eine solide, über Floskeln hinausgehende Analyse dessen, wer Deutschland künftig überhaupt bedrohen kann und wie diese Bedrohung aussehen könnte, fehlt jedoch. Dann müsste man ja ggf. zugeben, das das Handeln US-amerikanischer Behörden deutschen Interessen mehr Schaden zufügt als die Aufständischen in Afghanistan es tun, wogegen Streitkräfte aber wenig unternehmen können. Davon abgesehen liegt die nächste mögliche größere militärische Bedrohung Deutschlands auf der Zeitachse mindestens ein Jahrzehnt in der Zukunft. Die Staaten, die hier in Frage kommen, agieren und planen aber ganz klassisch mit Kampfpanzern, Kampfflugzeugen und ballistischen Raketen. Strategisch wäre es vorteilhaft, wenn dieses Gerät eines Tages im Ernstfall von deutschen „Killer-Robotern“ bekämpft werden könnte anstatt von jungen Männern, von denen wir ohnehin zu wenige haben.
Vom Einsatz her denken……..aber nicht vom Vergangenen (der dann auch noch verloren wurde)
Was kann uns gefährlich werden, was müssen wir dagegen tun und was benötigt man dafür?
In Zeiten knapper Kassen und weniger Personal hilft nur hohe Flexibilität (da gehören bewaffnete Drohnen nicht dazu) und die Besinnung auf Verteidigung. Empfindliche Spielzeug Kampfdrohnen kann man sich dann anschaffen, wenn man schon alles hat. Uns fehlt es aber an Grundlegenden Fähigkeiten der Gefahrenabwehr, von Aufklärungsmitteln bis hin zu Anti Drohnen Systemen.
@ Vtg_Amtmann
zitat:“Die Sache hat nur einen einzigen Hacken, sie bringt nichts für die heimische Rüstungsindustrie und ist für das BAAINBw und für BMVG-AIN samt Rüstungslobbyisten bereits aufgrund der „pervesen“ Kostenstrukturen absolut absurd.“
Sie bringt vor allem keine Arbeit für die Planstellen im BAAINBw und ist deshalb für das Amt keine Option. In der gleichen Logik sind alle „Off the Shelf“-Lösungen für das Amt kontraproduktiv und werden deshalb ebenfalls nicht gerne gesehen.
@ Westfale
„(große Zahl von Söhnen, geringe Nutzung von Technologie, traditionelles Kriegerethos)“
Mit Verlaub, aber diese „Analyse“ der Aufständischen geht doch schon an der Realität in Afghanistan vorbei. Und Syrien, Irak oder Mexiko sind weder Agrarstaaten, noch dritte Welt.
Ob Aufstandsbewegungen für Europa eine Bedrohung darstellen, oder ob der Frieden in der Welt ein von dieser Insel der Glückseligen unabhängiges Phänomen ist, kann man natürlich diskutieren. Nur sollte man dabei so Fälle wie den Bürgerkrieg in der Türkei, die Jugoslawienkriege, den Zerfall Georgiens oder die Situation in Syrien außer acht lassen. Oder die Auswirkungen des mexikanischen Drogenkriegs auf die USA.
@J.R.
Inwiefern geht diese Darstellung an der Beschreibung der Stärken der Aufständischen vorbei, mit denen diese weniger empfindlich für militärisches Vorgehen der NATO wurden?
Was Mexiko angeht wird es für die USA nicht so schlimm werden, da die Kartelle nicht Krieg gegen die Amerikaner führen, sondern einfach so die Behörden zu korrumpieren begonnen haben wie die OK es andernorts auch tut. Militärisch kann man da wenig machen, sowenig wie in Deutschland, wo es ähnliche Ansätze (wenn auch auf viel kleinerem Niveau) gibt. Es gibt hierzulande bereits einige Fälle, in denen wie in den USA Polizei und Bundespolizei sowie Zoll in die Geschäfte eingebunden wurden und die Justiz erfolgreich erpresst wurde, und das auch von Kräften, die Deutschland im Kosovo mit an die Macht gebracht hat. Aber das ist ein anderes Thema.
Auszug Wiki
In den Romanen Der Aufbruch zu den Sternen und Das galaktische Imperium (OT: Robots and Empire) wurde ergänzend das „Nullte Gesetz“ abgeleitet, und die anderen Drei Gesetze entsprechend modifiziert:
0- Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
2- Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3- Ein Roboter muss seine eigene Existenz schützen, so lange dieses sein Handeln nicht dem nullten, cersten oder zweiten Gesetz widerspricht.
Galt in der ersten Version der Asimov’schen Robotergesetze noch der einzelne Mensch als die höchste zu beschützende Instanz, so steht in den neuen vier Robotergesetzen die Menschheit über dem einzelnen Menschen. Besonders hier wird die Konsequenz aus dem hierarchischen Aufbau der Gesetze deutlich, da ein Roboter die Unversehrtheit einer Masse von Menschen derjenigen eines einzelnen Individuums vorziehen muss. Die Einführung des nullten Gesetzes ist deshalb als kritisch anzusehen, da es Robotern die Möglichkeit gibt, einzelne Menschen absichtlich zu verletzen oder gar zu töten, um die Menschheit zu beschützen. Dies wirft die grundsätzliche Frage auf, inwieweit es Robotern erlaubt sein sollte, Menschen zu schädigen.
Eine moralische Frage die abgesprochen werden muss. Auch ist die technologische Blickverengung auf große Roboter-Waffenplattformen nicht hilfreich für die Diskussion.
Das Militär in Israel und den USA sind dabei erste Prototypen insektengrosser Drohnen mit Ortungschip, eine 0,15 gr leichte Digitalkamera und als Waffe ein Mikrokanüle mit deren Hilfe sie gegnerischen Soldaten Gift unter die Haut spritzen können, zu entwickeln.
Eine logische Weiterentwicklung besteht in Zukunft in der Vernetzung ganzer Mikro – Drohnen Schwärme. Jede einzelne Einheit könnte evtl autonom agieren oder sich zusammen mit einer Vielzahl anderer Drohnen gleicher Bauart zu grösseren Waffen zusammenschliessen.
Noch glaube ich nicht, dass man schon so weit ist, doch wenn auch technisch noch nicht entgültig praktikabel sind auch noch kleinere Bots (sog. Nanobots oder Naniden), deren Größe sich im Nanobereich bewegen ein zukünftige Gefahr.
@Georg: Sie haben ja so fürchterlich recht in Sachen OTS-Lösungen!
Mal ein ganz einfaches Beispiel: Entweder man kaufe aus den USA „sauteure“ und schwere Drohnen-Abwurfsysteme für Mörsergranaten (http://arstechnica.com/tech-policy/2012/11/drone-economics-tiny-tactical-drones-get-dirt-cheap-gps-guided-bombs/), oder man „entwickle“ etwas Eigenes. Z.B. 4 simple Pylons aus ausgeschäumtem Epoxy-Lamimat je Heron 1 (von wegen der geringen Stückzahlen), oben an die Tragflächen angepaßt samt konstruktivem Layout der Hardpoints / Inserts, unten Negativkontur des oberen Halbmessers einer Mörsergranate, vorne eine OTS-Programmiereinheit für die Übertragung der GPS-Zieldaten auf den Zünder- und Steuerungskopf der ca. 4 kg schweren „OTS-81mm-Mörsergranaten“, in der Mitte zwei elektrische Heizelemente um die „Tie-Wraps“ (http://www.securecableties.com/Cable-Ties/Extra-Heavy-Duty-Cable-Ties-175-250-Lbs-cID178.aspx) zwecks Fixierung der Granaten und zwecks Abwurf zu zerschmelzen und ansonsten ein bischen Kabelbaum bis zum Nutzlast-Compartment der Heron 1, wo die maximal 1 kg „OTS-Elektronik“ samt Systemschnittstellen zur restlichen Hardware zwecks Abgreifen der GPS-Zieldaten und zum Abwurf-Signal verbaut werden. Das würde zig Beamte des BAAINBw zur puren Verzweiflung bringen und wäre eine echte Studentenaufgabe für die Bw-Unis in München und Hamburg. Realisierungszeit = wenige Monate; Kosten = Portokasse; Diskussionen im Parlament = Null, da deutlichst unterhalb einer „25 Mio. € – Vorlage“ und noch rechtszeitig einsatzbereit für AFG.
@Elahan: Übrigens zur Drohnenabwehr gäbe es ähnliche preiswerte, simple und ebenso einfach herzustellende OTS-Lösungen. Die muß man aber nicht unbedingt propagieren, denn da würden nicht nur das BMVg und die Führung der Luftwaffe auch noch verzweifeln, sondern die Taliban in AFG und in den Stammesgebieten in Pakistan dürften über zuverlässigere Lösungen als die „iranischen“ hoch erfreut sein.
Schöne Bastellösung, die aber ihre Haken hat. Zum einen die Systemschnittstellen zum Abgreifen von GPS-Daten. Zum anderen die automatische oder autonome Trimmung wenn ich die zusätzliche Nutzlast auch abwerfen will. Schließlich müsste das Ganze dann auch zugelassen werden, woran es letztendlich scheitern wird.
Ich möchte noch einmal auf den Ausgangspunkt zurückkommen: Im Kontext der UN-Waffenkonvention soll über ein Verbot völlig autonomer tödlich bewaffneter Systeme diskutiert werden. Diesen Beschluss gibt es, nur gehen er und die Befürworter einer solchen Diskussion zu großen Teilen absichtlich am Problem vorbei.
1. Was ist ein völlig autonomes tödlich bewaffnetes System, wie kann es von allen anderen semiautonomen Systemen unterschieden werden und wie verifiziert man die Einhaltung der Unterschiede? Wie formuliert man das allgemeingültig für Land, Luft und See? Über diese definitorischen Fragen kann man hervorragend jahrelang ergebnislos streiten. Sicher ist nur, dass diese Begrifflichkeit gewählt wurde, um zu verhindern, dass irgendein technologisch fortgeschrittener Staat schon heute oder in naher Zukunft ein System besitzen könnte, das unter ein künftiges Verbot fallen könnte. Also: ganz egal ob intelligente Mörsermunition, Reaper, bewaffnete Heron, selbstzielsuchender Torpedo oder LV-LfK-System, das alles ist hier nicht gemeint – auch nicht Systeme mit dem „man in the loop“ oder jenem „on the loop“ – nichts davon soll auf die Tagesordnung und ich bin mir sicher, dass wenn einer Neuentwicklung die Tagesordnung drohen würde, sogleich eine Initiative für eine entsprechende Definitionsausnahme folgen würde.
2. Noch vor zwei Jahren äußerten sich bei einem Expertenworkshop fast alle Anwesenden, einschließlich derer, die an solchen Systemen z.B. in den USA forschen, äußerst skeptisch, ob es Systeme im Sinne einer solchen Konvention je oder zumindest in absehbarer Zukunft geben werde. Einige waren sogar der Auffassung, diese werde es defintiv nicht geben.
3. Und damit komme ich zu Pudels Kern: Diese Initiative blockiert andere Initiativen, die auf ein völkerrechtliches Verbot bewaffneter Drohnen zielen, bzw.unterminiert deren deren Mehrheitsfähigkeit. Der jetzt auf die Tagesordnung gesetzte Verhandlungsgegenstand wird auch von denen unterstützt, die ein völkerrechtliches Verbot bewaffneter Drohnen ablehnen, z.B. weil ihr Herkunftsland diese bereits nutzt oder weil zu viele Staaten solche Systeme künftg nutzen könnten.
4. Aus meiner persönlichen Sicht könnten Verhandlungen über ein Verbot bewaffneter Drohnen durchaus vergleichsweise schnell und zielgerichtet geführt und mit einer für die übergroße Mehrheit aller Staaten akzeptablen Verbotskonvention enden, da
a) die Zahl der derzeitigen Nutzer bewaffneter Drohnen noch äußerst klein ist
b) bislang vor allem deren Aufklärungsversionen exportiert werden, aber die bewaffneten Versionen zurückgehalten werden – selbst innerhalb der NATO
c) es zwar eine Reihe von Ländern mit Entwicklungsprogrammen für bewaffnete Drohnen gibt, diese Länder aber im Falle eines Vertragsabschlusses mehr Vorteile darn sehen dürften, ihre F&E-Vorhaben einzustellen als einen teuren Wettlauf in einem vertraglich unlimitierten kostenträchtigen Technologiebereich einzugehen und
d) Unter Rückgriff auf die Definitionen und Verifikationsmodaltäten der START-Verträge die Aufgaben der Definition einer bewaffneten Drohne und der Verfikation vergleichweise einfach und kurzfristig zu lösen wären.
e) Hinzu kommen zwei weitere Aspekte: Erstens: Eine solche Konvention könnt der internationalen Gemeinschaft die Debatte ersparen, ob und wie bewaffnete Drohnen das bestehende Völkerrecht ggf. aufweichen könnten. Zweitens könnte Einsicht greifen, dass der technologische Vorsprung durch Einführung einer neuen Bewaffnungskategorie historisch immer zeitlich begrenzt war und zwecks Verlängerung nicht selten völkerrechtlich problematische Nichtverbreitungsregime benötigte, mit denen legitime „Haves“ die Nutzung dieser Technologie durch „illegitime Have Nots“ zu unterbinden suchten.
Man darf also gespannt sein, ob mit dieser Initiative eine Diskussion über ein Verbot bewaffneter Drohnen unterbunden werden kann und – Ironiemod an – ob dies zumindest solange gelngt, bis bewaffnete Drohnen auch im zivil genutzen deutschen bzw. europäischen Luftraum ohne Zuhilfenahme von TRAs fliegen dürfen.
@Schorsch: Hinsichtlich der Schnittstellen sehe ich keine Probleme, da standardisiert. Trimmung bezüglich lateralen und longitudinalen Schwerpunkt – sofern knappe 4 kg je Granate überhaupt relevant sind -, spätestens bei symetrischem Abwurf von jeweils 2 Granaten auch kein Problem. Zulassung, wo ein Wille, da auch ein Weg bzw. der Zweck heiligt die Mittel (D.h. die Lücken der relevanter Normen zu erkunden sind auch eine schöne Studentenaufgabe und vielleicht erfolgversprechender als beim BAAINBw):
AQAP 2000:2007 _ Grundsätze für einen systemintegrierenden Ansatz zur Qualität während des gesamten Lebenszyklus
AQAP 2009: 2006 _ NATO-Leitfaden zur Anwendung der AQAP 2000 Reihe
AQAP 2050:2003 _ NATO Project Assessment Model
AQAP 2070:2004 _ NATO-Prozess der gegenseitigen Güteprüfung
AQAP 2105:2005 _ NATO-Anforderungen für Qualitätsmanagementpläne
AQAP 2110:2006 _ NATO-Qualitätssicherungsanforderungen für Entwicklung und Produktion
AQAP 2120:2006 _ NATO-Qualitätssicherungsanforderungen für Produktion
AQAP 2130:2006 _ NATO-Qualitätssicherungsanforderungen für Prüfung und Test
AQAP 2131:2006 _ NATO-Qualitätssicherungsanforderungen für Endprüfung
AQAP 2210:2006 _ NATO-Ergänzungsanforderungen für Software-Qualitätssicherung zur AQAP 2110
AQAP-160 _ NATO-Integrierte Qualitätsforderungen für Software während des gesamten Lebenszyklus (wird in Verträgen des BAAINBw nicht gefordert)
AQAP-169 _ NATO-Leitfaden zur Verwendung der AQAP-160 (wird in Verträgen des BAAINBw nicht gefordert)
DIN EN ISO 9000:2005 _ Qualitätsmanagementsysteme, Grundlagen und Begriffe
DIN EN ISO 9001:2008 _ Qualitätsmanagementsysteme, Anforderungen
DIN EN ISO 10012 _ Messmanagementsysteme – Anforderungen an Messprozesse und Messmittel.
All das sind keine Wunderwerke, sondern seit Jahrzehnten beherrschbare Vorgaben, es sei denn man will einen „EuroHawk“ zulassen. Im Übrigen gibt es noch die ZDv 19/1, No 321-323, c) Genehmigung zum Einsatz im Flugbetrieb, 1. Zweck, No 321. Soll ein militärisch zugelassenes Luftfahrzeug abweichend von den Festlegungen der Musterzulassung betrieben werden, kann die Verkehrszulassung dieses Luftfahrzeugs durch eine „Genehmigung zum Einsatz im Flugbetrieb (GEF)“ (Anlage 14 bzw. 15) befristet geändert werden.
No. 322. Dieses Verfahren der GEF findet Anwendung z.B. bei
– geändertem Bauzustand […], für
– Erprobungen,
– Truppenversuche,
– […], […],
– temporäre Änderungen/Einbauten sowie dringende Einsatzbefähigung.
(Ironiemod an): Was bei einem FAM-NH90 und dessen Nichteignung (laut FALCOR 2012) aufgrund von unterdimensionierten Sitzen und Hardpoints sowie der unzureichenden Bewaffnung in AFG geht, sollte also auch hier gehen (Ironiemod aus).
@Memoria
Die Bilderkennung ist heutzutage sogar schon erheblich weiter als die Hochglanzbroschüren weismachen wollen ;-)
Ich arbeite selber in Teibereichen mit dafür zuständigen Softwarentwicklern zusammen. Das man beim Militär vielleicht noch nicht so weit ist, verwundert mich gar nicht.
Technisch und praktisch sind mit richitger Bilderkennung schon teilweise unglaublich Sachen möglich. Wozu die angewendet werden, dass darf sich jeder selbst denken.
Beste Grüße und noch einen schönen Abend
NMcM