Autonome Waffensysteme: Keiner ist verantwortlich

USS George H.W. Bush launches X-47B

Autonome Waffensysteme, die unabhängig von einem einzelnen menschlichen Befehl selbständig über einen Waffeneinsatz entscheiden, können nach Darstellung der Menschenrechtsorganisation Human Rights Watch (HRW) dazu führen, dass es keinerlei Verantwortlichkeiten mehr für unrechtmäßige Gewalt, Tote und Verletzte gibt. Programmierer, Hersteller und Militärpersonal könnten für rechtswidrige Tötungen nicht mehr zur Verantwortung gezogen werden, wenn solche vollkommen autonomen Waffen entwickelt und eingeführt würden, warnte die Organisation in einem am (heutigen) Donnerstag in Genf vorgelegten Bericht.

Als Konsequenz müssten autonome Waffensysteme grundsätzlich geächtet werden, wie das beispielsweise mit blind machenden Laserwaffen geschehen sei, fordert die Organisation. Neben der straf- und zivilrechtlichen Verantwortlichkeit sei auch die Vereinbarkeit mit dem humanitären Völkerrecht und den Menschenrechten nicht gegeben, wenn Maschinen über Leben und Tod entscheiden könnten.

Human Rights Watch setzt sich mit der Kampagne Stop Killer Robots seit Jahren dafür ein, dass Entwicklung und Nutzung autonomer Waffensysteme international verboten und geächtet werden. Kern der jetzt vorgelegten Argumentation ist das Problem, dass eine Maschine für rechtswidrige oder auch nur fahrlässige Handlungen nicht zur Verantwortung gezogen werden kann. Weder nach dem Straf- noch nach dem Zivilrecht könne dann jemand für eine unrechtmäßige tödliche Aktion verantwortlich gemacht werden.

Aus der Zusammenfassung des Berichts Mind the Gap – The Lack of Accountability for Killer Robots:

Existing mechanisms for legal accountability are ill suited and inadequate to address the unlawful harms fully autonomous weapons might cause. These weapons have the potential to commit criminal acts—unlawful acts that would constitute a crime if done with intent—for which no one could be held responsible. A fully autonomous weapon itself could not be found accountable for criminal acts that it might commit because it would lack intentionality. In addition, such a robot would not fall within the “natural person” jurisdiction of international courts. Even if such jurisdiction were amended to encompass a machine, a judgment would not fulfill the purposes of punishment for society or the victim because the robot could neither be deterred by condemnation nor perceive or appreciate being “punished.”
Human commanders or operators could not be assigned direct responsibility for the wrongful actions of a fully autonomous weapon, except in rare circumstances when those people could be shown to have possessed the specific intention and capability to commit criminal acts through the misuse of fully autonomous weapons. In most cases, it would also be unreasonable to impose criminal punishment on the programmer or manufacturer, who might not specifically intend, or even foresee, the robot’s commission of wrongful acts.

Kurzgefasst: Einen Roboter zu bestrafen, ist wenig sinnvoll – und eine Maschine handelt ja nicht mit Vorsatz. Zugleich könnten, so die Befürchtung von HRW, allerdings auch die menschlichen Kommandeure oder Bediener nicht zur Verantwortung gezogen werden, weil ihnen falsche Aktionen der Maschine nur in Ausnahmefällen persönlich angelastet werden können.

(Randbemerkung: Die Argumentation von HRW hat Implikationen weit über die militärische Nutzung hinaus – zum Beispiel für autonome Landtransportsysteme, auf Deutsch: selbstfahrende Autos. Auch dabei könnte, wenn man dieser Argumentation folgt, niemand für einen tödlichen Unfall zur Verantwortung gezogen werden.)

HRW legte den Bericht in Genf vor, weil dort vom 13. bis zum 17. April eine Konferenz der Vereinten Nationen zu letalen autonomen Waffensystemen stattfindet. Erste Gespräche im UN-Rahmen dazu hatte es bereits im November 2013 gegeben. Gegner unbemannter Systeme, insbesondere von bewaffneten Drohnen, hatten dagegen argumentiert, eine Konvention über autonome Systeme verringere die Chance, bereits von Menschen gesteuerte, nicht-autonome Systeme völkerrechtlich zu ächten.

In Deutschland hat sich die derzeitige Bundesregierung bereits im schwarz-roten Koalitionsvertrag zu autonomen Waffensystemen festgelegt:

Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen.

Auch die USA lehnen nach ihrer derzeitigen Strategie autonome Waffensysteme ab, arbeiten aber an der Ausweitung des Einsatzes unbemannter Systeme, wenn auch unter menschlicher Kontrolle:

The US Army is drafting doctrine for the first time that would govern its robotic and unmanned systems, with the service’s sights set on robots for supply convoys, tactical reconnaissance and as robotic wingmen for soldiers on foot.
Driving the push for a unified strategy is the worry an enemy would use robots on the battlefield first, said Lt. Col. Matt Dooley, lethality branch chief at the Army Capabilities Integration Center (ARCIC). (…)
Dooley was firm that there was no effort to create a lethal autonomous function, in keeping with the Pentagon’s 2012 directive on the topic. „We’re not going to leave those types of decisions to a robot,“ he said.

(Foto: An X-47B Unmanned Combat Air System demonstrator flies near the aircraft carrier USS George H.W. Bush (CVN 77), 14 May 2013. George H.W. Bush is the first aircraft carrier to successfully catapult launch an unmanned aircraft from its flight deck – U.S. Navy photo by Erik Hildebrandt)

36 Kommentare zu „Autonome Waffensysteme: Keiner ist verantwortlich“

  • Woody   |   09. April 2015 - 6:29

    Mit Einführung autonomer Systeme würde die Verantwortung wieder stärker auf höhere Ebenen wandern.

  • LTC0815   |   09. April 2015 - 7:04

    Völlig richtig, aber das Bild der Reaper passt dann absolut nicht zum Text.

    Bei einem System wie der MQ-9 ist nichts autonom, es ist ferngesteuert. Alle Entscheidungen trifft der Mensch.
    Selbst bei Veranstaltungen wie der ELROB ist seit Jahren fast keine Autonomie in Sicht.

    Ich fürchte, das Bild wird nur wieder die übliche „Drohnendiskussion“ lostreten.

  • STO   |   09. April 2015 - 7:21

    Moin,
    auch wenn nur sci fi, aber skynet & Cyberdyne Systems lassen grüßen.
    Wird es gute oder böse KI`s geben. Kann eine KI böse sein.
    Haben die Gesetzte der Robotik von Asimov dann Gültigkeit?
    Es mag sein das es bis dahin noch ein wenig dauert, aber ich sch… mich jetzt schon ein.
    Für mich, der Rubikon, den niemand überqueren sollte.

  • sqeezy80   |   09. April 2015 - 8:00

    ich sehe das nicht so problematisch.
    Jeder Roboter bekommt Rahmenparameter durch den Auftraggeber gesetzt (Ziel Auftrag etc). Und der Parametergeber hat zu haften und oder ggf. durch Überwachung sicherzustellen das es zu keinen Fehler kommt. Ist in jeder mit Roboter fertigen Produktion so. Das heißt für das Auto. Der der das Ziel setzt ist verantwortlich, und wenn er dem System nicht traut muss er es überwachen, wenn er dem System traut und etwas passiert haftet der „Fahrer“ wie jetzt auch.

  • Stephan L.   |   09. April 2015 - 8:55

    Zu dieser Problematik kann ich Robert Sparrows Aufsatz „Robotic Weapons and the Future of War“ (http://profiles.arts.monash.edu.au/rob-sparrow/download/rsparrow-robot-wars.pdf) empfehlen, in dem sich der Autor intensiv mit Autonomous Weapon Systems auseinandersetzt.
    Dabei vertritt er unter anderem die Meinung, dass sehr wohl Derjenige die Verantwortung für den Waffeneinsatz übernehmen kann, der den Einsatz der Maschine angeordnet hat:
    „[…]it might be argued that the proper place to look for the required attitude is rather in the person who ordered the deployment of the AWS.“

    Noch interessanter finde ich allerding die Stelle, an der er Ronald Arkin zitiert: So sei es gar nicht notwendig, eine absolute Perfektion von AWS zu erwarten, stattdessen soll ein mit einem menschlichen Piloten vergleichbares Level ausreichen:
    „Arkin has a powerful reply available to him at this juncture, which is to point out that it is not necessary to achieve 100% accuracy in discriminating between legitimate and illegitimate targets but only to achieve a level of discrimination comparable to that of human warfighters.

    Meine Meinung: Diese Dinger werden in absehbarer Zukunft kommen. Ich sehe das teilweise mit erheblichen Bauchschmerzen, aber sie werden da sein. Und wer dann überhaupt noch mitreden will, was internationale Verträge über Einsatzregeln u.ä. angeht, der sollte sich vorab schon mal ein paar Gedanken machen. Totalverweigerung bringt da nicht wirklich was.

  • T.Wiegold   |   09. April 2015 - 9:37

    @LTC0815

    Ja, die Reaper ist ein ferngesteuertes System und kein autonomes. Allerdings: welches Bild bietet sich hier an, wenn es solche autonomen System noch gar nicht gibt? eher die X47-B?

    /edit: Habe mir die Bedenken mal zu Herzen genommen und das Foto gegen eines der X-47B ausgetauscht.

  • ADLAS-Doe   |   09. April 2015 - 9:47

    Dr. Frank Sauer von der UniBw München ist seit langem auf diesem Feld aktiv und hat dazu auch was geschrieben:

    http://www.sef-bonn.org/fileadmin/Die_SEF/Publikationen/GG-Spotlight/GGS_2014-04_de.pdf

  • Magmakammer   |   09. April 2015 - 10:16

    Aus eigener Erfahrung ist eines der Hauptprobleme:
    die wenigsten taktisch ausgebildeten Operateure (z.B. Pilot o. Panzerkommandant) sind Programmierer und wenige Programmierer haben taktische Erfahrung!
    Und die Ergebnisse ‚zweideutig‘ formulierter Lastenhefte werden hier in genügend Threads ausführlich diskutiert.
    Auftraggeber/Operateur und Entwickler/Programmierer verstehen vermeidliche klare Aussagen aufgrund ihrer eigenen Hintergründe doch immer wieder unterschiedlich.
    Und was das für eine autonomes System bedeutet, kann sich jeder selbst ausrechnen.

  • Freiherr vom Stein   |   09. April 2015 - 10:21

    Autonome Waffensysteme, die unabhängig von einem einzelnen menschlichen Befehl selbständig über einen Waffeneinsatz entscheiden, können nach Darstellung der Menschenrechtsorganisation Human Rights Watch (HRW) dazu führen, dass es keinerlei Verantwortlichkeiten mehr für unrechtmäßige Gewalt, Tote und Verletzte gibt.

    So ein wenig finde ich das an den Haaren herbeigezogen.
    Wenn ein herkömmliches Waffensystem eine Fehlfunktion hat und dabei einen unbeteiligten Dritten tötet, dann ist das meiner Ansicht sehr vergleichbar mit einer Fehlfunktion eines zukünftigen Waffensystems, das mit (ungleich höherer Komplexität, zugestanden) einen tödlichen Fehler produziert.
    An der ethischen Problematik ändert sich wenig, egal ob das eine Mine, eine Selbstschussanlage, eine autonom fliegende AGM-88 HARM oder eine Zukunfts- Drohne ist.
    Da haben diese Systeme dann aber eine Gemeinsamkeit mit HRW: Beide agieren bzw. agitieren wie bisher, also alter Wein in neuen Schläuchen. Es wäre doch mal ein Fortschritt, wenn sich Organisationen mit Grundfragen der Entstehung von Konflikten beschäftigen würden, statt immer wieder die technisierte Konfliktpartei zu beschimpfen und die technisch unterentwickelten Parteien als „edle Wilde“ zu mystifizieren. Der eine schickt halt Automaten in die Schlacht, der andere ideologisch versklavte Selbstmordattentäter … wem ordnen wir nun die Verantwortlichkeit für „menschliche Drohnen“ wie mit Drogen zugedröhnte Selbstmordattentäter zu?

  • Mufflon   |   09. April 2015 - 10:26

    Mal eine Frage an diejenigen hier, die sich mit der militärstrategischen Komponente besser auskennen als ich: Wären solche vollkommen autonomen Systeme überhaupt militärisch gewollt? Mir erschließt sich der Sinn nicht.

    Punkt 1: Eine automatische Zielidentifizierung und -erfassung wird immer störungsanfällig sein. Ein Mensch kann logisch denken und überlegen, ob dieses oder jenes Ziel wirklich ein feindliches sein kann, eine Maschine wird das wohl nie können. Sie folgt ihren Paramtern und wird vermutlich ohne einen Menschen immer eine höhere Fehlerqoute haben, als mit. (Es sei denn, wir driften komplett in die Science Fiction ab und sprechen über „echte“ künstliche Intelligenzen, aber das lassen wir mal.)

    Punkt 2: Eine Maschine kann Probleme und Situationen nicht intuitiv taktisch erfassen. Welches Ziel ist am effektivsten zu bekämpfen? Das hängt von so unglaublich vielen Faktoren ab, gerade bei Beteiligung von eigenen Kräften im Gefecht. Ein Mensch kann diese Entscheidung mit Ausbildung, Einsatzerfahrung und Intuition vielleicht in wenigen Sekunden treffen, ein Computer muss rechnen und wird sicher nie auf solche Ergebnisse kommen.

    Also unterm Strich: Warum sollte überhaupt ein Militär der Welt die Kontrolle über den Gebrauch solcher Waffensysteme einem Programm überlassen wollen? Hat das irgendeinen Nutzen? Von Hinrichtungen per Drohne, deren Verwantwortung man sich dann entziehen kann, vielleicht mal abgesehen.

  • Zimdarsen   |   09. April 2015 - 10:36

    Evtl vermeidet man mit autonomen Systemen mehr Kollateralschäden als mit dummen Bomben?

    Die Frage wird sein: Wer definiert die Ziele? Was ist ein Ziel?
    Ist es ein Ort, ein Fahrzeug oder eine bestimmte Personengruppe?

    Z.B.: Beim Taurus ist das Ziel eine Koordinate (Ort) unabhängig davon, wer sich zum Zeitpunkt des Einschlages dort befindet. Das könnte dann auch mal der Schulbus auf einer Brücke sein. Wäre doch schön wenn der Taurus eine Möglichkeit hätte seine Wirkladung am Zünden zu hindern oder seine Endflugbahn zu ändern.
    Eine RPA hat im Normalfall immer ein Problem mit der Laufzeit der Datenübertragung.
    Über SAT kann da einiges zusammen kommen. Evtl entspricht die Situation beim Eintreffen des Wirkmittel nicht mehr dem Bild welches der Pilot zum Zeitpunkt der Auslösung hatte (eigene Truppen im Nahgefecht FF). Auch in diesem Fall wäre es gut, wenn es eine Möglichkeit gäbe welche vor Ort verhindert, dass eigene Truppen geschädigt werden.

  • Magmakammer   |   09. April 2015 - 10:56

    @ Mufflon
    ein deutlicher Vorteil eines programmierten autonomen System wäre eine 100% Einhaltung der Rules-of-Engagement. Der Computer kennt schwarz oder weiß, aber nicht grau.
    Im Falle Oberst Klein sollen ja auch politische Einflüsse die Entscheidung beeinflusst haben, so etwas wäre zukünftig auszuschließen.

    Ein Computer hat auch kein Gewissen => weniger Fälle von PTSB!

  • STO   |   09. April 2015 - 11:06

    Mufflon 10:26

    Moin, zum Thema Sinnhaftigkeit kann ich auch nichts wertschöpfendes beitragen.

    Zu 1.
    Zum Thema Störanfälligkeit und Logik, alles beherrschbar (gilt nicht für Humanoide Lebensformen). Im Bereich Parameter-Variablen sind wir schon Lichtjahre weiter, als Sie wohl derzeit annehmen.
    Siehe dazu als Beispiele, Suchmaschinen, Computerspiele, opt. & Spracherkennung, autonomes KFZ usw. usw.

    Zu 2. Auch hier s. o.

    Die für mich viel wesentlichere Frage ist ob und wann wir den Punkt der technologischen Singularität erreicht haben werden.

    Zu Ihrer Frage zurück „Also unterm Strich“ ich vermute mal das es sich wie mit dem Hund und seinen Eiern verhält.
    Weiterführende und m. M. nach auf den Einwurf bzw. den Befürchtungen von HRW
    abzielende Themengebiete sind hier die künstl. Intelligenz, Metaphysik, Humanismus etc.

  • KeLaBe   |   09. April 2015 - 11:10

    @ Mufflon

    Ihre beiden Punkte klingen auf den ersten Blick plausibel – wenn man den aktuellen Stand der Technik voraussetzt. Und trotzdem wird der Trend in die Richtung Automatisierung gehen. Es sei denn, man bringt international die Kraft zu einer wirksamen Kontrolle der technologischen Weiterentwicklung auf.

    Der Grund liegt darin, dass der Anreiz für die miteinander konkurrierenden Staaten einfach zu groß ist, etwas Neues, Überlegenes und Selbstrisiko-Verminderndes zu schaffen. Es spielt dabei keine Rolle, dass dies letztlich zu einem dynamischen Rüstungswettlauf führt. Hauptsache, man hat vorübergehend die Nase vorn – alles Weitere zeigt sich dann schon.

    Man sollte wohl auch das grundsätzliche Potenzial der Wissenschaft nicht unterschätzen. Ein schönes Beispiel für die letztliche Überlegenheit künstlicher Roboter ist das Schachspiel. Heute gewinnt niemand mehr gegen sie, menschliches Genie hin oder her. Das hat man mal anders eingeschätzt.

    Übrigens wurde eine Art Vorstufe automatisierter Kriegführung schon vor mehr als 25 Jahren im deutschen Heer eingehend geprüft. Sogenannte Kampfdrohnen (genau das war der ursprüngliche Arbeitsbegriff) sollten die Abwehr gegen die gefürchtete zweite Staffel der WP-Streitkräfte verstärken. Die ursprüngliche Grundidee, vereinfacht erklärt: Die grob programmierten Drohnen suchen nach ihrem Start – und ab dann weitgehend selbstständig und ungesteuert – nach gepanzerten Fahrzeugen in einem größeren, vordefinierten Raum in einer Entfernung von rund 70 bis 100 km jenseits des VRV und bekämpfen sie autonom. Das Projekt wurde in dieser Form nicht gezielt weiterverfolgt, unter anderem auch aus Gründen eines geänderten Bedarfs nach Ende des Kalten Krieges.

  • Patrick Horstmann   |   09. April 2015 - 11:16

    Vielleicht mal ein Literaturtip:

    Niklas Schörnig, Automatisierte Kriegsführung – Wie viel Entscheidungsraum bleibt dem Menschen?,
    Aus Politik und Zeitgeschichte, 35 – 37/2014, S. 27 ff.

    http://www.bpb.de/apuz/190115/automatisierte-kriegsfuehrung-wie-viel-entscheidungsraum-bleibt-dem-menschen

    (Ich hoffe, Links zur bpb sind urheberrechtlich in Ordnung, sonst bitte löschen)

    Ich finde, der Autor stellt die Problematik recht umfassend und unideologisch dar.

  • Mufflon   |   09. April 2015 - 11:29

    @Zimdarsen: Aber um eine Bekämpfung abzubrechen bzw. eine schon abgefeuerte Lenkwaffe in der Luft zu zünden/umzulenken braucht eine Drohne doch nicht die Möglichkeit, Ziele autonom auszuwählen. Dazu braucht sie doch nur die Möglichkeit, den Beschuss unter bestimmten Umständen autonom abzubrechen. Das Beispiel mit der Brücke: Nehmen wir an, man möchte eine Brücke zerstören, um zu verhindern, dass feindliche Verstärkungstruppen das Gefecht erreichen. Die Drohne erhält Kooridnaten und fliegt los. Die feindliche Verstärkung ist zu weit weg, um die Brücke rechtzeitig zu erreichen, also ist jede Bewegung auf der Brücke höchst wahrscheinlich zivil. Dann gibt man der Drohne den Befehl, bei Bewegung auf der Brücke entweder autonom abzubrechen oder – falls möglich – noch eine Bestätigung zu erfragen.
    Da erkenne ich jetzt nicht, warum eine Drohne autonom Ziele bekämpfen können muss.

    @Magmakammer: Die mangelnde Flexibilität kann genau so gut ein Nachteil sein. Wie meinen Sie das mit (dem damaligen) Oberst Klein? Ich denke eher, das solche unpopulären aber sinnvollen Entscheidungen seitdem eher weniger getroffen würden, wenn die Situtation entstünde. Inwiefern war Kleins Entscheidung selbst politisch?
    Und auch die theoretisch autonome Drohne müsste ja jemand starten und gewisse Missionsparameter festlegen, ähnlichen einem Pilotenbriefing. Auch da sehe ich daher keinen echten Vorteil.
    Die Sache bzgl. PTBS ist vielleicht ein Argument, das kann ich schwer beurteilen. Meines Wissens ist die Belastung für Drohnenpiloten durch den räumlichen und emotionalen Abstand allerdings eher gering. Außerdem kann es mMn kein Argument dafür sein, die Kontrolle über Waffe an ein Programm abzugeben. Der Schütze hat vielleicht uU mit der Belastung zu kämpfen, aber wo der Flugkörper einschlägt sind die Folgen um einiges physischer.

    @KeLaBe, STO: Okay, wenn man eine nahezu perfekte (meiner Meinung nach nicht umbedingt realistische) technologische Entwicklung einplant, dann könnte es diese Vorteile geben. Ich bezweifel nicht, dass Programme immer komplexer werden und Rechner immer leistungsfähigker, aber Erfahrung und Inutition liegen bisher eben deutlich außerhalb von allem, was ein Programm haben kann.

  • Fussgaenger   |   09. April 2015 - 13:30

    @Mufflon
    „Punkt 2: Eine Maschine kann Probleme und Situationen nicht intuitiv taktisch erfassen. Welches Ziel ist am effektivsten zu bekämpfen? Das hängt von so unglaublich vielen Faktoren ab, gerade bei Beteiligung von eigenen Kräften im Gefecht. Ein Mensch kann diese Entscheidung mit Ausbildung, Einsatzerfahrung und Intuition vielleicht in wenigen Sekunden treffen, ein Computer muss rechnen und wird sicher nie auf solche Ergebnisse kommen.“

    Nunja, ich glaube, jeder hier kennt genügend Menschen oder hat eigene Erfahrungen gemacht, in denen deutlich wurde, das menschliche Entscheidungen auch zu schweren Fehlern führen können. Es ist daher in meinen Augen ein schwieriges Argument, zu behaupten, im Gegensatz zum Menschen könne eine Maschine so etwas nicht – ich denke, auch viele Menschen sind bei solchen Entscheidungsfindungen überfordert und begehen dementsprechend Fehler.

    Möglicherweise kann man die Qualität des Versagens unterschiedlich bewerten, frei nach „To err is human, but to really foul things up you need a computer.“ bzw. „Man hat ausgerechnet, dass hundert Angestellte hundert Stunden arbeiten müssten, um einen so gewaltigen Fehler zu machen, wie ihn ein Computer in einer Tausendstelsekunde fertigbringt.“

  • CRM-Moderator   |   09. April 2015 - 13:55

    Da sieht man, wie effizient Computer sind.

    Sie werden auch nicht müde.
    Sie brauchen keinen Dienstposten.
    Sie haben keine Familie.
    Sie bekommen kein PTBS.
    Sie unterliegen bspw. keinem Halo-Effekt.

    Und sie sind präziser und schneller als jeder Mensch.
    Merkt man jeden Tag beim Autofahren.

    Komische Diskussion.

  • Sönke Marahrens   |   09. April 2015 - 14:01

    Der Krieg ist also ein Akt der Gewalt, um den Gegner zur Erfüllung unseres Willens zu zwingen.

    Und der Rest ergibt sich aus der ersten Wechselwirkung…vgl Clausewitz vom Kriege

    Wer das Szenario vertiefen moechte, der lese Kill decision…aber auch dort brauchts eine Verschwoerungstheorie, um die Urheberschaft zu verbergen.

  • Operation Mockingbird   |   09. April 2015 - 16:54

    Die ersten zwei Argumente treffen so nicht zu CRM-Moderator, sich selbst reproduzierend sie noch nicht, damit wird dann jedoch ein neues Kapitel in der Techn. Autonomie aufgeschlagen.

  • Zimdarsen   |   09. April 2015 - 18:14

    @Mufflon

    Das hatte ich auch nicht behauptet. Ich hatte nur ein Bsp genannt, wo autonome Entscheidungen fallen können und wie schmal der Grad der Ablehnung werden kann.

    @CRM Moderator

    Es geht um die Zukunft und nicht um die Gegenwart.
    Kann mir vorstellen, dass in einigen Jahren das manuelle Steuern von KFZ welche mit 100km/h ohne Fahrbahntrennung aufeinander zu rasen verboten wird :-)

    Tausende Tote pro Jahr……ein mächtiger Kollateralschaden für unsere (evtl falsch verstandene) Freiheit.

  • ThoDan   |   09. April 2015 - 22:22

    @STO

    Ein Autonomes Waffensystem kann nicht nach den Robotgesetzen von Asimov funktionieren, diese müssen für AW(Kampfroboter z.b.) mindestens eingeschränkt werden.

    @Magmakammer

    Ich kann mich an so gar kein Programm „gesteuertes“ System in meinem Beruf erinnern, das fehlerlos funktioniert.
    Oft sind es nur Kleinigkeiten, aber wenn diese Kleinigkeiten Waffen beinhalten, wäre ich ungern in der Nähe., Messfehler

    @Mufflon

    2 Computer können unheimlich schnell rechnen, werden nicht müde,

    Was wäre möglich, wenn ein Kampfflugzeug ohne Pilot funktionieren würde?

  • Magmakammer   |   10. April 2015 - 10:14

    Ich spiele hier ein bischen Devils-Advocat. Nur weil ich ‚Pro‘-Argumente bringe, bedeutet das nicht dass ich diese wirkliche befürworte/glaube!

    Das wäre ja fast so als wenn ich nach der Germanwingstragödie pilotenfreie Verkehrsflieger wollte!

  • Freiherr vom Stein   |   10. April 2015 - 10:39

    @ Sönke Marahrens | 09. April 2015 – 14:01

    Der Krieg ist also ein Akt der Gewalt, um den Gegner zur Erfüllung unseres Willens zu zwingen.
    Und der Rest ergibt sich aus der ersten Wechselwirkung…vgl Clausewitz vom Kriege

    Na, da begeben Sie sich im aktuellen Zeitgeist aber auf ganz glattes Eis. In den Augen vieler Zeitgenossen der Gegenwart erfüllt das, was Sie da schreiben, glasklar den Tatbestand des reaktionären Denkens, ist fast schon faschistisch. ;-)

    Man kann durchaus den Eindruck gewinnen, dass die Dimension der kollektiven Willenskraft als sicherheitspolitischer Parameter nicht diskutiert werden darf.
    Schließlich haben unsere vereinigten Friedensforscher doch innovative Methoden entwickelt, mit denen nach dem Ende der Geschichte immerwährender Friede auf Erden gesichert sei. Klassische Erkenntnisse der Funktionsweise der Menschheit, gerade bei so schmutzigen Dingen wie Krieg, sind doch heute im intellektuellen Diskurs tabuisiert. Eine analytische Herangehensweise an die Frage Krieg, wie das Clausewitz getan hat, kommt für viele (selbsternannte) Eliten der Gesellschaft heute nicht in Frage.

    Dass uns diese Herangehensweise und das pauschale Negieren von Denkern wie Clausewitz möglicherweise in unsere aktuelle sicherheitspolitische Situation gebracht hat, tabuisieren wir dann einfach mal im Diskurs …

    All dieses „sich einen in die Tasche lügen“ führt dann zu einem anderen Vordenker der Kriegstheorie, da wir weder uns, noch unsere Feinde zu kennen scheinen: „Wenn du dich und den Feind kennst, brauchst du den Ausgang von hundert Schlachten nicht zu fürchten. Wenn du dich selbst kennst, doch nicht den Feind, wirst du für jeden Sieg, den du erringst, eine Niederlage erleiden. Wenn du weder den Feind noch dich selbst kennst, wirst du in jeder Schlacht unterliegen.“

  • CRM-Moderator   |   10. April 2015 - 10:39

    @ThoDan:
    Ich kann mich an keinen Menschen und keine Organisation erinnern die fehlerlos funktioniert. Auch wenn sie „nur“ fehlerhafte Programme und gesteuerte Systeme schreiben.

    SCNR: Wobei….im BMVG….da gibts bestimmt fehlerfreies arbeiten.

    Ja, ich weiß ziemlicher Kalauer auf Kosten der eh‘ schon gebeutelten.

  • ThoDan   |   10. April 2015 - 12:23

    @CRM-Moderator

    Aber wiederholen sie dieselben Fehler regelmäßig?

    SCNR: Wie nennt man jemand der keine Fehler macht?

  • Detlef Borchers   |   10. April 2015 - 14:49

    Militärisch geht es ja wohl weniger um die Computer, sondern darum, das mit solchen Fliegern Manöver geflogen werden können, die kein Mensch überlebt. Auf der ILA-Diskussion im letzten Jahr hat ein BW-Mann auf diesen Aspekt hingewiesen.

    Zivil bei den selbstfahrenden Autos hat der Roboterforscher David Levy mal darauf hingewiesen, dass derzeit keine KFZ-Versicherung der Welt bereit ist, diese Dinger zu versichern. Die Automobilkonzerne (oder eben Google) tragen derzeit selbst das volle Risiko. Und wenn ein autonomer Sauger wie Roomba durchdreht, winkt jede Haushaltsversicherung ab bei der Schadensregulierung

  • H. Wilker   |   10. April 2015 - 15:26

    @Detlef Borchers:

    Die Versicherungen winken aber m. W. hauptsächlich deshalb ab, weil sie noch keine Daten haben, auf deren Basis sie Tarife berechnen können, und nicht, weil sie ein grundsätzliches Problem sehen.

    Ist das Thema Roomba vs. Hausratversicherung irgendwo belegt?

  • sascha   |   10. April 2015 - 15:27

    Irgendwie scheinen hier alle zuerst an USA/NATO zu denken, wenn es um autonome Waffensysteme geht. Aber mir fallen spontan einige Länder ein, die entweder solche Drohnen selbst entwickeln könnten oder bei Verbündeten kaufen könnten: Russland, Ukraine, Irak, Iran, Saudi Arabien, Pakistan usw.
    Wie verhält es sich, wenn dort autonome Drohnen eingesetzt werden, um die Verantwortung von Luftschlägen gegen bestimmte religiöse, ethnische Gruppen oder „Bevölkerungsgruppen, die den Feind unterstützen“ zu verschleiern? Oder wenn die Einsatzparameter in diesen Gebieten einfach nur aggressiv genug eingestellt werden und zivile Opfer der „anderen“ in Kauf genommen werden?

  • Zimdarsen   |   10. April 2015 - 16:19

    Es geht nicht um fehlerfreies Fliegen und fehlerfreie Zielauswahl sondern um das Ausnützen von Vorteilen gegenüber PA und RPA (Agieren ohne Datenverbindung, in nahezu Echtzeit und nach Möglichkeit ohne Gefährdung eigener Soldaten)

  • ThoDan   |   10. April 2015 - 17:38

    @Detlef Borchers

    Unter anderem, auch können sie zu Missionen eingesetzt werden, bei denen Menschen nicht so einsatzbereit wären

  • O.S.   |   12. April 2015 - 14:12

    Wieso handeln Roboter oder autonome Waffen immer „ohne Vorsatz“? In meinen Augen ist es genau andersherum: Da sie immer ihrer Programmierung folgen müssen, handeln sie immer mit Vorsatz ab dem Zeitpunkt in dem sie aktiviert werden.

  • Elahan   |   17. April 2015 - 9:28

    Stemme stellt neue OPV/RPA Projekte auf der AERO vor.

    Es geht wohl auch ohne staatlich militärische Förderung.

    Auch Diamond geht mit Aurora Flight Sciences und einer Weiterentwicklung der DA42 MPP New Generation „Guardian“ einen weiteren Schritt im Bereich Flugdienstleistungen, Überwachung und Aufklärung.

    Zur Systemintegration steht ESG und m4com zur Verfügung.

    http://www.m4com.de/products.php

    Der ziv Markt wird den militärischen in Deutscland überholen. Was durch deutsche mili Förderung entwickelt wird, (wenn es je einsatzfähig werden sollte) veraltet sein.

  • Fussgaenger   |   17. April 2015 - 10:11

    Meines Wissens nach wurde das aktuelle UAV-Projekt von Stemme dank Unterstützung eines arabischen Golfstaates realisiert… also eine gewisse staatliche Förderung läge damit schon vor.

  • Zimdarsen   |   17. April 2015 - 11:09

    :-) deshalb im letzten Absatz noch der Hinweis „deutsche“ mili Förderung.

    Wenn der Kunde ein Staat ist, ist dies nicht gleich eine staatliche Förderung.