Sicherheitshalber – der Podcast, Folge 4: Autonomie in Waffensystemen und die Frage nach einer Syrien-Intervention

Sicherheitshalber, der Podcast zur sicherheitspolitischen Lage in Deutschland, Europa und der Welt, Folge 4: Wieder mit Ulrike Franke vom European Council on Foreign Relations (ECFR), Carlo Masala und Frank Sauer von der Universität der Bundeswehr München und mir. Diesmal diskutieren wir in der Ko-Produktion von ECFR und Augen geradeaus!:

• Killer-Roboter oder unvermeidbare künstliche Intelligenz in Waffensystemen? Was sind autonome Waffen, wo liegen die Chancen und Risiken, und wie steht es um die Bemühungen um eine Rüstungskontrolle?

• Ab Minute 34:00: Seit gut einer Woche gibt es die sehr kontroverse Debatte, ob sich Deutschland im Falle eines Giftgaseinsatzes des Assad-Regimes in Syrien an einem Militärschlag dagegen beteiligen? Was ist die richtige rechtliche und moralische Abwägung mit Blick auf “Chemiewaffentabu vs. Interventionsverbot”?

(Es gab, nun, ein paar Probleme mit der Tonqualität, die wir trotz aller technischen Bemühungen nicht ganz wegbekommen haben – das bitten wir zu entschuldigen.)

Die Shownotes:

Thema 1 – Autonomie in Waffensystemen:

Interview (Langfassung) mit Frank Sauer von Andreas Flocken für Streitkräfte und Strategien: “Verbot autonomer Waffen ohne Chance?”, Sendung vom 08.09.2018,

https://www.ndr.de/info/sendungen/streitkraefte_und_strategien/Verbot-autonomer-Waffen-ohne-Chance,streitkraefte508.html

Interview mit Frank Sauer von Hans-Arthur Marsiske für heise online: “Missing Link: Erfolglose Gespräche über Killerroboter”, https://www.heise.de/newsticker/meldung/Missing-Link-Erfolglose-Gespraeche-ueber-Killerroboter-Wir-muessen-mehr-machen-4157480.html?seite=all

Ulrike Franke 2018: Laws on LAWS? Germany’s place in the ‘killer robot’ debate, in: ECFR: https://www.ecfr.eu/article/commentary_laws_on_laws_germanys_place_in_the_killer_robot_debate

Ulrike Frankes Vortrag vor dem Security and Defence Committee des Europäischen Parlaments: http://www.europarl.europa.eu/ep-live/en/committees/video?event=20180906-0900-COMMITTEE-SEDE

Paul Scharre 2018: Army of None: Autonomous Weapons and the Future of War, W. W. Norton & Co.,  https://www.amazon.com/Army-None-Autonomous-Weapons-Future/dp/0393608980

Thema 2 – Syrien-Intervention:

Caroline Fehl 2018: Assad könnte in Idlib wieder Giftgas einsetzen – doch eine militärische Antwort wäre falsch, in: PRIF Blog:

https://blog.prif.org/2018/09/13/assad-koennte-in-idlib-wieder-giftgas-einsetzen/

Jana Puglierin, Rolle rückwärts, Internationale Politik zeitschrift-ip.dgap.org/de/ip-die-zei…e-rueckwaerts

Jörg Lau, Kriegsverweigerung, Die Zeit www.zeit.de/2018/38/syrien-gift…ge-baschar-al-assad

Augen geradeaus!: West-Reaktion auf möglichen Chemiewaffeneinsatz in Syrien: Diesmal mit Bundeswehr?

Augen geradeaus!: Bundesregierung lässt deutsche Beteiligung an möglichem US-Luftangriff auf Syrien offen

Augen geradeaus!: Deutsche Beteiligung an Angriff auf Syrien: „Völkerrechts- und verfassungswidrig“

Nachtrag: Von HörerInnen wurde zurecht bemängelt, dass der Ton sehr hallig klingt. Eine wesentliche Ursache ist, dass wir ein einem Besprechungsraum zusammensaßen, und dort ist die Akustik nicht wirklich auf solche Aufnahmen ausgelegt…

15 Gedanken zu „Sicherheitshalber – der Podcast, Folge 4: Autonomie in Waffensystemen und die Frage nach einer Syrien-Intervention

  1. Ah, sehr gut! Dann kann ich der morgigen Autofahrt ja schon sehr gespannt entgegenblicken! ;)

  2. Bei der Diskussion im zweiten Teil wird der deutsche Rechtsstaat als „formalistische Überlegungen“ abgetan. Das ist ganz schön starker Tobak.

    Sicher würde es unserer sicherheitspolitischen Diskussionskultur gut tun, mehr auf Kosten und Nutzen sicherheitspolitischer Entscheidungen zu achten und dergleichen abzuwägen. Dafür gäbe es auch mehr als genug Anlässe.

    Nur: Vor allem anderen muss stets die Legitimation unseres eigenen Staates und seiner blanken Existenz (!) als Rechtsstaat stehen.

    Mindestens zwei deutsche Straftatbestände wären erfüllt, wenn es tatsächlich einen solchen Einsatz gäbe. (Nämlich §80a StGB für die klare öffentliche Gutheißung eines solchen Angriffes und §13 VStGB für die tatsächliche Durchführung.) Dass dann infolge eines illegal erkannten Einsatzes ein schlauer Staatsanwalt die beteiligten Soldaten wegen Totschlags belangen wollen könnte, ist da noch gar nicht berücksichtigt.

    Und übrigens, die Immunität der Abgeordneten des Deutschen Bundestages gilt nicht, wenn sie direkt beim Begehen der Tat oder im Laufe des Folgenden Tages festgenommen werden (Art. 46 GG). Das in Verbindung mit §127 StPO bedeutet: Jeder Bürger darf auch einen Abgeordneten sofort festnehmen, nachdem er eine solche Tat begangen hat.

    Das heißt also, die „formalistische“ Diskussion kann ganz schnell sehr reale Konsequenzen für die handelnden Politiker (und die Soldaten natürlich) haben, und diesen Umstand ganz aus der Diskussion auszuklammern ist mindestens nachlässig, wahrscheinlich sogar gefährlich. Denn entweder vergessen einige der Handelnden die Bedeutung solcher Entscheidungen für sie persönlich, oder (falls es aus welchem Grund auch immer nicht zu einer Strafverfolgung käme) die Legitimation des deutschen Rechtsstaates wird schwer beschädigt, weil (einmal mehr) offen gezeigt würde, dass Gesetze für „die da oben“ nicht gälten.

    [Hm, ich wüsste jetzt nicht, dass einer von uns den Rechtsstat als „formalistische Überlegung“ abgetan hätte. Das ist Ihre Interpretation.

    Und: Ihre juristische Einschätzung nehmen wir zur Kenntnis – aber eines werden Sie hier nicht tun: Unter dem Deckmantel einer juristischen Behauptung zur Selbstjustiz aufrufen.

    Ihre Formulierung

    Und übrigens, die Immunität der Abgeordneten des Deutschen Bundestages gilt nicht, wenn sie direkt beim Begehen der Tat oder im Laufe des Folgenden Tages festgenommen werden (Art. 46 GG). Das in Verbindung mit §127 StPO bedeutet: Jeder Bürger darf auch einen Abgeordneten sofort festnehmen, nachdem er eine solche Tat begangen hat.

    ist ein solcher Aufruf, den ich hier nicht hinnehme. Lassen Sie das – um es mal ganz zurückhaltend zu formulieren. T.W.]

  3. Kleine Korrektur: Da hätte ich tatsächlich vorher noch einmal nachlesen sollen, denn nach 127 StPO darf nur vorläufig festgenommen werden, wessen Identität nicht sofort eindeutig bestimmbar ist. Das trifft natürlich auf politische Entscheidungsträger nicht zu.

    Den Vorwurf des Aufrufs zur Selbstjustiz weise ich jedoch weit von mir, denn die vorläufige Festnahme durch einen Bürger bedeutete ja genau das nicht. Vielmehr dient sie dazu, die staatliche Justiz in die Lage zu versetzen, zu arbeiten.

    [Danke, damit haben wir das geklärt und diesen OT erledigt. T.W.]

  4. Min. 49 Oder um einem Verbündeten den Rücken zu stärken, zu beweisen, dass man wirklich, auch bei Angriffen, bei denen der Angreifer nicht feststeht, den vermuteten Feind zu bestrafen?

    Bei dieser Überlegung ist mir der Vergleich zwischen der Julikrise und den Angriffen am 9. September eingefallen. Beide hatten militärische „Strafexpeditionen“ zur Folge. So gesehen hatten wir Glück, dass 2001 keiner bereit war, das Gebot der nicht-Intervention aufrechtzuerhalten.

    (1914 war jedoch Serbien teilweise durch Russland garantiert, es ging nicht um das Gebot der nicht-Intervention.)

  5. Zunächst: IFF ist keineswegs unproblematisch! Dazu kann vlt. mal jemand etwas schreiben, der damit im Einsatz zu tun hat(te).

    Es ist seltsam, dass man ethisch mehr wert darauf legt, wie sich der Schütze fühlt, als auf die eigentlichen Opfer. Klar macht sich der Benutzer zum Erfüllungsgehilfen seiner KI-Sensorik macht. Eine Landmine weist auch eine gewisse KI auf, Loitering Munitions eine deutlich komplexere. Es kommt einerseits darauf an, wie man diese Waffen einsetzt. Per Apache herumzufliegen und anhand eines schlecht aufgelösten Bildes mutmaßliche Kämpfer niederzumähen ist m.E. genauso schlimm. Andererseits ist ein autonomes System, das Zivilisten tötet, schlicht mangelhaft. Da darf man m.E. nicht damit argumentieren, dass es angeblich weniger falsch positiv handle als ein Mensch oder dass der Algorithmus schuld sei und nicht der Programmierer.

    Ein wichtiger Punkt, auf den nicht eingegangen wurde, sind „Cyber“-Angriffe. Stuxnet hat sich autonom, d.h. ohne C2, im Netzwerk ausgebreitet (und sogar letztendlich internationale Systeme infiziert). Es waren deutsche Industriesteuerungen. Deswegen ist die deutsche Sicht für mich nicht konsistent.

  6. Meine Gedanken zu den autonomen Waffensystemen und der Schuld, die Menschen im Krieg auf sich laden:

    Die Schuld kommt daher, daß man den Gegner plötzlich auch als Menschen sieht. Das heißt die einfache Freund / Feind – Kennung wird durcheinandergebracht. Die übliche Weise damit umzugehen ist den Feind zu dehumanisieren: der Gegner habe niedere Motive, man selbst aber ehrenhafte. Zudem wird versucht durch Drill das Töten auf reine Befehlsausführung und Reflexhandlungen zu reduzieren. Außerdem macht man sich den Selbsterhaltungstrieb / die Angst zunutze: wenn ich nicht schnell und exakt genug schiesse, tötet der Gegner mich, meine Kameraden, meine Familie, meine Gruppe, mein Volk.

    Wenn ich jetzt einen Killerroboter bauen will, muß ich die Dehumanisierung genauso einbauen, was aber extrem viel schwieriger und gefährlicher ist: Gegner und Verbündete und Zivilisten sind alles Menschen. Die Maschine müßte den Gegner im Idealfall als Individuum erkennen und mit einer Whitelist oder Blacklist abgleichen: Gesichts- und Stimmerkennung über Datenbanken abgleichen, oder mit bei allen Neugeborenen implantierten Chips. Den Chip im Personalausweis zu nehmen oder eingenäht in der Uniform wäre ja sinnlos, da das sofort Umgangen würde: allerdings würden sich die Leute natürlich auch Vermummen, ihre Stimmen scrambeln, ihre Chips mit Alufolien abschirmen etc.

    Oder man arbeitet über Gruppenzugehörigkeit: das läuft dann auf racial Profiling hinaus, oder eine Art noch zu erfindender DNA-Ferndiagnose. Genauso schwierig: Einschätzung der Intention aus Verhaltensanalyse, oder noch zu erfindende Gehirn-Ferndiagnostik („Gedankenlesen“). Oder eine beliebige Kombination aus allem.

    Ansonsten bleiben nur einfachere Dinge: Definition einer Kill-Zone über GPS-Koordinaten. Oder Erkennung, ob das Ziel bewaffnet ist bzw. ein militärisches Ziel darstellt: Panzer etc.

    Die Freund-Feind-Kennung wäre so oder so jedenfalls die erste Stelle die gehackt wird (- kommt in jedem Computerspiel vor). Das Unterbrechen der Befehlskette ist die zweite Stelle die gehackt wird, weil ein autonomer Roboter braucht soviel Computingpower, daß das über einen Server / die Cloud etc. läuft. Gleichzeitig kann der Roboter im Sinne der Selbsterhaltung aber auch nicht völlig auf den Reflex verzichten.

    Also die Idee, daß der Einsatz vermeintlich autonomer Kampfroboter „automatisch“ zu weniger Verletzungen des Kriegsvölkerrechts führen würde, halte ich für ein Gerücht: dazu müßte man das Recht viel weiter auf die Ebene einer Computersprache herunterbrechen, um das überhaupt implementieren zu können: letztlich auf mathematische Logik und Symbolik.

    Zum Thema Schuld, die Menschen im Krieg auf sich laden: durch die Automatisierung des Krieges verringert sich die Anzahl der Verantwortlichen: die Auflösung in einzelne Entscheidungen würde geringer: im Extremfall gäbe es nur noch eine einzige Entscheidung: Krieg oder Frieden, und den Rest würde die automatische Kriegsmaschinerie ausführen. Das kann gut gehen (= Entscheidung für Frieden) – vgl. die Entscheidung den Nuklearen Gegenschlag nicht zu starten, obwohl man vermeintliche ICBM-launches der Gegenseite detektiert zu haben glaubt – muß es aber nicht.

    Bereits begonnene Kriege können bisher ja auch enden, weil die Soldaten nicht mehr kämpfen wollen (- was jetzt unter Umständen auch an Schuldgefühlen liegen kann). Bei Kampfrobotern würde der Krieg stumpf weiter geführt, bis die einprogrammierten Randbedingungen erreicht sind (Gegner hisst die Weiße Fahne; oder: nichts lebt mehr bei Koordinaten X,Y), jemand mit Befehlsgewalt STOPP drückt, oder alle Automaten einer Seite zerstört sind.

    Worauf ich hinaus will: automatisch ist was anderes als autonom! Wirkliche „Autonomie“ würde freien Willen voraussetzen – und niemand will ja Maschinen, die selbst darüber entscheiden, ob sie den Krieg beginnen / fortsetzen / beenden oder nicht.

    Waffensysteme werden in Zukunft immer komplexer und mächtiger werden. Aber autonom werden sie hoffentlich niemals!

  7. Ich bleibe Frank-Sauer-Fan, z.B. wegen seines Plädoyers für den Legalismus.

    Ein Wort zur Lähmung des Sicherheitsrats bzw. grundsätzlich zu legalen Restriktionen: Dass eine Institution oder Norm eine Handlungsoption verbietet oder nicht erlaubt, sagt nichts darüber aus, dass sie (die Norm/Institution) dysfunktional wäre. Vielmehr kann die Restriktion eben genau intendiert sein.

    Und ein weiteres Gedankenfragment: Das schon fast traditionell als Vorwand missbrauchte Chemiewaffenverbot steht m.E. zumindest in Bezug aud Stoffe wie Chlorgas auf ethisch wackligen Füßen. Ich will hier nicht für C-Waffen gleich welcher Art argumentieren. Aber von einer Massenvernichtungswaffe kann man da nicht gerade sprechen. Natürlich ist Gas in der Debatte vorbelastet, aber was jetzt der fundamentale ethische Unterschied zwischen Bombe und Gas ist, muss mir nochmal jemand erklären.

    An alle vier Diskutanten (sowie die Leute im Hintergrund) danke für das Format.

  8. Zu Herrn Masalas Kritik an der aktuellen „Debatte“ …

    Es wurde nie eine echte Debatte zu dem Thema geführt und auch das politische Gezänk zur aktuellen Frage ist nicht mehr als das. Eine Debatte die diese Bezeichnung auch verdient hätte nämlich mit der Gretchenfrage an Gesellschaft und Politik behinnen müssen:

    Wie stehen wir als Gesellschaft zur Frage militärischer Gewalt als Instrument der Außenpolitik (aka Wollen wir wirklich nach Jahrzehnten auch innenpolitisch und ethisch motivierter „Abstinenz“ wirklich die Regelungen und Vorgaben der Gründerväter anpassen bzw aufheben und uns international auch militärisch engagieren?)?

    Das wurde nie gefragt, die Politik hat es ob der ggf weitreichenden Folgen nicht gewagt diese Grundsatzfrage zu stellen und daher weicht sie einer Positionierung aus. Immer und immer wieder. Und sie wird es auch weiterhin tun.

    Daher ist die Endlisschleife auch kein Wunder. Wer beim Programmieren schon bei der ersten IF Abfrage scheitert wird nie im Quellcode weiterkommen.

  9. @csthor: Genau. anstatt einer offenen und ehrlichen Diskussion und Standortbestimmung, wird diese genau nicht gemacht und man muss da volle Absicht unterstellen nach Jahrzehnten. Aber generell weichen unsere Politiker jeder klaren Auseinandersetzung aus und winden sich wie ein Aal. Sie reden gerne von klaren Kanten, aber tatsächlich ist da keine. Von daher nicht verwunderlich, daß sie es in diesem Falle auch tun.

  10. @Alex | 19. September 2018 – 0:59: „Ein wichtiger Punkt, auf den nicht eingegangen wurde, sind „Cyber“-Angriffe. Stuxnet hat sich autonom, d.h. ohne C2, im Netzwerk ausgebreitet (und sogar letztendlich internationale Systeme infiziert). Es waren deutsche Industriesteuerungen. Deswegen ist die deutsche Sicht für mich nicht konsistent.“

    Was hat der Lieferant des Steuerungssystems mit dem Angriff darauf zu tun?

  11. @sommerbiwak
    Wenn der Wurm für den Cyberangriff schlampig/zu weiträumig programmiert wurde/wird könnte er aus dem Ziel ausbrechen und über die Rechner des Herstellers (Fernwartungsfunktion) auf
    andere ähnliche System infizieren z.B. eine Steuerung eines Chiemiewerks hier in D.
    Der Cyberangriff weitet sich so also autonom vom eigentlichen Ziel irgendwo im Ausland auf auf Ziele hier aus (Herstellerserver).
    Da solche Cyberwaffen immer vollkommen automatisch arbeiten sind wir als Land das viele Steuerungs IT exportiert stärker als Kollateralgeschädigter betroffen und sollten dazu eine klare Position haben.

  12. Zum Inhalt kann ich nicht viel sagen, dazu war die Audioqualität zu schlecht. Der einzige verständliche war für mich Carlo.

    Ich nutze immer den Weg zur und von der Arbeit um Podcast zu hören. Trotz InOhr-Kopfhörer und vollaufgedrehter Lautstärke am iPhone ist in der Außenwelt immer nur Carlo verständlich. Leider.

    [Das bedauern wir sehr – bei der Aufnahme dieser Folge hatten wir mit technischen Problemen zu kämpfen. Wir geloben Besserung! T.W.]

  13. Eine sehr interessante Folge.
    Dass die Definition autonomer Waffen so schwierig ist, hätte ich nicht gedacht. Die moralische Entrüstung, die bei diesen wie auch den lediglich ferngesteuerten Kampfdrohnen aus der zu geringen Eigengefährdung der Piloten konstruiert wird, ist mir kaum verständlich, da doch bei allen Militäroperationen darauf geachtet wird, die eigenen Verluste möglichst gering zu halten und viele Waffensysteme eine Fernwirkung haben, den sie bedienen Soldaten also nur minimalem Risiko aussetzen, sei es jetzt eine Haubitze, ein Cruise Missile oder eine Interkontinentalrakete.
    Dass im zweiten Abschnitt auch die verquere Moral zur Sprache kam, die einen erneuten Giftgaseinsatz als Interventionsauslöser höher bewertet, als die konventionelle Vernichtung der Zivilbevölkerung, zeigte mir dass hier auch das Grundsätzliche eine Rolle spielt, was aus Thema 1 nicht so explizit herauskam. Gerne hätte ich noch mehr über konkrete Einsatzmöglichkeiten der BW erfahren bzw. Gründe die dagegen sprechen. Dass auch das Verstecken hinter dem blockierten Sicherheitsrat als solches bezeichnet wurde, zeigt wohltuend wie regieungsunabhäbgig gerade die beiden BWUni-Dozenten sind.
    Für einen besseren Sound würde ich einen Wohnraum mit viel dämpfenden Polstermöbeln und den Einsatz eine 4KanalAudioRecorders zb. H2 Zoom bzw. Nachfolger empfehlen. Auch sollte nach der Aufnahme noch eine Abmischung zb. mit Audacity erfolgen, damit der Pegel aller Sprecher etwa gleichlaut wiedergeben wird – „sicherheitshalber“ solltet ihr aber noch mal den Herrn der Metaebene fragen, der kann euch bestimmt noch bessere Tipps geben, damit zum zum guten Inhalt auch noch ein guter Ton kommt. :-)

    [Danke – das größte Problem war halt, dass wir in einem ziemlich kahlen Büroraum saßen, und das hat sich ausgewirkt. Daneben gab’s noch kleinere technische Probleme; das von Ihnen angesprochene Material ist vorhanden; da war aber was falsch eingestellt… Wir bessern uns. T.W.]

  14. Thema 2 – Syrien-Intervention
    Anders als wir, hat die islamische Republik Iran alles andere als Bedenken im Eingriff in das syrische Dilemma, das alles andere als ein Bürgerkrieg ist.
    Bürger contra Bürger kämpfen nur insofern, als einzelne in den diversen bewaffneten Gruppen einschließlich Kurden und regulärer SYR Armee.
    Die Beteiligung der IRN Revolutionsgarden wurde nunmehr durch, offenbar, Daesh vergolten.
    Bei einer Attacke durch 4 Angreifer auf eine Militärparade wurden 24 Soldaten im Südwest-Iran getötet und 60 verwundet.
    Die sunnitischen Separatistengruppe „Al-Ahwasieh“, von Saudi-Arabien angeblich gefördert, soll verantwortlich zeichnen, so offizielle iranische Kreise (WELT).

  15. Danke für den Hinweis auf den Artikel in der IP zur angeblichen „deutschen Rolle rückwärts.“. Da sieht man dann, wie eng der Horizont mancher derjenigen ist, die glauben, die ganz große strategische Brille aufzuhaben:

    Zitat: „Was folgte, waren das unilaterale deutsche Nein zum Irak-Krieg auf dem Marktplatz von Goslar…“. Also das nein zur Irak-Intervention 2003 als unilateral zu bezeichnen, ist schon eine ganz besondere fake-news bzw. eine alles politisch-historische, alle Fakten außer Acht lassendes Feststellung, die sich in einem ganz eigenen Kosmos abspielen muss. Wer das deutsche „Nein“ unilateral nennt, muss zwangsläufig eine sehr begrenzte, etwa 160-180 Staaten dieser Welt, einschließlich Frankreich, China, Russland, Südafrika, China, Belgien, Spanien, etc., etc.. exkludierende Weltsicht haben. Was nicht heißt, dass eine Strategiedebatte nicht dringend notwendig ist, aber dann hoffentlich nicht mit dieser offensichtlich extrem eingeschränkten Sichtweite.
    Das geht jetzt natürlich nicht an die Runde, aber da der Artikel genannt wurde und dieses Zitat so herausstach…

Kommentare sind geschlossen.