Luftkampf im Simulator – 5:0 für die Maschine

Maschine 5 : 0 Mensch. Das war das Ergebnis des AlphaDogfight-Wettbewerbs, den die Defense Resarch Advanced Projects Agency (DARPA), die Forschungsagentur für das US-Militär, in dieser Woche veranstaltete. Dogfight bezeichnet den Luft-Nahkampf zwischen zwei Kampfflugzeugen, und bei diesem Versuch trat eine Künstliche Intelligenz (KI) im Simulator gegen einen menschlichen Piloten an. Die KI gewann haushoch. Aber was bedeutet das?

Frank Sauer, Politikwissenschaftler an der Bundeswehr-Universität München, beschäftigt sich mit der Bedeutung von Künstlicher Intelligenz für Waffensysteme – bis hin zu der Frage, welche Regeln für tödliche autonome Waffensysteme gelten sollten. Er hat für Augen geradeaus! seine Beobachtungen dieses Experiments aufgeschrieben, das am (gestrigen) Donnerstag mit dem Höhepunkt Mensch gegen Maschine endete:

Bereits im August 2019 hatte die DARPA acht Teams aus Universitäten und der Industrie – von großen Unternehmen wie Lockheed Martin bis zu kleinen Gruppen wie Heron Systems – ausgewählt, am Air Combat Evolution (ACE) Programm teilzunehmen. In dieser Woche, vom 18. bis zum 20. August, traten zunächst die von den acht Teams entwickelten Software-Lösungen in einem simulierten Luftkampf  gegeneinander sowie gegen Software des Johns Hopkins University Applied Physics Lab an, um zu ermitteln, wer sich im Finale mit einem menschlichen Piloten würde messen dürfen.

Heron Systems ging als Sieger aus den Vorkämpfen hervor und trat abschließend gegen den menschlichen Kampfpiloten „Banger“ an. Der saß mit Virtual-Reality-Brille in einem Simulator und zog schließlich mit 0 zu 5 eindeutig den Kürzeren.

Die üblichen Luftkampf-Manöver seien nutzlos, hatte Banger nach dem 0 zu 4 gegen die Maschine zu Protokoll gegeben. Deshalb wolle er zum Abschluss etwas anderes probieren. Tatsächlich dauerte die letzte Runde merklich länger, aber schließlich hatte die Heron-Software den menschlichten Piloten Banger doch wieder lange genug vor der simulierten Flugzeugnase, um das Duell für sich zu entscheiden.

Wie ist all dies nun zu bewerten? Zunächst gilt festzuhalten, dass der Ausgang des Wettbewerbs keineswegs überrascht. Schon 2016 hatte die von der Firma Psibernetix Inc. entwickelte Software ALPHA, die damals auf einem 35 Dollar teuren Raspberry Pi Bastelcomputer lief, in Tests für das US Air Force Research Laboratory einen menschlichen Piloten bezwungen. Hätte Banger gegen Heron nur eine Runde der Simulation für sich entschieden, es wäre einer Sensation gleichgekommen.

Denn das entscheidende Stichwort ist Simulation. Mensch und Maschine traten in einer stark vereinfachten Umgebung gegeneinander an, in der der Maschine vollkommene Informationen zur Verfügung standen. Für Heron galt es nichts weiter zu tun, als Energie, Winkel, Distanz und einige weitere Parameter zu optimieren – eine leichte Übung für das per Reinforcement trainierte Deep Learning-System.

Das System musste während der mit 9G geflogenen Kurven auch nicht fürchten, das Bewusstsein zu verlieren. Weil es ohnehin keins besitzt. Allerdings konnte auch Banger in dieser Hinsicht von der simulierten Umgebung profitieren. Seine bequem vom Sessel aus geflogenen Manöver hätte er in der Realität wohl kaum verkraftet.

Sinn und Zweck der ACE-Simulation ist demnach auch nicht, auf die Realität übertragbare Ergebnisse zu generieren. Vielmehr soll in einem breiteren Sinne einerseits das Interesse der Industrie genährt und andererseits das Vertrauen der US-Streitkräfte in Künstliche Intelligenz gesteigert werden.

Kurz gesagt: menschliche PilotInnen sollen sich mit dem Gedanken anfreunden, zukünftig von softwaregesteuerten unbemannten Systemen begleitet und unterstützt zu werden. Für das Kampfflugzeug F-35 wird – im Rahmen eines allen Ernstes „Skyborg“ genannten Programms – gerade die Software für ein solches Begleitsystem entwickelt. Im Rennen für die Hardware sind unter anderem die Firma Kratos mit der XQ-58A Valkyrie und Boeing mit seiner Loyal Wingman-Drohne. Ein ähnliches Konzept ist in Europa mit dem Future Combat Air System geplant.

Die KI-Charmeoffensive hat also nicht nur technische, sondern vor allem auch organisationspolitische Hintergründe. Denn weder bei der U.S. Air Force noch bei der Navy sind die PilotInnen besonders begeistert von dem Gedanken, die Flugsteuerung aus der Hand zu geben – dies lässt sich beispielhaft an den Programmen der US Navy aus den letzten Jahren ablesen.

Der Technologiedemonstrator X-47B von Northrop Grumman absolvierte so etwa Starts und Landungen auf Flugzeugträgern und Luftbetankung erfolgreich autonom, wurde dann aber nicht, wie von vielen BeobeachterInnen erwartet, zu einem trägergestützten, weitgehend ohne menschliche Steuerung auskommenden Unmanned Combat Aerial Vehicle weiterentwickelt. Stattdessen liefert Boeing der Navy nun in Form der MQ-25 Stingray eine unbemannte Tanker- und Aufklärungsplattform. Die „echte Fliegerei“ bleibt in menschlicher Hand – und die Gründe dafür, so heißt es von ThinkTanks in Washington und Ex-Pentagon Mitarbeitern, seien eben mehr kultureller denn technischer Natur.

Auf lange Sicht wird allerdings trotzdem die KI im Cockpit Einzug halten. Ohne den Mensch mit seinen Belastungsgrenzen lassen sich nicht nur mit bereits existierenden Airframes größere Leistungen erzielen. Es werden auch komplett neue Designs und Taktiken möglich. Dass aber der Mensch, wenngleich physisch abwesend, weiterhin in den meisten Fällen die – im wahrsten Sinne des Wortes – entscheidende Rolle wird spielen müssen, steht ebenfalls noch eine ganze Weile außer Frage.

Denn das mangelnde Bewusstsein der Software ist Vorteil und Nachteil zugleich. Einerseits kann sie bei 9G nicht verlieren, was sie nicht hat. Andererseits werden Deep Learning-Systeme wie Heron und Co. auch in absehbarer Zukunft kognitiv nicht das leisten können, was der denkende Mensch kann. Sie sind nicht nur datenhungrig (greedy), sondern auch extrem fehleranfällig beim Umgang mit ihnen unvertrauten Situationen (brittle). Der Mensch hingegen versteht Kontexte, kann neue Situationen einordnen, trifft robuste Entscheidungen trotz fehlender Informationen. Kein Wunder also, dass im Rahmen von ACE viel von Manned-Unmanned Teaming als dem eigentlichen Ziel die Rede war. Die Zukunft wird demnach wohl so aussehen: Die Maschine fliegt, der Mensch denkt – und entscheidet aus der Ferne.

Und noch eine Anmerkung dazu von Missy Cummings, frühere Kampfpilotin der U.S. Navy und KI-Forscherin: Sagt Bescheid, wenn die KI dauerhaft zwischen Kombattanten und Nicht-Kombattanten unterscheiden kann.

(Frank ist auch einer meiner Co-Hosts beim Podcast Sicherheitshalber, ganz herzlichen Dank an ihn!)

(Foto: Screenshot aus dem Video bei 4:50:30)