Luftkampf im Simulator – 5:0 für die Maschine
Maschine 5 : 0 Mensch. Das war das Ergebnis des AlphaDogfight-Wettbewerbs, den die Defense Resarch Advanced Projects Agency (DARPA), die Forschungsagentur für das US-Militär, in dieser Woche veranstaltete. Dogfight bezeichnet den Luft-Nahkampf zwischen zwei Kampfflugzeugen, und bei diesem Versuch trat eine Künstliche Intelligenz (KI) im Simulator gegen einen menschlichen Piloten an. Die KI gewann haushoch. Aber was bedeutet das?
Frank Sauer, Politikwissenschaftler an der Bundeswehr-Universität München, beschäftigt sich mit der Bedeutung von Künstlicher Intelligenz für Waffensysteme – bis hin zu der Frage, welche Regeln für tödliche autonome Waffensysteme gelten sollten. Er hat für Augen geradeaus! seine Beobachtungen dieses Experiments aufgeschrieben, das am (gestrigen) Donnerstag mit dem Höhepunkt Mensch gegen Maschine endete:
Bereits im August 2019 hatte die DARPA acht Teams aus Universitäten und der Industrie – von großen Unternehmen wie Lockheed Martin bis zu kleinen Gruppen wie Heron Systems – ausgewählt, am Air Combat Evolution (ACE) Programm teilzunehmen. In dieser Woche, vom 18. bis zum 20. August, traten zunächst die von den acht Teams entwickelten Software-Lösungen in einem simulierten Luftkampf gegeneinander sowie gegen Software des Johns Hopkins University Applied Physics Lab an, um zu ermitteln, wer sich im Finale mit einem menschlichen Piloten würde messen dürfen.
Heron Systems ging als Sieger aus den Vorkämpfen hervor und trat abschließend gegen den menschlichen Kampfpiloten „Banger“ an. Der saß mit Virtual-Reality-Brille in einem Simulator und zog schließlich mit 0 zu 5 eindeutig den Kürzeren.
Die üblichen Luftkampf-Manöver seien nutzlos, hatte Banger nach dem 0 zu 4 gegen die Maschine zu Protokoll gegeben. Deshalb wolle er zum Abschluss etwas anderes probieren. Tatsächlich dauerte die letzte Runde merklich länger, aber schließlich hatte die Heron-Software den menschlichten Piloten Banger doch wieder lange genug vor der simulierten Flugzeugnase, um das Duell für sich zu entscheiden.
Wie ist all dies nun zu bewerten? Zunächst gilt festzuhalten, dass der Ausgang des Wettbewerbs keineswegs überrascht. Schon 2016 hatte die von der Firma Psibernetix Inc. entwickelte Software ALPHA, die damals auf einem 35 Dollar teuren Raspberry Pi Bastelcomputer lief, in Tests für das US Air Force Research Laboratory einen menschlichen Piloten bezwungen. Hätte Banger gegen Heron nur eine Runde der Simulation für sich entschieden, es wäre einer Sensation gleichgekommen.
Denn das entscheidende Stichwort ist Simulation. Mensch und Maschine traten in einer stark vereinfachten Umgebung gegeneinander an, in der der Maschine vollkommene Informationen zur Verfügung standen. Für Heron galt es nichts weiter zu tun, als Energie, Winkel, Distanz und einige weitere Parameter zu optimieren – eine leichte Übung für das per Reinforcement trainierte Deep Learning-System.
Das System musste während der mit 9G geflogenen Kurven auch nicht fürchten, das Bewusstsein zu verlieren. Weil es ohnehin keins besitzt. Allerdings konnte auch Banger in dieser Hinsicht von der simulierten Umgebung profitieren. Seine bequem vom Sessel aus geflogenen Manöver hätte er in der Realität wohl kaum verkraftet.
Sinn und Zweck der ACE-Simulation ist demnach auch nicht, auf die Realität übertragbare Ergebnisse zu generieren. Vielmehr soll in einem breiteren Sinne einerseits das Interesse der Industrie genährt und andererseits das Vertrauen der US-Streitkräfte in Künstliche Intelligenz gesteigert werden.
Kurz gesagt: menschliche PilotInnen sollen sich mit dem Gedanken anfreunden, zukünftig von softwaregesteuerten unbemannten Systemen begleitet und unterstützt zu werden. Für das Kampfflugzeug F-35 wird – im Rahmen eines allen Ernstes „Skyborg“ genannten Programms – gerade die Software für ein solches Begleitsystem entwickelt. Im Rennen für die Hardware sind unter anderem die Firma Kratos mit der XQ-58A Valkyrie und Boeing mit seiner Loyal Wingman-Drohne. Ein ähnliches Konzept ist in Europa mit dem Future Combat Air System geplant.
Die KI-Charmeoffensive hat also nicht nur technische, sondern vor allem auch organisationspolitische Hintergründe. Denn weder bei der U.S. Air Force noch bei der Navy sind die PilotInnen besonders begeistert von dem Gedanken, die Flugsteuerung aus der Hand zu geben – dies lässt sich beispielhaft an den Programmen der US Navy aus den letzten Jahren ablesen.
Der Technologiedemonstrator X-47B von Northrop Grumman absolvierte so etwa Starts und Landungen auf Flugzeugträgern und Luftbetankung erfolgreich autonom, wurde dann aber nicht, wie von vielen BeobeachterInnen erwartet, zu einem trägergestützten, weitgehend ohne menschliche Steuerung auskommenden Unmanned Combat Aerial Vehicle weiterentwickelt. Stattdessen liefert Boeing der Navy nun in Form der MQ-25 Stingray eine unbemannte Tanker- und Aufklärungsplattform. Die „echte Fliegerei“ bleibt in menschlicher Hand – und die Gründe dafür, so heißt es von ThinkTanks in Washington und Ex-Pentagon Mitarbeitern, seien eben mehr kultureller denn technischer Natur.
Auf lange Sicht wird allerdings trotzdem die KI im Cockpit Einzug halten. Ohne den Mensch mit seinen Belastungsgrenzen lassen sich nicht nur mit bereits existierenden Airframes größere Leistungen erzielen. Es werden auch komplett neue Designs und Taktiken möglich. Dass aber der Mensch, wenngleich physisch abwesend, weiterhin in den meisten Fällen die – im wahrsten Sinne des Wortes – entscheidende Rolle wird spielen müssen, steht ebenfalls noch eine ganze Weile außer Frage.
Denn das mangelnde Bewusstsein der Software ist Vorteil und Nachteil zugleich. Einerseits kann sie bei 9G nicht verlieren, was sie nicht hat. Andererseits werden Deep Learning-Systeme wie Heron und Co. auch in absehbarer Zukunft kognitiv nicht das leisten können, was der denkende Mensch kann. Sie sind nicht nur datenhungrig (greedy), sondern auch extrem fehleranfällig beim Umgang mit ihnen unvertrauten Situationen (brittle). Der Mensch hingegen versteht Kontexte, kann neue Situationen einordnen, trifft robuste Entscheidungen trotz fehlender Informationen. Kein Wunder also, dass im Rahmen von ACE viel von Manned-Unmanned Teaming als dem eigentlichen Ziel die Rede war. Die Zukunft wird demnach wohl so aussehen: Die Maschine fliegt, der Mensch denkt – und entscheidet aus der Ferne.
Und noch eine Anmerkung dazu von Missy Cummings, frühere Kampfpilotin der U.S. Navy und KI-Forscherin: Sagt Bescheid, wenn die KI dauerhaft zwischen Kombattanten und Nicht-Kombattanten unterscheiden kann.
No surprise here- dogfighting is extremely rules based, whoever can fly the longest on the edge of the maneuvering envelop wins. Humans had no chance. When the AI in the plane can consistently discriminate between combatants and non-combatants, call me https://t.co/d69yUjuFaL https://t.co/rp81Q6NZ5g
— Missy Cummings (@missy_cummings) August 20, 2020
(Frank ist auch einer meiner Co-Hosts beim Podcast Sicherheitshalber, ganz herzlichen Dank an ihn!)
(Foto: Screenshot aus dem Video bei 4:50:30)
Will man die AI „consistently“ oder mit akzeptabler Fehlerquote? https://en.wikipedia.org/wiki/190th_Fighter_Squadron,_Blues_and_Royals_friendly_fire_incident mal als Beispiel für menschliches Versagen.
Consistently meint bereits mit akzeptabler Fehlerquote. Auch Fehler können konsistent sein. Da steht ja explizit nicht „flawlessly“.
„Die „echte Fliegerei“ bleibt in menschlicher Hand – und die Gründe dafür, so heißt es von ThinkTanks in Washington und Ex-Pentagon Mitarbeitern, seien eben mehr kultureller denn technischer Natur.“
Aufgrund der noch hohen Fehlerquote der KI ist das auch gut so. Aber man sollte sich im Klaren sein, dass dies eine Momentaufnahme ist.
Zur Frage kultureller oder technischer Natur möchte ich nur anmerken, dass auch in der Luftwaffe die Steuerleute der Drohnen mit dem Anspruch auftreten, zum Combat Ready Piloten ausgebildet zu werden. Und der Dienst muss natürlich in Fliegercombi verrichtet werden (anders lässt sich eine Drohne ja nicht steuern, SARC OFF). Ich stelle mir die Frage, wie viele Einsatzflugzeuge wir zukünftig brauchen, die nie eingesetzt werden sollen, aber zur Combat Ready Ausbildung der Drohnensteuerer benötigt werden.
Nicht nur daß Drohnen höhere Leistung erzielen können, sie führen auch deutlich weniger Balast mit sich herum, z.B. Cockpit, Sitz, Schleudersitz, Sauerstoff.
Ausserdem steht Ausfallssicherheit nicht besonders hoch. Fällt die Drohne runter ist kein Mensch betroffen.
D.h. Drohnen lassen sich deutlich günstiger, kleiner und leichter produzieren.
Dann stehen sich eines Tages zwei Luftwaffen gegenüber:
Die eine besteht aus 1000 kleinen, leichten, billigen Drohnen die im Luftkampf 90% der Kämpfe für sich entscheiden aber auf zehn Red-Kills einen Blue-, einen Green- und zwei Grey-Kills einfahren. Die andere Luftwaffe besteht aus 100 grossen, schweren, teuren klassischen Flugzeugen die zwar nur 10% der Luftkämpfe gewinnen aber dafür auf 1000 Einsätze genau so viele Fehlschläge verbuchen wie die Drohnen auf 10.
Auf welcher Seite will ich da stehen, auf „Schieß-ins-Kraut“ oder auf „Trifftnix“?
Reden wir von programmierten Algorithmen oder von echter KI?
Interessant wird es jenseits von 1 vs 1, z.B. bei einem 4 vs 4.
Wenn dann erfahrene Piloten die Computermanöver analysiert haben und eigene Schlußfolgerungen in neue Taktiken umsetzen, wie der Computer oder doch die KI dann wiederum darauf reagieren.
„Ich stelle mir die Frage, wie viele Einsatzflugzeuge wir zukünftig brauchen, die nie eingesetzt werden sollen, aber zur Combat Ready Ausbildung der Drohnensteuerer benötigt werden.“
@SB63: Welche Einsatzflugzeuge sollen für die RPAS Crews benötigt werden? Die einschlägigen Konzepte und Vorschriften definieren vielleicht nicht 100%ig den künftigen Ausbildungsweg, aber der Weg zum LCR ist da schon ziemlich genau beschrieben. Es wird auch eindeutig über ein eigenes TCTP gesprochen und nötige Ausbildungsschritte. Aber nirgendwo steht, das weder die künftigen WSOps noch die AVOs irgendein Einsatzmuster beanspruchen, bzw. in Beschlag nehmen.
Missy Cummings weist mit „extremely rule-based“ auf des Pudels Kern hin. Der Charakter des Wettstreits wäre mit „Schachspieler gegen Schachcomputer“ sehr viel treffender beschrieben. Hier von KI zu sprechen, erweckt einen falschen Eindruck.
@Magmakammer
Wir sprechen von Softwareentwicklung.
Das bedeutet, daß im Bundestag mal wieder 10 Jahre diskutiert wird, ob das moralisch vertretbar ist, diese Systeme einzuführen (siehe deutsch-französisches FCAS Projekt), während anderen Nationen längst bei der Einführung sein werden.
Again – „combatants and non-combatants“… What if it happens in a fierce battle with with strong enemies? If there is an airstrike on cities? („hybrid warfare“ and „non-combatants“…) „It can never be, because it can’t be…“ Well, Israel seems to feel differently and researches artificial intelligence. Sincerely…
@Wait&C
Es besteht auch die Gefahr der Übersättigung der Sensoren und Effektoren. Und: zur Not wird das unbemannte Fluggerät den Gegner einfach rammen, wenn es an ihn heran kommt.
Warum zum Henker ist dann die AI in Flugsimulationen immer so schlecht? ;)
@JCR, 22:13 Uhr
Damit man als Human Player eine Chance hat! ;-)
Würde die AI in Simulationen einfach nach „sauberen“ Parametern programmiert werden, würde es auf maximaler Waffenreichweite Erstschusstreffer hageln. Deshalb muss bei jeder AI ein entsprechend „unsauberes“ Verhalten eingebaut werden, damit der Spielspaß erhalten bleibt.
Das geht aber – wie bereits oben angedeutet – nur in der sterilen Umgebung eines Simulators mit 100% bekannten und einberechneten Werten und Parametern.
„Seine bequem vom Sessel aus geflogenen Manöver hätte er in der Realität wohl kaum verkraftet.“
Dem möchte ich widersprechen. Die Luftkämpfe sahen so aus, wie die, die regelmäßig von Piloten trainiert werden.
Ist das eine Neuauflage von TacAir SOAR oder wirklich was neues?
Well, in private, the Israeli Air Force and Navy have problems not with Iran, but with… Russia. Sadly, don’t be surprised. We need to get ahead of this one with, a friendly Skynet (in hebrew) and „Seal of Solomon“, just in case… (funny smiley) Sincerely…
Ich muss gestehen, dass ich mich auch nach 5 Jahren professioneller Tätigkeit im Bereich Maschinelles Lernen (ML) nicht mit dem Begriff „Künstliche Intelligenz (KI)“ anfreunden kann. In der Branche wird der Begriff auch eher selten verwendet oder gar als Indikator dafür gesehen, dass es sich bei der betreffenden Person um einen Manager, Vertriebler oder um einen Journalisten handeln muss ;-)
Gerade bei Meldungen die bei Leser/innen das Gefühl erzeugen: „Wir sind bald obsolet“ hilft es sich stets vor Augen zu führen, was Künstliche Intelligenz (KI) eigentlich ist: Nämlich nichts weiter als eine mathematische Formel mit einem fixen Satz von Parametern und Gewichten. Eine KI ist somit nicht in der Lage auf gänzlich neue Parameter zu reagieren, da die Formel diese Parameter schlicht nicht enthält. Die KI weiß also nichts von der Welt außerhalb des Parameterraums – mit dem sie während des Trainings gefüttert wurde.
Genauso neigt eine KI zu völlig unvorhersehbaren Reaktionen, wenn Werte in bereits bekannten Parameter gefüttert werden, die sich signifikant von den Werten unterscheiden welche während des Trainings (entweder durch historische Daten oder durch die Werte in der simulierten Trainingsumgebung) beobachtet wurden (T.W hat hier schon den Begriff „brittle“ angebracht).
Tiere und Menschen haben im Gegensatz zu Maschinen durch die Evolution gelernt auf solche unbekannten Situationen mit Heuristiken zu reagieren. Die Fluchtreaktion ist z.B. eine solche Heuristik. Diese Heuristiken sind zwar nicht immer effizient, aber dafür sind sie robust. Daran zeigt sich ein wesentlicher Unterschied zwischen tatsächlich intelligenten Leben und stochastischen Maschinen.
Persönlich bin ich der Meinung, dass die fehlende Fähigkeit mit gänzlich neuen bzw. ungewohnten Situationen ausreichend vorhersagbar und robust umzugehen (ohne erneutes Training), ein hartes Limit für Maschinelles Lernen darstellt.
Auf der anderen Seite sind aktuelle Ansätze von Maschinellen Lernen unerwartet stark, z.B. wenn es darum geht mit einer geringen falsch positiv bzw. falsch negativ Rate Krebszellen zu erkennen. Deshalb kann ich dem Tweet von Missy Cummings hier überhaupt nicht zustimmen: Zieldiskriminierung ist eine der Stärken von ML und eine der Schwächen von Menschen. Letztere werden müde, haben Angst und sind nachweislich schlecht darin objektive Entscheidungen in Stresssituationen zu treffen. Hingegen kann ein ML Modell (weitgehend) befreit von subjektiven Einflüssen auf Grundlage aller verfügbaren Daten eine stochastische Wahrscheinlichkeit (Konfidenz) errechnen, dass es sich bei dem Ziel um Kombattanten handelt. Hier können die Entwickler eine hohe Konfidenz Schwelle vorgeben, die im Zweifel dazu führen würde, dass sich die Maschine eben selbst opfert bevor sie Unbeteiligte bekämpft. Bemannte Systeme hingegen müssen die eigene Vernichtung fürchten und betätigen vielleicht eher den Abzugsknopf.
Auch im Umgang mit unvollständiger Information und Langzeitplanung werden aktuell sehr große Fortschritte erzielt. Herausstechendes Beispiel hier ist AlphaStar: Ein ML-Modell, welches von Deepmind entwickelt wurde und in der Lage ist das Computerspiel StarCraft 2 in Echtzeit zu spielen und dabei gegen die besten Spieler der Welt zu bestehen. Ein Umstand der für lange Zeit selbst von Experten als unmöglich bewertet wurde. Denn ein Spiel kann von wenigen Minuten bis über eine Stunde dauern. Dabei beeinflusst jede frühere Handlung oder Entscheidung die Handlungsmöglichkeiten zu einem späteren Zeitpunkt. Weiterhin verdeckt der sogenannte „fog of war“ die Handlungen des Gegners. Das Modell muss also eine Strategie wählen, ohne zu wissen, welche Strategie der Gegner wählen wird. Dabei entwickelt sich die Situation völlig dynamisch und macht grundlegende Strategiewechsel in ungünstigen Situationen notwendig, während keine Strategie oder Taktik eindeutig überlegen ist (coin flip).
…“IAI (Israel Aerospace Industries) used design principles from video games as well, using familiar icons and layouts to display information. The screens contain much of the same info one would find when playing “Fortnite” or “Apex Legends,” including a map, a tally of ammo stores and a list of available weapons. It’s also displayed in a way one would expect to see while dropping into “Call of Duty Warzone,” with relevant information framing the crew’s view. Of course, here, the screen displays the reality outside — with live targets and real weapons…“ The AI system for Carmel was reinforced and trained using thousands of scenarios that the technology generates, according to Moshe Beutel, 44, who leads the algorithm group. One of the ways the team developed this technology was by grinding “StarCraft II,” mixed in with a few other games such as “Doom,” to teach the AI different strategies for navigation, target detection, weapon selection and other autonomous capabilities. He and his team also wrote what he called “reinforcement agents,” but which gamers call “bots,” to beat the games…“
One comment: „Judging by the description, they test and train AI based on neural networks built on the Unity engine. As Magnus Nordin (SEED / EA Technical Director, who deals with AI on neural networks) said, the problem with the development and creation of practical AI based on neural networks for solving complex problems is the lack of a serious theoretical basis in this area of AI development. Now the development of such systems goes through the search for solutions to problems by the intuition of programmers and by trial and error, in general, it looks more like a craft than a calculated and streamlined production“.
[So far, I’ve been tolerating English language comments in a German language blog… what I’m not willing to tolerate: Using quotes w/o giving a source. T.W.]
Well, if I’ve made a mistake, I’m sorry. There is a reference: https://www.washingtonpost.com/video-games/2020/07/28/new-israeli-tank-features-xbox-controllers-ai-honed-by-starcraft-ii-doom/ But this is a German forum. I’ll leave you alone now.
Oleg, I find your insights interesting and a good contribution. And, as T.W. wrote, he is tolerating english posts, but unwilling to have quotes without source. A very common admonition even to us german speaking folks here… ;-)
Wie so oft, gilt auch hier – am besten ist die Mischung. Was spricht dagegen, dass sich der Mensch als Entscheidungsträger im Flugzeug vom Computer bzw. durch Algorithmen unterstützen lässt. Der Weg dorthin ist sowieso längst beschritten. Es ist längst möglich, dass ein Einsatz nahezu autonom mit dem Menschen ausschließlich als Überwacher abläuft, der die Strategie bei Bedarf ändern kann. Die automatische Durchführung von Luftkampfmanövern ist nur ein weiterer Schritt.
Was bei einem völlig autonomen unbemannten Flugzeug nicht vergessen werden darf, ist der Aspekt der Zulassbarkeit.
Ich bist jetzt Rentner und habe ein Problem mit Internet. Doch es ist noch Zeit (Smiley)
Danke für deine Unterstützung, Fussgaenger!
@ Oleg Olkha 19.23 Uhr
Rentner und Gamer? Das macht Sie auf jeden Fall nicht unsympathisch! (Smiley)
Sagt Bescheid, wenn der (…) Mensch (…) dauerhaft zwischen Kombattanten und Nicht-Kombattanten unterscheiden kann. Oder will . . .