Luftwaffen-Pläne für den ‚Advanced Command Fighter‘: Der Mensch bleibt im Cockpit
Die deutsche Luftwaffe will auch in der Zukunft ihre Kampfjets von einem Menschen im Cockpit ihrer Flugzeuge steuern lassen. Als Teil eines Future Combat Air Systems sei ein bemannter Kampfjet vorgesehen, der als Advanced Command Fighter sowohl Waffen tragen als auch als Koordinierungsplattform für unbemannte Systeme dienen sollte – diese konzeptionelle Grundüberlegung nannte Luftwaffeninspekteur Karl Müllner am (gestrigen) Mittwochabend in Berlin.
Der Generalleutnant präzisierte damit zum Teil Überlegungen in der militärischen Luftfahrtstrategie vom Januar:
Ein NextGenWS [Waffensystem der nächsten Generation], als zukünftiges komplementäres System zum Waffensystem EUROFIGHTER im Systemverbund FCAS [Future Combat Air System] und in Teilbereichen als möglicher Nachfolger des Waffensystems TORNADO, ist auf die zukünftigen Anforderungen luftgestützter Waffensysteme auszurichten. (…)
Das NextGenWS könnte dabei unbemannt, bemannt, aber auch optional bemannt sein.Eine Festlegung hierzu ist im Rahmen weiterer Analysen und im Kontext einer europäischen Lösung zu treffen.
Zum bruchfreien Erhalt der derzeitigen Fähigkeiten durch die Bundeswehr wäre das Erreichen der Initial Operational Capability eines NextGenWS spätestens zum Nutzungs- dauerende des Waffensystems TORNADO erforderlich. Der strategischen Linie folgend soll dies multinational erfolgen. Mit der Definition der konzeptionellen Vorstellungen wie auch operationellen Anforderungen für ein FCAS im Schwerpunkt im Jahr 2016 werden die Grundlagen für konkrete europäische Kooperationen geschaffen.
Die Überlegungen gehen weit in die Zukunft – zunächst muss ja erst mal die Entscheidung über eine Nutzungsdauerverlängerung des Kampfjets Tornado getroffen werden, und auch die künftigen unbemannten Systeme sind ja erst im Konzeptstadium. Aber der Jetty Müllner hat schon mal die Grundsatzaussage getroffen: Der Mensch bleibt im Cockpit.
(Interessant war übrigens, was der Inspekteur bei seinen Bemerkungen beim Jahresempfang der Luftwaffe eben nicht sagte: Zu Lufttransport und vor allem zum A400M und seinen Problemen fiel von Müllners Seite kein einziges Wort.)
(Foto: Tornados am 5. Januar 2016 vor dem Start in Jagel zur Mission Counter Daesh – Helwin Scharn unter CC-BY-SA-Lizenz)
@ TW
Die Definition FCAS soll multinational in 2016 erfolgen, aber GenLt. Müllner „weiss“ jetzt schon, dass dieses System einen Piloten haben wird, sehr spannend und weckt unschöne Erinnerungen an andere von Ihnen genannte Großvorhaben!?
Als ich Ende der 70er Jahre an der UniBw München studierte, hatte ich einen lebensälteren Komilitonen (über 50, Jetpilot), der kurz vor seinem Dienstzeitende noch studierte. Der prophezeite damals, dass es in zehn Jahren keine bemannten Militär-Lfz mehr geben würde.
Inzwischen gibt es ja unbemannte Flieger – aber eben nur für relativ „gemütliche“ und planbare Flugbewegungen. Hohe Dynamik bleibt einstweilen dem Menschen vorbehalten.
Haha, als ob sich die Jettis selbst abschaffen würden… das hat doch keiner geglaubt. Die sägen doch nicht an dem Ast auf dem sie sitzen.
Also egal was passiert, die werden immer schauen dass sie weiterhin selbst fliegen dürfen! Es konnte mir ja auch noch keiner einen sinnvollen Grund nennen wozu die ganzen uralten Eichenlaubträger unbedingt ihren Schein erhalten müssen. Aber das stört ja auch keinen, im Schwerpunkt der Luftwaffe, der Jetfliegerei, ist das Geld ja auch da…
Na ja, ob dieser Pilot dann wirklich ein Mensch ist ? Könnte ja auch ein neurales Cockpitnetzwerk sein, das bei loss of comms mit dem „Fernlenk“-Piloten back home verzugslos die Kontrolle übernimmt und die Mission weiter führt. Wenn neurale Netzwerke schon heutzutage weltbeste GO-Spieler schlagen können, was werden die in 20 Jahren alles können ?
Hohe Dynamik sind mit unbemannten Systemen genauso möglich und sogar jenseits von 9g Manövern realisierbar.
Die ganze Diskussion ist solange hinfällig wie die Bundesregierung nicht klar sagt ob unbemannt für D in Frage kommt.
Das Problem ist das bisher jeder Gegner mit selbst nur rudimentären Kentnissen und Fähigkeiten im Bereich der EloKa/SigInt der ganzen Drohnenfliegerei den Zahn ziehen kann. Solange man dafür keine Lösung findet führt wohl kein Weg am Piloten IM Cockpit vorbei.
@Klabautermann
Der unkastrierte Watson von IBM passt glücklicherweise nicht in einen Kampfjet.
Selbst im A400M dürfte es eng werden, die Stromversorgung kommt dann noch oben drauf.
Als Gimmick soll eine Enduserversion in Smartwatches, Smartphones usw. einziehen.
Damit könnte man den Pilot vielleicht unterstützen aber keinesfalls ersetzen.
Ist vielleicht auch besser das wir keine F/A-37 Talon bekommen.
Es gibt da allerdings ein Forschungsprojekt, das UDAV (unmanned dynamic aerial vehicle) das autonom, mit seiner KI „EVE“ (Electronic Virtual Entity)
ein neues Zeitalter im Luftkampftraining einläuten soll.
Zieldrohnen wie die QF-4 und QF-16 sind auch nur ferngesteuerte Kampfjets, das will man ändern.
http://www.ecaprogram.co.uk/udav.html
IOC ist allerdings auch nicht voll autonom, wer hätte es gedacht ;-)
@Andreas
Das ist die Realität aber wer lebt denn da drin?
Luftwaffenkommandeure gehören zu den größten Traumtänzern überhaupt und verballern damit enorme Summen der Verteidigungsbudgets.
Interessant, erst macht man sich ein eigenes Konzept, und dann schaut man, ob es dan für den Advanced Command Fighter europäische Partner giebt.
Das erinnert mich in seiner Zielstrebigkeit irgendwie an das FAM Cluster. Dort versucht man auch aus reinem Geiz anderen einen Bären aufzubinden und nennt das dann schick Europäische kooperation.
Welcher Europäische Staat sollte Interesse an einem FACS haben?
Alle europäischen Staaten mit einer 2 Typen Jetflotte haben Ihr Future Dingsda schon bestellt und warten nur noch auf die Auslieferung der F35. Oder glaubt man im BMVg dass Frankreich sich dazu entschließt seine bewährte Rafale Flotte zu verkleinern nur um mit Deutschland ein eigenes F35 2.0 debakel zu erleben?
Den einzigen Silberstreif, welchen ich am Horizont erkennen kann, währe ein teil- autonomer Saab Gripen NG
@Frank
Nein, man redet schon vorher mit den Partnern. Es gab bereits mindestens ein Treffen, an dem drei Staaten teilgenommen haben, so hörte ich. Sie können sich vorstellen, welche das waren, wenn Sie bedenken, welches System da ersetzt werden muss.
Naja vielleicht rechnen die Partner, welche den NG Fighter schon bestellt haben auch mit den üblichen Verzögerungen und Problemen. Dann würde das mit der Einführung des FACS irgendwann in 30 Jahren auch schon wieder passen…
@SvD
Passt nicht ?
Hihi, das haben die USN auch zur deutschen Marine gesagt, als die für die in den USA entwickelten und gebauten Z101er das NTDS (Naval Tactical Data System) – das erste, noch sehr rudimentäre Führungs-undWaffeneinsatzsystem – „haben“ wollten. Angeblich „passte“ das nur auf Kreuzer+-Plattformen. Na ja, die Marine hat der USN ein paar Ingenieure geliehen und die haben das NTDS eben „passend“ gemacht für die Zerstörer ;-)
@ Frank | 28. April 2016 – 13:59
Welcher Europäische Staat sollte Interesse an einem FACS haben?
Frankreich und Großbritannien denn diese Nationen haben bereits 2014 einen $2.2 billion
Vertrag zur Entwicklung und Bau abgeschlossen.
https://www.flightglobal.com/news/articles/new-22-billion-anglo-french-fcas-phase-announced-422866/
Ferner haben Frankreich und Großbritannien auch einen Vertrag zur Entwicklung eines Nachfolge Flugzeug für Jaguar und Tornado abgeschlossen.
Und Deutschland träumt weiter !
@Klabautermann
Ja, ich denke Watson müsste 1. noch erheblich abspecken:
https://upload.wikimedia.org/wikipedia/commons/2/22/IBM_Watson.PNG
2. seinen Stromhunger um über 99% senken
und 3. lernen einen Kampfjet zu fliegen.
Auf seinem Unterrichtsplan für zukünftige Anwendungen stehen Biotechnology, Pharmakologie und Verlagswesen.
Um den Wissensvorsprung, den IBM hat, aufzuholen müsste man sehr tief in die Tasche greifen und viele Wissenschaftler dürften sich nicht finden, die eine militärische KI bauen wollen.
Und ohne geht es nicht.
Die KI des UDAV Projektes soll ja auch nur ‚fangen spielen‘.
Von einer KI die Kampfentscheidungen fällen kann sind wir sehr weit weg und die Funk Nabenschnur über Satelliten zur Bodenstation ist nicht praxisgerecht.
@Frank
Die F35 ist auch noch sehr weit weg von den in Videos angedichteten Fähigkeiten ;-)
Da ist wirklich sehr viel ‚future‘ drin.
@SvD
„Von einer KI die Kampfentscheidungen fällen kann sind wir sehr weit weg …“
Da wär ich mir nicht so sicher. Wovon wir weit weg sind ist die Frage wer die verantwortung dafür übernehmen wird. Die Aussagen von Müllner sind nicht wirklich überraschend, das ist i.w. die Stossrichtung des Taranis Projekts (gewesen). Als zusätzlicher Sensorpost für BVR in einer Schwarmkonstellation oder zusätzlicher Träger, alles koordiniert von einem bemannten Flock-Leader. Und nein, mit „rudimentärer“ Sigint/Eloka Kenntnissen würde man dem keinen „Zahn ziehen“.
Ein Flock-Leader kontrolliert mehrere Drohnen und übernimmt targeting und ‚hostile‘ declarartion für jeden threat! Die ROEs, die fool-proof threat matrix, und den Übermenschen will ich sehen.
@SvD
Sicherlich zutreffend Ihre Argumente, wenn man das Heute und Morgen betrachtet.
However, weltweit fließen irrsinnige Forschungs und Entwicklungsgelder in die intelligente Kybernetik – auch und gerade im militärischen Anwendungsbereichen.
Gleichzeitig schreitet die Hardware-Miniaturisieung und damit die Reduzierung des Energieverbrauchs vorran, gerade bei proprietären, gekapselten Systemen.
Eine Cockpit-KI auf Basis einer neuralen Netzwerkarchitektur müßte natürlich erst mal im „Labor“ entwickelt, angelernt und wie ein Flugschüler in einem virtuellen Flugtrainer von menschlichen Piloten trainiert werden. Und irgendwann ist die Basis-KI ausgeschult und dann kann sie geklont werden in eine kompakte hardware………und dann geht das on-the-job training in einem echten Land-/Luft-/Wasser-Fahrzeug eben weiter, das von einem menschlichen Piloten am Boden oder an Bord gesteuert wird….und irgendwann ist die KI so weit, dass sie ohne Eingreifen des Piloten (egal wo der sitzt) von Start bis Landung die Kontrolle behält. Bleibt natürlich die Frage des Waffeneinsatzes, aber das ist eine ethisch-juristische und keine technische Frage.
Wie heißt es so schön „Irren ist menschlich“ – und ein Computer kann sich nicht irren also ist er unmenschlich. Und eine KI ist noch unmenschlicher weil sie sich vielleicht irren könnte ?
Ist schon lustig diese Zirkelschlußlogik, aber lustig ist eben auch menschlich. Gott bewahre uns vor einer KI mit Humor !
@Magmakammer
In der „neuen“ Welt werden keine Dronen mehr „kontrolliert“. Systeme koordinieren „sich“ um kooperativ ein Ziel zu erreichen (emergent intelligence) – im Testbed laufen viele dieser Aspekte bereits. Vor einigen Jahren hätte ich gesagt, dass es ist noch ein weiter Weg ist bis wir das ganze integriert bekommen. Heute werden nicht nur Milliarden in KI Entwicklung investiert wird, sondern das ganze hat bereits einen commoditization level erreicht, dass mittlerweile fast jede Wald- und Wiesenuni autonom gesteuerte Klein-UAVs entwickeln kann, die selbst in einer congested Umgebung aggressiver und weniger faulty fliegen als menschliche Piloten. Die zukunft wird interesant … (kleine Bemerkung @Klabautermann – die korrekte Übersetzung von neural network ist Neuronales Netz und nicht Neurales Netz).
@Klabautermann
Ich empfehle den Film „Stealth“ von 2005.
Im übrigen bauen diese fehlerbehafteten Menschen Computersysteme, mit den unfehlbaren Computern ist das also nicht weit her ;-)
————–
Die Leistung mit der Watson läuft kann man sicher schon in 10 Jahren in einem Schuhkarton unterbringen, die Frage ist ob das reicht.
Das System kann in wenigen Stunden Datenmengen verarbeiten die ein Mensch in seinem ganzen Leben nicht sichten könnte.
Beim Schach pfuscht er was das Zeug hält und berechnet pro Zug mehr Möglichkeiten als sein menschliches Gegenüber in seinem ganzen Leben. Und das macht er eben parallel, Multitasking deluxe quasi.
Im Luftkampf wäre das ein enormer Vorteil, klar, nur braucht es dafür auch jede Menge Sensoren.
Die heutigen Autonomen Systeme haben nicht viel von künstlicher Intelligenz, vieles was diese Systeme können, sind einfach einprogrammierte Abläufe, die Systeme reagieren reflexartig.
Ein weiteres Problem ist, wenn ein Pilot einen Fehler macht und dadurch abgeschossen wird, ist ein Flugzeug verloren, möglicherweise der Pilot dazu.
Macht ein Programmierer, Ingenieur oder Techniker einen Fehler, der dann in hunderten Kampfdrohnen steckt, hat man ein ganz großes Problem.
Die blöde Software im A400M hat es nicht mal fertig gebracht den Technikern anzuzeigen, das die Triebwerkssoftware nicht komplett in die Triebwerke geladen war.
Das wurde bei der Programmierung vergessen.
Auf der andern Seite kann auch die Hardware fehlerhaft sein. So manche Software kann nicht mal mit einem defekten Sensor umgehen, der schwachsinnige Daten liefert.
Oft scheitert man schon an der Selbstdiagnose.
Es wäre ein sehr weiter Weg.
Selbst wenn eine KI irgendwann voll einsetzbar wäre, es wäre trotzdem ein soziophatisches System, ein hochfunktionales aber eben dennoch soziophatisches System.
Interessant wäre auch ob es ein 5 gen fighter werden soll oder eher 5.5 oder 6 gen.
@SvD
Und wo bleiben die Moral und der eigene Entscheidungswille? Das können Sie einem Computer nämlich in absehbarer Zeit nicht beibringen. Und somit ist es für einen Computer kein Problem, einen Touribomber über dem Meer abzuschiessen oder vom Feind gehackt zu werden und dann auf die eigenen Einheiten loszugehen.
@Klabautermann
Sie haben da eine falsche Vorstellung vom Fortschritt.
Um einmal den GO-Partie zu bewerten: Einerseits war der Gewinn sehr überraschend, da bei GO bis vor einigen Jahren die meisten Computer eher bescheidene Leistungen zeigten und man erst 2020 erwartete, dass Computer eine relevante Spielstärke erreichen (was nicht bedeutet, dass man an einen Sieg über dem Weltmeister dachte)
Andererseits sollte die Partie auch nicht überbewertet werden: AlphaGO (der Name des Computers) hat in einem begrenzten Rahmen mit klaren Regeln gewonnen. Zudem AlphaGO ein Verbund von Großrechnern, die eine deutliche, größere Leistung haben, was ein DesktopPC (oder der Artillerie-Rechner in der Panzerhaubitze 2000 :P) hat.
Zudem ist das Mooresches Gesetz „tot“. Man kann die Strukturen eines Chips nicht mehr einfach verkleinern, da einzelne Elemente nur noch mehrere Atome groß sind.
Daher wird man eher Richtung neuen Architekturen gehen und um die zu erforschen, dauert es etwas, was dafür sorgen wird, dass Chipentwicklung sich eher der Geschwindigkeit des allgemeinen, technischen Wandels gehen wird.
Sum sumarum: Was die Zukunft bringt, ist nicht vorhersehbar. Wenn man aber konservativ schätzt, dann kann ich den Generalinspekteur nachvollziehen.
Was Mann oder Frau nicht vergessen sollte ist die menschliche Fähigkeit der Intuition, die trotvz vieler Versuche bisher mit KI nicht kopiert werden konnte.
@Philosoph
Ehm doch, siehe Berichte zu AlphaGO
Ohne jetzt belehren zu wollen, menschliche Intuition hat nicht viel mit rationalem Denken oder mathematischen Formeln zu tun. Wenn es möglich wäre, wäre der Mensch schon längst ersetzt worden. Ein gute Kopie bleibt immer nur eine gute Kopie.
Der „man“ gender „woman“ in the loop ist noch immer durch nichts – wenn auch mittlerweile super guten Automaten – zu ersetzen.
Nunja,
Deswegen verweise ich ja auf AlphaGo.
Die Software konnte ihre Schritte auch nicht mehr „rational“ erklären,
Sondern weil ihre Mustererkennung diesen Schritt empfahl.
(Und nichts anderes ist Intuition in Go)
Und meine Einwände bezüglich Klaubautermann sind
Sie nicht eingegangen. Darin erkläre ich auch die Nachteile
Von AlphaGo und wieso dieser den Mensch noch nicht ersetzt.
@ SvD | 28. April 2016 – 15:39
„Von einer KI die Kampfentscheidungen fällen kann sind wir sehr weit weg und die Funk Nabenschnur über Satelliten zur Bodenstation ist nicht praxisgerecht.“
Wie bereits @ Rich zuvor geschrieben hat, wäre ich mir da auch nicht so sicher ob eine KI die Kampfentscheidungen nicht doch fällen kann.
Genaugenommen entscheiden heute schon die KI‘s in modernen Flugzeugen wie F-35 oder Su-35 welche Ziel in welcher Reihenfolge bekämpft werden. Der Pilot folgt die Empfehlung oder trifft eine eigene Entscheidung. Ferner können z.B. die KI’s in den modernen „Flanker“ wenn sie in Rudel unterwegs sind, sich untereinander austauschen um mehrfach Bekämpfung eines Ziels zu reduzieren, die Radarreichweite zu erhöhen oder es eröffnet so erst die Möglichkeit, für das sicherte aufspüren von Tarnkappenflugzeugen / Flugkörper.
Frage: Wieso ist ein Satelliten Interface eigentlich nicht Praxis Gerecht ?
Persönliche Meinung: Da der Luftwaffeninspekteur Karl Müllner scheinbar mit seinen Job völlig überfordert ist, kann ich diesen übernehmen wenn dies gewünscht wird.
Festzuhalten ist das Wir uns bei Sämtlichen Future Air Systems in der Vergangenheit nicht beteiligt haben.
So bedarf es auch keine weiteren Analysen um in Kontext einer europäischen Lösung zu treffen.
Wie soll den überhaupt diese Lösung ausschauen, also nur Fragen und keine Antworten.
Aus den sehr überschaubaren Markt an verfügbaren Produkten, würde ich mich für eine Flugzeugfamilie entscheiden die Tornado und Eurofighter gleichermaßen ablösen kann.
Eine möglich Lösung könnte sich wie folgt darstellen.
Als erstes Beteiligen wir uns in Rahmen eines Joint Venture an das PAK-FA / FGFA Programm.
Des weiteren werden in Rahmen eines Joint Venture eine optimierte Suchoi Су-34 die primär als Jagdbomber kommt, in Deutschland gebaut. Sowie eine optimierte Су-35 die primär als
Luft-Überlegenheits Kampfflugzeug kommt. Ein Teil der Maschine ist für die Marinefliegerrei vorgesehen diese Maschinen besitzen dann zusätzlich die Fähigkeit auch von Flugzeugträgern eingesetzt zu werden.
Da es eine Eierlegende Wollmilchsau nicht geben wird, auch nicht in Form einer F-35, ist eine Aufgabenteilung auf zwei Flugzeuge einer Familie der goldene Mittelweg.
Ferner Arbeit Suchoi an autonomen Versionen seiner Top Fighter, so könnte dann unser NextGenWS theoretisch bemannt aber auch optional unbemannt sein.
@ klabautermann | 28. April 2016 – 16:15
„Wie heißt es so schön „Irren ist menschlich“ – und ein Computer kann sich nicht irren also ist er unmenschlich.“
Schon mal was von lernfähige Fuzzy Logik gehört?
Aber sicherlich von den Problemen wie das sich Züge mit Neigetechnik sich nicht wieder aufgerichtet haben.
Oder aus eigener Erfahrung, eine meiner Spiegelreflex spulte z.B. bei einen 36 Film mit DX Code den Film bereits bei 19 oder 7 Bilder zurück. Habe an Anfang eines Films mit plus und minus Werte gearbeitet, am Ende des Films Belichtete die Kamera automatisch mit verschiedene ISO Werten.
@Snowparrot
AlphaGo ist aus heutiger Sicht sicherich noch keine KI. However, das Netzwerk ist so weit/hat sich so weit entwickelt, dass es in einen Strategie-Profi in Sachen GO mindestens Paroli bieten konnte. Nun muß man sich ein wenig mit GO aus rein mathematischer Sicht beschäftigen (was ich hier nicht tun werde) und dann wird man erkennen, dass im Vergleich zu Schach lineare Logik/Mustererkennung und Rechenkapazität allein nicht ausreicht um einen menschlichen GO-Profi zu schlagen.
Die Entwickler von AlphaGo haben betont, dass sie selber nicht in der Lage sind zu erklären wie das Netzwerk „spielt“. Kein Wunder, denn die Mathematik von GO liegt weit jenseits jeder menschlichen Rechenkapazität und selbst Supercomputer kommen da rasch an ihre Kapazitätsgrenzen., Erfahrung und Intuition sind hier gefragt. Das legt in gewisser Weise die Vermutung nahe, dass AlphaGO sozusagen lernfähig ist und zwar selbständig. Das Potenzial von neuralen Netzwerken in Sachen Künstliche Intelligenz ist auf jeden Fall beachtlich. Apropos Intelligenz; sind wir wirklich so sicher, dass der Mensch das Standardmaß von Intelligenz im Universum ist ? Vielleicht lag Turing mit seinem Test zur Bemessung von künstlicher Intelligen ja ein wenig daneben und hat sich geirrt ? Das wäre verständlich und menschlich, der Mensch neigt nun einmal dazu, von sich auf andere zu schließen ;-)
In 10 Jahren wissen wir mehr, oder auch nicht, falls die neuralen Netzwerke sich selber nicht so erklären können, dass wir es verstehen.
@klabautermann
Sie haben sich anscheinend nicht ganz verstanden,
wieso AlphaGo so bekannt ist: Es hat den amtierenden
Weltmeister in Go geschlagen… Damit erübrigt sich die Aussage, dass Menschen in Go nicht von Computern geschlagen werden können.
Ausserdem verwechseln sie Baumsuche (ungefähr das bisherige Verfahren; „Man rechnet alles durch“) und Mustererkennung („Intuition“)
Nevermind. Es ging mir darum, zu zeigen, dass trotz neuer Fortschritt in der KI Forschung es schwer vorherzusehen ist, die technische Entwicklung schwer vorherzusehen ist.
Falsche Diskussion ;-)
Da alle modernen Kampfflugzeuge OPV sein werden wird wohl eher der Einsatz/die Mission entscheiden ob ein Mensch/Rechner die Kiste aus dem Lfz steuert oder aus der Ferne.
Viel entscheidender wird die Auslegung des Flugzeuges werden.
Größe, Geschwindigkeit, Agilität, Kosten, Avionik, Antrieb, Treibstoff, Nutzlast, Bewaffnung.
Auch die Auslegung des von Müllner erwähnten fliegenden Gefechtsstand wird interessant.
Fern- oder direktgesteuert ist eine Diskussion von gestern. Wichtiger ist, was haben potentielle Gegner um uns zu bekämpfen.
Mal ein ganz andererer (sarc) Ansatz.
Vielleicht muss der kleine(max. 178cm) Mensch da drin sitzen bleiben, weil Pilot sein sexy ist, Zulagen auch in der Pension (die einzige ihrer Art?) gesichert und das Ausscheiden mit 41 möglich bleiben soll?
@Snowparrot
Ich hab mich anscheinend nicht ganz verstanden ? ;-)
@Les Grossmann
Tse, tse…..wer wird denn so etwas denken ;-)
Der U.S. SECDEF hatte diesbezüglich verschiedene Vorhaben bzw. Ziele definiert. „Gremlins“, die als Dronen-Schwarm von einem Carrier-Aircraft (Airtruck) aus- und eingeschleust werden können. Vorgelagerte F22 als Kontrolleinheit (Koordinierungsplattform) zur Zielerfassung und Steuerung (besser eigentlich: Relais) des Schwarms. Und evtl. Arsenal Planes als erweiterte Waffenträger.
Zusätzliche Infos:
http://www.darpa.mil/news-events/2016-03-31
https://youtu.be/77gTSr07Jqs
Der ursprüngliche RFI durch DARPA ist von 2014 – „Aircraft Carriers in the Sky“.
http://www.darpa.mil/news-events/2014-11-09
http://thediplomat.com/2016/02/pentagon-wants-arsenal-planes-to-beat-chinas-air-defenses/
Anmerkung am Rande was die KI betritt, so hatte man schon in den 80er den Sonderforschungsbereich 314. Im gleichen Zeitraum hatte sich Dornier mit „Fuzzy-Logic“ und Neuronalen Reglern zur autonomen Satellitensteuerung beschäftigt. Und um die richtige Balance zu finden, was bei hohen Latenzeiten im bodenbehafteten „Stammhirn“ verarbeitet werden kann und welche Prozesse autonom im Satelliten ausgelagert ablaufen können.
Eine interpretative Frage: Ist die Fähigkeit „Koordination unbemannter Systeme“ nicht ein Bekenntnis für einen Backseater? Ich stelle es mir schwierig vor, dass ein Pilot neben dem „Hauptjob“ auch noch Drohnen steuert…
@Wuehlmaus
Habe ich den Eindruck erweckt ich wäre für eine KI?
Ich schreib etwas von einem „hochfunktionalen aber eben dennoch soziophatischen System“ !
und von jeder Menge anderer Probleme.
@snowparrot
Ein Teil des Stillstandes ist auch der Marktmacht von Intel geschuldet. Die können halt in Ruhe die Früchte ihrer illegalen Machenschaften ernten und haben keinen Bedarf sich großartig anzustrengen.
Irgendwann fällt vielleicht auch mal der x86 Befehlssatz samt Architektur der Effizienz zum Opfer.
IBM segelt ja schon lange fern ab des Mainstream mit seinen POWER Prozessoren.
Vieles läuft heute schon über Parallelisierung und das ist für eine KI die viele Berechnungen gleichzeitig durchführt nicht ganz unwichtig.
@Milliway
Schlagen Sie gerade wirklich eine Rüstungskooperation mit Russland vor?!
Die Vernetzung von Kampfflugzeugen und deren Fähigkeit zur Zielerkennung sind noch keine wirklich fliegenden KIs.
@Franz S.
Solange die Drohnen autonom fliegen und als fliegende Waffenträger auf Befehl des Führungsflugzeuges hin ihre Waffen einsetzen, könnte man auf den backseater noch verzichten.
—————–
Von wegen AlphaGo…
Auch AlphaGo ist keine wirkliche KI.
In einer Analyse- und Anlernphase erlernt das Programm die Spielregeln und Züge, darauf folgt die Analyse von bereits gespielten Spielen.
Die Mustererkennung funktioniert in dem Fall auch nur auf Grund der Datenmenge wirklich gut.
Mit dieser Datenbasis kann das Programm dann Spielen und lernt dann während des Spielens und nicht mehr nur aus bereits gespielten Spielen.
Schlussendlich liegt der Vorteil des Programms gegenüber dem Menschen darin, dass das Programm wesentlich mehr Züge durchspielen kann und somit auch schneller der gegnerischen Taktik auf die Spur kommen kann.
Genau so lernt es auch, learning by doing. Es lernt eben nur viel schneller als ein Mensch es je könnte.
Was es lernt hängt noch von der Programmierung und der Datenbasis ab, es ist also kein Universalgenie.
Da muss man sich die Frage stellen, wo fängt Intelligenz an?
So ein System steht eine Evolutionsstufe über selbst fahrenden Autos und anderen auf einen Zweck zugeschnittenen Systemen die nachträglich nicht mehr lernfähig sind.
Das autonome Fliegen sollte noch recht einfach zu machen sein.
Auch das dazu lernen anhand neuer Daten, ohne das man selbst bestimmte Abläufe einprogrammieren muss, sollte möglich sein.
Bei Zielerfassung macht heute eh schon Technik die meiste Arbeit aber dann geht es eben um Dinge die wirklich schwierig werden.
Zielbewertung kann man an einer rudimentären ‚KI‘ anlernen, sie kann aber nur aus den Daten lernen die sie zur Verfügung hat.
Wie viel taktisches Gespür braucht es bei einem Jagdbomber die Situation am Boden und in der Luft zu bewerten und danach die nächsten Schritte zu planen?
Die Frage wie man zivile Opfer bewerten soll, ohne menschliche Züge ist das schwierig oder vielleicht auch nicht?!
Ich hole dazu mal etwas weiter aus.
Es gibt immer wieder Piloten die aus dem US Drohnenprogramm aussteigen, weil nach deren Auffassung diese Art der Kriegsführung, die zivile Opfer komplett ignoriert, unmenschlich ist und dazu beiträgt den Hass gegen die USA und damit den Terrorismus zu fördern.
Menschen haben Massenvernichtungswaffen ‚für den Frieden‘ entwickelt…
Die 2 Atombombenabwürfe auf Japan waren militärisch einfach Overkill.
Die Bewertung stellte das Leben der eigenen Soldaten und ein vorgezogenes Kriegsende aber über das von zehntausenden Zivilisten.
Auch waren es Menschen die vollkommen emotionslos die (mehrfache) Auslöschung der Menschheit planten und damit dem gegnerischen Block drohten.
Eine KI, so leistungsstark das sie menschliches Handeln erlernen kann, wird vielleicht einfach ein mieses Schwein ;-)
Würde man das ganz weit spinnen und über eine KI reden die alles erlernen kann, könnte dabei sehr hässliches entstehen.
Z.B. eine KI die Einsatzberichte fälscht, um über eigene Fehler hinweg zu täuschen und einer Außerdienststellung zu entgehen. Das kann man sich ja bei der Staatsführung abschauen….
Vielleicht weigert sich die KI aber auch ihre Waffen einzusetzen und weigert sich später überhaupt erst abzuheben.
Eine Kampfdrohne, die über ihre eigene Existenz philosophierend im Hangar steht, hätte auch was.
Die Drohne bekommt einen Einsatzbefehl und quittiert diesen mit einer Studie zu einer diplomatischen Lösung ….
Da liegt auch die Krux des Ganzen.
Eine KI die nur Reflexartig reagiert und ihre Reflexe verbessert ist noch irgendwo beherrschbar, wenn sie menschlich werden soll, wird sie vielleicht zu einem Monster oder einem naiven Traumtänzer?
Der Mensch ist halt keine vollkommene Lichtgestalt und alles andere als ein Vorbild.
Wenn man sich die Frage stellt was eine limitierte KI im militärischen Bereich tun kann, kommen einem vielleicht folgende Dinge in den Sinn:
Statt Schach, GO oder sonstigen Spielen könnte eine KI ein Kriegsspiel durchplanen.
Die KI Bewertung der besten Bundeswehr aller Zeiten in einem solchen Szenario wäre wohl ein Schlag ins Gesicht.
Auch könnte eine KI im Lagezentrum Vorschläge für die eigenen Strategien machen.
Auch in einzelnen Waffensystemen könnte die KI taktische Vorschläge machen.
KI kann autonom Fahr- und Flugzeuge durch gefährliches Gebiet steuern, z.B. zur Versorgung oder Evakuierung von Verwundeten. Zu Land ist das komplizierter als in der Luft aber man arbeitet seit 10 Jahren daran.
Auch könnte eine KI eine Rückführung eines Fahr- und Flugzeuges zum Stützpunkt einleiten, sollte die Besatzung verwundet oder gar getötet worden sein.
Eine KI könnte helfen Risikoanalysen bei Rüstungsprojekten durch zu führen. Offenbar hat man bei Airbus ja Schwierigkeiten alle Naturgesetze und konstruktiven Fallstricke zu berücksichtigen.
Eine KI könnte in der Logistik hunderte von Möglichkeiten zum Transport von Material zum Einsatzort durchspielen um die wirtschaftlichste oder militärisch solideste Verbringung zu gewährleisten.
Möglichkeiten gibt es viele.
Mal eine etwas naive Frage, aber inwiefern wäre es denn generell möglich zB den Tornado zu überarbeiten und neu zu produzieren, entweder im Hinblick auf Leistungssteigerung oder auch Kostensenkung?
Die USA schaffen das mit der C-130 und CH-47 / CH-53 ja auch.
@Svd
Ich hab ihren Text nicht im Gänze durchgelesen, jedoch widerspreche nochmal der Annahme, dass AlphaGo einfach „alle Möglichkeiten“ durchrechnet. Dies ist aufgrund der Anzahl der Möglichkeiten von Go nicht möglich.
Sondern es hat eine Mustererkennung, die gute Züge erkennt.
@Hans
Man kann da sehr kreativ sein. Nur kann ich mir viele potenzielle Sicherheitsprobleme vorstellen, dass Computer doch nicht verwendet werden.
@Snowparrot
Na ja, also da steckt schon a bisserl mehr als eine Musterkennung drin in AlphaGO.
Die Architektur dürfte auf einem Bayesschen Netz basieren, wobei die Frage ist, welche Lernalgorithmen in dem Netz zur Anwendung kommen – Parameter- oder Strukturlernen oder sogar eine Kombination (?). Denn ob ein Zug „gut“ ist oder nicht, oder ob man auf einen Zug sogar verzichtet (was bei GO möglich ist), das kann eine einfache Mustererkennung nicht leisten.
Ich gebe Ihnen recht, dass AGo keine Möglichkeiten durchrechnet, es rechnet Wahrscheinlichkeiten ;-)
Na, wer sagts denn:
http://www.heise.de/ct/ausgabe/2016-6-Wie-Google-KI-den-Menschen-im-Go-schlagen-will-3118899.html
2 neuronale Netze mit einem modifizierten Monte Carlo Tree Search Lernalgorithmus:
http://www.heise.de/ct/ausgabe/2016-6-Wie-Google-KI-den-Menschen-im-Go-schlagen-will-3118899.html
@Hans
„Mal eine etwas naive Frage, aber inwiefern wäre es denn generell möglich zB den Tornado zu überarbeiten und neu zu produzieren, entweder im Hinblick auf Leistungssteigerung oder…“
Mal eine etwas naive Antwort: Warum baut man heute den Golf 8 und nicht den Käfer von 2003?
Die Frage kann doch nicht sein, welche fliegende Plattform man haben möchte, sondern was benötigten wir und was können/wollen wir uns leisten?
Evtl kommt da dann kein agiler, teurer Kampfflieger raus sondern eine billige (günstige) Waffenplattform mit KI Mun und/oder Laser.
@Hans
Das könnte man sicher machen und etliche Teile ersetzen.
Nur wozu?
Der Tiefflug ist quasi für überflüssig erklärt worden und damit braucht man auch keinen Tornado mehr. Die Schwenkflügel sind damit relativ überflüssig.
Da kann man auch direkt die F-18 Super Hornet oder die neue Advanced Super Hornet kaufen.
Die wären zumindest direkt verfügbar.
Außerdem ist der Tornado nicht gerade „stealth“. Der ‚Stealthmodus‘ ist der Tiefflug ;-)
Wollte man den Tornado ganz schnell ersetzen, könnte man die Teile des Eurofighters in eine neue Flugzelle stecken.
Keine neuen Teile entwickeln, nutzen was man hat oder was in anderen Kampfflugzeugen verbaut und damit marktverfügbar ist.
Das würde die Entwicklungszeit erheblich verkürzen, die Ersatzteilhaltung und Ausbildung der Bodencrew erheblich erleichtern.
Die Vernetzung im Gefecht könnte man im Gegensatz zum Eurofighter noch wesentlich verbessern.
Das wäre aber viel zu einfach und viel zu altbacken ;-)
@ Zimdarsen
Zitat:
„Die Frage kann doch nicht sein, welche fliegende Plattform man haben möchte, sondern was benötigten wir und was können/wollen wir uns leisten?
Evtl kommt da dann kein agiler, teurer Kampfflieger raus sondern eine billige (günstige) Waffenplattform mit KI Mun und/oder Laser.“
Glauben Sie das wirklich ?
Bisher waren alle neuen militärischen LFZ-Programme so gestrickt, dass die wehrtechnische Industrie die Grundlagenforschung für neue Technologien bezahlt bekommen hat.
(NH-90 – CFK-Zellen in Autokonklaven gebacken, Fly by wire für Hubschrauber, Eurofighter – Fly by wire und CFK-Technologie, neues Radar usw., Funkgeräte Frequency hopping Verfahren usw.,
Tornado – Integraler Flügelkasten aus Titan gefräst, Terrain Following Radar, Integrierte Fabrik – MBB Augsburg, Computer Aided Manufacturing usw., 1. Version von Fly by wire mit mechanischer Notsteuerung).
Deshalb glaube ich die Anforderungen an das neue Kampfflugzeug werden so definiert sein, dass die Grundlagenforschung für die nächste Generation im Flugzeugbau aus Steuermitteln bezahlt wird, inkl. der „Sense and Avoid“-Technologie für die pilotenlosen kommerziellen Frachtflugzeuge ab 2030/2040.
Die Bw bekommt dann das Produkt, was hinten bei dem Forschungsprojekt rauskommt, aber nicht unbedingt das Flugzeug mit den Fähigkeiten, was sie benötigt.
@Zimdarsen 29.04, 08:06
Ich persönlich denke eher, dass die OPV Versionen eine Art Übergang darstellen werden. Wenn man merkt, dass die „Option“ im realen Betrieb immer seltener gezogen wird, kommt man ganz schnell zur Einsicht, dass man sich den Aufwand für Sitz und Lebenserhaltung der „Option Pilot“ weglassen kann, da es auch ohne geht.
Man wird in dessen Folge auch sehr schnell feststellen, welche Missionstypen noch zwingend einen Menschen im Cockpit brauchen und welche nicht. Das wird m.M.n. dazu führen, wieder mehr günstige – dann unbemannte – Plattformen für den spazialisierten Einsatz zu entwickeln und auch ein paar wenige bemannte für den „zwingenden“ Rest und damit dem letzten Trend der „Multirole“-hoch komplexen aber kaum mehr beherrschbaren und bezahlbaren Eier legenden Wollmilchsäuen zu folgen.
Das FCAS Konzept weist ja bereits in diese Richtung, da es darin sowohl unbemannte Effektorplattformen und einen „bemannten Systemmanager“ im Hintergrund bzw. Verbund geben soll.
@Fox
„Ich persönlich denke eher, dass die OPV Versionen eine Art Übergang darstellen werden. Wenn man merkt, dass die „Option“ im realen Betrieb immer seltener gezogen wird……
…..wenn man merkt ;-).
„…… kommt man ganz schnell zur Einsicht, dass man sich den Aufwand für Sitz und Lebenserhaltung der „Option Pilot“ weglassen kann, da es auch ohne geht.“
Eine Sache von wenigen Stunden: Sitz und Oxmox raus, SAT-Schüssel rein.
Es wird wohl der richtige Mix sein…..je nach Gegner.
@klaubautermann
Es freut mich, dass Sie sich jetzt etwas über AlphaGo informiert haben.
Können Sie mir genauer erläutern, was mit „Bayessches Netz“ meinen?
Der Wikipedia-Artikel scheint mir nicht auskunftsfreudig zu sein…
Nur bin ich etwas überrascht: Denn nach http://www.dbs.ifi.lmu.de/Lehre/MaschLernen/SS2011/folien/BayesNetze2011.pdf
werden vorallem benutzt, wenn überwachtes Lernen nicht anwendbar ist.
Nun ist überwachtes Lernen, wenn „Beim überwachten Lernen werden dem künstlichen System von einem externen Lehrer Datenpaare übergeben. Diese bestehen aus einer Eingabe und der gewünschten ¨
Ausgabe.“
Nun wurde jedoch AlphaGo jedoch überwacht Go beigebracht. Man hat eine riesige Anzahl von Go-Partien AlphaGo verarbeiten lassen. Daher scheint es unwahrscheinlich, dass Bayessches Netzwerk verwendet wurde. Sie können natürlich mit einer guten Erklärung mir zeigen, wo ich falsch liege.
Ausserdem hat nicht der MCTS AlphaGo so besonders gemacht. Den gab es nach ihren Artikel zufolge schon seit 2006 und ließ Programme auf besseren Anfängerniveau spielen. Das Besondere an AlphaGo war die Vorschlags- und Bewertungsfunktion, die auf trainierte, neurale Netzwerke beruhte. (die wiederum nicht auf Bayes-Netwerken basiert)
AlphaGo ist in seiner Grundausprägung kein supervised learning System sondern ein Reinforcement Learner. Um aber das von Google geclaimte „deep learning“ einsetzen zu können (dessen Grundlagen tatsächlich eigentlich von Schmidhuber/ Hochreiter Ende der 90er erarbeitet worden sind, so wie auch viele seiner Erweiterungen – so basiert zB der neue Google Spracherkenner auch auf einem Konzept der Forschergruppe Schmidhuber) hat man auf eine alte Reinforcement Learning Architektur zurückgegriffen, die als Actor/Critic bezeichnet wird und aus den Anfängen des reinforcement learning stammen, über viele Jahre wenig Verwendung fand, da zu rechenaufwändig. Das Problem ist, dass die gängigen direkten Lernverfahren für Tiefschichter im Reinforcement Fall nicht funktionieren. Deshalb der Umweg – man kann aber sehr wohl Systeme bauen, die pro Entscheidungsschtitt nur einmal propagieren um direkt die Entscheidung zu rechnen (anstatt durch einen Monte Carlo Ansatz Alternativen zu erzeugen (Actor) von denen jede durch einen Tiefschichter bewertet werden muss (Critic)).
Was die Baysschen Netze betrifft kann zunächst einmal jedes Klassifikationsproblem als Bayessches Entscheidungsproblem aufgefasst werden. Tatsächlich sind Bayes Netze sehr oft das Mittel der letzten Wahl wenn zu erwarten ist dass in einem Trainingsprozess bestimmte Fallkonstellationen untersampelt sind bzw die verfügbaren Daten einen Bias aufweisen. Im Bayesschen Netz (generell bei Bayesschen Verfahren) kann durch die explizite Modellierung zB der Prior-Verteilungen Wissen eincodiert werden, von dem
man davon ausgeht dass es in den Daten unterrepräsentiert ist. Trotzdem sind Bayessche Ansätze nicht nur „Lückenfüller“. Etwa im Automated Target Recognition oder der sensorischen Landminendetektion erreicht man mit einer Kombination aus Bayes und Neuronetz erstaunlichd Ergebnisse, indem das BayesSystem als Dynamic Bayes Net aufgebaut ist; was erlaubt Neuro-Klassifikationen im Zuge der Annäherung an das Ziel oder die UXO/IED in einer Serie zu verknüpfen und damit der Entscheidungsprozess auch Einschätzungen aus anderen Blickwinkeln berücksichtigen kann, die man im An oder Überflug zu einem früheren Zeitpunkt berechnet hat (denn Neuronetze haben – bus auf spezielle rekurrente Architekturen, die dann wieder Stabilitäts und Saturierungsprobleme haben) kein Gedächtnis.
@snowparrot
Nun, ich bin keine AlphaGo Entwickler, von daher habe ich nur die Vermutung geäußert, dass eine Bayes’sche Netz Technik hier als Ansatz gewählt wurde. Aus der von Ihnen verlinkten Präsentation kann man ersehen, wie mächtig diese Technik ist, denn man kann damit gelenktes, ungelenktes, Parameter- und Strukturlernen zur Anwendung bringen und miteinander verknüpfen. Dem von mir verlinkten Artikel habe ich entnommen, dass sowohl gelenktes als auch ungelenktes Lernen zum Einsatz gekommen ist..Das Policy- und das Value-Netz können imho sowohl Parameter- als auch Strukturlernen implementiern; Policy – Parameter und Value-Struktur ? Who knows. Ich denke einmal, dass Google nicht unbedingt alle Feinheiten der AlphaGO-Entwicklung veröffentlicht hat, da steckt jede Menge Geld und in-house-know-how drin und da muß man der Konkurrenz ja nicht alles auf die Nase binden. AlphaGO ist ja noch kein fertiges Produkt, die Entwicklung geht weiter. Mal sehen, welcher GO-Profi sich dem Spiel als nächster stellt. AlphaGO scheint ja lernfähig zu sein.;-)
Ob nun Bayes’sche Netze und/oder Markov Netze oder eine Mischform zum Einsatz kam/kommt – keine Ahnung, auf jeden Fall ist AlphaGO ein sehr überzeugendes Beispiel für die Möglichkeiten neuronaler Netzwerke im Bereich KI versus HI.
Und nun sollten wir diesen OT-Diskussion beenden, denn sonst wird der Hausherr sauer. Hat Spaß gemacht.