Luftwaffen-Pläne für den ‚Advanced Command Fighter‘: Der Mensch bleibt im Cockpit

20160105_Tornado_TLwG51_Jagel-1kl

Die deutsche Luftwaffe will auch in der Zukunft ihre Kampfjets von einem Menschen im Cockpit ihrer Flugzeuge steuern lassen. Als Teil eines Future Combat Air Systems sei ein bemannter Kampfjet vorgesehen, der als Advanced Command Fighter sowohl Waffen tragen als auch als Koordinierungsplattform für unbemannte Systeme dienen sollte – diese konzeptionelle Grundüberlegung nannte Luftwaffeninspekteur Karl Müllner am (gestrigen) Mittwochabend in Berlin.

Der Generalleutnant präzisierte damit zum Teil Überlegungen in der militärischen Luftfahrtstrategie vom Januar:

Ein NextGenWS [Waffensystem der nächsten Generation], als zukünftiges komplementäres System zum Waffensystem EUROFIGHTER im Systemverbund FCAS [Future Combat Air System] und in Teilbereichen als möglicher Nachfolger des Waffensystems TORNADO, ist auf die zukünftigen Anforderungen luftgestützter Waffensysteme auszurichten. (…)
Das NextGenWS könnte dabei unbemannt, bemannt, aber auch optional bemannt sein.

Eine Festlegung hierzu ist im Rahmen weiterer Analysen und im Kontext einer europäischen Lösung zu treffen.
Zum bruchfreien Erhalt der derzeitigen Fähigkeiten durch die Bundeswehr wäre das Erreichen der Initial Operational Capability eines NextGenWS spätestens zum Nutzungs- dauerende des Waffensystems TORNADO erforderlich. Der strategischen Linie folgend soll dies multinational erfolgen. Mit der Definition der konzeptionellen Vorstellungen wie auch operationellen Anforderungen für ein FCAS im Schwerpunkt im Jahr 2016 werden die Grundlagen für konkrete europäische Kooperationen geschaffen.

Die Überlegungen gehen weit in die Zukunft – zunächst muss ja erst mal die Entscheidung über eine Nutzungsdauerverlängerung des Kampfjets Tornado getroffen werden, und auch die künftigen unbemannten Systeme sind ja erst im Konzeptstadium. Aber der Jetty Müllner hat schon mal die Grundsatzaussage getroffen: Der Mensch bleibt im Cockpit.

(Interessant war übrigens, was der Inspekteur bei seinen Bemerkungen beim Jahresempfang der Luftwaffe eben nicht sagte: Zu Lufttransport und vor allem zum A400M und seinen Problemen fiel von Müllners Seite kein einziges Wort.)

(Foto: Tornados am 5. Januar 2016 vor dem Start in Jagel zur Mission Counter Daesh – Helwin Scharn unter CC-BY-SA-Lizenz)

74 Kommentare zu „Luftwaffen-Pläne für den ‚Advanced Command Fighter‘: Der Mensch bleibt im Cockpit“

  • Snowparrot   |   30. April 2016 - 18:49

    @rich

    Danke!

  • Snowparrot   |   30. April 2016 - 19:06

    @klaubautermann

    Ich bin einmal ehrlich: Ich glaube, sie sind jemand,
    der es mag, Recht zu bekommen. Dies scheint bei Hubschraubern berechtigt zu sein, aber nicht bei KI. (was deutlich wurde, dass sie nicht am Anfang wusten, dass AlphaGo den amtierenden Weltmeister geschlagen hat)

    Nun bin ich auch kein KI Experte. Als Sie jedoch von Bayersschen Netzwerken geredet hatten, hatte ich nicht große Probleme, den Wikipedia Artikel zu verstehen, sondern mir war schnell klar, dass der Inhalt ein gewisses Studium der Mathematik erfordert (genauer 4 Semester Bachelor in Mathematik), denn die wenigsten haben.
    Da sie jedoch nicht in KI Forschung drinne sind, wurde mir schnell klar, dass sie das Wissen oberflächlich angelesen haben, um mit. „Bullshit Bingo“ zu beeindrucken.
    Daher meine provokative Frage, ob sie den Wikipedia-Artikel erklären könnten.

    Um mich kurz zu fassen: Bleiben sie bei den Hubschraubern. Sie müssen sich nicht überall auskennen. Nur finde es ich toll, dass ich zu jeder Fachdiskussion nicht jede x-beliebige Person seine Meinung äussert, wo man eigentlich keine Ahnung hat.. (was natürlich auf mich in dieser KI Diskussion auch zu trifft. :P)

  • Rich   |   30. April 2016 - 20:20

    @klabautermann

    So OT ist die Diskussion nicht – denn wenn GER sich zukünftig an die UK Entwicklungen in diesem Bereich anhängt, sind es genau diese Dinge mit denen man zu tun haben wird und was zT für Demonstrator Projekte (zB Taranis) schon verfügbar ist. Deshalb erlaube ich mir das Thema nochmal aufzugreifen:

    Thema Policy/Value uns Struktur/Parameter lernen: Als Policy bezeichnet man im Reinforcement Learning generell eine Abbildung die einem (partially observable) Markov State eine Handlungsoption (action) zuweist. Diese Aktion führt dann gem. der Transitionswahrscheinlichkeiten des Systems in dem sich die Maschine bewegt (environment) in einen anderen state. Dieser State (bei Spielen der Brett-Zustand) kann bewertet werden, und bekommt einen „value“ zugewiesen, je nachdem ob sich von diesem Zustand aus die Gewinnchancen verbessert haben. Das Lernen dieses States (über zig-tausend Spiele) in einer Weise dass er für die Entscheidungsfindung feingranular genug ist, ist die eigentliche Schwierigkeit (ist er das nicht tritt ein sig state-aliasing ein, dh zwei States sehen ähnlich aus, repräsentieren aber völlig verschiedene Gewinnaussichten) – das ist, was bei AlphaGo mit dem Tiefschichter sehr gut gelungen ist.
    Der Algo ist recht gut bekannt und dokumentiert, ein Bayes Netz ist darin nicht vorhanden; die heutigen Neuronalarchitekturen, speziell die Tiefschichter sind sehr viel leistungsfähiger als Bayessche Netze. (interessant dabei ist, dass das Pre-Training der Tiefschichter in manchen Ansätzen/Architekturen das Neuronalnetz als Sigmoid Belief Net interpretiert – was ähnlich der Bayeslogik ist, aber viele Probleme wie „explaining away“ für die Bayesnetze anfällig sind vermeiden).

    Was das Strukturlernen betrifft: Dabei geht es in Barysschen Netzen darum, aus Daten zu „lernen“ welche Variablen der Aufgabe eine Abhängigkeit zueinander aufweisen und welche nicht. Das braucht ein Neuronalnetz i.A. nicht, das kommt implizit über Kantengewichtungen. In diesem Bereich liegt vielleicht der wichtigste praktischd Unterschied zwischen beiden Ansätzen (BayesNet vs NeuroNet), das BayesNet ist human-readable. Dh die „Struktur“ die dort gelernt wird gibt unmittelbar Aufschluss über die Struktur der zu lernenden Domain, was mit was zusammenhängt und wie oft das vorkommt. Im Neuronalnetz ist die Propagation und die Codierung des Tasks vollkommen losgelöst von der Task-Struktur. Das Netz hat zu einer bestimmten Zeit ein bestimmted Aktivierungsmuster das man nicht ihne weiteres einem beobachteten Zustand zuordnen kann.

    Was läuft aktuell grad in dem Bereich im mil
    Umfeld: zB Reinforcement Systeme die lernen einen Klassifizierer automatisch an eine veränderte Umgebung anzupassen. (Das ist anders als bei AlphaGo: AlphaGo lernt durch Spiele, sein „Weiterlernen“ ist nichts anderes als den „State“ mit zunehmender Anzahl von Samples noch feiner aufzulösen – heisst er wird genauer und niveliert mit der Zeit etwaige Phantomeffekte aus, die aufgrund von Untersampling auftreten. Die generellen Rahmenbedingungen des Spiels bleiben aber gleich). Diese Reinforcement / Klassifizierer hingegen müssen mit einer nicht-stationären Umgebung klarkommen, dh Cases die sie früher mal gelernt haben sind nicht mehr gültig, weil sich die Umgebung verändert hat). Wozu braucht man das? Zb um ein System zu bekommen das sog „selective attention“ entwickelt. Wie angesprochen bei ATR wird so ein System automatisch in Sensorbildern das Objekt erkennen das von grösster Relevanz ist bzw. auch Steuerimpulse setzen a la „zeig mir das Objekt noch aus einem anderen Winkel damit ich eine bessere Klassifikation durchführen kann“. Die Verbindung solcher Systeme mit SensorControl oder dem Flugregler bringt dann schon ein sehr spektakuläres Verhalten. So weit so gut – das wird voraussichtlich die Art UAV sein, die dann mit dem „manned“ Flugzeug unterwegs ist.

  • Georg   |   30. April 2016 - 23:12

    @ snowparrot 19:06 Uhr

    Kann es sein, dass Sie @klabautermann mit @Vtg-Amtmann verwechseln ?

    Natürlich haben fast alle Leser hier keine 4 Semester Mathematik im Speziellen studiert und dann noch in dem Spezialgebiet von Big Data Mininig mit Hilfe von der Bayes´sche Statistik. Ich auch nicht. Deshalb sind für mich die letzten Beiträge böhmische Dörfer, aber das macht nichts. Jeder hat so seine Spezialgebiete.

    Speziell in dem Fall von @ klabautermann tun Sie dem Mann aber m.M.n Unrecht. Ich denke er hat einige Semester post graduate study in Monterey vorzuweisen.

    Wie dem auch sei, der nächste Luftwaffen Command Fighter wird m.M.n. weiter bemannt sein. Dafür gibt es eine einfache Erklärung. 70 – 80 % der Luftwaffengeneräle sind Piloten. Dies wird sich auch in den nächsten 30 Jahren nicht ändern, egal wie oft hier diskutiert wird, ob mit „man in the loop“ oder mit Mensch im Cockpit der nächste Flieger konstruiert wird.

    Damit Piloten Generäle werden können müssen sie zuerst eine Pilotenlaufbahn absolvieren und das geht nur wenn sie eine gewisse Verwendungszeit im Cockpit sitzen und das werden nicht nur Transportflugzeuge sein !

  • Georg   |   30. April 2016 - 23:33

    @ SvD 29.04. 09:48 Uhr

    Der Computer der sich vom Menschen nicht mehr abschalten lässt, hat man bereits im Film bei Stanley Kubrick, „Odysee im Weltraum 2001“ mit dem Namen „HAL“ erlebt.

    http://www.kino.de/film/2001-odyssee-im-weltraum-1968/

    Rund 50 Jahre nach der Entstehung im Film in der Realität nicht mehr unmöglich !

  • klabautermann   |   01. Mai 2016 - 1:17

    @snowparrot

    Also mit Hubschraubern kenn ich mich noch weniger aus als mit Mathematik ;-)
    Mein Master in Physik ist allerdings schon etwas her, kann sein, dass ich da a bisserl Mathematik vergessen habe ;-) Danke für die Belehrung, ich werd sie beherzigen und künftig dann ganze Vorlesungen hier posten um Wikipedia-Artikel zu erklären, die ich gar nicht angeführt habe. Merken Sie eigentlich noch was ?

    @Rich

    Sie können mir glauben, dass ich AlphaGO nicht für die Mutter aller KI halte ;-)
    Und danke für die Bestätigung, dsss neuronale Netzwerktechniken auch im militärischen Bereich zur Anwendung kommen.

  • Snowparrot   |   01. Mai 2016 - 1:51

    @rich

    Just for interest: woher kennen Sie sich mit ki aus? Interesse, Beruf oder gar Forschung?

  • klabautermann   |   01. Mai 2016 - 10:28

    Nach dieser sehr technischen Diskussion noch ein anderer Aspekt, warum aus Sicht der deutschen Lw der Mensch im Cockpit auch künftig unverzichtbar ist: das Völkerrecht in Form der UN-Waffenkonvention und dabei die Frage nach dem Einsatz von Lethalen Autonomen Waffensystemen (LAWS). Im gegenwärtigen Koalitionsvertrag steht dazu:
    „Deutschland wird (…) sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen.“
    Da kann also ein InspL nicht das Lied vom Waffensystem ohne menschliche Kontrolle singen Der Mensch wird im Cokpit bleiben, fragt sich nur wie und in welcher Form eine menschliche Entscheidung über den Waffeneinsatz bei fliegenden Waffensystemen implementiert wird bei den NextGen Systemen. Dazu braucht man nicht unbedingt einen Piloten im Cockpit. In jedem Fall ist die deutsche Position in Sachen Weiterentwicklung der UN-Waffenkonvention natürlich in gewisser Weise eine nationale Vorgabe für die Definiteure eines Future Combat Air Systems.
    Nun sind nicht alle Staaten der gleichen Auffassung wie Deutschland und dazu zählen u.U. auch mögliche Entwicklungspartner wie z.Bsp. UK.. Die Völkerrechtsweiterentwicklung läuft der technischen Entwicklung hinterher, stellt sich die Frage ob Deutschland diese technische Entwicklung politisch bremsen wird und ob andere Partner dabei mitmachen.

  • Snowparrot   |   01. Mai 2016 - 20:08

    @klabautermann

    Inwiefern ein Master in Physik in Graphentheorie oder KI besonders qualifiziert, sei dahin gestellt :P (Vielleicht noch in Statistik, aber was solls). Die Diskussion ist müßig.

    Viel wichtiger ist doch dennoch die technische Entwicklung, die Äusserungen des Herrn General besser einordnen zukönnen.
    Vielleicht kommt noch mal @rich in die Debatte und könnte versuchen, die Meinung des Luftwaffeninspektor in die aktuelle Forschungsgelage der KI Forschung einzuordnen.

  • klabautermann   |   01. Mai 2016 - 22:05

    @snowparrot

    Woran erkennt man den Unterschied zwischen einer IS-Zelle und einer Hochzeitsgesellschaft ?
    „Keine Ahnung, ich fliege nur die Drohne“/SCNR………

  • Rich   |   01. Mai 2016 - 22:50

    @snowparrot
    Ist mein Beruf. Ich hab Mathematik studiert/im Bereich Regularisierung bei Neuronetzen promoviert. War in den 90ern noch in D an der NE-3A mid term modernization bin aber nach der ganzen Konsolidierung im Data Fusion Sektor in Deutschland (wo nichs mehr weiter ging) nach UK und bau seit der Zeit an „autonomen“ Systemen/Teilsystemen (wie dem VAAC Harrier und in den letzten Jahren im UAV Bereich).

    @klabautermann
    AlphaGo ist ein richtig cleverer (aber eben nicht wirklich neuer) Ansatz. Was für uns interessant ist, ist die Aussenwirkung. Man durfte ja über Jahre kaum sagen dass man machine learning Ansätze im System hatte ohne dass einem vorgehalten wurde das sei „unzuverlässig“, „nicht kontrollierbar“, „science fiction“, „in 30 Jahren vielleicht“. Seit Google einen auf KI muss überall das Zeug drin sein … am besten „deep learning“ – wissen zwar die wenigsten was das ist, aber Google machts – deshalb muss es gut sein. Dann werden solche Tiefschichter auf kleinen Datensätzen trainiert (wo tatsächlich Modellierung mit anderen Ansätzen wie Bayes angezeigt wäre) und es kommt nur crap bei raus. Wir sind – wie Sie in einem Ihrer Post sagten – tasächlich relativ weit was autonome Systeme betrifft, ich sag jetz mal ganz unbescheiden teilweise weiter als Google – wir könnens aufgrund der Thematik halt nicht so schön vermarkten.

  • klabautermann   |   02. Mai 2016 - 7:51

    @Rich

    Ja, diese spezielle Form der „German Angst“ ist mir durchaus bekannt. Die gab es spätestenz seit der Zeit als die ollen Steuer-und Regeltechniker mit der Rückkopplungs-Axiomatik/Fuzzy Logic konfrontiert wurden. Die Ansätze dazu bekam ich in meinem Studium (Systemtechnik/Physik) in den USA mit – vor 35 Jahren, als man an meiner Alma Mater mit den ersten gekapselten Systemen auf Z80 Basis und CP/M rumspielte.
    Systemtheorie/Kybernetik und (hyper)komplexe Syteme sind seitdem immer eine Art Hobby Horse für mich geblieben. Muß spannend sein mit den Möglichkeiten der heutigen IT in diesem Bereich beruflich direkt „am Ball“ zu sein.. Mich persönlich verwundert immer, dass bei dem Thema KI/Autonome Systeme immer das Argument ins Feld geführt wird, dass eine KI/AS eben keine Intuition, Empathie etc „simulieren“ könne und deshalb ein Mensch die letzte Kontrolle über das System behalten müsse. Ausgeblendet wird dabei, dass eine KI keine Ermüdung, Haß, Schmerz, Furcht „kennt“ und eben nicht unter den Einschränkungen eines kognitiven Flaschenhalses „leidet“.
    Vor einiger Zeit habe ich einem Airbus-Artikel entnommen, dass man nun aufgrund der kognitiven Herausforderungen modernster fly-by-wire-Avionik begonnen hat, kognitives „augmentation training“ für Piloten aufzusetzen – da mußte ich doch schon a bisserl lachen. Alles menschlich, oder was ? ;-)

  • Hans   |   02. Mai 2016 - 14:10

    @ Zimdarsen | 29. April 2016 – 17:42

    „Mal eine etwas naive Antwort: Warum baut man heute den Golf 8 und nicht den Käfer von 2003?

    Die Frage kann doch nicht sein, welche fliegende Plattform man haben möchte, sondern was benötigten wir und was können/wollen wir uns leisten?

    Evtl kommt da dann kein agiler, teurer Kampfflieger raus sondern eine billige (günstige) Waffenplattform mit KI Mun und/oder Laser.“

    Darauf wollte ich hinaus. Man baut eben heute nicht mehr den Käfer (irgendwann ist es nicht mehr erweiterbar), sondern den Golf 8 als die 8. Stufe der Golf Evolution. Man hätte ja auch etwas komplett neu konstruieren können, aber so ist es eben sinnvoller und ressourcensparender.

    Wir brauchen einen Tornado-Nachfolger, und die Frage ist eben ob eine Weiterentwicklung nicht die bessere Waffenplattform bringt als eine Neuentwicklung oder eben günstiger ist.
    Aufklärung und ECR sind eben immer noch gefordert. Und günstiger als der Eurofighter ist der Tornado.

    @SvD | 29. April 2016 – 18:39

    Wenn uns die Super Hornet weiter bringt, gerne! Aber vermutlich soll es eine europäische Eigenentwicklung sein, Lizenzproduktion reicht da leider nicht immer für die Airbus Lobby.

    „Wollte man den Tornado ganz schnell ersetzen, könnte man die Teile des Eurofighters in eine neue Flugzelle stecken.
    Keine neuen Teile entwickeln, nutzen was man hat oder was in anderen Kampfflugzeugen verbaut und damit marktverfügbar ist.
    Das würde die Entwicklungszeit erheblich verkürzen, die Ersatzteilhaltung und Ausbildung der Bodencrew erheblich erleichtern.

    Die Vernetzung im Gefecht könnte man im Gegensatz zum Eurofighter noch wesentlich verbessern.

    Das wäre aber viel zu einfach und viel zu altbacken ;-)“

    Oder so, siehe die Entwicklung der F-15. Wichtig wäre für mich nur dass man in die Gänge kommt, Entwicklungskosten spart und die in den letzten Kommentaren erwähnte Entwicklung endlich mal unterbricht. Wenn am Ende dann einsatzbereite SK stehen, kann Airbus mMn gerne den Teil vom Kuchen abbekommen, den sie beigetragen haben. Mehr aber auch nicht.

  • Georg   |   02. Mai 2016 - 23:36

    @ Rich und alle KI-Fans

    Lese gerade das Buch zu der Problematik KI und All Data Fusing durch intelligente Maschinen.
    1. Data Fusion, Bewertung und Entscheidungsfindung bei AWACS und anderen militärischen Projekten
    2. Abwanderung der Data Scientist zu Börsenhändlern
    3. Rückkehr zu Google u.a. Big-Data Mining Organisationen

    von
    Yvonne Hofstetter Titel: „Sie wissen alles“ – Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen

    Kann man sehr empfehlen, ohne dass man Mathematiker sein muss.

  • Rich   |   03. Mai 2016 - 0:30

    @Hans
    Was wollen Sie denn an „Entwicklung“ in dieser Richtung unterbrechen? Sie haben doch gar nichts was Sie unterbrechen könnten! Ausser Airbus natürlich … Gratulation!

  • Woody   |   03. Mai 2016 - 2:12

    @Frank, @Realpolitik:

    Ein Teil der Forschung ist mit Partnernationen abgestimmt. Es gibt ja nicht erst seit Gestern:

    http://www.sicherheitsforschung-europa.de/servlet/is/5922/

    @SvD 28. April 2016 – 13:36

    Soweit ich mich erinnere lief AlphaGo auf einem „handelsüblichen PC“. Das zeigt schon, welche Fortschritte gemacht wurden. Um eine „KI“ einem Flieger zu haben braucht es aber tatsächlich noch mehr. KI ist aber auch irreführend. Es sind ja eher Systeme, die man so lange dressiert, bis sie es richtig machen. (vereinfacht gesprochen)

    Wenn ich es richtig verstanden habe ist es im Fall von AlphaGo eine Mischung aus „Erfahrungsgemäß guten Zügen“ und einer Bewertung einer statistische Anzahl von möglichen Entwicklungen die durchgerechnet werden. Ob letzteres dann bis zu einem Spielende durchgerechnet wird ist mir noch nicht ganz klar, oder ob man dann wiederum die sich daraus ergebenden Stellungen evaluiert. Das würde zumindest logisch klingen.

    Das Problem (sofern man bei dem beeindruckenden Sieg von einem Problem sprechen kann) ist die Strategie „höchste Gewinnwahrscheinlichkeit“. Man sollte daraus nicht zu viele Parallelen zur realen Welt ziehen. bzw. die Erkenntnisse kritisch betrachten.

    @Philosoph:

    Die „KI“ Systeme (deep learning) basieren eigentlich im Wesentlichen darauf, dass das System intuitiv arbeitet. Es hat eben eigentlich keine Ahnung, was es da macht. (leichte Übertreibung) Das ist wie mit der Eiskunstläuferin. Die muss nur wissen, dass wenn sie die Arme an den Körper zieht, sie sich schneller um die Achse dreht. Die muss von Drehimpulserhaltung, Trägheitsmomenten und Tensoren keine Ahnung haben. Mir sagen die Begriffe was, dafür legt es mich aber wenn ich mich aufs Eis begebe.

    @Rich & @klabautermann:

    Eine halbe KI haben wir, wenn ein System lernt, wie es einem anderen System mithilfe von Abstraktion etwas beibringen kann. Sagen wir in zehn Wiederholungen, was sonst Millionen von überwachten Wiederholungen braucht. Mal schauen, wann die ersten mathematischen Beweise durch eine KI erfolgen.

    Die Perversion ist doch im Moment die folgende: Man nehme eine beliebig schwere Aufgabe. Dann lässt man die Maschine die schwierige Aufgabe in seiner Komplexität dahingegend reduzieren, dass sie einer „sortiere die folgenden Zahlen der Größe nach“ Aufgabe gleicht. Das ganze wirft man dann dem Bediener hin, der verrichtet gewissenhaft seine Aufgabe. Dabei wird er auch noch von der Maschine beaufsichtigt, die ihm gegebenenfalls darauf hinweist, dass er was falsch macht. Wenn der menschliche Bediener fertig hat sagt die Maschine Ihm „Toll gemacht!“ und dann löst der Mensch die Aktion aus. Ja, eine leichte Übertreibung, aber darauf läuft es raus. Wenn der Mensch es verantworten soll, müsste der Mensch vor dem System zumindest so viel Ahnung haben das Ergebnis zu evaluieren. Gegebenenfalls auch Kontextwissen anwenden oder mit den gängigen Theorien abgleichen.

    Wo ich gerade bei abstrakt bin. Wenn wir z.B. über neuronale Netze reden. In einem der letzten Hinton Paper hat mich gestört, dass die versteckten Knoten oft als abstrakte Ebene bezeichnet werden. Das ist meiner Meinung nicht wirklich dass, was da passiert. Zumindest nicht nach dem menschlichen Verständnis von Abstraktion/Modellbildung. Aber was weiss ich schon, bei mir auf Arbeit heißt es immer nur: „Es gibt vielleicht eine handvoll Menschen die deep learning wirklich verstanden haben.“ Muss ich aber auch nicht. Ist schließlich nicht mein Fachgebiet.

    Philosophisch wirklich spannend wird es, wenn die KI etwas vorschlägt, der Mensch die Handlung nicht ausführt, Daraufhin passiert etwas mit z.B. Todesfolge, was nach menschlichem Ermessen nicht erkennbar war. In so einer Situation ergeben sich sehr viele spannende Fragen.

  • Kater K   |   03. Mai 2016 - 10:12

    Was mich an der Diskussion über intelligente, selbständige Waffensysteme irritiert ist die Ausblendung des Ist-Zustands:

    Schwinge ich ein Schwert, bestimme ich alleine was ich treffe oder nicht.

    Schieße ich mit einem Gewehr, kann ich ab dem Zeitpunkt des Abdrückens keinen Einfluss mehr nehmen, ein Fehlschuss oder Querschläger kann Ziele treffen die ich nicht treffen wollte.

    Nutze ich Artillerie sehe ich das Ziel nicht einmal mehr, ich verlasse mich auf die „Intelligenz“ des Systems, welches mir anhand der eingegebenen Zielkoordinaten einen Abschusswinkel (hoffentlich richtig) einstellt.

    Ein moderner Lenkflugkörper (oder Torpedo) wird mit Zielinformationen gefüttert (z.B. Radarsignatur, Emittersignatur, Hitzesignator, Koordinaten uvm) und dann abgeschossen. Dann bestimmt allein die „Intelligenz“ des Waffensystems über einen Treffer oder Nichttreffer. Kann der Flugkörper mögliche Störfaktoren, wie Ausweichmanöver, Abschlatung des Emittersystems, Hitze- und Radartäuschkörper richtig erkennen und überwinden? Ein Taurus fliegt 30 Minuten, in denen ich nicht weiß, was er macht und ob er weiterhin das richtige Ziel anfliegt.
    Wir überlassen unseren Waffen schon jetzt eine gewisse Entscheidungsfreiheit, scheuen aber vor einer selbstsändig fliegenden Drohne zurück.

    Dank lasergelenkter Waffen überfliegt ein Pilot nicht mehr das viele Kilometer entfernte Ziel sondern sieht es nur noch als Videobild im Cockpit.
    Wo ist der Unterschied ob er dieses Bild im Cockpit sieht oder in einer Bodenstation?
    Die Entscheidung zum Waffeneinsatz wird aufgrund des Videobilds getroffen, auf dem Dank Zoom und Bildstabilisierung mit Sicherheit mehr zu erkennen ist als im Überflug in 100m bei knapp Schallgeschwindigkeit.
    Welche Entscheidung wird die bessere sein? Unter Stress und Gefahr für das eigene Leben? Oder in sicherer Entfernung, in Ruhe, mit mehr & besseren Lageinformationen und ggf im Vieraugenprinzip?

    Entmenschlicht die Distanz das Töten? Macht es das Töten einfacher? Wo ist der Unterschied zum Lenkflugkörper? Zur Artillerie? Zum Gewehr?
    Wird das Töten zum Videospiel nur weil man in Sicherheit sitzt anstatt im Flugzeug darüber und selbst beschossen werden könnte? Wo ist der Unterschied zum Lenkflugkörper? Zur Artillerie? Zum Gewehr?
    Wird die Fehlentscheidung auf eine Hochzeitsgesellschaft zu schießen für einen Soldaten weniger traumatisch wenn er diese aus tausend Kilometer Entfernung trifft? Wo ist der Unterschied zum Lenkflugkörper? Zur Artillerie? Zum Gewehr?

    Die Entscheidung für (ausschließlich) bemannte Systeme aufgrund von Waffenstolz ist falsch. Die Entscheidung gegen unbemannte Systeme aufgrund von moralischen Gründen ist ebenso falsch.

    Die Entscheidung, ob ein Waffeneinsatz angebracht ist muss letztlich immer von einem Menschen getroffen werden, die Auswirkungen sowohl für den Angreifer als auch den Angegriffenen bleiben ähnlich. Tot ist tot. Und das Bewusstsein, einen Menschen getötet zu haben auch.

  • Hans   |   03. Mai 2016 - 13:27

    @Rich

    Es wäre eben mE von Vorteil für die Bw und den Steuerzahler, nicht mit jedem Projekt Milliarden in große Unternehmen wie Airbus zu stecken, um eine Neuentwicklung zu finanzieren deren Ergebnis man günstiger haben könnte. Und wenn es nur eine Weiterentwicklung des Eurofighter ist, siehe auch die Hornet / Super Hornet und F-15 Eagle / Strike Eagle.

  • klabautermann   |   03. Mai 2016 - 13:39

    Autonome Systeme im militärischen Bereich, eine Utopie ?
    http://www.spiegel.de/politik/ausland/us-militaer-testet-weltweit-groesstes-unbemanntes-schiff-a-1090515.html
    „Kritik kommt von der Internationalen Transportarbeiter-Föderation, die Hunderttausende Seefahrer weltweit repräsentiert: Sie argumentiert, die Technologie könne menschliche Vorahnung und Reaktionsfähigkeit nicht nachahmen.“ Das ist auch gut so ;-)

    Das Teil soll ja angeblich UBoote jagen und ist „hack-proof“, also wohl gekapselt.
    Hm, als UBoot taucht man also am besten auf und bringt den Kollisionsvermeidungsautomaten zum Abdrehen, besser noch zum Durchdrehen ;-)
    Blöd bloß, wenn das Sensorsystem des Sea Hunter so intelligent ist, dass es ein aufgetauchtes UBoot von einem Handelschiff unterscheiden kann; geht dann der Hunter auf Rammkurs ? /SCNR

  • Quino   |   03. Mai 2016 - 16:37

    Hans

    Wurde schon öfter in AG angegeben, LISA (light Infantry Support Aircraft)
    Die eingeschränkte Detektierbarkeit von LISA Voraussetzung für die Durchsetzungsfähigkeit ist gleichzeitig ein sehr wichtiger Schutz für die Besatzung. Sie sollte mit der der zu unterstützenden Kräfte geteilt werden. Vorteile für ein bemanntes Luftfahrzeug sind die überlegene Wahrnehmungsfähigkeit der Besatzung (peripheres Sehen, kein Tunnelblick) besonders bei Aufklärungsmissionen und eine gewisse Autonomie im Kampf bei Ausfall der Kommunikation. Wichtige Voraussetzungen beim Einsatz in abgelegenen Gebieten bilden eine vergleichsweise anspruchslose Logistik, Nutzung von Behelfsstartbahnen, Luftverlastbarkeit und hohe Verfügbarkeit. Weiter könnte LISA eine Ergänzung zu den gewünschten bewaffneten Drohnen sein, da LISA Eigenschaften aufweist, z. B. uneingeschränkte Luftraumnutzung (international) und schnelle Verfügbarkeit, die bei komplexen Drohnensystemen nicht gegeben sind.

    Aber wo ein Wille ist, ist manchmal kein Gebüsch.

  • Zimdarsen   |   03. Mai 2016 - 22:14

    @Hans

    „Wir brauchen einen Tornado-Nachfolger, und die Frage ist eben ob eine Weiterentwicklung nicht die bessere Waffenplattform bringt als eine Neuentwicklung oder eben günstiger ist.“

    Würde man heute ein Lfz mit den Leistungsparametern des Tornado bauen, würde man andere Herstellungsverfahren und Materialien für die Zelle verwenden.
    Auch die Triebwerke und Avionik wäre eine andere. Die Ausrüstung von der elek Anlage über die Hydraulik, Klima, Sauerstoff und Rettungssystemanlage wäre ebenfalls neu.
    Der neue Tornado wäre bei einer Stückzahl des EF, genauso teuer.

    “ Aufklärung und ECR sind eben immer noch gefordert. Und günstiger als der Eurofighter ist der Tornado“

    Ja weil er vor 30Jahren bezahlt wurde, das Lfz ist abgeschrieben und viele Ersatzteile stammen aus der Hochwertersatzteilgewinnung.

    Die Frage ist benötigen wir eine fliegende Plattform mit den Parametern und Fähigkeiten des Tornado oder benötigen wir etwas anderes?

    Was könnte uns gegen einen potentiellen Gegner in 20 Jahren einen Vorteil verschaffen?

    Hochwertplattform und einfache, billige Mun oder einfache, billige Plattform und Hochwertmun? Qualität oder Quantität, Zuverlässig oder High Tech?
    Was benötigen wir in 20 Jahren?

    Im Moment fehlt uns Mun!

  • Rich   |   04. Mai 2016 - 8:36

    @Georg
    Die Welt ist klein. Sie haben recht, das Buch von Hofstetter ist eine recht gut gelungene Aufarbeitung des Themas und seiner sozialen/rechtlichen Auswirkungen. Sie selbst ist ja Juristin soweit ich weiss. Ihr Unternehmen arbeitet für uns bisweilen als Subcontractor und einige des Teams kenne ich noch aus dem 90er NE-3A mid term upgrade. Was faszinierend ist, ist dass sie offenbar proprietäre Verfahren haben, die den Lernprozess eines Reiforcement Systems als Einschwingprozess in einem dynamischen System modellieren. Ziemlich komplex der Ansatz von der Theorie her, aber sie sind offenbar in der Lage damit stabile control policies zu rechnen, die transferrable sind (also genau das was Woody oben beschrieben hat, dass eine Basispolicy gelernt wird und das System dann in der Lage ist innerhalb weniger Zyklen seine Handlungspolicy an einen ähnliches aber unbekanntes System anzupassen, beim Übergang vom Simulator in eine real-world Umgebung sehr hilfreich ist.

    @Hans
    Ich stimme Ihnen grundsätzlich zu. Das zentrale Problem ist, dass es offenbar als unumstössliches Dogma gilt, dass man die komplette Technologieentwicklung bezahlen muss. Dies zusammen mit dem Fakt, dass man sowieso nur Airbus beauftragen will und kann führt dann dazu dass Dinge die schon existieren nochmal nachentwickelt werden – mit all den Fehlern und Irrwegen. Die Fehlannahme ist, dass man das alles nur an einen Generalunternehmer geben muss, der dann schon die entsprechenden Spezialisten kontraktet. Das wird aber nicht passieren: Denn der GU (gerade wenn er regionaler Quasi-Monopolist ist) verbraucht in diesem Fall den Löwenanteil für eigene Organisation, zieht Spezialisten nur hinzu wenn er selbst nicht mehr weiter weiss (und am Ende des Geldes noch viel Projekt übrig ist) und seine Projektmanager werden incentiviert nach der Masse an bezahlten Änderungsanträgen. Ich bin ein grosser Fan von Agencies – das ist nicht ein Allheilmittel aber wenn gut aufgesetzt und mit eigener hands-on Projektoordination (eben nicht nur Anwaltskanzleien die nachträglich Qualität hineinprüfen und Deals aushandeln sollen wenn das Kind schon im Brunnen liegt) und eigenen Fachleuten kann man etwas bewegen.

  • Milliway   |   12. Mai 2016 - 17:00

    @ SvD | 29. April 2016 – 9:48

    „Schlagen Sie gerade wirklich eine Rüstungskooperation mit Russland vor?!“

    Lassen wir erst mal den ganzen politischen Klimbim und die kalten Krieger draußen vor.

    Ja,
    als wir Seinerzeit das Angebot über 200 MiG-29C für unsere F-4F abgelehnt haben, wurde die zusagte gemacht, das dass nächste Flugzeug gemeinsam mit Rußland gebaut wird !

    Was bei der Raumfahrt prima funktioniert, kann auch bei unseren Flugzeugbauern funktionieren. Siehe Alenia Aermacchi M-346 die bekanntlich auf der Jak-130 Basiert.
    Mit Unseren aktuellen Rüstungskooperation wie A400M oder Eurofighter sind wir aktuell in einer Sackgasse gelandet.
    Um wieder in militärisch Flugzeugbau Fuß zufassen müssen wir uns erst einmal an einen Programm anhängen und dieses dann als Sprungchance nutzen.

    Neben den Top Fighter von Sukhoi wäre eine weitere Alternative die F-15 „Silent Eagle“, diese liegt aber Technologisch nicht an der Spitze, da nur eine upgrade Version der F-15E

    Oder vielleicht beim F/A-XX Programm / NGAD (Next Generation Air Dominance) einsteigen, aber bei welchen Hersteller, was ist wenn dieser die Ausschreibung verliert ?

    Immer wenn Probleme beim F-35 Programm bekannt werden gibt es Strömungen in US Kongress, die wieder das F/A-22 Programm oder eine F/A-18 XX auflegen wollen.

    http://www.fliegerweb.com/de/news/Airpower/F-22+könnte+wieder+in+Produktion+gehen-14822

    Da die F/A-22 zurzeit das Modernisierungs Programm DEAD durchlaufen ist es sehr unwahrscheinlich das die USA ihr Technologie auch bei einen neu Start der Produktion mit uns teilen.

    PS. Auf der diesjährigen ILA bittet sich für die Luftwaffe die Möglichkeit ein mock-up ihres Advanced Command Fighter zu präsentieren.

  • Milliway   |   12. Mai 2016 - 17:22

    @ Hans | 29. April 2016 – 12:25

    „Mal eine etwas naive Frage, aber inwiefern wäre es denn generell möglich zB den Tornado zu überarbeiten und neu zu produzieren, entweder im Hinblick auf Leistungssteigerung oder auch Kostensenkung?“

    Wir haben einfach die kontinuierlich Weiterentwicklung des Tornado oder Eurofighter verschlafen und aus Heutiger Sicht macht es jetzt auch keinen Sinn mehr.
    Eine Ursprüngliche FA-18A/B hat mit einer heutigen FA-18E/F/G bis auf den Namen keinerlei Gemeinsamkeiten mehr. Ist Heute quasi ein komplett neues Flugzeug. Bei der Entwicklung der FA-18E/F/G waren wir ursprünglich über Dornier mit involviert. Diesen Entwicklungsweg haben fast alle Flugzeughersteller eingeschlagen und wir haben uns wider einmal auf einen Sonderweg begeben.

    @ Hans | 02. Mai 2016 – 14:10

    „Wichtig wäre für mich nur dass man in die Gänge kommt, Entwicklungskosten spart und die in den letzten Kommentaren erwähnte Entwicklung endlich mal unterbricht.“

    Volle Zustimmung,
    Da Sämtliche Ideen für unseren „Eurofighter 2200“ sind irgendwo Abgekupfert. So fanden Conformal Fuel Tank erstmals bei der F-16 serienmäßig Verwendung. LERX, Thrust Vectoring oder AESA Radar entstammen der Flanker Familie. Eine LERX in einer anderen Form wurde bereits in der F-5 verwendet.

    http://cfile207.uf.daum.net/attach/196C22364E04BFEE01CA3E

    Es wird tatsächlich langsam Zeit, dass unsere Industrie von den „Titten der Allgemeinheit“ zu entwöhnen. Bislang sind die Mittel für die Großen der Branche Unabhängig ob geliefert wurde oder nicht geflossen.

    So haben alle führenden Industriestaaten mit Ausnahme von Deutschland, bereits die Weichen für eine Advanced Fighter gestellt.

    Der Einstig in Unseren Advanced Fighter über die Top Fighter Familie von Sukhoi bietet nicht nur Chancen sonder auch Herausforderungen die wir nicht verstreichen lassen sollten!