Drohnen, noch gesteuert von Menschenhand
Das israelische Unmanned Ground Vehicle (UGV) Guardium (Foto: Israeli Defense Forces via flickr unter CC-BY-NC-Lizenz)
Die Geräte haben viele Namen, ihr Einsatz viele Facetten. Drohnen. Unbemannte Flug/Land/Unterwassersysteme. Sie fliegen (bewaffnet) über Afghanistan und Pakistan, sie patrouillieren (noch unbewaffnet) entlang der Grenze zwischen Israel und dem Gaza-Streifen (siehe Foto oben), oder sie stehen bereit, für die U.S. Navy in der Straße von Hormus Minen zu räumen. Die Vereinten Nationen fordern, erstmals in der Geschichte der Blauhelmeinsätze, truppenstellende Nationen zum Einsatz von Drohnen in den Kriegsgebieten des Kongo auf.
Die unbemannten Systeme sind in der Militärtechnologie das Thema des Jahres, und das wird auch noch eine Weile so bleiben – sei es, weil sie für umstrittene gezielte Tötungen eingesetzt werden, sei es, weil die Bundeswehr gerne bewaffnete Drohnen anschaffen möchte.
In der Debatte über den Einsatz solcher Systeme spielt immer eine entscheidende Rolle, ob und wie lange diese Geräte von Menschen gesteuert werden, vor allem, wenn sie bewaffnet sind: Wer gibt den Feuerbefehl – ein Mensch, der an der Bedienungskonsole sitzt, oder ein Algorithmus, mit dem ein solches System autonom entscheidet? Wann unterstützen die Computer, die die Drohnen steuern, nicht mehr nur den menschlichen Bediener, sondern urteilen eigenständig über Leben und Tod?
Ban ‚Killer Robots‘ before its too late, fordert die Menschenrechtsorganisation Human Rights Watch. Die Opfer von fliegenden oder fahrenden Drohnen würden zunehmend Zivilisten, die in das Suchraster der Automaten geraten: While replacing human troops with machines could save military lives, it could also make going to war easier, which would shift the burden of armed conflict onto civilians.
„Die Opfer von fliegenden oder fahrenden Drohnen würden zunehmend Zivilisten, die in das Suchraster der Automaten geraten…“
Um hierzu eine qualifizierte Aussage treffen zu können, müsste man die Zuverlässigkeit solcher Systeme bei der Unterschiedung zwischen militärischen Zielen und Nichtzielen mit der Zuverlässigkeit von Menschen vergleichen, die die gleiche Aufgabe durchführen und dabei unter Stress stehen. Human Rights Watch hat das offensichtlich nicht getan und will scheinbar wieder mal nur auf ein Modethema aufspringen, um mit reißerischen Aussagen von den Medien und damit letztendlich Spendern wahrgenommen zu werden.
Man sollte insgesamt von dem Gedanken Abstand nehmen, daß es sich bei solchen Aktivisten um sachlich interessierte Beobachter des Geschehens handelt. Organisationen wie HRW oder auch Amnesty etc. sind letztlich Konzerne, die von Spenden leben, die in Zeiten der Wirtschaftskrise immer schwieriger zu mobilisieren sind. Dort arbeiten PR-Experten, die die Entscheidungen dieser Organisation darüber, welche Themen aufgegriffen werden und welche nicht, nicht nach deren Dringlichkeit priorisieren, sondern nach deren Potential zur Mobilisierung von Spendern. Diese sind als Zielgruppe recht gut abgrenzbar und, vorsichtig ausgedrückt, in militärischen Fragen meist nicht besonders gut informiert und auch nicht an sachlichen Diskussionen zu militärischen Fragen interessiert.
HRW ist so nützlich wie ein Kropf. Ich finde es schade, dass die Medien immer wieder ihre Lügengeschichten aufgreifen, um ein paar dürre Zeilen auf das Papier zu bringen. Ich verweise hier auch auf die Streubombenlüge von HRW.
@ Orontes
Um hierzu eine qualifizierte Aussage treffen zu können, müsste man die Zuverlässigkeit solcher Systeme bei der Unterschiedung zwischen militärischen Zielen und Nichtzielen mit der Zuverlässigkeit von Menschen vergleichen, die die gleiche Aufgabe durchführen und dabei unter Stress stehen.
Dass man solche Pattern Recognition-Systeme nichtmal an wohldefinierten Orten wie Flüghäfen oder U-Bahn-Stationen einsetzt, nichtmal zum Alarmieren bei tatsächlich zu beobachtender Gewalt, sagt über den derzeitigen Stand der Technik doch schon alles aus.
Was dann bei den derzeitigen Drohnen als Pattern Recognition bezeichnet wird ist dann meines Wissen einfache Bildverarbeitung: Erkenne den hellen Fleck (der Wärmequelle) und folge der Bewegung. Das kriegt auch jede aktuelle Wohnzimmer-Spielekonsole hin.
Das ist jetzt ein bischen off-topic, aber was hindert den Feind eigentlich daran, die abgebildeten israelischen Drohnen einfach umzuschubsen?
Ich hoffe das Argument ist nicht, dass derjenige dann von einer fliegenden Drohne aus zerbombt wird – wenn sich eine solche in der Gegend befindet, brauche ich ja keine Bodenvehikel mehr, oder?
Es ist erstaunlich und anstrengend, dass in der Berichterstattung und Diskussion immer wieder keine Trennung zwischen den aktuellen nicht-autonomen Drohnen und den eventuellen vollautonomen Drohnen gezogen wird.
Kann jemand mal klar sagen, wer denn überhaupt die zweite Version in dieser Form entwickelt oder anstrebt? Keines der momentan diskutierten Systeme erfüllt diese Definition.
@ Niklas
Die Samsung SGR-A1 („smarte“ Selbstschussanlage) erfüllt je nach Sichtweise diese Definition. Die ist zwar nicht schlauer als andere Drohnen, aber da bedient man sich der simplistischen Argumentation „wenn sich was an der Grenze bewegt ist es ein legitimes Ziel“. Und diese Argumentation läßt sich halt auch auf Kriegsgebiete ausweiten…
Nur weil Drohnen derzeit nicht „schlau“ sind, schließt das schlicht nicht aus, dass ihnen nicht trotzdem „Verantwortung“ übertragen wird.
@J.R.
Sie erwähnen einen weiteren Punkt: HRW warnt hier vor einem rein hypothetischen Problem, denn niemand setzt Drohnen als „Killerroboter“ ein. Hier soll mit gleich auf mehreren Ebenen falschen und verzerrenden Behauptungen die Diskussion gezielt verunsachlicht werden.
@Niklas
„Kann jemand mal klar sagen, wer denn überhaupt die zweite Version in dieser Form entwickelt oder anstrebt?“
Ich sprach mal mit jemandem, der mit autonomen Systemen für nichtmilitärische Anwendungen zu tun hat. Er meinte, daß auch der Mensch Entscheidungen auf Grundlage von Algorithmen treffe und alle Entscheidungen letztlich als mathematische Probleme formulierbar seien. Auch Ethik bestehe aus Regeln, die man mathematisch ausdrücken könnte. Da sich die Leistungsfähigkeit der Technologie weiterhin exponentiell entwickele, würden irgendwann autonome Systeme möglich sein, die auch in sensiblen Fragen bessere Entscheidungen als Menschen treffen könnten und sich auch die dazu erforderlichen Informationen über verbesserte Sensoren etc. selbst beschaffen könnten.
Diese Person ging aber davon aus, daß ein anderer Trend künftig stärker in den Vordergrund treten würde, nämlich die stärkere Verzahnung von Biologie und Technologie.
Wenn ich den Artikel „Land hinter Panzerglas“ lese kann ich nichts schlechtes an bewaffneten Land-Drohnen finden.
Fuer etwas absurd halte ich die Behauptung solche Systeme waeren per-se weniger Zuverlaessig als Menschen. Da werden Menschen, besonders solch in echter oder vermeintlicher Gefahr deutlich ueberschaetzt. Bei unbemannten Systemen kann ein deutlich hoeheres Risiko in Kauf genommen werden, daher sind deutlich riskantere ROE moeglich.
Gerade D muss sich an die Spitze hier setzen, eine Armee mit lauter Haeuptlingen und kaum Inidianern kann nicht auf diese Technologie verzichten. Umsomehr da es eines der wenigen Gebiete ist in dem ein technologischer Vorsprung einen Wesentlichen Vorteil bei konventionellen Waffen bietet.
@ Orontes
Selbst eine Bouncing Betty ist sowohl eine autonome Drone als auch ein Killerroboter (ein mechanisches Gerät, das selbstständig sein Ziel sucht und mit tödlicher Wirkung angreift). ;)
Und der Punkt ist: Wo die Bereitschaft da ist, soetwas einzusetzen, ist auch die Bereitschaft da, komplexere Systeme einzusetzen.
Derzeit ist es schlicht kaum technischer Mehraufwand bei sowieso vernetzten Systemen mit Videoüberwachung auch noch eine menschliche Kontrollinstanz zwischenzuschalten.
Sobald die Vorgänge aber zeitkritischer werden wird die aber früher oder später wegfallen. Vermutlich als erstes bei gegen Sniper- und Mörserangriffen gerichteten Systemen. Anhand der Geschossflugbahn den Herkunftsort berechnen, kurz gegenchecken dass sich der nicht in bebautem Gebiet befindet, Mörser/Rakete/Artillerie hinschicken. Dazu braucht es keine Menschen, Menschen haben eh nicht mehr Informationen als die Systeme, und die Reaktionszeit ist für einen möglichen Erfolg wesentlich. Falls es dann eben doch mal einen Schäfer oder eine Flüchtlingscamp erwischt, dann hatten die eben „Pech“ oder werden erstmal als getötete Terroristen verbucht. Alles nichts neues.
HRW sagt ganz klar, dass es diese Systeme derzeit noch nicht gibt. Aber der Weg dorthin ist vorgezeichnet.
„Kampfroboter sind eine Gefahr für die bestehenden Kriegswaffenkontrollgesetze, fasst Jürgen Altmann zusammen, sie könnten ein neues Wettrüsten in Gang setzen, dazu führen, dass die Schwelle, einen Krieg zu beginnen, sinkt, und zudem in die Hände von Terroristen fallen. Sie sind geeignet, die weltpolitische Lage insgesamt zu destabilisieren. Und weil lieber keiner darüber spreche, schließe sich das Fenster für Regulierungsbemühungen schnell. Ein wichtiger Band über ein viel zu unbekanntes Thema.“
Hans-Arthur Marsiske (Hrsg.): „Kriegsmaschinen“. Roboter im Militäreinsatz.
„Doch selbst wenn die Entscheidung über einen Angriff beim Menschen verbleibt, ist er auf die Angaben der Maschine angewiesen. Er handelt korrekt, wenn er den Routinen folgt, die die Maschine vorgibt, seine Verantwortung ist nicht mehr klar auszumachen.“ (Lora G. Weiss)
SCIENCE AND TECHNOLOGY LAW REVIEW http://www.stlr.org
„There is an opportunity to break this cycle with respect to lethal autonomous robotics. Enough concern and information exists now to consider appropriate governance models in a timely and proactive manner; yet, the time to take action is short before the current window of opportunity to design a relevant governance or oversight system for LARs closes.“
http://www.stlr.org/html/volume12/marchant.pdf
http://www.youtube.com/watch?v=SRHFXMzsHZU&feature=youtube_gdata_player
Und wenn der Taurus autonom eine Brücke als Ziel einprogrammiert bekommen hat, dieser vom Luftfahrzeug gestartet wird, dann fliegt dieser ins Ziel, ob sich auf der Brücke ein Schäfer oder ein vollbesetzter Schulbus befinden oder nicht, es gibt da keinen Rover der diesen fliegenden Roboter stoppen könnte.
@ orontes
zitat „…Er meinte, daß auch der Mensch Entscheidungen auf Grundlage von Algorithmen treffe und alle Entscheidungen letztlich als mathematische Probleme formulierbar seien.“
Mit diesem Satz haben Sie sich vermutlich dem Kern des Themas sehr weit genähert:
Es gibt gerade was neurologische Prozesse angeht verschiedene Theorien. Der von Ihnen zitierten Meinung liegt meiner Ansicht nach die gefährlichste zu Grunde. Sie degradiert den Menschen zu einem Ausführungsorgan und Mitteilungsempfänger (Bewusstsein). Eine Theorie geht noch weiter und zieht den „freien Willen“ des Menschen in Zweifel. Also die Fähigkeit den Entscheidungsprozess willentlich in Gang zu setzen.
Im Gegensatz zu der Meinung von TW , dass die Frage sei, ob ein Algorithmus oder der Mensch entscheide, bin ich der Meinung, dass dieses nicht das Kernproblem darstellt, denn der Algorithmus existiert nicht aus sich selbst heraus. Das Problem ist aus meiner Sicht, wann der Zeitpunkt für die Entscheidung gesetzt werden muss. Ist sie weit vor dem Ereignis dadurch definiert, dass eine Summe von Bedingungen definiert wird, die eintreffen müssen, oder ist sie zeitnah zum Ereignis das Ergebnis eines aktuellen Hirn (Denk-)prozesses, der vor dem Hintergrund der Moralität des Entscheiders stattfindet. Bei gelenkten Waffen ist das noch am Ehesten der Fall, wenn die technische Sensorik die Sinne des Menschen hinreichend genau abbildet.
Während wir im Strassenverkehr jedes unschuldige Opfer mit Entsetzen beklagen, und wir sehr viel unternehmen, um solche Opfer zu vermeiden, scheint durch den Schmerz eigener Verluste, sich eine gewisse Haltung der Akzeptanz der Unvermeidbarkeit von zivilen Opfern in kriegerischen Auseinandersetzungen einzustellen. Für mich stellt sich die beste Wahrscheinlichkeit solche Opfer zu vermeiden dann ein, wenn die letzte Entscheidung eine aktuell von einem Menschen getroffene ist.
Nur ein paar Gedanken zum Thema:
1. Auch Luftverteidigungssysteme konnten mWn bereits im Kalten Krieg auf autonom geschaltet werden und selbständig Ziele bekämpfen – egal ob Kampfflugzeug oder Airliner.
2. Unabhängig von der Frage der Zuverlässigkeit, Zivilisten und Kombattanten zu unterscheiden, möchte ich mal folgende Hypothese aufstellen:
Je weniger Kampftruppen an Kriegen beteiligt sind und je seltener diese in schwere Gefechte geraten, desto geringer die Anzahl der Übergriffe auf die Zivilbevölkerung sowie der Racheaktionen an gefangengenommenen Gegner.
3. Ermöglicht der Einsatz von unbemannten und autonomen Kampfroboter bei symmetrischen Kriegen nicht auch die Verringerung von menschlichem Leid?
Eine schöne Utopie wäre doch, wenn sich zwei Gegner auf ein unbewohntes Schlachtfeld einigen, auf dem sie ihre Roboter gegeneinander antreten lassen.
4. Problematisch bleibt aber die geringere Hemmschwelle sich an asymmetrischen Kriegen zu beteiligen.
Im Gegensatz zu @sd muss ich feststellen: Der Artikel “Land hinter Panzerglas“ ist ein klares Argument gegen Drohnen.
Die latente Ablehnung des AFG-Einsatzes in der Bevölkerung wird immer dann akut und politisch wirksam, wenn deutsche Soldaten fallen. Ähnliches gilt für die anderen postheroischen Gesellschaften der westlichen Welt, wenn auch nicht in gleichem Maße.
Auch wenn es zynisch klingt und ich hoffe, dass alle Kameraden gesund zurückkommen:
Ihr verlorenes Leben ist das wirksamste Korrektiv für politische Entscheidungen, die zu militärischen Abenteuern auf dünner, sicherheitspolitischer Grundlage geführt haben.
Wenn dieses Korrektiv fehlt, steigt auch die Wahrscheinlichkeit, sich an asymmetrischen Kriegen zu beteiligen. Das gilt insbesondere für war of choice.
Für den Entsendestaat sind diese Kriege unwahrscheinlich Ressourcen zehrend und meist wenig erfolgreich. Und die Bilanzen dieser Kriege sind für die Zivilbevölkerung einfach verheerend.
Als Beispiele seien genannt die Kriege in Afghanistan (insb. 1980-1989), Tschetschenien, Vietnam und Irak (ab 2003).
Den Mensch in der Entscheidungsschleife gibt es derzeit doch nur noch noch, weil:
– Die Drohnen für zuverlässige Entscheidungen noch nicht smart genug sind
– Dieser Mensch für die Akzeptanz des Waffensystems Drohne bei Militär und Gesellschaft noch nötig ist
– Das Zwischenschalten eines Menschen sich derzeit noch nicht negativ auf die Wirksamkeit auswirkt.
Aber letztlich gilt:
– Der Mensch muss mit Informationen durch die Drohne versorgt werden.
– Was sendet kann angepeilt werden
– Was angepeilt werden kann, kann auch abgeschossen werden.
Und in spätestens 10-20 Jahren, wenn die Technik dazu kein High-Tech mehr ist, hat sich das Thema ferngesteuerte Drohnen erstmal erledigt. Dann werden sich Politik und Streitkräfte zwischen menschengesteuerten und weitgehend autonomen Systemen entscheiden müssen.
Persönlich kann ich mir nur schwer vorstellen, dass illegale, hochriskante Missionen wie der Drohnenkrieg in Pakistan dann wieder von Menschen geflogen werden.
Eher wird man die autonome Drone dann in „Cell phone targeting anti-terrorist missile system“ umbenennen, darauf beharren dass die ja nicht autonom sei, weil ja Menschen den Start- und Landeort sowie das Missionsgebiet festlegen – und vor allem die anzugreifenden Handynummern vorgeben. Außerdem verfüge das System ja über aktuelle Karten, mit denen es schneller und gründlicher entscheiden könne als Menschen. Und humaner und wirkungsvoller als eine dumme, unflexible Cruise Missile sei es daher ja auch.
Und wenn dann doch mal ein feindliches Handy in einer neuen Klinik in den Stammesgebieten bombardiert wird, während die Bürgermeister der Region diese stolz ausländischen Journalisten präsentieren: Selbst schuld – hätten diese halt rechtzeitig an die CIA-Datenbanken melden sollen. Und wer sich in die Nähe von Terroristen begibt kennt ja das Risiko etc.
Schon jetzt ist der Trend bei den Nato-Staaten, nicht zuletzt bei ISAF: Bevor ein eigener Soldat stirbt, riskiert man lieber das Leben von dutzenden Zivilisten. Mit dieser Einstellung führt an Drohnen wohl kein Weg vorbei.
Ein ethischer Aspekt bekommt bei diesen Waffen wieder neue Bedeutung und man hat den Eindruck gewisse Überlegungen waren schon mal da.
„A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.“
The Three Laws of Robotics by Isaac Asimov
Aus der Erklärung der Menschenrechte von 1948
Artikel 10
Jede Person hat bei der Feststellung ihrer Rechte und Pflichten sowie bei einer gegen sie erhobenen strafrechtlichen Beschuldigung in voller Gleichheit Anspruch auf ein gerechtes und öffentliches Verfahren vor einem unabhängigen und unparteiischen Gericht.
Artikel 11
Jede Person, die wegen einer strafbaren Handlung beschuldigt wird, hat das Recht, als unschuldig zu gelten, solange ihre Schuld nicht in einem öffentlichen Verfahren, in dem sie alle für ihre Verteidigung notwendigen Garantien gehabt hat, gemäss dem Gesetz nachgewiesen ist.
Kein Land darf einfach so, in einem andern Land per Drohnenbeschuss Menschen liquidieren, auch nicht Verbrecher. Das ist Völkerrecht und dies ist unabhängig von der Plattform/Waffensystemen.
M.E sollte den Einsatz von Plattformen bei einem internationalen bewaffneten Konflikt in der Diskussion trennen vom Einsatz der WaSys als unterstützung für die Sicherung von Staaten im Innern, auch im Wissen, dass es Überschneidungen geben wird. Auch sollte man die WaSys in der Diskussion trennen in: „Die Wirkung und Zeitpunkt im Ziel wir durch den Menschen bestimmt (Sprengung, Geschoß kurze Distanz, Laserbeschuß) und ausgelöst und in autonome Systeme, wobei der Mensch weder Ziel noch Zeitpunkt direkt (personenbezogen) wählt (Mine, autonome Systeme).“ Systeme bei denen der Mensch das Ziel definiert und nur indirekt den Zeitpunkt (z.B. Flugzeit (Geschoß in hoher Distanz,Marschflugkörper)) oder Zeitpunkt aber nur indirekt das Ziel (Bombardement, ABC-Waffen) sollten auch betrachtet werden.
Auch die Selbstrschußanlagen an der Innerdeutschen Grenze hatte einen einfachen Algorithmus (wer die Auslösedrähte erreichte, hatte sich, nach überwinden von bestimmten Hindernissen, als Ziel qualifiziert) und bei einer Mine ist der Algorithmus noch einfacher, wer sich im verminten Gebiet befindet ist potentielles Ziel. Wer die Prozesse der Mauerschützen verfolgte, wird erkennen, dass es um viele Fragen ging, welche auch in Bezug auf Drohnenbediener zutreffen.
Beim Konflikt zwischen Staaten war es auch für die NATO Staaten selbstverständlich Minen zu verwenden. Bis weit in die neunziger Jahre hinein wurden Anti-Personenminen von Streitkräften, auch in demokratischen Ländern, als unverzichtbares Kampfmittel angesehen. Bis dahin gab es kaum einen Staat, der sie nicht in seinen Arsenalen hatte, und zu Zeiten des Kalten Krieges wurde ihre Legitimität weder durch die breite Öffentlichkeit noch die Politik in Zweifel gezogen. Der globale Handel blühte nahezu uneingeschränkt und viele staatliche und nichtstaatliche Akteure machten bei zumeist innerstaatlichen Konflikten ungehemmt Gebrauch von Landminen, ohne die langfristigen humanitären Folgen in Betracht zu ziehen.
Das „VN-Waffenübereinkommen“ hat, wie aus seiner vollständigen Bezeichnung deutlich wird, zum Ziel, den Einsatz bestimmter (Minen, Streumunition) konventioneller Waffen in erklärten Kriegen und anderen – grenzüberschreitenden und internen – bewaffneten Konflikten zu verbieten oder zu beschränken. Bislang haben 112 Staaten das Übereinkommen ratifiziert und 5 Staaten haben es gezeichnet.
Es ist nur eine Frage der Zeit welche Systeme als nächstes geächtet werden.
Marc, der Herr I. Asimov dachte mit den drei Gesetzten allerdings an autonome Roboter/Humanoide, die menschenähnliche Intelligenz besitzen – also Fähigkeit zur Reflexion und Abwägung und freies Entscheiden. Und selbst wenn ich falsch liege, Gesetze entstehen durch Menschenhand und werden durch selbige gebrochen oder geändert.
@ Elahan
Daraus lässt sich kein Rechtsanspruch ableiten. Es ist und bleibt eine unverbindliche Erklärung. Zudem befinden sich die Vereinigten Staaten im Krieg gegen einen nichtstaatlichen Akteure. Schwierige rechtliche Situation, die man so oder so auslegen kann. Aber auch hier gilt: Der Stärkere setzt sich durch.
@ MD
Zustimmung. Warum sollen Robotor Gesetze nicht brechen dürfen? Wir (Menschen) tun das auch jeden Tag.
@Roman
Es geht nicht darum, ob man einen Rechtsanspruch ableiten kann, gerade dann wenn man ihn nicht erfolgreich einklagen kann, sondern darum an was man sich selbst hält und welche Vorgaben man sich in seinem eigenen Rechtssystem gibt. In Europa ist die Tosdesstrafe verboten, obwohl sie in den USA erlaubt ist, trotzdem hält man sich in Europa an das Verbot.
Die Frage ist nicht: „was tut man?“ sondern „was will man in der Zukunft akzeptieren?“
„Können“ und „Dürfen“ ist eben ein Unterschied.
@ roman. ein weiter teil von asimovs werk dreht sich um die Frage, welche ungewollten implikationen sich aus den Gesetzen ergeben, in welche Konflikte dies die Maschinen stürzt. da werden oft ex post fehlfunktionen untersucht.
@md.
jeder, dessen gedanken weiter reichen als er spucken kann, baut vollautome systeme ebenfalls in seine szenarien mit ein. das problem der zunehmenden autonomie der maschinen ist ja nicht, dass sie gesetze brechen könnten, sondern das man für diese fehler niemanden verantwortlich machen kann.
„es war der draht, die lichtschranke, der algorithmus “ ist halt eine wohlfeile ausrede…
ot: Die Dinger sehen richtig cool aus. :-)
Die Frage ist meines Erachtens nicht, ob der Mensch in der Entscheidungskette notwendig oder überflüssig ist.
Gut möglich, dass „Entscheidungen“ der autonomen Systeme durchdachter und rational gesehen besser (in Hinblick auf Kollateralschäden etc.) sind.
Sollte aber auch nur ein einziger Fehler passieren, bei dem beispielsweise Zivilisten ums Leben kommen, bleibt die Frage: wer haftet, wer ist verantwortlich?
Der Hersteller, der Programmierer, die truppenstellende Nation?
Auf das Völkerrecht kommen hier einige umfangreiche Fragen zu.
Mag der Mensch auch hin und wieder eine Situation falsch einschätzen – er kann dafür (theoretisch) zur Verantwortung gezogen werden.
Ein unschlagbarer Vorteil gegenüber einer autonomen Drohne.
Ich sehe das angesprochene Problem von p.eter als auch von Markus und kann keine allgemeine Weisheiten zum Besten geben, zumal ich kein Jurist bin. Aber es stimmt schon, dass sich durch den Einsatz von Maschinen ein Verantwortungsdilema auftut, dessen Lösung ein sehr spanndendes Feld darstellt. (Wie auch das gesamte Thema künstliche Intelligenz und deren Implikationen auf letztlich die menschliche Existenz).
Autonome Roboter im Einsatz, kein Problem. Prämisse, ein menschlicher Controller überwacht den Einsatz in Real-Time mit der Möglichkeit in die Algorithmen einzugreifen. Und wenn es richtig brennt, einen Panic-Button zu drücken.
Es gibt doch bereits jetzt autonome System und dort gibt es Produkthaftung und Anwenderhaftung.
Ein Verantwortlicher wird halt benannt werden müssen und daraus ergibt sich rechtlich., als auch ethisch die Verpflichtung, dass die autonomen System so gut sein müssen, dass ihre Fehlerrate gleich null ist, denn es muss ein Mensch dafür haften und selbst wenn die autonomen Systeme besser sind (irgendwann) als der Mensch, so obliegt die Haftung stets beim Menschen. Dies lässt sich doch gesetztlich festhalten.
Gut, wir haben wieder eine hypothetische Unterscheidung:
1. Autonome Drohnen, die ihre Ziele selbstständig suchen und bekämpfen, also unkontrollierte Killerroboter, die nur noch für Wartungsarbeiten landen.
2. Programmierte Drohnen, bei denen der Nachteil des Sendens dadurch behoben wird, dass sie ein programmiertes Programm abfliegen und dabei nicht ständig gesteuert werden.
Das Problem: Auch wenn ein Roboter durch einen tollen Algorithmus vielleicht sogar „optimale“ Entscheidung träfe, was ich bezweifle, entbehrt er der Fähigkeit zu fühlen.
Ohne die Unvollkommenheit des Menschen und der Fähigkeit zur Irrationalität, wird unsere Menschheit zivilisatorisch stagnieren und keine moralische Fortentwicklung mehr leisten.
Etwas OT: Ich habe auch von diesen Superhirnen gehört, die den Menschen an die immer schnellere Technologie adaptieren möchten (Technikeinpflanzungen in den Körper usw.) anstatt die Technologie auf den Menschen und die Umwelt hin auszurichten. Meiner bescheidenen Meinung nach sind diese Menschen ethisch extrem fehlgeleitet, viel zu intelligent (fühlen sich überlegen) und bewegen sich in einer Fantasiewelt, in der das Leben als unvollkommen nichts wert ist. Vielleicht ein bisschen übers Ziel, aber der Mensch muss hier am Ruder bleiben. Wir beschleunigen und rationalisieren unsere Welt wie die Götter, wollen uns sogar fundamentale Dnge wie das Töten von Maschinen abnehmen machen lassen, damit wir uns nicht mehr die Finger schmutzig machen, sind aber zu blöde uns eine Welt zu schaffen, in der wir und der Rest der Umwelt gesund leben können und nicht darauf angewiesen sind, seltene Stoffe anzuzünden damit unser System noch funktioniert ^^
Der Punkt der Verantwortung ist hier sicherlich ein zentraler Aspekt.
Zumal es ja über programmierte Algorithmen hinaus so etwas wie artificial intelligence Konzepte gibt.
Weiß jemand wie der aktuelle Stand zu selbststeuernden Autos ist? Gibt es da eine ethische Diskussion?
Bzw ist geklärt wer die Verantwortung bei einem Unfall trägt?
@ p.eter
Ich verstehe ihre doch sehr moralisierende Frage nicht. Warum sollte jemand verantwortlich sein, wenn Zivilisten in einem Krieg umkommen? Es ist schließlich Krieg. Die verantwortlichen Akteure in der Politik, egal ob gewählt oder nicht, sollten sich dessen bewußt sein. Es gibt keinen Krieg ohne zivile Opfer. Wir Soldaten kämpfen um Zivilisten, in bewohnten Gebieten, auch gegen Zivilisten/Rebellen. Seit Jahrtausenden war das so, es ist derzeit so und es wird wohl auch in Zukunft sein.
Das mag jetzt zynisch klingen, aber es gehört zum Krieg dazu, das Zivilsten verwundet werden, sterben, großes Leid entsteht. Solange das nicht mit Vorsatz entsteht, ist es meiner Meinung nach gelebte und akzeptierbare Realität. Alles andere ist romantisches Geschwätz ohne Bezug zur Realität. Wenn man das vermeiden will, dann darf es keinen Krieg geben. Wenn es ihn aber gibt, dann MUSS das Streben nach dem Sieg im Vordergrund stehen.
@ urbanpionier
Warum ist der Punkt der Verantwortung ein zentraler Aspekt? Wollen Sie zusammen mit den semibeliebten Wehrdisziplinaranwälten schon auf Hexenjagd gehen?
Niklas, Empathie und Mitfuehlen oder gar primaere Emotionen sind per definition Lebewesen und hier ganz I’m Speziellen dem Menschen zuzuschreiben. Nur dieser unterliegt der Handlungsmotivation durch die genannten Punkte und ist I’m Umkehrschluss diesen, durch das Handeln anderer, unterworfen. Ein autonomer Roboter oder Humanoid wird niemals diese Dinge erleben und erfahren koennen, denn er wird programmiert. Es gibt also maximal eine Annaehrung andessen, was menschlich sein kann. Er wird ja auch vom Menschen initial hergestellt und eine Evolotion (I’m biologischen Sinne) findet durch Menschenhand statt, spaeter erst sind Roboter in der Lage sich selbst oder andere Modelle zu konstroieren oder zu bauen. Der Unterschied ist aber, sie werden nicht biologisch geboren, sondern technisch gebaut. Maschinen oder moderner Roboter werden also nie ‚Fuehlen‘ wie Menschen und niemals Emotionen haben, sondern stets Imitationen ausfuehren. Deshalb ist es zwingend notwendig, auch super effiziente autonome Systeme, diesen den Menschen unterzuordnen. Auch gerade deshalb, um ein extremes Beispiel zu bemuehen, dem eigenen Untergang zu entgehen! Sollten tatsechlich einmal so gute autonome Systeme entshenen, die den Menschen ersetzten koennten, bestuende ein Wettkampf, eine darwinistische Evolution, zwischen der biologischen Spezies Mensch und dem technischen System Roboter – und es koennte gut sein, dass wir diese Evolution verloeren. (Sry fuer OT, es ist so spannend das Thema Drohne)
@Roman
„Ich verstehe ihre doch sehr moralisierende Frage nicht. Warum sollte jemand verantwortlich sein, wenn Zivilisten in einem Krieg umkommen?“
Weil immer jemand verantwortlich ist! Ob dieser rechtlich greifbar ist, wäre eine andere Frage!
„Es ist schließlich Krieg. Die verantwortlichen Akteure in der Politik, egal ob gewählt oder nicht, sollten sich dessen bewußt sein. Es gibt keinen Krieg ohne zivile Opfer. “
Die Frage ist nicht ob es ziv Opfer gibt oder nicht, die Frage ist, werden sie bewuß getötet oder ausversehen!
„Wir Soldaten kämpfen um Zivilisten, in bewohnten Gebieten, auch gegen Zivilisten/Rebellen. “
Doch wir sind angehalten die Verhältnismäßigkeit zu wahren und Zivilisten sollten nich das Ziel von Angriffen sein.
„Seit Jahrtausenden war das so, es ist derzeit so und es wird wohl auch in Zukunft sein.“
Was Europa, Australien, und Amerika betrifft haben wir fast erfolgreich diese Folge durchbrochen.
„Das mag jetzt zynisch klingen, aber es gehört zum Krieg dazu, das Zivilsten verwundet werden, sterben, großes Leid entsteht.“
Aber es sollte wie Sie selbst sagen: „nicht mit Vorsatz entstehen“
„Wenn ma das vermeiden will, dann darf es keinen Krieg geben.“
Genau das ist das Ziel des Handelns unseres Staates.
„Wenn es ihn aber gibt, dann MUSS das Streben nach dem Sieg im Vordergrund stehen.“
Das muss nicht so sein, denn der Friede/Waffenstillstand sollte im Vordergrund stehen und dieses Prinzip wurde in vielen Kriegen angewendet.
bzgl der Autogeschichte.
afaik ist der aktuelle stand wie folgt.
es gibt in kalifornien (evtl auch nevada) eine sonderzulassung für autonome Fahrzeuge im Straßenverkehr. bin mir unsicher ob das ein lex google ist oder ob es inzwischen auch andere anbieter gibt.
die Fahrzeuge dürfen sich in freier Wildbahn vollautonom bewegen, es muss jedoch immer ein menschlicher Fahrer an Board sein, der im notfall den „manual override button“ drücken kann.
für entstehende schäden wird der konzern haftbar gemacht.
spannend wird das alles, wenn auch eine allgemeine zulassung für solche Fahrzeuge anvisiert wird.
@ roman. mal ein beispiel aus der jüngeren geschichte. als die tanklaster bombardiert wurden, gab es einen verantwortlichen der den entsprechenden Befehl gegeben hat, und vorgeschobene Beobahchter, die Informationen geliefert haben.
bei Fällen wie diesem wo tatsächlich nicht klar war, wer da wie und ob falsch gehandelt hat hatte man immerhin die möglichkeit da eine untersuchung zu starten und verantwortung einzufordern („kommen sie zur bundeswehr, übernehmen sie verantwortung“).
denken wir das szenario mal 10 jahre weiter und lassen die zivilisten einfach nur aus neugier um den laster herumstehen. niemand stiehlt, niemand hilft den insurgents, aber die drohne mit den GBUs klassifiziert die wuselnden IR signaturen trotzdem als legitimes ziel. wen will man dann zur verantwortung ziehen ?
@ markus
Ich wiederhole mich: Warum sollte man jemanden oder etwas zur Verantwortung ziehen? Es ist Krieg. Ein gefährlicher Zustand. Menschen sterben. Wer als Zivivlist sich am ort von Kampfhandlungen befindet, muss damit rechnen, dort umzukommen.
Na ja, das Völkerrecht hat sich in den vergangenen 60 Jahren schon ein bisschen weiter entwickelt und das „selber Schuld, was ist er da“ greift so einfach nicht mehr.
@Roman | 26. November 2012 – 23:28:
Tatsächlich? Jeden Freitag und Sonntag nutzen viele Soldaten den Schienenverkehr, um zwischen Kaserne und Heimat zu pendeln. Sind dann alle Zivilisten, die auch mit der Bahn fahren, selbst Schuld, weil wer sich am Ort von usw.?
Der Trend scheint da zu sein. Es gibt einige gewichtige Faktoren, welche dafür sprechen, dass teilautonome und autonome Systeme in naher Zukunft eine größere Rolle spielen.
Neue Techolgie bringt immer viele Fragen mit sich.Genau genommen haben wir es hier aber mit ganz unterschiedlichen Technolgien zu tun. (In diesem Fall ist naturgemäss auch nicht ganz öffentlich wie und auf welchem Stand die einzelnen Systeme funktionieren.) Wichtig ist hier wohl, insbesondere für die aktuelle Diskursion, die unterschiedlichen Systeme und Abstufungen (unbemant, Mustererkennung, Filterung und andere eingesetzte Algorithmen und ggf. sogar AI -Anteile) und damit verbundene Eigenschaften, Probleme sowie den Aspekt des Umgangs mit der jeweiligen Technolgie differenziet zu betrachten und zu trennen. Einiges wurde hier ja schon angesprochen aber es geht doch noch viel durcheinander. Ich persönlich sehe hier, fehrnab von der Frage bewaffneter Drohnen für die Bundeswehr, insbesondere mit dem Augenmerk auf den Trend der Autonomisierung von Waffensystemen die Entwicklung eher mit großem Unbehagen.
@ TW
Das mag sein. Dennoch war auch 1943/44 die Lage klar. Wer in einer Großstadt wie Hamburg, Dresden oder Köln wohnte (warum auch immer), ist ein erheblich höheres Risiko eingegangen als der Bewohner von Bautzen, Amelinghausen oder Wittstock. Und wer dann doch bei dröhnendem Motorengeräusch vom Himmel her in den Straßen spazieren ging, naja, der erhöhte seine Chance auf sein Ableben erheblich.
So war es letztendlich doch auch im Beispiel von markus: Kriegsgebiet, alltägliche Kämpfe zwischen diversen Parteien. Der Tod kommt auch öfters von Himmel. „Böse Leute“ haben etwas wichtiges im Fluss festgefahren. Jetgeräusche am Himmel. Wer jetzt dann noch da hinläuft, um zu klauen, zu schauen oder was auch immer, der kann sich im Falle eines Angriffs doch nicht auf das Völkerrecht berufen. Wer als Zivilist in die Gefahr hinein handelt, kann sein Leben verspielen. Das Völkerrecht erwartet von den Zivilisten, das sie Gefahrengebiete meiden. Also des Nachts im Häuschen sitzen. Oder, wenn sie meinen arbeiten zu müssen, sich selbst erkennen zu geben und bei erkennbarer Gefahr den Ort verlassen.
Letztendlich stört mich aber nicht der Zivilist etc. hier in der Diskussion, sondern die typisch deutsche Suche nach dem Verantwortlichen. Oder eben die Suche nach einem anderen armen Typen, auf den man die Verantwortung abwälzen kann. Wozu? Um ihn zu bestrafen? Dafür, das er vesucht hat, so gut es geht seine Pflicht zu tun? Das Völkerrecht sieht das in so einem Fall auch nicht vor. Damit sollte die Diskussion um Verantwortung auch nicht irgendwelche Detailliertheit annehmen, die gar nicht erforderlich ist. So lange der über das System verfügende Offizier oder der Bediener nicht erkennbar sagt: „Harr, Harr, heute kille ich wieder ein paar Zivis, Harr Harr.“ (also kein Vorsatz vorliegt) braucht man die Frage nach der Verantwortung nicht stellen. Selbst wenn das System eine Fehlerquote von 50 (70 oder 89 %) bei der Zielerkennung hat, dann ist es höchsten grobe Fahrlässigkeit. Denn der Offizier wollte bestimmt, das es gut ausgeht. Das reicht.
Im übrigen ist diese Suche nach dem Schuldigen in meinen Augen auch immer eine Frage nach dem Selbstverständnis eines Offiziers. Derjenige, der aus freiem Willen heraus den Befehl zum Einsatz des Systems gibt, ist der Verantwortliche. Und hierbei steht eben das System als Ganzes im Fokus. Nicht der Programmierer, der Hersteller, der schichtführende Offizier/Feldwebel der Droheneinheit oder der Drohnenpilot an sich sind in Gesamtverantwortung. Der befehlende Offizier muss die Möglichkeiten und Grenzen seines Systems kennen, in der Lage sein, die Bedingungen und Risiken gegeneinander abzuwägen und dann eben zu seiner Entscheidung stehen. Alter Spruch, den ich immer dazu sage und jeder von Ihnen schon tausende Male gehört hat: Verantwortung ist unteilbar.
@ zog
Ihr Beispiel habe ich nicht verstanden. Wie am Ort von usw.?
Am Ort von Kampfhandlungen. Vom berüchtigten Tanklaster-Beispiel ausgehend. Wer sagt denn, dass die Kampfhandlungen auf Afghanistan beschränkt sind?
Wenn ich aber sowas lese: „Selbst wenn das System eine Fehlerquote von 50 (70 oder 89 %) bei der Zielerkennung hat, dann ist es höchsten grobe Fahrlässigkeit. Denn der Offizier wollte bestimmt, das es gut ausgeht. Das reicht.„, dann frage ich mich, ob sich das diskutieren überhaupt noch lohnt.
@Zog
… und grobe Fahrlässigkeit (bewußtes Mißachten von Vorschriften) ist nach Disziplinarrecht Vorsatz.
Wir nähern uns dem rücksichtslosen Kämpfer wieder an und alles wird einem scheinbaren Sieg untergeordnet und vergessen dabei die nachhaltige Wirkung.
gerade diese Verantwortung wird bei einem Angriff eines Taurus auf eine Brücke mit Schulbus auf das System übergeben!
Wir haben schon das Dilemma der autonomen Systeme mit dem Taurus. Beim Endanflug auf das Ziel kommt der bilddarstellende Infrarotsucher zum Einsatz, doch dieser erkennt eben keine Zivilisten oder Fahrzeuge mit geschützten Personen.
Natürlich hatten die Verantwortlichen der Flächenbombardements und Atombombenabwürfe vor ein Gericht gehört aber es gab wohl nur wenige Kläger und Möglichkeiten der Vollstreckung und Den Haag spielte damals noch keine Rolle!
Der im Jahr 2009 verstorbene ehemalige US-Verteidigungsminister und Weltkriegs-Veteran Robert McNamara erklärte im Jahr 2003: „LeMay sagte, falls wir den Krieg verloren hätten, wären wir alle wegen Kriegsverbrechen vor Gericht gestanden – und ich denke, er hat recht!“
@ zog
Welche Sicherheiten haben den SMART155 Geschosse? Bei schnellfahrenden Zielen? Können sie befreundete T72 von feindlichen Panzern unterscheiden? Den Beutepanzer mit gesetzten Fliegersichtzeichen vom Feind?
Viele Jahre lang wurde es akzeptiert (und ist es meines Wissens nach immer noch), das LFK zur Abwehr/Bekämpfung von Schiffen diese nur bedingt unterscheiden können. Das in einem Flottenverband der/die Träger aufgrund ihrer Größe herausgepickt werden können, ist klar. Aber dann? Die Unterscheidung ob Hilfs-, Tross- oder Versorgungsschiff kann der LFK nicht wirklich. Ob ein Truppentransporter nun Soldaten, Gefangene oder Zivilisten geladen hat, sieht/erkennt er nicht. Egal ob das Ding weiß mit rotem Kreuz oder einem riesigen POW auf der Seite. Besonders schwierig wird es dann, wenn rekrutierte Zivilschiffe eingesetzt werden. Dennoch wird ein Offizier den Angriff befehlen, bietet sich doch die Gelegenheit, einen Großverband mit einem Angriff auszuschalten.
@ Elahan
Diese Dilemma gibt es schon seit der ersten Steinschleuder, der ersten Kanone, der ersten Mine zu Land oder See. Man weiß halt nicht, wie die Situation gerade tatsächlich ist, wenn die Wirkladung ausgelöst wird/ das Geschoss einschlägt. Das ist halt die Realität. Im Krieg sterben auch ungewollt Menschen.
Zu McNamara gibt es nur zu sagen: Der Sieger schreibt die Geschichte. Hätte der GröFaZ gewonnen, wäre die Verbrechen der kämpfende Truppe ungesühnt geblieben. Statt dessen wären die Wachmannschaften der Gulags und der beteiligten Soldaten in Katyn angeklagt worden. Wenn überhaupt.
@Elahan „Natürlich hatten die Verantwortlichen der Flächenbombardements und Atombombenabwürfe vor ein Gericht gehört aber es gab wohl nur wenige Kläger und Möglichkeiten der Vollstreckung und Den Haag spielte damals noch keine Rolle!“
Dazu folgendes: Das Londoner Statut (Rechtsgrundlage für die Nürnberger Prozesse) sah ausdrücklich vor, dass die Angeklagten den Vergleich zur Praxis der Allierten nicht als Rechtsgrund heranziehen durften. Dahinter stand die Vorstellung, dass die Nazis=Deutsche so böse waren, dass jedes Mittel gerechtfertigt war. Es sollte jede Befassung mit alliertem Vorgehen ausgeschlossen werden. Entsprechende Beweisanträge wurden mit einer Ausnahme auch sofort abgeschmettert. Praktisch gelungen ist so ein Schritt einmal dem Verteidiger von Dönitz, der sich einen prozesstaktischen Fehler der Anklage zunutze machte und damit Dönitz wohl den Kopf gerettet hat. Er konnte ein Gutachten der US-Marine zur Praxis Seekriegsführung erzwingen, dass für die Alliierten verheerend ausfiel.
Ich meinte nicht als Opfer ausdrücklich die Reichsdeutschen, Flächenbombadierungen fanden nicht nur über Reichsgebiet und auch nicht nur bis 1945 statt!
Darüberhinaus ist es nie rechtsstaatlich, wenn man Vergleiche ausschließt. Mord ist Mord und Kriegsverbrechen sind Kriegsverbrechen, ob im Namen der Demokratie oder einer schwachsinnigen Ideologie sei dahingestellt.
(Es ist klar dass der Sieger die Geschichte schreibt und nicht seine siegreichen Soldaten verurteilt, aber müssen wir diese Sichtweise übernehmen?)
@ roman, nun gut, ein anderes szenario, da zivilisten in ihrer welt offensichtlich freiwild sind, was wäre denn, wenn so ne drohne autonom die eigene truppe aufs korn nimmt?
es ist mal wieder karfreitag*, team rot schießt auf team blau und umgekehrt, und die drohne von team blau glaubt bei der eigenen truppe ne menge bärte ausgemacht zu haben (oder halt ein anderes kriterium, was zu klassifizierung als ziel taugt). am ende liegen ein paar dingos auf dem dach …
wer erklärt DAS zu hause ?
*tl:dr – was tun bei Friendly fire durch autonome Systeme?
In meiner welt waren koordinaten heilig, eben weil Fehler dort zu verdampften kameraden und peinlichen Fragen führen würden … Fragen die sich auch ein Pilot nach fehlgeleitetem CAS gefallen lassen müsste, oder jeder andere in der entsprechenden Befehlskette.
@Hans
…..Nein! Denn genau dies ist das nicht nachaltige Vorgehen der USA und gerade deshalb haben sie ihre Glaubwürdikeit, besonders im Nahen Osten, verspielt! Moral kann die Grundlage von Recht sein, muss aber nicht! Wer aber langfristig glaubwürdig sein möchte (und ein erfolgreicher Staat sollte dies sein) sollte sein Recht auf der Moral mind. im kleinen gemeinsamen Nenner seiner Bevölkerung aufbauen. Was du nicht willst was man dir tut…….
Hier ein aktueller Aufsatz zum Thema Maschinenethik, der auch das Drohnenthema streift, die Notwendigkeit „ethischer Subroutinen“ erwähnt, Asimovs Robotergesetze kritisiert und die Forderung von HRW; eigene Menschen statt Roboter im Krieg zu opfern, unrealistisch und menschenverachtend bewertet.
http://www.newyorker.com/online/blogs/newsdesk/2012/11/google-driverless-car-morality.html
Jede Opferung von Menschen ist menschenverachtend, nicht nur die Opferung „eigener“. So ist mir das zumindest im Elternhaus und in der Schule beigebracht worden. Man kann das Engagement von Human Rights Watch vielleicht als unrealistisch idealistisch bezeichnen, aber es als menschenverachtend einzustufen, das pervertiert den Sachverhalt.
(George S. Patton, 1885—1945)
Vielleicht auch interessant: Diese heute geleakte amerikanische Präsentation über „Unmanned Ground Vehicles“.
http://info.publicintelligence.net/AMCB-UGVs.pdf
@KeLaBe
„Menschenverachtung“ impliziert Unangemessenheit. Es ist m.E. grundsätzlich unangemessen, eigene Soldaten zu opfern, wo dies nicht erforderlich wäre. Gegenüber der gegnerischen Seite sieht das anders aus, da es hier zwangsläufig darum geht, militärische Wirkung zu erzielen, was bedeutet, daß hohe Verluste beim Gegner erforderlich und somit angemessen sein können. Menschenverachtend wäre es nur, beim Gegner Verluste anzustreben, die über den militärischen Zweck hinausgehen.
@ Orontes
„Menschenverachtend wäre es nur, beim Gegner Verluste anzustreben, die über den militärischen Zweck hinausgehen.“
Genau das verstehe ich semantisch unter „opfern“. Es hat nichts mit dem legitimen Kämpfen eines Soldaten in einem kriegerischen Konflikt zu tun. Das weiß ich auch.
Mir ging es aber in erster Linie darum, die aus meiner Sicht völlig unverzichtbare Arbeit der Menschenrechtsorganisationen wie HRW grundsätzlich vor so pauschalen wie deplatzierten Anfeindungen zu schützen. Und wenn man deren (in Einzelfällen vielleicht auch überzogene) Kritik nicht aushält, dann ist es auch mit der Menschenachtung nicht weit her.