Zum Hauptinhalt springen

Vollautonome letale Waffensysteme und Kollateralopfer

Ausgehend von den Erfahrungen der Geschichte ist wohl leider anzunehmen, dass die Menschheit auch weiterhin Kriege führen wird. Die Geschichte zeigt auch, dass technische Neuerungen das Töten immer wieder effizienter gemacht haben, beispielsweise die Erfindung des Langbogens, der Artillerie, des Panzers, des Flugzeugträgers oder der Kernwaffen. Nach verbreiteter Ansicht hat jede dieser neuen Techniken eine Revolution in Military Affairs (RMA) mit sich gebracht, da sich durch sie die Kriegsführung jeweils grundlegend veränderte. Heute wird die Robotik von vielen als potenzielle neue militärische Revolution angesehen, insbesondere angesichts der zunehmend autonom1 agierenden Gefechtssysteme.

Auf modernen Kriegsschauplätzen sind Robotiksysteme weit verbreitet und werden zur Informationsgewinnung, Überwachung, Aufklärung, Zielerfassung, Kennzeichnung und für Kampfhandlungen eingesetzt. Viele Systeme verfügen entweder bereits heute über begrenzte Autonomie, oder diese ist in der Entwicklung begriffen. Das reicht vom Phalanx-System, „fähig zur autonomen Abwicklung von Diagnosefunktionen für Suche, Erkennung, Beurteilung, Verfolgung, Angriff und Tötung“2, über Fire-and-Forget-Lenkwaffen, im Zielbereich kreisende Lenkwaffen wie Loitering Torpedoes bis hin zu intelligenten U-Boot- und Panzerabwehrminen, um nur einige zu nennen. Mit fortschreitender Autonomie solcher Systeme werden sich Taktik und Präzision verändern. Und möglicherweise werden sich – bei richtiger Anwendung – gar Grausamkeiten reduzieren lassen, wie es eine Studie des Georgia Tech Mobile Robot Laboratory (GT-MRL) skizziert.3

Der vorliegende Beitrag vertritt die Auffassung, dass es in Zukunft möglich sein könnte, intelligente, autonome militärische Robotiksysteme zu entwickeln. Und diese Systeme könnten im Vergleich zu menschlichen Kampfeinheiten in der Lage sein, die Anzahl ziviler Opfer und die Beschädigung zivilen Eigentums deutlich zu senken. Es wird somit die These aufgestellt, dass die von mancher Seite4 geäußerten Rufe nach einem Totalverbot dieser Technologien voreilig sind. Dennoch muss bei ihrem Einsatz der Grundsatz gelten, dass vollautonome Waffensysteme nicht etwa willkürlich, sondern grundsätzlich nur in begrenztem Rahmen, mit Vorsicht und stufenweise bei Kampfhandlungen eingesetzt werden dürfen, was meiner Meinung nach mit dem bestehenden Humanitären Völkerrecht vereinbar ist.

Die Streitkräfte haben bereits zahlreiche potenzielle Vorteile intelligenter Kriegsmaschinen dargelegt, wie etwa: weniger Verluste durch Beschuss aus den eigenen Reihen, Verstärkung der Streitkräfte, Ausdehnung des Gefechtsfelds, größere Reichweite der Streitkräfte, raschere Reaktionsmöglichkeiten angesichts eines beständig steigenden Gefechtstempos und höhere Präzision dank Persistent Stare [dauerhafte Videoüberwachung, die das Zeitfenster für die Entscheidungsfindung erweitert und es möglich macht, ein Ziel mit mehreren Augen zu verfolgen]. Im Hinblick auf die militärische und wirtschaftliche Effizienz scheint die Entwicklung und der Einsatz vollautonomer Waffensysteme nur folgerichtig zu sein – insofern das Humanitäre Völkerrecht nicht verletzt wird. Zudem weist die Einhaltung rechtlicher und ethischer Grundsätze auf Kriegsschauplätzen durch Menschen sowohl in der Vergangenheit als auch in der Gegenwart eine bestenfalls fragwürdige Bilanz auf. Was ethisches Verhalten im Krieg angeht, so bietet die Menschheitsgeschichte ein insgesamt eher trauriges Bild. Vor allem folgende Punkte dienen als Erklärungsansätze für die fortwährende Begehung von Kriegsverbrechen5: hohe eigene Verluste mit daraus folgenden Rachetendenzen; starke Fluktuation in der Befehlskette und hieraus folgende Führungsschwäche; Entmenschlichung des Feindes durch Verwendung abwertender Bezeichnungen und Schimpfnamen; schlecht ausgebildete oder unerfahrene Truppen; das Fehlen eines klar definierten Feindes; unklare Befehle, die fälschlicherweise als Aufruf zu ungesetzlichen Handlungen ausgelegt werden können; junge, unreife Soldaten; äußerer Druck, z. B. der, beim Feind hohe Verluste verursachen zu sollen, und die Lust an der Macht zu töten sowie überwältigende Frustrationsgefühle. Es besteht also eindeutig Raum für Verbesserungen. Autonome Systeme könnten dabei helfen, einige dieser Probleme anzugehen.

Richtig eingesetzt könnte die Robotik helfen, das Leid der in Kampfhandlungen verwickelten Zivilbevölkerung zu mindern. Kommt sie jedoch ohne angemessene Vorsichtsmaßnahmen zur Anwendung, könnte dies die bestehenden Übergriffe durch Soldaten eher noch verschärfen. Ich habe die größte Achtung für unsere jungen Soldatinnen und Soldaten, aber in der modernen Kriegsführung sind sie Bedingungen ausgesetzt, für die kein menschliches Wesen geschaffen ist. In einem solchen Umfeld erscheint vielen Soldaten6 die Erwartung einer strikten Einhaltung des Kriegsrechts überzogen und unerreichbar. Grausamkeiten auf dem Schlachtfeld gibt es seit dem Beginn der Kriegsführung, und trotz der Einführung des Humanitären Völkerrechts im Laufe der vergangenen rund 150 Jahre bestehen diese Tendenzen fort und sind gut dokumentiert7, besonders im Zeitalter von CNN und Internet.

„Seit undenklichen Zeiten haben Armeen, bewaffnete Gruppen, politische und religiöse Bewegungen Zivilisten getötet.“8 „Gräueltaten … sind die abstoßendste Seite des Kriegs, und dasjenige dem Menschen Innewohnende, welches ihn befähigt, diese Handlungen zu verüben, stellt die abstoßendste Seite des Menschen dar.“9 Die Gefahren des Missbrauchs unbemannter Robotiksysteme im Krieg, wie etwa der Drohnen Predator und Reaper sind ausreichend belegt; sie treten sogar dann auf, wenn ein menschlicher Bediener direkt verantwortlich ist.10

Angesichts dieser Fakten stellt sich nun die Frage, ob und inwiefern die neuen Robotiksysteme in der Lage sein können, das geltende Humanitäre Völkerrecht genauso gut oder sogar besser als unsere Soldaten zu befolgen. Könnte dies erreicht werden, gäbe es weniger Kollateralschäden, also Opfer in der Zivilbevölkerung und Zerstörungen zivilen Eigentums; das Leben Unschuldiger würde geschont. Dieser Aspekt könnte sogar eine moralische Verpflichtung zum Einsatz dieser Systeme nach sich ziehen. Die in unserem Labor11 durchgeführten Forschungen betrachten diese Frage direkt aus der Sicht der Entwicklung [solcher Systeme]. Nichts läge uns ferner, als zu behaupten, dass unsere Forschung eine per sofort einsatzfähige Lösung des Problems lieferte. Wir bewegen uns vielmehr in winzigen Schritten auf dieses Ziel zu, einschließlich der Entwicklung eines in Simulationen getesteten prototypi­schen proof-of-concept-Systems. Vielleicht wären auch noch viel bessere Ansätze denkbar als der von uns aktuell verfolgte, wenn die Wissenschaft sich auf die Not der Zivilisten sowie die Verbesserung der Lage mithilfe technologischer Mittel konzentrieren könnte.

Roboter sind bereits jetzt schneller, stärker und in einigen Fällen (z. B. Deep Blue, Watson12) intelligenter als Menschen. Warum fällt es uns dennoch so schwer uns vorzustellen, dass sie irgendwann fähig sein könnten, uns auf dem Schlachtfeld menschlicher zu behandeln als wir Menschen selbst – obwohl sich menschliche Kampfkräfte in diesen Situationen immer wieder furchtbare Grausamkeiten zuschulden kommen lassen?

Warum Technologie die Anzahl von Kriegsopfern reduzieren kann

Gibt es nun Anlass zur Hoffnung, dass die genannten Technologien zur Verringerung von Todesfällen und Verletzungen bei Zivilisten beitragen können? Ich bin aus folgenden Gründen hiervon überzeugt: 

  •  Diese Technologien können so eingesetzt werden, dass Menschenleben geschont werden: Autonome Systeme müssen sich auch nicht selbst schützen, wenn ein Ziel nur mit geringer Sicherheit identifiziert werden konnte. Autonom gepanzerte Roboterfahrzeuge müssen sich nicht in erster Linie selbst erhalten – möglicherweise sogar überhaupt nicht. Sie können bei Bedarf und entsprechender Lage geopfert werden, ohne Vorbehalte seitens der Kommandeure. Es besteht keine Notwendigkeit für den Ansatz „Erst schießen, dann hinterfragen“; vielmehr kann die Strategie „Zunächst jeglichen Schaden vermeiden“ zum Tragen kommen. Die neuen Technologien können zum Wohle der Zivilisten bestimmten Risiken ausgesetzt werden. Darauf sind theoretisch auch Soldaten trainiert. Für viele gestaltet sich die Umsetzung in der Praxis jedoch als schwierig.
  •  In der Zukunft wird eine breite Auswahl an Sensoren für Roboter entwickelt und eingesetzt werden, die im Vergleich zu den gegenwärtig erhältlichen Geräten besser für die Gefechtsfeldüberwachung geeignet sind. Technische Fortschritte in den Bereichen Elektrooptik, synthetische Apertur, wanddurchdringendes Radar, Akustik und Überwachung seismischer Aktivität kommen hier zum Tragen. Man darf davon ausgehen, dass Robotiksysteme in Zukunft in der Lage sein werden, den Kriegsnebel wirkungsvoller zu durchbrechen, als Menschen es je könnten.
  •  Unbemannte Robotiksysteme können ohne Berücksichtigung menschlicher Emotionen entwickelt werden, die die Urteilskraft trüben oder in Wut und Frustration über Geschehnisse auf dem Schlachtfeld münden könnten. Zudem gilt: „Angst und Hysterie sind im Kampf immer latent und oft real vorhanden. Sie bringen uns zu angstbestimmten Maßnahmen und kriminellem Verhalten“13. Autonome Maschinen müssen solche Emotionen nicht durchleiden.
  •  Das beim Menschen auftretende psychologische Problem des scenario fulfillment – also der unter Stress ausgeführten, zuvor eingeübten Routinehandlung – kann vermieden werden. Denn dieses Phänomen führt zur Verzerrung oder Vernachlässigung widersprüchlicher Informationen in Stresssituationen; Menschen passen unter Druck neu hinzukommende Information in ihre vorgefertigten Glaubensmuster ein. Roboter weisen hingegen keinerlei Anfälligkeit zur voreiligen kognitiven Schlussfolgerung auf. Man geht hingegen davon aus, dass es genau solche menschlichen Fehlurteile waren, die im Jahr 1988 zum Abschuss eines iranischen Linienflugzeugs durch die USS Vincennes14 führten.
  •  Intelligente elektronische Systeme können, ehe sie mit tödlicher Kraft zurückschlagen, mehr Informationen aus mehr Quellen und in wesentlich kürzerer Zeit verarbeiten, als es Menschen in Echtzeit je vermögen würden. Daten können durch eine Reihe von Fernsensoren und Aufklärungsquellen (auch menschliche) gewonnen werden. Dieser Ansatz fügt sich in das Konzept der vernetzten Kriegsführung der US-Streitkräfte sowie in das Global Information Grid, das globale Informationsnetz des Pentagon, ein. „Die für die nahe Zukunft zu erwartenden militärischen Systeme werden zu schnell, zu klein, zu zahlreich sein und eine Umgebung schaffen, die durch ihre große Komplexität das menschliche Steuerungsvermögen übersteigen wird.“15
  •  Werden menschliche Soldaten in einem gemischten Team mit organisch integrierten autonomen Systemen eingesetzt, können die neuen Technologien eine unabhängige und objektive Überwachung der Einhaltung ethischer Grundsätze auf dem Gefechtsfeld sichern, Beweismaterial erstellen und beobachtete Verstöße melden. Allein ihr Vorhandensein könnte bereits eine Abnahme der Regelverstöße bewirken.

Erwiderungen auf einige Gegenargumente

Natürlich können an diesem Punkt zahlreiche Gegenargumente angeführt werden. Wie sollen diejenigen ermittelt werden, die für Kriegsverbrechen verantwortlich sind, wenn autonome Waffensysteme eingesetzt wurden? Könnte die Hemmschwelle vor einem Kriegseintritt sinken? Könnten die Streitkräfte Vorbehalte geltend machen, Robotern das Recht zur Befehlsverweigerung zu gewähren? Wären negative Auswirkungen auf den Zusammenhalt oder die Motivation der Truppen zu erwarten? Wäre die Netz- und Informationssicherheit gewährleistet? Könnten diese Technolo­gien in falsche Hände geraten? Wäre eine schleichende Ausweitung militärischer Missionen zu befürchten?

Ich glaube, auf diese Fragen lassen sich gute Antworten finden, und ich habe diese an anderer Stelle bereits erörtert16. Ist das Hauptkriterium, dass Roboter hinsichtlich der Einhaltung des Humanitären Völkerrechts auf dem Gefechtsfeld eine höhere Regelkonformität erzielen sollen als Menschen (ohne Abstriche beim Erfolg der Mission), so ist dieses Ziel meiner Meinung nach grundsätzlich – wenn auch nicht ohne Weiteres oder in naher Zukunft – erreichbar, insbesondere unter Bedingungen und in Situationen, in denen eine klar eingegrenzte Moral [enge, stark situationsspezifische Bedingungen] gilt17. Um einen solchen Standard zu erfüllen, ist es nicht erforderlich, das gesamte Spektrum menschlichen Moralempfindens nachzubilden. Selbstverständlich bestehen komplexe technologische Herausforderungen, unter anderem bei der effektiven Zielunterscheidung vor Ort und der Erkennung des Status aller Personen, die zwar anwesend, aber nicht am Kampfgeschehen beteiligt sind. Sollte ein Kampfroboter schlussendlich besser als ein Mensch in der Lage sein, die Grundsätze des Humanitären Völkerrechts einzuhalten, bedeutete dies, das Leben von Zivilisten zu schützen und stellte somit eine Bemühung um mehr Humanität dar. Und sollte dieses Ziel tatsächlich erreichbar sein, könnte sogar ein moralisches Gebot zum Einsatz solcher Technologien bestehen, schon aufgrund der im Ergebnis erzielbaren Verminderung von Kollateralschäden – vergleichbar mit dem moralischen Gebot, das Human Rights Watch hinsichtlich des Einsatzes präzisionsgelenkter Munition in städtischer Umgebung anführt18. Dieser Aufruf steht zudem im Widerspruch zur Forderung derselben Organisation nach einem ausnahmslosen Verbot autonom agierender tödlicher Kampfroboter19, noch bevor die Forschung geklärt hat, ob ihr Einsatz nicht möglicherweise einen besseren Schutz für Zivilisten bedeuten würde.

Wir sollten also keinesfalls die Forschung in diesem Bereich im Keim ersticken oder uns von Ängsten lähmen lassen, wie sie durch Hollywoodfilme und die Science-Fiction-Branche heraufbeschworen werden. Die bloße Behauptung, diese Systeme könnten niemals so geschaffen werden, dass sie ordnungsgemäß und ethisch funktionieren, sagt noch nichts über den Wahrheitsgehalt dieser Annahmen aus. Wäre dem so, dann gäbe es heute keine Überschallflugzeuge, Raumstationen, Unterseeboote oder selbstfahrenden Autos. Ich sehe keine grundlegenden Hindernisse für die Entwicklung intelligenter Robotiksysteme, die hinsichtlich des moralisch korrekten Verhaltens eine bessere Leistung erbringen als Menschen. Der Einsatz ethisch agierender autonomer Robotiksysteme stellt allerdings kein kurzfristiges Ziel dar und eignet sich auch nicht für die Konflikte der Gegenwart: Hier geht es ja meist um Operationen zur Niederschlagung von Aufständen. Vielmehr könnte diese Technik in Kriegen zwischen Staaten bzw. in solchen Situationen zum Einsatz kommen, in denen eine klar eingegrenzte Moral anwendbar ist. Und selbst dann wird dieser Weg noch viel Zeit und große Anstrengungen kosten.

Plädoyer für den Zivilisten

Wie können wir menschliche Gräueltaten auf den heutigen Gefechtsfeldern wirksam verhindern? Warum müssen wir uns immer wieder unser eigenes Scheitern eingestehen angesichts der immer weiter andauernden Kriegsverbrechen – obwohl wir doch keine Mühe gescheut haben, genau das durch Gesetze und Fortschritte in der Ausbildung der Streitkräfte zu verhindern? Kann die Technik uns helfen, dieses Problem zu lösen? Ich glaube, der schwächste Punkt in der kill chain ist der Mensch an sich. Mit anderen Worten: Die menschliche Natur arbeitet gegen uns, wenn es um die Einhaltung des Humanitären Völkerrechts geht. Die These, der Krieg sei ein dem Menschen von Natur aus zugehöriges Bestreben, verfehlt den entscheidenden Punkt, denn demnach entspringen auch die Grausamkeiten des Krieges der menschlichen Natur. Um eben dieser Grausamkeit ein Ende zu setzen, sollten wir uns vielleicht nach alternativen Formen des intelligenten autonomen Entscheidens in der Kriegsführung umsehen. Das Gefechtstempo von heute ist inzwischen so hoch geworden, dass es den Soldatinnen und Soldaten unmöglich geworden ist, mitten im Gefechtsgeschehen noch begründete, rationale Entscheidungen zu treffen. Dennoch kann man es nicht oft genug betonen: Friedliche Lösungen sind kriegerischen Lösungen immer und unbedingt vorzuziehen. Solche Überlegungen können also nur für den Fall gelten, in dem die Selbstbeherrschung des Menschen wieder einmal versagt hat und uns zurück auf das Schlachtfeld führt.

Einerseits dürfen unsere Entscheidungen über die neuen Waffensysteme nicht von Angst und Unwissenheit bestimmt sein. Andererseits erscheint es angeraten, vorsichtig und wohlüberlegt vorzugehen. Die neue Technologie kann uns auf vielen Wegen in die Zukunft führen, von denen einige sicherlich als geradezu dystopisch zu bezeichnen wären. Von daher ist es von entscheidender Bedeutung, Entwicklung, Bau und Einsatz solcher Systeme nicht zu überstürzen, sondern zuvor gründlich ihre Folgen für alle Beteiligten zu untersuchen: für die eigenen Truppen, für feindliche Kräfte, für Zivilisten und für die Gesellschaft insgesamt. Dies kann nur über eine vernunftgeleitete Erörterung der mit der neuen Technologie verbundenen Probleme gelingen. Zu diesem Zweck unterstütze ich die Forderung nach einem Moratorium, um sicherzustellen, dass diese Technologie vor einem potenziellen Einsatz die internationalen Maßstäbe erfüllt, so wie sie zum Beispiel im jüngsten Bericht des UN-Sonderberichterstatters zu extralegalen, summarischen und willkürlichen Hinrichtungen (Special Rapporteur on extrajudicial, summary, or arbitrary executions) erläutert werden.20 Darüber hinaus hat das Verteidigungsministe­rium der Vereinigten Staaten vor kurzem eine Richtlinie21 zur Begrenzung von Entwicklung und Einsatz bestimmter Klassen tödlicher Kampfroboter verabschiedet, was einem Moratorium quasi gleichkommt.

Liegt es nicht in unserer Verantwortung als Wissenschaftler und Staatsbürger, nach wirksamen Wegen zu suchen, um die von Menschen an anderen Menschen begangenen Unmenschlichkeiten durch den Einsatz von Technologien zu verringern? Und wo träte dies deutlicher zutage als auf dem Schlachtfeld? Die Forschung zu ethisch programmierter militärischer Robotik kann und sollte auf dieses Ziel hin ausgerichtet werden. Ihre Entwicklung könnte bei richtiger Umsetzung zu einer strikteren Einhaltung des Kriegsrechts führen, als sie durch Soldaten aus Fleisch und Blut alleine zu erreichen wäre. Während ich dem Verbot solcher Systeme nicht ablehnend gegenüberstehe, möchte ich doch darauf hinweisen, dass solche Systeme unter zwei Bedingungen die Einhaltung des Humanitären Völkerrechts besser gewährleisten könnten als Soldaten: Erstens müssen sie mit der moralischen Fähigkeit zur Befolgung des Kriegsrechts und mit präzisen Einsatzregeln ausgestattet sein. Zweitens muss sichergestellt sein, dass sie nur in eng begrenzten militärischen Situationen als Ergänzung menschlicher Soldaten zum Einsatz kommen. Auch wenn von einem solchen System natürlich niemals ein ethisch vollkommenes Verhalten zu erwarten wäre, könnte sein Einsatz im Vergleich zum Verhalten menschlicher Soldaten im Endergebnis dennoch eine umfangreichere Schonung des Lebens und Eigentums von Zivilisten zur Folge haben.

Mir ist die Kontroversität dieser These bewusst, und ich habe oft betont, dass die durch meine Forschungen ausgelöste Diskussion zum Thema ebenso wichtig ist wie die Forschung selbst. Die Diskussion über die Entwicklung und den Einsatz autonomer tödlicher Waffensysteme bei den Vereinten Nationen, dem Internationalen Komitee des Roten Kreuzes und vergleichbaren Organisationen muss fortgesetzt werden, damit im Zuge der Weiterentwicklung dieser Technologien die Einhaltung der international vereinbarten Regeln zur Kriegsführung sichergestellt ist. Ignorieren wir dies, so tun wir es auf eigene Gefahr.

Wie geht es weiter?

Die Ausübung tödlicher Gewalt durch autonome Waffensysteme erscheint offensichtlich unvermeidlich – es sei denn, sie würde völkerrechtlich untersagt. Allerdings wäre die rechtliche Durchsetzung selbst dann noch schwierig. Wie oben ausgeführt, existieren diese Systeme sowieso bereits heute: Beispiele sind etwa das Patriot-Raketensystem, das Phalanx-System auf den Kreuzern der Aegis-Klasse, Panzerabwehrminen sowie Fire-and-Forget-Waffen und loiterfähige Munition. Der Versuch, die autonomen Systeme zu verbieten, könnte sich als etwa so erfolgreich erweisen wie der Versuch, den Einsatz von Artillerie, Marschflugkörpern, Luftbombardierungen und sonstigen Abstandswaffen zu untersagen (sogar die Armbrust wurde einst im Jahr 1139 durch Papst Innozenz verboten22). Die bessere Strategie besteht vielleicht in dem Versuch, ihre Anwendung und ihren Einsatz zu begrenzen. Zumindest auf den ersten Blick scheint dies im Humanitären Völkerrecht ausreichend geregelt zu sein. Dies mag sinnvoller sein als ein Totalverbot, welches sich, selbst wenn es verabschiedet werden sollte, wohl als nicht durchsetzbar erweisen würde.

Der Zug ist längst abgefahren. Das geltende Humanitäre Völkerrecht erlaubt die Entwicklung bzw. den Einsatz dieser Systeme nur, wenn folgende Bedingungen erfüllt sind: 1. Es muss nachgewiesen sein, dass Ziele angemessen unterschieden werden und dass die Technik in abgestufter Weise eingesetzt werden kann; 2. Es muss gewährleistet sein, dass kein unnötiges Leid verursacht wird. Außerdem dürfen diese Systeme nur im Falle militärischer Notwendigkeit zum Einsatz kommen. Außerhalb dieser Einschränkungen sollten alle Verantwortlichen für Verstöße gegen das Humanitäre Völkerrecht zur Rechenschaft gezogen werden – ob Wissenschaftler, Industrielle, Politiker, Kommandeure oder Soldaten. Da diese Systeme keine moralische Erkenntnisfähigkeit besitzen, ist die Frage der Verantwortung ebenso zu behandeln wie bei anderen Waffensystemen, und am Ende muss immer ein Mensch die Verantwortung für ihren Einsatz tragen23. Maßnahmen zur Umstrukturierung oder Ausweitung des bestehenden Humanitären Völkerrechts sollten erst dann getroffen werden, wenn gezeigt werden kann, dass das Recht in seiner jetzigen Ausgestaltung diese Revolution im militärischen Sektor nicht abdeckt. Und selbst wenn dies der Fall sein sollte – unbegründete, rein emotionale und durch Horrorgeschichten und Hollywood geprägte Argumente scheinen angesichts der Möglichkeit zur Verringerung der Anzahl ziviler Opfer durch Einsatz der neuen Technologien bestenfalls kontraproduktiv. Im Gegensatz zur landläufigen Wahrnehmung könnten diese Systeme langfristig das Kriegsgeschehen für Zivilisten auf Kriegsschauplätzen sicherer machen, insofern sie mit einer eingegrenzten Moral ausgestattet wären, nur in eng umrissenen Situationen eingesetzt und vorsichtig sowie stufenweise eingeführt würden.

Ich betone nochmals, dass ich einer Entfernung autonomer tödlicher Waffensysteme aus dem Kriegsgeschehen nicht grundsätzlich ablehnend gegenüberstehe, wenn die Gesellschaft dies für angemessen hält. Ich bin jedoch der Meinung, dass diese Technologie bei richtigem Einsatz tatsächlich die humanitäre Behandlung von Zivilisten fördern kann. Gegenüber jenen, die für ein Verbot eintreten, habe ich argumentiert, dass sie vorzugsweise ein Moratorium fordern sollten, aber selbst das ist schwer vorstellbar, solange nicht zu beweisen ist, dass diese Systeme eindeutig gegen das Kriegsrecht verstoßen. Unklar ist, wie sich die richtigen Parteien an den Diskussionstisch bringen lassen, wenn der Ausgangspunkt ein Verbotswunsch aus Angst und emotionaler Überreaktion ist.

Wer mit der Martens’schen Klausel24 im Humanitären Völkerrecht vertraut ist, könnte vorbringen, dass die Robotiksysteme potenziell „gegen die Forderungen des öffentlichen Gewissens verstoßen“ könnten. Doch solange sich die Fachanwälte für Humanitäres Völkerrecht nicht auf eine Auslegung dieser Klausel geeinigt haben, scheint dieser Weg ein schwieriger zu sein. Was ich jedoch glaube, ist, dass wir die Not der Zivilisten durch den wohlüberlegten Einsatz von Robotiksystemen lindern können, insofern er vorsichtig und durchdacht erfolgt. Dies gilt insbesondere für Kampfsituationen, in denen Soldaten am ehesten die Tendenz oder Möglichkeit haben, sich außerhalb der Grenzen des Humanitären Völkerrechts zu bewegen. In jedem Fall sollte eine sorgfältige Prüfung des Einsatzes solcher Systeme so schnell wie möglich erfolgen, um ihre Entwicklung und ihren Einsatz steuern zu können. Denn viele sind der Meinung, dass sowohl die Entwicklung als auch der Einsatz dieser Technik angesichts des ständig zunehmenden Gefechtstempos durch laufende technische Fortschritte nicht mehr aufzuhalten ist. Es wäre untragbar, bei der Formulierung von Gesetzen und Richtlinien zu dieser schon längst stattfindenden revolution in military affairs stets einen Schritt hinterherzuhinken. Die heutige Situation, in der Menschen auf Kriegsschauplätzen immer wieder Gräueltaten verüben, ist vollkommen unhaltbar. Deshalb müssen die neuen Technologien in ihrer gesamten Bandbreite genutzt werden, um die Not der Zivilisten zu lindern.

1 Der Begriff „Autonomie“ wird hier nicht im Sinn der philosophischen Willensfreiheit und moralischen Urteilsfähigkeit verwendet, sondern nach der Definition der Robotik: die Fähigkeit, nach entsprechender Programmierung ohne weitere menschliche Intervention ein Ziel zu bestimmen und anzugreifen.

2 U.S.-Marine, „Phalanx Close-in Weapons Systems”, United States Navy Factfile, www.navy.mil/navydata/fact_display.asp, abgerufen am 23.07.2013.

3 R.C. Arkin, Governing Lethal Behavior in Autonomous Robots, Chapman-Hall, 2009.

4 Besonders Human Rights Watch, Internationales Komitee zur Kontrolle von Robotikwaffen (ICRAC) und Artikel 36.

5 Bill, B. (Hrsg.), Law of War Workshop Deskbook, International and Operational Law Department, Judge Advocate General's School, Juni 2000; Danyluk, S., „Preventing Atrocities“, Marine Corps Gazette, Bd. 8, Nr. 4, S.36-38, Jun 2000; Parks, W.H., „Crimes in Hostilities. Conclusion“, Marine Corps Gazette, September 1976; Slim, H., Killing Civilians: Method, Madness, and Morality in War, Columbia University Press, New York, 2008.

6 Gesundheitsministerium der Vereinigten Staaten, Mental Health Advisory Team (MHAT) IV Operation Iraqi Freedom 05-07, Abschlussbericht, 17. Nov. 2006.

7 Für eine eingehendere Beschreibung der in diesem Zusammenhang erwähnten verabscheuungswürdigen Tendenzen der Menschheit siehe Arkin, R.C., „The Case for Ethical Autonomy in Unmanned Systems“, Journal of Military Ethics, 9:4, S. 332-341, 2010.

8 Slim, H., Killing Civilians: Method, Madness, and Morality in War, Columbia University Press, New York, 2008, S. 3.

9 Grossman, D., On Killing: The Psychological Cost of Learning to Kill in War and Society, Little, Brown and Company, Boston, 1995, S.229.

10 Adams. J., „US defends unmanned drone attacks after harsh UN Report“, Christian Science Monitor, 5. Juni 2010; Filkins, D., „Operators of Drones are Faulted in Afghan Deaths“, New York Times, 29. Mai 2010; Sullivan, R., „Drone Crew Blamed in Afghan Civilian Deaths“, Associated Press, 5. Mai 2010.

11 Näheres hierzu siehe Arkin, R.C., Governing Lethal Behavior in Autonomous Systems, Taylor and Francis, 2009.

12 en.wikipedia.org/wiki/Deep_Blue_(chess_computer), en.wikipedia.org/wiki/Watson_(computer)

13 Walzer, M., Just and Unjust Wars, 4. Ausg., Basic Books, 1977.

14 Sagan, S., „Rules of Engagement“, in Avoiding War: Problems of Crisis Management (Hrsg. A. George), Westview Press, 1991.

15 Adams, T., „Future Warfare and the Decline of Human Decisionmaking“, in Parameters, U.S. Army War College Quarterly, Winter 2001-02, S. 57-71.

16 Z.B. Arkin, R.C, op. cit., 2009.

17 Wallach, W. und Allen, C., Moral Machines: Teaching Robots Right from Wrong, Oxford University Press, 2010.

18 Human Rights Watch, „International Humanitarian Law Issues in the Possible U.S. Invasion of Iraq“, Lancet, 20. Feb. 2003.

19 Human Rights Watch, „Losing Humanity: The Case Against Killer Robots“, 19. Nov. 2012.

20 Christof Heyns, Report of the Special Rapporteur on Extrajudicial, Summary, and Arbitrary Execution, United Nations Human Rights Council, 23ste Sitzung, 9. April 2013.

21  United States Department of Defense Directive Number 3000.09, Thema: Autonomy in Weapons Systems, 21. November 2012.

22 Royal United Services Institute for Defence and Security Studies, „The Ethics & Legal Implications of Unmanned Vehicles for Defence and Security Purposes“, Webseite des Workshops, abgehalten am 27. Feb. 2008, www.rusi.org/events/ref:E47385996DA7D3, (abgerufen am 12.05.2013).

23  Cf. Arkin, R.C., „The Robot Didn't Do it.“, Positionspapier für den „Workshop on Anticipatory Ethics, Responsibility, and Artificial Agents“, Charlottesville, VA., Januar 2013.

24 Die Klausel lautet „In Fällen, die von den geschriebenen Regeln des internationalen Rechts nicht erfasst sind, verbleiben Zivilpersonen und Kombattanten unter Schutz und der Herrschaft der Grundsätze des Völkerrechts, wie sie sich aus den feststehenden Gebräuchen, aus den Grundsätzen der Menschlichkeit und aus den Forderungen des öffentlichen Gewissens ergeben.“ (Zu finden [engl. Fassung] auf der Webseite des ICRC, www.icrc.org/eng/resources/documents/misc/57jnhy.htm, zuletzt besucht am 30. April 2013).

Zusammenfassung

Prof. Dr. Ronald C. Arkin

Ronald C. Arkin is Regents' Professor and Associate Dean for Research in the College of Computing at Georgia Tech. He served as  STINT visiting Professor at KTH in Stockholm, Sabbatical Chair at the Sony IDL in Tokyo, and the Robotics and AI Group at LAAS/CNRS in  Toulouse. Dr. Arkin's research interests include behavior-based control and action-oriented perception for mobile robots and UAVs,  hybrid deliberative/reactive architectures, robot survivability, multiagent robotics, biorobotics, human-robot interaction, robot  ethics, and learning in autonomous systems.  Prof. Arkin served on the Board of Governors of the IEEE Society on Social Implications of Technology, the IEEE RAS AdCom, andis  a founding co-chair of IEEE RAS TC on Robot Ethics. He is a Distinguished Lecturer for the IEEE Society on Social Implications of Technology and a Fellow of the IEEE. 

arkin@cc.gatech.edu


Download als PDF

Alle Artikel dieser Ausgabe

Vollautonome letale Waffensysteme und Kollateralopfer
Ronald C. Arkin
Die Notwendigkeit eines präventiven Verbots vollautonomer Waffen
Stephen Goose
Von Menschen und Maschinen. Was bedeutet die Robotisierung des Militärs in ethischer Hinsicht?
Bernhard Koch
Ferngesteuerte Luftfahrzeuge – maßgeschneiderter und besserer Schutz für unsere Soldaten im Einsatz
Karl Müllner
Rechtsfragen des Einsatzes bewaffneter Drohnen aus völkerrechtlicher Perspektive
Stefan Oeter
Töten durch Drohnen. Zur problematischen Praxis des amerikanischen Drohnenkriegs
Peter Rudolf
Drohnen, Roboter und die Moral des Krieges
Daniel Statman
Mein neuer Kamerad - Hauptgefreiter Roboter?
Jörg Wellbrink

Specials

Harald J. Freyberger Michael D. Matthews