Zum Inhalt springen

Von Menschen und Maschinen. Was bedeutet die Robotisierung des Militärs in ethischer Hinsicht?

Damit akademische Debatten bei einem breiten Publikum ankommen, bedarf es meistens konkreter Anlässe. Schon seit Beginn des neuen Jahrtausends ist die Idee im Umlauf, dass wir es – wie bei der Erfindung von Feuerwaffen oder dem aufkommenden Luftkrieg – wieder mit einer Revolution in Military Affairs zu tun haben. Die neue westliche Art Krieg zu führen, sei der Risk-Transfer War schrieb der britische Soziologe Martin Shaw schon 2005, und dessen Regeln bestimmten unter anderem, dass die Zahl der westlichen Opfer so gering wie möglich sein müsse. Kein Wunder also, dass mit einigen Jahren Verspätung im Jahr 2012 auch bei der Bundeswehr und im Verteidigungsministerium der Wunsch aufkam, zum verbesserten Schutz der Soldatinnen und Soldaten in den Einsätzen auch ferngesteuerte Waffenträgersysteme anzuschaffen, und zwar vorzugsweise solche, die sich im Luftraum bewegen und nach den männlichen Bienen im Volksmund „Drohnen“ genannt werden. Bewaffnete Drohnen aber assoziiert man mit einer Praxis der Vereinigten Staaten in deren Kampf gegen des Terrorismus verdächtige Gruppierungen in Afghanistan, Pakistan und im Jemen, die man targeted killings nennt, weil namentlich gesuchte Personen aufgespürt, beobachtet und dann durch den Abschuss einer Rakete von der Drohne weg gezielt getötet werden. Aus vielen guten Gründen heraus wird diese Praxis als unmoralisch angesehen. Spätestens als hochrangige Vertreter des katholischen Episkopats in Deutschland kritische Stellungnahmen zu den Anschaffungsplänen der Bundeswehr herausgaben, war eine „Drohnendebatte“ entfacht, die sich auch im parlamentarischen Raum fortsetzte.

Dass Debatten, die Tötungshandlungen und das Risiko, selbst getötet zu werden, zum Gegenstand haben, emotional geführt werden, ist verständlich. Gerade die Ethik aber sollte es sich zu einem ersten Anliegen machen, eine Sache möglichst vorurteilsfrei und nüchtern anzugehen. Von welcher Art ist denn dieses „Müssen“, von dem Martin Shaw spricht? Warum muss, wie er meint, der westliche Krieg heute so geführt werden, dass die westlichen Opfer gering bleiben? Ist es bloß der demokratische Druck auf die Politiker, der sie veranlasst, Mittel und Wege zu suchen, die Risiken für Soldatinnen und Soldaten so gering wie möglich zu halten, weil sie ansonsten mit ihrer Abwahl rechnen müssten, oder ist dieses Müssen ein Imperativ, den die Soldatinnen und Soldaten selbst gegenüber ihrer militärischen und zivilen Führung vorbringen, so dass diese Führer aus rein funktionalen Gründen gehalten sind, ihm Rechnung zu tragen, weil sie sonst mit Verweigerung zu rechnen hätten? Oder ist dieses Müssen auch Ausdruck einer sittlichen Vernunft, weil westliche Soldatinnen und Soldaten stellvertretend für andere, die ungerechterweise angegriffen wurden, z. B. in terroristischen Anschlägen, eingefordert werden gegen Gegner, die ihrerseits gezielt auf Personen losgehen, die man im Westen als „Unschuldige“ versteht, d. h. als Personen, die in keiner Weise so gehandelt haben, dass sie ihre eigenen Rechte auf Leben und körperliche Unversehrtheit eingebüßt hätten. Warum sollten Soldatinnen und Soldaten ihrerseits Rechte verlieren, wenn sie solchen Personen, seien sie Opfer von Terrorismus oder von groben Menschenrechtsverletzungen, zu Hilfe kommen? Muss man nicht geradezu aus ethischer Sicht alle zur Verfügung stehenden Mittel ausnutzen, um den Schutz dieser Soldatinnen und Soldaten zu verbessern – was eben auch heißt, sie dem Kampfgeschehen selbst so weit wie möglich zu entziehen? Drohnen und der Einsatz militärischer Robotik erscheinen also geradezu als gebotene Mittel der Wahl – zumal sie ja nicht nur die Bediener schützen, sondern – so die Behauptung der Befürworter dieser Maschinen – durch bessere Aufklärung und präzisere Waffenwirkung auch die Zahl von Zivilisten, die durch militärische Gewalt gefährdet sind, verringern können. Distanz gegenüber dem gegnerischen Zugriff, aber Nähe und dadurch größere Präzision bei Aufklärung und eigenem Waffeneinsatz – das scheint die Kombination zu sein, die die Drohne und alle ferngesteuerten Systeme so attraktiv macht.

Aber Martin Shaws These war ja nicht, dass der Westen heute Risiko-Minimierungs-Kriege führe, sondern Risiko-Transfer-Kriege. Hier setzen die Gegner von Drohnen ein: Selbst wenn man zugebe, dass der Schutz von Solda­tinnen und Soldaten ein wichtiges Gut in einem bewaffneten Konflikt sei, müsse man doch sehen, dass eine solche Verbesserung des Schutzes nicht einfach ceteris paribus, also so, dass alle übrigen Umstände gleich blieben, zu erreichen sei. So bestehe die Gefahr, dass durch die Drohnenkriegsführung die über­kommene Eingrenzung von Kampfgebieten obsolet und grundsätzlich weltweit Krieg geführt werde. Statt verbessertem Schutz für Zivilisten in den Kriegsgebieten wären nun Zivilisten weltweit und andauernd militäri­scher Gewalt ausgesetzt. Und die Zivilisten in den Kriegsgebieten könnten dadurch verstärkt gefährdet werden, dass die Hemmschwelle der Drohnenbediener beim Einsatz von militä­rischer Gewalt, die sie selbst nicht mehr gefährdet, absinke. Ja selbst für Soldatinnen und Soldaten könnten die Risiken durch Drohneneinsätze eher steigen – dann nämlich, wenn durch die vermeintlich „politisch günstigere“ Alternative der ferngesteuerten Kriegsführung sich die Bereitschaft zu militärischen Einsätzen in der Politik erhöhe.

Es ist noch nicht klar, in welcher Weise sich tatsächlich die Risiken durch den Einsatz von ferngesteuerter militärischer Robotik verschieben werden. Hier ist ein weites Feld für empirische Forschung eröffnet. Aber auch in der Ethik ist keineswegs klar, welches Maß an Risikoverschiebung überhaupt als akzeptabel gelten kann. Dürfen Soldatinnen oder Soldaten überhaupt sämtliche Risiken von sich abwälzen oder sind nicht gerade sie heute als professionelle Risikoübernehmer gefragt?

Gegner des Einsatzes von bewaffneten Drohnen glauben, dass solche Waffensysteme im Kontext der Entwicklung von Robotisierung und Automatisierung der Kriegsführung betrachtet werden müssen, an deren Ende der Krieg der Roboter steht – was auch in gewisser Weise die Abschaffung des klassischen Militärs impliziert. Die Drohnen, um deren Anschaffung für die Bundeswehr jetzt gestritten wird, sind ja keine bloßen ferngesteuerten Flugzeuge, sondern der mobile Teil eines komplexen technologischen Systems aus Bodenstation, Kommunikationsbahnen und Fluggerät. Sie können selbstständig starten und landen; viele Prozesse werden nicht von Bedienern gesteuert (operator in the loop), sondern nur überwacht (operator on the loop), manche werden nicht einmal besonders überwacht (operator out of the loop). In Zukunft werde, so die These, der menschliche Bediener (human operator) immer mehr in den Hintergrund gedrängt zugunsten von vollautomatisierten Steuerungs- und Entscheidungsprozessen. Gegner von bewaffneten Drohnen verweisen auf das Risiko, dass softwaregesteuerte Waffensysteme umprogrammiert und womöglich sogar gegen denjenigen, der sie einsetzt, selbst gerichtet werden könnten.

Gegenwärtig versichert die Bundesregierung, dass eine Waffenwirkung aus der Drohne nur durch konkrete menschliche Aktion ausgelöst werden soll und auf keinen Fall durch ein softwarebasiertes Programm. Sie kommt damit denen, die Einwände gegen die Drohneneinsätze hegen, entgegen. Hier aber durchbricht sie die Logik des technischen Fortschritts, an die ja mit der Rede von der „Postkutsche“ appelliert werden sollte: Warum sollte man auf Dauer die Automatisierung des Waffenabschusses grundsätzlich ausschließen? Es werden sich in Zukunft Situationen schildern lassen, in denen ein automatisierter Abschuss einer Waffe Menschenleben besser schützt, weil beispielsweise Zeitverzögerungen vermieden werden oder keine negativen emotionalen Regungen von menschlichen Bedienern die Situation gefährlicher machen können. Der amerikanische Robotiker Ronald Arkin, der in diesem Journal ebenfalls vertreten ist (S. 3-12), hat eine Studie für das Pentagon erstellt, in der er sagt: Automatisierte Waffen werden das Völkerrecht besser beachten können als Menschen, und die Risiken durch mögliche Umprogrammierungen sind technologisch in den Griff zu bekommen.

Dass Drohnen zur Automatisierung von Tötungsvorgängen führen, verbindet man häufig auch mit einem Umstand, der unter dem Stichwort Big Data firmiert. Denn Menschen sind heute unter Handlungsdruck häufig gar nicht mehr in der Lage, die ihnen von Maschinen, auch den Drohnen, vorgelegten Informationen selbst zu beurteilen beziehungsweise die vom Computer erstellten Berechnungen und Beurteilungen nachzuvollziehen. Selbst dort also, wo Menschen Entscheider sein sollten, werden sie in Wirklichkeit zu Befehlsempfängern und zunehmend von der Maschine entmündigt. Letztlich liegt es auch dadurch nahe, der Maschine überhaupt „die Entscheidung zu überlassen“.

Hier aber kommt die Diskussion an einen sehr kritischen Punkt. Denn in einem strengen Sinne des Wortes „entscheidet“ das Waffen­system niemals selbst. Diese Rede ist ein Anthropomorphismus, der leider die Diskussion vom eigentlichen Problem, näm­lich der Diffusion in der Verantwortung für bestimmte Waffenwirkungen, ablenkt. Die Frage sollte also nicht lauten, ob man Roboter die Entscheidung über Leben und Tod über­lassen sollte – das kann man nämlich nicht –, sondern ob wir es zulassen dürfen, dass wir Maschinen zum Einsatz bringen, die hinterher so große Unklarheit darüber belassen, von wem welche Entscheidung ausging, dass wir letztlich sogar bereit sind, zu glauben, die Maschine hätte die entschei­dende Entschei­dung getroffen. Die Logik des Schutzes kommt prinzipiell an kein Ende. Schutz und Sicherheit sind keine operationalen Begriffe, die man empirisch überprüfen und messen könnte. Grundsätzlich ist Schutz und ist Sicherheit immer noch steigerbar. Das Bedürfnis dieser Steigerung scheint eines der Kennzeichen unseres eschatologiefreien Zeitalters zu sein.

In seinem im Jahr 1935 erstmals erschienenen berühmten Aufsatz Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit kontrastiert Walter Benjamin zwei Technikbegriffe: einen, der auf den einmaligen und unvertretbaren Einsatz seiner selbst als Mittel abstellt, und einen zweiten, der den unendlich wiederholbaren, stellvertretenden instrumentellen Gebrauch eines distanzierten Gegenstands beschreibt. Der Unterschied besteht darin,

„dass die erste Technik den Menschen so sehr, dass die zweite ihn so wenig wie möglich einsetzt. Die technische [charakteristische] Grosstat der ersten Technik ist gewissermassen das Menschenopfer, die der zweiten liegt auf der Linie der fernlenkbaren Flugzeuge, die keine Bemannung [Piloten] brauchen.“1

Benjamin hat also vor annähernd achtzig Jahren schon die Pole benennen können, die zahlreiche gegenwärtige asymmetrische militärische Konfliktkonstellationen kennzeichnen. Der Drohnenkrieger des Westens, der sich so weit wie möglich aus der Gefahrenzone entfernt hält, steht dem Selbstmordattentäter des Ostens gegenüber, der sich selbst im Kampf aufzehren will. Das zweckrationale Denken kennt richtet sich auf zwei diametral entgegengesetzte Ziele aus: Totale Schonung und totales Engagement. Die Attentäter in Albert Camus‘ Stück Die Gerechten streiten darum, wer das Glück haben darf, die Bombe auf den Großfürsten zu werfen und dafür gefangenen genommen und hingerichtet zu werden. Einige Autoren glauben, dass die Zunahme der Drohnen- und Robotikeinsätze westlicher Militärs letztlich auch zu einer zunehmenden Zahl von Menschen in den östlichen Kulturkreisen führen wird, die zum Selbstmordattentat bereit sind. Aber auch diese These harrt ihrer Überprüfung durch nüchterne Wissenschaft.

1 Benjamin, W., „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, dritte Ausgabe“, in: Benjamin, W., Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, hrsg. von Burkhardt Lindner, Kritische Gesamtausgabe Band 16, Berlin 2012, 96-163, hier 108. 

Autor

Koch2.jpg

Bernhard Koch is deputy director of the Institute for Theology and Peace (ithf) in Hamburg. In 2014, he was a visiting fellow at the Institute for Ethics, Law and Armed Conflict (ELAC) at the University of Oxford. He teaches practical philosophy in Frankfurt and studied philosophy, logic and philosophy of science in Munich and Vienna. From 1999 to 2004, he worked at the Weingarten University of Education and received his doctorate from the Munich School of Philosophy with a dissertation about ancient philosophy. He was an associate lecturer at the Helmut Schmidt University of the Bundeswehr (Federal Armed Forces) in Hamburg (HSU-HH).

kochithfde