Zum Hauptinhalt springen

Von Menschen und Maschinen. Was bedeutet die Robotisierung des Militärs in ethischer Hinsicht?

Damit akademische Debatten bei einem breiten Publikum ankommen, bedarf es meistens konkreter Anlässe. Schon seit Beginn des neuen Jahrtausends ist die Idee im Umlauf, dass wir es – wie bei der Erfindung von Feuerwaffen oder dem aufkommenden Luftkrieg – wieder mit einer Revolution in Military Affairs zu tun haben. Die neue westliche Art Krieg zu führen, sei der Risk-Transfer War schrieb der britische Soziologe Martin Shaw schon 2005, und dessen Regeln bestimmten unter anderem, dass die Zahl der westlichen Opfer so gering wie möglich sein müsse. Kein Wunder also, dass mit einigen Jahren Verspätung im Jahr 2012 auch bei der Bundeswehr und im Verteidigungsministerium der Wunsch aufkam, zum verbesserten Schutz der Soldatinnen und Soldaten in den Einsätzen auch ferngesteuerte Waffenträgersysteme anzuschaffen, und zwar vorzugsweise solche, die sich im Luftraum bewegen und nach den männlichen Bienen im Volksmund „Drohnen“ genannt werden. Bewaffnete Drohnen aber assoziiert man mit einer Praxis der Vereinigten Staaten in deren Kampf gegen des Terrorismus verdächtige Gruppierungen in Afghanistan, Pakistan und im Jemen, die man targeted killings nennt, weil namentlich gesuchte Personen aufgespürt, beobachtet und dann durch den Abschuss einer Rakete von der Drohne weg gezielt getötet werden. Aus vielen guten Gründen heraus wird diese Praxis als unmoralisch angesehen. Spätestens als hochrangige Vertreter des katholischen Episkopats in Deutschland kritische Stellungnahmen zu den Anschaffungsplänen der Bundeswehr herausgaben, war eine „Drohnendebatte“ entfacht, die sich auch im parlamentarischen Raum fortsetzte.

Dass Debatten, die Tötungshandlungen und das Risiko, selbst getötet zu werden, zum Gegenstand haben, emotional geführt werden, ist verständlich. Gerade die Ethik aber sollte es sich zu einem ersten Anliegen machen, eine Sache möglichst vorurteilsfrei und nüchtern anzugehen. Von welcher Art ist denn dieses „Müssen“, von dem Martin Shaw spricht? Warum muss, wie er meint, der westliche Krieg heute so geführt werden, dass die westlichen Opfer gering bleiben? Ist es bloß der demokratische Druck auf die Politiker, der sie veranlasst, Mittel und Wege zu suchen, die Risiken für Soldatinnen und Soldaten so gering wie möglich zu halten, weil sie ansonsten mit ihrer Abwahl rechnen müssten, oder ist dieses Müssen ein Imperativ, den die Soldatinnen und Soldaten selbst gegenüber ihrer militärischen und zivilen Führung vorbringen, so dass diese Führer aus rein funktionalen Gründen gehalten sind, ihm Rechnung zu tragen, weil sie sonst mit Verweigerung zu rechnen hätten? Oder ist dieses Müssen auch Ausdruck einer sittlichen Vernunft, weil westliche Soldatinnen und Soldaten stellvertretend für andere, die ungerechterweise angegriffen wurden, z. B. in terroristischen Anschlägen, eingefordert werden gegen Gegner, die ihrerseits gezielt auf Personen losgehen, die man im Westen als „Unschuldige“ versteht, d. h. als Personen, die in keiner Weise so gehandelt haben, dass sie ihre eigenen Rechte auf Leben und körperliche Unversehrtheit eingebüßt hätten. Warum sollten Soldatinnen und Soldaten ihrerseits Rechte verlieren, wenn sie solchen Personen, seien sie Opfer von Terrorismus oder von groben Menschenrechtsverletzungen, zu Hilfe kommen? Muss man nicht geradezu aus ethischer Sicht alle zur Verfügung stehenden Mittel ausnutzen, um den Schutz dieser Soldatinnen und Soldaten zu verbessern – was eben auch heißt, sie dem Kampfgeschehen selbst so weit wie möglich zu entziehen? Drohnen und der Einsatz militärischer Robotik erscheinen also geradezu als gebotene Mittel der Wahl – zumal sie ja nicht nur die Bediener schützen, sondern – so die Behauptung der Befürworter dieser Maschinen – durch bessere Aufklärung und präzisere Waffenwirkung auch die Zahl von Zivilisten, die durch militärische Gewalt gefährdet sind, verringern können. Distanz gegenüber dem gegnerischen Zugriff, aber Nähe und dadurch größere Präzision bei Aufklärung und eigenem Waffeneinsatz – das scheint die Kombination zu sein, die die Drohne und alle ferngesteuerten Systeme so attraktiv macht.

Aber Martin Shaws These war ja nicht, dass der Westen heute Risiko-Minimierungs-Kriege führe, sondern Risiko-Transfer-Kriege. Hier setzen die Gegner von Drohnen ein: Selbst wenn man zugebe, dass der Schutz von Solda­tinnen und Soldaten ein wichtiges Gut in einem bewaffneten Konflikt sei, müsse man doch sehen, dass eine solche Verbesserung des Schutzes nicht einfach ceteris paribus, also so, dass alle übrigen Umstände gleich blieben, zu erreichen sei. So bestehe die Gefahr, dass durch die Drohnenkriegsführung die über­kommene Eingrenzung von Kampfgebieten obsolet und grundsätzlich weltweit Krieg geführt werde. Statt verbessertem Schutz für Zivilisten in den Kriegsgebieten wären nun Zivilisten weltweit und andauernd militäri­scher Gewalt ausgesetzt. Und die Zivilisten in den Kriegsgebieten könnten dadurch verstärkt gefährdet werden, dass die Hemmschwelle der Drohnenbediener beim Einsatz von militä­rischer Gewalt, die sie selbst nicht mehr gefährdet, absinke. Ja selbst für Soldatinnen und Soldaten könnten die Risiken durch Drohneneinsätze eher steigen – dann nämlich, wenn durch die vermeintlich „politisch günstigere“ Alternative der ferngesteuerten Kriegsführung sich die Bereitschaft zu militärischen Einsätzen in der Politik erhöhe.

Es ist noch nicht klar, in welcher Weise sich tatsächlich die Risiken durch den Einsatz von ferngesteuerter militärischer Robotik verschieben werden. Hier ist ein weites Feld für empirische Forschung eröffnet. Aber auch in der Ethik ist keineswegs klar, welches Maß an Risikoverschiebung überhaupt als akzeptabel gelten kann. Dürfen Soldatinnen oder Soldaten überhaupt sämtliche Risiken von sich abwälzen oder sind nicht gerade sie heute als professionelle Risikoübernehmer gefragt?

Gegner des Einsatzes von bewaffneten Drohnen glauben, dass solche Waffensysteme im Kontext der Entwicklung von Robotisierung und Automatisierung der Kriegsführung betrachtet werden müssen, an deren Ende der Krieg der Roboter steht – was auch in gewisser Weise die Abschaffung des klassischen Militärs impliziert. Die Drohnen, um deren Anschaffung für die Bundeswehr jetzt gestritten wird, sind ja keine bloßen ferngesteuerten Flugzeuge, sondern der mobile Teil eines komplexen technologischen Systems aus Bodenstation, Kommunikationsbahnen und Fluggerät. Sie können selbstständig starten und landen; viele Prozesse werden nicht von Bedienern gesteuert (operator in the loop), sondern nur überwacht (operator on the loop), manche werden nicht einmal besonders überwacht (operator out of the loop). In Zukunft werde, so die These, der menschliche Bediener (human operator) immer mehr in den Hintergrund gedrängt zugunsten von vollautomatisierten Steuerungs- und Entscheidungsprozessen. Gegner von bewaffneten Drohnen verweisen auf das Risiko, dass softwaregesteuerte Waffensysteme umprogrammiert und womöglich sogar gegen denjenigen, der sie einsetzt, selbst gerichtet werden könnten.

Gegenwärtig versichert die Bundesregierung, dass eine Waffenwirkung aus der Drohne nur durch konkrete menschliche Aktion ausgelöst werden soll und auf keinen Fall durch ein softwarebasiertes Programm. Sie kommt damit denen, die Einwände gegen die Drohneneinsätze hegen, entgegen. Hier aber durchbricht sie die Logik des technischen Fortschritts, an die ja mit der Rede von der „Postkutsche“ appelliert werden sollte: Warum sollte man auf Dauer die Automatisierung des Waffenabschusses grundsätzlich ausschließen? Es werden sich in Zukunft Situationen schildern lassen, in denen ein automatisierter Abschuss einer Waffe Menschenleben besser schützt, weil beispielsweise Zeitverzögerungen vermieden werden oder keine negativen emotionalen Regungen von menschlichen Bedienern die Situation gefährlicher machen können. Der amerikanische Robotiker Ronald Arkin, der in diesem Journal ebenfalls vertreten ist (S. 3-12), hat eine Studie für das Pentagon erstellt, in der er sagt: Automatisierte Waffen werden das Völkerrecht besser beachten können als Menschen, und die Risiken durch mögliche Umprogrammierungen sind technologisch in den Griff zu bekommen.

Dass Drohnen zur Automatisierung von Tötungsvorgängen führen, verbindet man häufig auch mit einem Umstand, der unter dem Stichwort Big Data firmiert. Denn Menschen sind heute unter Handlungsdruck häufig gar nicht mehr in der Lage, die ihnen von Maschinen, auch den Drohnen, vorgelegten Informationen selbst zu beurteilen beziehungsweise die vom Computer erstellten Berechnungen und Beurteilungen nachzuvollziehen. Selbst dort also, wo Menschen Entscheider sein sollten, werden sie in Wirklichkeit zu Befehlsempfängern und zunehmend von der Maschine entmündigt. Letztlich liegt es auch dadurch nahe, der Maschine überhaupt „die Entscheidung zu überlassen“.

Hier aber kommt die Diskussion an einen sehr kritischen Punkt. Denn in einem strengen Sinne des Wortes „entscheidet“ das Waffen­system niemals selbst. Diese Rede ist ein Anthropomorphismus, der leider die Diskussion vom eigentlichen Problem, näm­lich der Diffusion in der Verantwortung für bestimmte Waffenwirkungen, ablenkt. Die Frage sollte also nicht lauten, ob man Roboter die Entscheidung über Leben und Tod über­lassen sollte – das kann man nämlich nicht –, sondern ob wir es zulassen dürfen, dass wir Maschinen zum Einsatz bringen, die hinterher so große Unklarheit darüber belassen, von wem welche Entscheidung ausging, dass wir letztlich sogar bereit sind, zu glauben, die Maschine hätte die entschei­dende Entschei­dung getroffen. Die Logik des Schutzes kommt prinzipiell an kein Ende. Schutz und Sicherheit sind keine operationalen Begriffe, die man empirisch überprüfen und messen könnte. Grundsätzlich ist Schutz und ist Sicherheit immer noch steigerbar. Das Bedürfnis dieser Steigerung scheint eines der Kennzeichen unseres eschatologiefreien Zeitalters zu sein.

In seinem im Jahr 1935 erstmals erschienenen berühmten Aufsatz Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit kontrastiert Walter Benjamin zwei Technikbegriffe: einen, der auf den einmaligen und unvertretbaren Einsatz seiner selbst als Mittel abstellt, und einen zweiten, der den unendlich wiederholbaren, stellvertretenden instrumentellen Gebrauch eines distanzierten Gegenstands beschreibt. Der Unterschied besteht darin,

„dass die erste Technik den Menschen so sehr, dass die zweite ihn so wenig wie möglich einsetzt. Die technische [charakteristische] Grosstat der ersten Technik ist gewissermassen das Menschenopfer, die der zweiten liegt auf der Linie der fernlenkbaren Flugzeuge, die keine Bemannung [Piloten] brauchen.“1

Benjamin hat also vor annähernd achtzig Jahren schon die Pole benennen können, die zahlreiche gegenwärtige asymmetrische militärische Konfliktkonstellationen kennzeichnen. Der Drohnenkrieger des Westens, der sich so weit wie möglich aus der Gefahrenzone entfernt hält, steht dem Selbstmordattentäter des Ostens gegenüber, der sich selbst im Kampf aufzehren will. Das zweckrationale Denken kennt richtet sich auf zwei diametral entgegengesetzte Ziele aus: Totale Schonung und totales Engagement. Die Attentäter in Albert Camus‘ Stück Die Gerechten streiten darum, wer das Glück haben darf, die Bombe auf den Großfürsten zu werfen und dafür gefangenen genommen und hingerichtet zu werden. Einige Autoren glauben, dass die Zunahme der Drohnen- und Robotikeinsätze westlicher Militärs letztlich auch zu einer zunehmenden Zahl von Menschen in den östlichen Kulturkreisen führen wird, die zum Selbstmordattentat bereit sind. Aber auch diese These harrt ihrer Überprüfung durch nüchterne Wissenschaft.

1 Benjamin, W., „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, dritte Ausgabe“, in: Benjamin, W., Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, hrsg. von Burkhardt Lindner, Kritische Gesamtausgabe Band 16, Berlin 2012, 96-163, hier 108. 

Zusammenfassung

Dr. Bernhard Koch

Dr. Bernhard Koch ist kommissarischer Leiter des Instituts für Theologie und Frieden in Hamburg und außerplanmäßiger Professor für Moraltheologie an der Universität Freiburg. Er studierte Philosophie, Logik und Wissenschaftstheorie sowie katholische Theologie in München und Wien und lehrte an der Pädagogischen Hochschule Weingarten, der Goethe-Universität Frankfurt a. M., der Helmut-Schmidt-Universität der Bundeswehr und der Universität Hamburg. 2014 war Bernhard Koch Visiting Fellow am Oxford Institute for Ethics, Law and Armed Conflict (ELAC). Seit 2012 ist er Co-Teacher Ethics am ICMM Center of Reference for Education on IHL and Ethics, Zürich.

koch@ithf.de

Alle Artikel von Bernhard Koch


Download als PDF

Alle Artikel dieser Ausgabe

Vollautonome letale Waffensysteme und Kollateralopfer
Ronald C. Arkin
Die Notwendigkeit eines präventiven Verbots vollautonomer Waffen
Stephen Goose
Von Menschen und Maschinen. Was bedeutet die Robotisierung des Militärs in ethischer Hinsicht?
Bernhard Koch
Ferngesteuerte Luftfahrzeuge – maßgeschneiderter und besserer Schutz für unsere Soldaten im Einsatz
Karl Müllner
Rechtsfragen des Einsatzes bewaffneter Drohnen aus völkerrechtlicher Perspektive
Stefan Oeter
Töten durch Drohnen. Zur problematischen Praxis des amerikanischen Drohnenkriegs
Peter Rudolf
Drohnen, Roboter und die Moral des Krieges
Daniel Statman
Mein neuer Kamerad - Hauptgefreiter Roboter?
Jörg Wellbrink

Specials

Harald J. Freyberger Michael D. Matthews