Zum Inhalt springen

Die Notwendigkeit eines präventiven Verbots vollautonomer Waffen

Bei den hochentwickelten Streitkräften wird die Zukunft der Kriegsführung zweifellos durch zunehmend autonomere Waffensysteme bestimmt. Besonders deutlich wird diese Entwicklung an der raschen Verbreitung unbemannter Luftfahrzeuge bzw. Drohnen. Fachleute weisen dabei jedoch darauf hin, dass die heutigen Drohnen im Vergleich zu der zu erwartenden Technologie noch äußerst rudimentär sind.

Einige Militärangehörige, Wissenschaftler und andere Personen sind der Auffassung, dass es sowohl unvermeidbar als auch wünschenswert sei, eines Tages vollautonome Waffen zu verwenden. Dabei handelt es sich um Waffensysteme, die nach ihrer Inbetriebnahme in der Lage sind, ohne weiteres menschliches Zutun Ziele auszuwählen und zu bekämpfen. Anders als bei einer Drohne gibt es bei den vollautonomen Waffensystemen keinen menschlichen Bediener mehr, der entscheidet, wann und worauf gefeuert wird. Diese Entscheidungen trifft das Waffensystem selbst.

Auch wenn kein Zweifel daran besteht, dass eine weitreichendere Autonomie militärische und sogar humanitäre Vorteile haben kann – Human Rights Watch und andere Organisationen sind der Meinung, dass eine vollständige Autonomie zu weit geht: Mit vollautonomen Waffen wird eine grundlegende moralische und ethische Grenze überschritten, da hierbei die Entscheidung über Leben und Tod auf dem Gefechtsfeld an Maschinen übertragen wird. Weiterhin kommen wir anhand von Beiträgen von Fachleuten zu der Einschätzung, dass es äußerst unwahrscheinlich ist, dass vollautonome Waffen die Grundsätze des humanitären Völkerrechts werden beachten können. Zudem bestehen schwerwiegende Bedenken hinsichtlich der Technik und der Proliferation. So sind wir davon überzeugt, dass diese Waffen in der Zukunft eine große Gefahr für Zivilpersonen – und für Soldaten – darstellen werden.

Zusammengenommen bringt uns diese Vielzahl von Bedenken zu der Forderung nach einem vorbeugenden Verbot vollautonomer Waffensysteme. Die letztendliche Kontrolle über Entscheidungen bezüglich Zielauswahl und -bekämpfung muss stets in den Händen von Menschen verbleiben. Schließlich wären vollautonome Waffensysteme nicht einfach nur eine neue Waffe, sondern eine völlig neue Art der Kriegsführung, und zwar eine Art, die niemals verwirklicht werden sollte.

Ein brisantes Thema, das zunehmend Fahrt aufnimmt

Seit Ende 2012 stehen vollautonome Waffensysteme verstärkt im Blickpunkt der internationalen Öffentlichkeit, da sich das Thema im Bereich humanitäre Abrüstung schnell zu einem Dauerbrenner entwickelte. Bis dahin war diese Angelegenheit nahezu unbekannt außer bei einer relativ kleinen Gruppe von Angehörigen der Streitkräfte, Wissenschaftlern, Ethikern und Rechtsanwälten.

Im November 2012 veröffentlichten Human Rights Watch und die International Human Rights Clinic der Harvard Law School einen Bericht mit dem Titel „Losing Humanity: The Case Against Killer Robots“ (Das drohende Ende der Menschlichkeit: Eine Argumentation gegen Kampfroboter), in dem ein vorbeugendes Verbot der Entwicklung, Herstellung und Nutzung von vollautonomen Waffensystemen gefordert wurde. Der Bericht wurde von zahlreichen Medien umfassend aufgegriffen und löste die erste breite öffentliche Debatte über dieses Thema aus.

Im April 2013 startete eine internationale Koalition aus Nichtregierungsorganisationen eine Kampagne gegen Kampfroboter (Campaign to Stop Killer Robots) und forderte ein vorbeugendes Verbot dieser Waffen. An der von Human Rights Watch koordinierten Kampagne beteiligen sich inzwischen etwa 50 Nichtregierungsorganisationen aus etwa zwei Dutzend Ländern. Gestaltet ist die Kampagne analog zu den erfolgreichen Kampagnen, die zu einem internationalen Verbot von Antipersonenminen, Streumunition und Blendlasern geführt haben.

Im Mai 2013 legte der UN-Sonderberichterstat­ter für außergerichtliche Hinrichtungen, Christof Heyns, dem Menschenrechtsrat einen Bericht vor, der viele der in der Kampagne vorgetragenen Bedenken im Hinblick auf vollautonome Waffen aufgriff. Er forderte die Regierungen auf, bis zum Stattfinden internationaler Gespräche nationale Moratorien über diese Waffen zu verabschieden. Aufgrund des Berichts sprachen zwei Dutzend Staaten zum ersten Mal überhaupt miteinander über vollautonome Waffensysteme und betonten dabei sowohl die Bedeutung dieser Angelegenheit als auch die Notwendigkeit, sich im internationalen Rahmen damit auseinanderzusetzen. Während der Generalversammlung der Vereinten Nationen im Oktober 2013 schlossen sich weitere Länder dieser Forderung an.

Besonders bedeutsam war es dabei, dass die über 100 Vertragsstaaten des Übereinkommens über bestimmte konventionelle Waffen (CCW, Convention on Certain Conventional Weapons) im November 2013 vereinbarten, sich 2014 mit diesem Thema zu beschäftigen. Die ersten vier Gesprächstage haben im Mai 2014 stattgefunden. In der Welt der Diplomatie ist dies ein blitzschnelles Vorgehen. Das CCW, ein vorrangig von den USA, Russland und China dominiertes Forum, ist für seine abwägende (d. h. langsame) Gangart bekannt, und es vergehen oft Jahre mit vorbereitenden Erörterungen, bevor sich die Vertragsstaaten auch nur darauf einigen, ein Thema auf die Tagesordnung zu setzen.

Noch im Oktober 2012 hatte praktisch keine einzige Regierung eine öffentliche Erklärung zu vollautonomen Waffensystemen abgegeben; lediglich in militärischen Planungsunterlagen kam das Thema zur Sprache. Inzwischen haben sich etwa vier Dutzend Staaten öffentlich zu diesem Thema geäußert, wobei sich alle diese Staaten darin einig sind, dass die Angelegenheit besprochen werden muss.

Im Februar 2014 schließlich verabschiedete das Europäische Parlament eine Resolution, in der ein Verbot der Entwicklung, der Herstellung und des Einsatzes vollautonomer Waffen gefordert wird. Daneben unterzeichneten über 270 prominente Wissenschaftler eine Erklärung, die sich für ein entsprechendes Verbot ausspricht.

Weiterhin äußerten sich auch der UN-Generalsekretär und der Leiter des Büros der Vereinten Nationen für Abrüstungsfragen sowie das Internationale Komitee vom Roten Kreuz kritisch zur Entwicklung vollautonomer Waffensysteme.

Doch die Waffentechnik macht rasante Fortschritte, während die Diplomatie eine Menge aufzuholen hat.

Was sind vollautonome Waffensysteme?

Für diese Waffen der Zukunft gibt es eine ganze Reihe von Bezeichnungen: vollautonome Waffen, vollautonome Waffensysteme, autonome Waffensysteme, tödliche autonome Roboter, tödliche autonome Waffensysteme, Kampfroboter und andere. Dabei variieren diese Begriffe in ihren Definitionen leicht voneinander.

Zudem wurde auch bereits zwischen diesen zukünftigen Waffen und den heute bereits existierenden automatischen, automatisierten und halbautonomen Waffen unterschieden. Es würde den Rahmen dieses Artikels sprengen, all diese Unterscheidungen im Einzelnen zu beschreiben.

Grundsätzlich ist eine vollautonome Waffe ein unbemanntes Waffensystem, bei dem nicht mehr ein menschlicher Bediener über das Ziel und dessen Bekämpfung entscheidet, sondern die Waffe selbst. Es kann sich dabei um Luftfahrzeuge, bodengebundene Systeme oder Überwasser- bzw. Unterwassersysteme handeln.

Noch gibt es solche Waffen nicht, aber die Technik geht in diese Richtung, und Vorläufer sind bereits im Einsatz. Zu diesen Vorläufern gehören das US-amerikanische Luftfahrzeug X-47B, das Luftfahrzeug Taranis aus Großbritannien, der israelische Roboter Sentry Tech und der Wachpostenroboter SGR-1 aus Südkorea. Diese Staaten verfügen auch über andere Vorläufer, und zu den weiteren Ländern mit fortschrittlichen Systemen gehören China und Russland. Deutschland hat ein automatisches Waffenabwehrsystem mit der Bezeichnung NSB Mantis entwickelt und in Afghanistan eingesetzt; dieses System erfasst und bekämpft anfliegende Raketen und andere Waffen. Es ist unklar, welchen Grad hierbei die Überwachung durch menschliche Bediener erreicht.

Solche Vorläufersysteme, bei denen noch eine gewisse menschliche Kontrolle vorgesehen ist und die zum Teil auch nicht als Waffensysteme ausgelegt sind, sind nicht Gegenstand der Kampagne gegen Kampfroboter. Gleichwohl belegen sie die Entwicklung hin zu immer größerer Autonomie und müssen im Rahmen der angestrebten Auseinandersetzung mit vollautonomen Waffensystemen gründlich untersucht werden, um zu ermitteln, inwieweit bei ihnen entscheidende Kontrollmöglichkeiten durch den Menschen sowie ausreichende Maßnahmen zur Gewährleistung der Sicherheit der Zivilbevölkerung gegeben sind.

In diesem Zusammenhang muss betont werden, dass sich die Kampagne gegen Kampfroboter nicht gegen militärische Roboter als solches richtet und auch nicht unbedingt gegen die fortschreitende Autonomisierung von Waffensystemen, da schließlich sowohl militärische als auch humanitäre Vorteile erzielt werden können, wenn Verfolgung und Umsetzung dieser Ziele entsprechend stattfinden. Mit der Forderung nach einem Verbot der Entwicklung vollautonomer Waffen soll die allgemeine Forschung zu militärischen Robotern, zur Autonomie von Waffensystemen oder zur vollständigen Autonomie im zivilen Bereich nicht behindert werden. Vielmehr sollen Forschungs- und Entwicklungstätigkeiten nur dann verboten werden, wenn sie auf eine Technologie abzielen, die ausschließlich für vollautonome Waffensysteme genutzt werden kann oder die ausdrücklich für eine Verwendung bei solchen Waffen vorgesehen ist.

Manche preisen die möglichen Vorteile vollautonomer Waffensysteme und verweisen darauf, dass sie die Gefahren für Soldaten verringern und die Genauigkeit und Geschwindigkeit von Angriffen steigern können. Die Waffensysteme unterlägen keinen Beschränkungen durch Schmerz, Wut, Hunger, Erschöpfung oder eine instinktive Selbstverteidigung. Solche möglichen Vorteile jedoch werden durch den Verlust der menschlichen Kontrolle mehr als zunichte gemacht, zumal solche Vorteile auch mit autonomen Systemen erzielt werden können, die noch immer entscheidend von Menschen kontrolliert werden.

Moralische und ethische Einwände

Der vielleicht wichtigste Einwand gegen vollautonome Waffensysteme ist moralischer und ethischer Natur. Viele Menschen sind schlichtweg der Meinung, dass es moralisch falsch ist, Maschinen darüber entscheiden zu lassen, wer auf dem Gefechtsfeld am Leben bleiben darf und wer sterben muss. Christof Heyns, der UN-Sonderberichterstatter für außergerichtliche Hinrichtungen: „Den meisten rechtlichen, moralischen und anderen Kodexen liegt die Annahme zugrunde, dass im Fall von Entscheidungen, einem anderen Menschen das Leben zu nehmen oder Menschen andere schwere Strafen aufzuerlegen, die Entscheidungsgewalt in den Händen von Menschen liegen sollte.“

Eine Übertragung der Entscheidungsgewalt über Leben und Tod an Maschinen wird als ultimativer Angriff auf die menschliche Würde bezeichnet; weiterhin weisen viele darauf hin, dass eine Entscheidung von einer solch großen Tragweite nicht stupiden Maschinen überlassen werden sollte. Die Vorstellung, dass gefühllose Roboter Entscheidungen über Leben und Tod treffen sollen, finden viele abstoßend. Mitgefühl ist schließlich die entscheidende Kontrolle bei der Tötung anderer Menschen. So wurden vollautonome Waffensysteme denn auch an sich als unethisch bezeichnet und die Übertragung der Tötungsentscheidung an diese Maschinen „die ultimative Entmoralisierung des Krieges“ genannt. Die Kampfroboter würden dabei „das drohende Ende der Menschlichkeit“ auf mehr als nur eine Art verkörpern.

Wir bei Human Rights Watch haben die Erfahrung gemacht, dass die meisten Menschen die Idee vollautonomer Waffen instinktiv ablehnen. Die meisten können es kaum glauben, dass solche Waffen auch nur in Betracht gezogen werden. Im Völkerrecht findet sich eine Bestimmung, die diesem generellen Abscheu seitens der Öffentlichkeit Rechnung trägt: die Martens’sche Klausel, die im Zusatzprotokoll I zu den Genfer Konventionen und an anderen Stellen aufgeführt ist. Der Martens’schen Klausel zufolge sollten vollautonome Waffen mit den „Grundsätzen der Menschlichkeit“ und den „Forderungen des öffentlichen Gewissens“ vereinbar sein. Es sieht allerdings nicht so aus, als könnten sie diese beiden Forderungen einhalten.

Rechtliche Einwände und Verantwortlichkeit

Auch jenseits der Martens’schen Klausel ist es unwahrscheinlich, dass vollautonome Waffensysteme die grundlegenden Prinzipien des humanitären Völkerrechts einhalten könnten, wie zum Beispiel Unterscheidung und Verhältnismäßigkeit. So sind sich Fachleute und internationale Rechtsanwälte einig, dass solche Waffen mit dem derzeitigen Stand der Technik die Forderungen des humanitären Völkerrechts nicht erfüllen könnten. Natürlich kann nicht vorhergesagt werden, was die Technik in den kommenden Jahren hervorbringen wird, aber es gibt gute Gründe dafür, im Hinblick auf die Einhaltung der Vorgaben des humanitären Völkerrechts skeptisch zu sein.

Das humanitäre Völkerrecht fordert, dass eine kriegführende Partei zwischen Kombattanten und Nicht-Kombattanten unterscheidet. Für eine solche Unterscheidung werden nicht nur hörbare oder sichtbare Signale herangezogen, sondern auch die Absichten einer Person eingeschätzt. In diesem Zusammenhang erscheint es nahezu unmöglich, dass ein Roboter so programmiert werden kann, dass er über die dem Menschen eigenen Fähigkeiten verfügt, die für die Einschätzung der Absichten einer Person erforderlich sind. Menschen können eine solche Beurteilung vor allem deswegen vornehmen, weil sie sich in andere Personen hineinversetzen und sie als Mitmenschen verstehen können. Roboter können das nicht, ein Unvermögen, das darüber hinaus auch den Schutz von Soldaten untergraben könnte, wenn zum Beispiel ein Soldat verwundet ist oder sich ergeben will.

Die Unfähigkeit eines Roboters zu Beurteilung und Intuition kann für die Einhaltung der Regel der Verhältnismäßigkeit sogar eine noch größere Hürde darstellen. Diese Regel verbietet Angriffe, bei denen der Schaden für die Zivilbevölkerung den voraussichtlichen militärischen Vorteil überwiegt.

Die Verhältnismäßigkeit ist dabei in großem Maße von der Situation und dem Kontext abhängig, zwei Faktoren, die sich durch eine auch nur kleine Änderung der Fakten beträchtlich ändern können. Dementsprechend spricht die US-Luftwaffe in diesem Zusammenhang auch von einer „von Natur aus subjektiven Entscheidung“ und das Internationale Komitee vom Roten Kreuz von „einer Frage des gesunden Menschenverstands und von Treu und Glauben“. Die Urteilsfähigkeit und Intuition, die für ein Abwägen der komplexen Fakten und das Treffen von subjektiven Entscheidungen notwendig sind, sind Fähigkeiten, die dem Menschen zugeschrieben werden und nicht den Maschinen.

Aber nicht nur die Tatsache, dass vollautonome Waffensysteme nicht in der Lage sind, die geltenden Regeln des humanitären Völkerrechts einzuhalten, gibt Anlass zu großer Sorge. Auch der Umstand, dass bei einem Verstoß der Regeln niemand zur Rechenschaft gezogen werden kann, ist hochproblematisch. Die Verantwortlichkeit hält davon ab, Verstöße gegen das humanitäre Völkerrecht zu begehen. Gleichzeitig wird den Opfern damit auch ihre Würde zurückgegeben, da zum einen anerkannt wird, dass ihnen Unrecht geschehen ist, und sie zum anderen die Genugtuung haben, dass jemand dafür bestraft wird. Einen Menschen für die Taten eines autonom operierenden Roboters verantwortlich zu machen, könnte sich dagegen als schwierig herausstellen, unabhängig davon, ob es sich dabei um den Bediener, den Kommandeur, den Programmierer oder den Hersteller handelt.

Technische Probleme

Das US-Verteidigungsministerium und andere Stellen haben eine Vielzahl von technischen Fragen angeführt, die es zu klären gilt, bevor vollautonome Waffensysteme verwendet werden können. Diese technischen Fragen sind – in Verbindung mit den moralischen, ethischen und rechtlichen Bedenken sowie den Sorgen rund um das Thema Proliferation – ein weiterer Grund zu hinterfragen, ob die Entwicklung solcher Waffen wirklich so klug und angemessen ist. In einer Weisung des US-Verteidigungsministeriums von November 2012 findet sich auch eine lange Liste möglicher Ausfallursachen bei autonomen Waffen: menschliches Versagen, Fehler in der Schnittstelle Mensch-Maschine, Fehlfunktionen, schlechte Kommunikationsverbindungen, Fehler bei der Software-Kodierung, feindliche Cyberangriffe oder Unterwanderung der industriellen Versorgungskette durch den Feind, Störsendungen, Manipulation, Täuschkörper, sonstige Gegenmaßnahmen oder Aktionen des Feindes sowie unvorhergesehene Entwicklungen auf dem Gefechtsfeld.

Das US-Verteidigungsministerium schrieb weiterhin, dass sichergestellt werden müsse, dass die Waffensysteme „unter realistischen Einsatzbedingungen gegen anpassungsfähige Gegner wie vorgesehen funktionieren“; dass sie in der Lage sein müssten, „Einsätze innerhalb des durch die Absichten des Kommandeurs und des Bedieners festgelegten zeitlichen Rahmens abzuschließen und, wenn dies nicht der Fall ist, einen Einsatz abzubrechen“ und weiterhin müssten „Ausfälle, die zu unbeabsichtigter Zielbekämpfung oder zum Verlust der Kontrolle des Systems an nicht ermächtigte Parteien führen könnten, so gering wie möglich gehalten werden.“

Von anderer Seite wurde angeführt, dass insbesondere der Kampf Roboter gegen Roboter unberechenbar sei und zu unvorhersehbaren Schäden für die Zivilbevölkerung führen könne.

Sorge um eine mögliche Verbreitung

Mit der Entwicklung der Streitkräfte hin zu einer immer größeren Autonomie bei Waffensystemen wird eine irgendwann erreichte vollständige Autonomie immer wahrscheinlicher – sofern dem nicht jetzt Einhalt geboten wird. Es besteht die reale Gefahr, dass wenn sich auch nur ein Staat solche Waffen beschafft, andere Staaten das Gefühl haben könnten, sie müssten ebenfalls auf diesen Zug aufspringen, um sich selbst zu verteidigen und im Wettlauf bei den Roboterwaffen nicht zurückzufallen. Auch technisch weniger fortgeschrittene Länder würden sich wahrscheinlich das benötigte Wissen aneignen, wenn vollautonome Waffensysteme erst einmal im Einsatz sind, indem sie sich ein solches System beschaffen und es zerlegen und studieren, was bei weitem nicht so schwierig ist wie eine Neuentwicklung von Grund auf.

Weiterhin besteht die Möglichkeit, dass sich repressive Regimes oder bewaffnete nichtstaatliche Gruppierungen, die sich nicht weiter um die Gesetze kümmern, vollautonome Waffensysteme beschaffen. Diese Waffen wären das perfekte Unterdrückungswerkzeug für Autokraten, die versuchen, ihre Macht auszubauen oder zu erhalten. Ein Diktator, der vollautonome Waffensysteme einsetzt, braucht nicht zu fürchten, dass sich die Streitkräfte weigern, gegen bestimmte Ziele eingesetzt zu werden.

Bestehende Grundsatzbestimmungen

Auch wenn das Thema vollautonome Waffensysteme auf dem internationalen Parkett zunehmend ins Rampenlicht rückt, haben bislang nur wenige Länder formelle nationale Grundsatzbestimmungen erarbeitet. Die einzige detaillierte Richtlinie, die in schriftlicher Form existiert, ist die Weisung des US-Verteidigungsministeriums von November 2012, die für einen Zeitraum von bis zu zehn Jahren fordert, dass ein Mensch in „den Kreislauf“ eingebunden sein muss (operator in the loop), in dem die Entscheidungen zum Einsatz tödlicher Gewalt getroffen werden, wobei hochrangige Vertreter des Pentagons diese Bestimmung außer Kraft setzen können. Großbritannien wiederum hat erklärt, dass autonome Waffensysteme „immer“ unter menschlicher Kontrolle bleiben werden.

Auch wenn viele Staaten sich mittlerweile öffentlich zu diesem Thema geäußert haben: Die Erklärungen sind nicht in nationale Grundsatzbestimmungen aufgenommen worden. Es bleibt bei üblicherweise recht vage gehaltenen Äußerungen von Bedenken und/oder Interesse an diesem Thema. Einige Länder, wie zum Beispiel Pakistan, haben sich für ein Verbot solcher Waffen ausgesprochen.

Es bleibt zu hoffen, dass der im Rahmen des Übereinkommens über bestimmte konventionelle Waffen in Gang gebrachte Prozess die Regierungen dazu bringen wird, ihre nationalen Positionen baldmöglichst zu erarbeiten.

Warum ist ein Verbot die beste Lösung?

Selbst unter denjenigen, die ihre Bedenken zu Kampfrobotern geäußert haben, gibt es einige, die ein vorbeugendes und umfassendes Verbot ablehnen, wie es die Kampagne gegen Kampfroboter fordert. Manche sagen, es sei zu früh für eine solche Forderung, und man solle abwarten, wohin uns diese Technologie führen wird. Einige sind der Auffassung, dass Beschränkungen geeigneter als ein Verbot seien, während andere wiederum der Meinung sind, dass das bestehende humanitäre Völkerrecht ausreiche, um sich mit diesem Problem zu befassen, möglicherweise mit einer Art zusätzlicher Anleitung in Form von zu erarbeitenden „bewährten Verfahren“. Es wurde auch dafür argumentiert, zwar solche Waffen zu beschaffen, deren Einsatz jedoch auf bestimmte Situationen und Einsätze zu beschränken.

Die Idee eines vorbeugenden Vertrags ist nicht neu. Das beste Beispiel hierfür ist das Protokoll IV zum Übereinkommen über bestimmte konventionelle Waffen von 1995, das Blendlaser verbietet. Diese Waffen hatten in den USA und in China Prototypstatus erreicht, wurden aber nie eingesetzt. Nach anfänglichem Widerstand seitens der USA und anderer Nationen schloss sich die Staatengemeinschaft der Einschätzung des Internationalen Komitees vom Roten Kreuz an, dass diese Waffen unnötiges Leid und überflüssige Verletzungen hervorrufen würden. Die Martens’sche Klausel wurde ebenfalls oft zitiert, um das Verbot zu rechtfertigen, wobei die Waffen als den Forderungen des öffentlichen Gewissens zuwider laufend betrachtet wurden. Die Staaten kamen außerdem zu der Einsicht, dass es für ihre Streitkräfte besser wäre, wenn keiner über diese Waffen verfügt, als wenn jeder sie
besitzt.

Übergeordnetes Ziel eines vorbeugenden Vertrags ist es, zukünftige Schäden zu vermeiden. Angesichts der Gefahren und Bedenken im Zusammenhang mit vollautonomen Waffensystemen wäre es unverantwortlich, eine abwartende Haltung einzunehmen und sich erst mit dem Problem zu beschäftigen, wenn bereits ein Schaden eingetreten ist.

Von mehreren Seiten wird richtigerweise darauf verwiesen, dass es keinen „Beweis“ dafür gibt, dass die Probleme der vollautonomen Waffensysteme nicht durch technologische Maßnahmen behoben werden können, aber es ist genauso richtig, dass es keinen Beweis für das Gegenteil gibt. Angesichts der derzeitig fehlenden wissenschaftlichen Gewissheit und der möglichen Vorteile eines neuen, rechtlich verbindlichen Instruments kann das im Völkerrecht vorgesehene Prinzip der Vorbeugung unmittelbar angewendet werden. Dieses Prinzip verweist darauf, dass die Völkergemeinschaft nicht auf eine wissenschaftliche Gewissheit warten muss, sondern jetzt sofort handeln könnte und sollte. Dieses Prinzip fordert, dass, wenn es ungewiss ist, ob eine Handlung Schaden verursachen kann, der Staat, der diese Handlung vornimmt, beweisen muss, dass diese Handlung keinen Schaden verursacht. Es ist nicht erforderlich, die wissenschaftliche Ungewissheit zu beseitigen, um vorbeugende Maßnahmen zu rechtfertigen. Die heute bestehende wissenschaftliche Ungewissheit bietet zusammen mit der möglichen Bedrohung für die Zivilbevölkerung durch vollautonome Waffensysteme ausreichend Gründe zur Ergreifung vorbeugender Maßnahmen in Form eines absoluten Verbots solcher Waffen.

Vollautonome Waffensysteme sind eine neue Kategorie von Waffen, die die Art der Kriegsführung verändern und ernsthafte Gefahren für die Zivilbevölkerung darstellen können. Aus diesem Grund sind neue, konkrete Gesetze erforderlich, die die bestehenden Regelungen des humanitären Völkerrechts eindeutiger gestalten und stärken. Es gibt viele Beispiele für Waffenverträge, die das humanitäre Völkerrecht stärken sollen, und die im Allgemeinen dadurch zustande gekommen sind, dass die jeweiligen Waffen aufgrund ihrer Natur und nicht nur wegen ihres möglichen Missbrauchs fragwürdig sind. Dies gilt für Streumunition, Antipersonenminen, Blendlaser, chemische und biologische Waffen.

Außerdem ist ein konkreter Vertrag für das Verbot einer Waffe die beste Möglichkeit, diese Waffe zu stigmatisieren. Die Erfahrung hat gezeigt, dass eine Stigmatisierung weitreichende Auswirkungen sogar auf die Staaten hat, die dem Vertrag offiziell nicht beigetreten sind, werden sie durch den Vertrag doch dazu veranlasst, die wichtigsten Bestimmungen wie zum Beispiel das Verbot des Einsatzes oder der Herstellung der betreffenden Waffen zu befolgen, um keine internationale Verurteilung zu riskieren.

Ein absolutes Verbot würde den Schutz der Zivilbevölkerung vor solchen Waffen erhöhen. Es wäre umfassender als Regelungen, würde die Notwendigkeit von Fall-zu-Fall-Entschei­dungen bezüglich der Rechtmäßigkeit von Angriffen beseitigen und eine Standardisierung der Regeln für alle Länder vereinfachen. Wenn die Regelungen den Einsatz der Waffen auf bestimmte Orte oder für bestimmte Zwecke beschränken würden, nachdem diese Waffen in den Bestand der nationalen Arsenale aufgenommen wurden, so wären die Länder wahrscheinlich doch versucht, sie in der Hitze des Gefechts oder unter schwierigen Begleitumständen auf andere, mutmaßlich unangemessene Weise einzusetzen.

Ein Vertrag über ein umfassendes Verbot würde auch effektiver die Frage der Proliferation angehen, da sowohl die Entwicklung als auch die Herstellung und der Einsatz dieser Waffen verboten wären (das humanitäre Völkerrecht deckt lediglich den Einsatz ab). Und wenn es ein Verbot gibt, muss man sich auch keine Gedanken über die Verantwortlichkeit machen.

Fazit

Die Staaten müssen dringend nationale Grundsatzbestimmungen in Bezug auf vollautonome Waffensysteme erarbeiten, wenn sie sich an substanziellen Beratungen zu diesem aktuellen Thema von internationaler Bedeutung beteiligen wollen. Wenn die Länder nicht darauf vorbereitet sind, das vorgeschlagene umfassende Verbot sofort anzunehmen, sollten sie nationale Moratorien erlassen, während die multilateralen Gespräche weitergehen, wie es der UN-Sonderberichterstatter für außergerichtliche Hinrichtungen empfohlen hat.

Wichtig ist, das Konzept anzunehmen, dass die Entscheidung über die Zielerfassung und Zielbekämpfung bei jedem einzelnen Angriff auf andere Menschen in entscheidendem Umfang der menschlichen Kontrolle unterlie­gen muss. Die Bestimmung dessen, was genau „menschliche Kontrolle in entscheidendem Umfang“ ist, sollte dabei auf nationaler Ebene und in multilateralen Gesprächen erfolgen.

Entwicklung, Herstellung und der Einsatz vollautonomer Waffensysteme sollten in der nahen Zukunft verboten werden, um die Zivilbevölkerung in bewaffneten Konflikten zu schützen und die menschliche Würde zu bewahren. Wird ein solches Verbot nicht bald erlassen, wird es zu spät sein.

Autor

Steve_Goose.jpg

Steve Goose is executive director of the Arms Division of Human Rights Watch.   He played an instrumental role in bringing about the international treaties banning cluster munitions (2008), antipersonnel landmines (1997), and blinding lasers (1995).  He serves as the chair of both the International Campaign to Ban Landmines (co-recipient of the 1997 Nobel Peace Prize) and the Cluster Munition Coalition. Goose and Human Rights Watch are leading the new global Campaign to Stop Killer Robots, which calls for a pre-emptive prohibition on fully autonomous weapons.