Kontroversen in Militärethik und Sicherheitspolitik
Autonome Waffensysteme - zum Stand der internationalen Debatte
Am 29. und 30. April empfing das österreichische Bundesministerium für Europäische und Internationale Angelegenheiten Regierungsvertreter aus 144 Staaten sowie rund 1000 Teilnehmende aus unterschiedlichen Staaten, internationalen und regionalen Organisationen, Technologie, Industrie, Wissenschaft und Zivilgesellschaft im ehemaligen habsburgischen Kaiserpalast, der Hofburg. Anlass war die Wiener Konferenz zu autonomen Waffensystemen mit dem Titel „Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation“. Außenminister und Staatssekretäre aller Regionen, die Präsidentin des Internationalen Komitees vom Roten Kreuz (IKRK), der Hohe Beauftragte der Vereinten Nationen für Abrüstungsfragen, führende Persönlichkeiten aus Technik und Zivilgesellschaft sowie hochrangige internationale Experten tauschten sich über die rechtlichen, ethischen und sicherheitspolitischen Herausforderungen autonomer Waffensysteme (AWS) sowie über den zukünftigen Umgang mit ihnen aus. Der österreichische Außenminister Alexander Schallenberg sprach von einem „Oppenheimer-Moment“: Er betonte die Dringlichkeit rechtlich verbindlicher Regeln für AWS und appellierte an das Verantwortungsbewusstsein der anwesenden Spitzenpolitiker.
Der Kongress bildete den Höhepunkt einer Reihe vorgeschalteter Regionalkonferenzen in Costa Rica, Luxemburg, Trinidad und Tobago, den Philippinen und Sierra Leone. In allen Teilen der Welt waren Staaten vorab zusammengekommen und hatten nicht nur ihre Bedenken hinsichtlich AWS zum Ausdruck gebracht, sondern auch ihre Entschlossenheit, diese Probleme anzugehen.
Zum Abschluss der Wiener Konferenz trug Botschafter Alexander Kmentt, Leiter der Abteilung für Abrüstung, Rüstungskontrolle und Non-Proliferation im österreichischen Bundesministerium für Europäische und Internationale Angelegenheiten, die sogenannte Chairʼs Summary[1] vor. Das Dokument stellt die Ergebnisse der Expertengespräche zur menschlichen Kontrolle, zur Rechenschaftspflicht, zur Vereinbarkeit mit dem Völkerrecht, zu den erheblichen ethischen Bedenken und den Risiken für Frieden und Sicherheit vor.
Die Chair’s Summary stellt eines von hoffentlich vielen Positionspapieren dar, die dem Generalsekretär der Vereinten Nationen im Mai 2024 vorgelegt werden. Die von der Generalversammlung im Dezember 2023 verabschiedete Resolution 78/241 zu Letalen Autonomen Waffensystemen beauftragt den Generalsekretär damit, die Ansichten der Staaten zu diesem Thema einzuholen und der Generalversammlung bis Ende des Jahres 2024 über das Ergebnis Bericht zu erstatten. Die Resolution wurde von Österreich gemeinsam mit einer überregionalen Gruppe von Staaten eingebracht und fand bei der Abstimmung im Ersten Ausschuss die Unterstützung von 164 Staaten. Es gab lediglich fünf Gegenstimmen. Bereits 2022 hatte Österreich im Ersten Ausschuss der Generalversammlung eine gemeinsame Erklärung eingebracht, die von 70 Staaten unterstützt wurde.
Auch der Generalsekretär der Vereinten Nationen selbst fordert die Staatengemeinschaft seit vielen Jahren zum Handeln auf: „Maschinen, die die Macht und den Ermessensspielraum haben, ohne menschliches Zutun Leben zu nehmen, sind politisch inakzeptabel, moralisch verwerflich und sollten durch das Völkerrecht verboten werden.“[2] Der UN-Generalsekretär und die IKRK-Präsidentin riefen die Staaten 2023 in einem gemeinsamen Appell dazu auf, bis 2026 neue, verbindliche völkerrechtliche Verbote und Einschränkungen auszuhandeln.[3] Hierbei unterstrichen sie die Dringlichkeit des Anliegens. Wie bei vielen anderen Abrüstungsfragen mit starkem humanitärem Bezug spielt die Zivilgesellschaft eine entscheidende und aktive Rolle, um die Debatte voranzubringen und Staaten für proaktive Haltungen zu mobilisieren.
Die aktuelle Situation
Der oben zitierte „Oppenheimer-Moment“ beschreibt auch die gegenwärtige Situation, in der es noch einen gewissen Spielraum für eine präventive Regulierung gibt. Mit entsprechenden Verbotselementen ausgestattet, würde diese die künftige Entwicklung und den Einsatz autonomer Waffen auf dem Gefechtsfeld entscheidend beeinflussen und der internationalen Gemeinschaft eine klare Orientierung geben. Gleichzeitig wissen wir aus einer Reihe von Berichten, dass solche Waffen oder zumindest ihre Vorstufen bereits existieren und in verschiedenen Teilen der Welt entwickelt werden. Zudem liegt auf der Hand, dass das Interesse an diesem Waffentyp und seiner Weiterentwicklung durch die aktuellen Konflikte und geopolitischen Spannungen zusätzlich angeheizt wird. Das Zeitfenster für eine internationale Regelung zu globalen Standards und Leitplanken für die künftige technologische Entwicklung in diesem Bereich wird sich sehr bald schließen.
Diese Chance nicht zu nutzen (bzw. die Lehren aus der Geschichte nicht zu ziehen), könnte schwerwiegende Folgen haben. Angesichts zahlreicher Unklarheiten über die Anwendung des bestehenden Völkerrechts besteht das Risiko, dass hier ein Wettrüsten entsteht. Der rasche technologische Fortschritt könnte nicht nur einen Flickenteppich von Maßnahmen und Regelungen entstehen lassen, sondern auch dazu führen, dass die in diesem Bereich am weitesten fortgeschritten Staaten den Rest der Welt einfach vor vollendete Tatsachen stellen.
Dies ist umso besorgniserregender, als KI zu militärischen Zwecken nicht nur von einigen wenigen Supermächten, sondern weltweit eingesetzt werden wird. Es ist davon auszugehen, dass sich diese Waffentechnologie rasch verbreiten wird – mit merklichen Folgen. Die damit verbundenen Risiken betreffen sämtliche Staaten und Teile der Gesellschaft und haben unverhältnismäßig starke Auswirkungen auf die am meisten gefährdeten Menschen.
Die internationale Gemeinschaft hat diese Problematik bereits 2014 erkannt, als sie im Rahmen des Übereinkommens über konventionelle Waffen (CCW) ihre Beratungen über letale autonome Waffensysteme (LAWS) aufnahm. Im Jahr 2016 wurde eine Gruppe von Regierungssachverständigen (GGE on LAWS) eingesetzt, die ihre Arbeit bis heute fortsetzt. Inzwischen ist wichtige Arbeit geleistet worden, in deren Zuge die Staaten ihre Positionen und Ansichten zu diesem Thema erarbeitet und mit den sogenannten „11 Guiding Principles“ entsprechende Leitlinien verabschiedet haben.
Der letzte Schritt, nämlich die Verabschiedung eines Protokolls im Rahmen des „Übereinkommens über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können“ (so der volle Titel des CCW), steht allerdings noch aus. Denn das Konsensprinzip, durch das bereits eine kleine Anzahl von Staaten Fortschritte und weitere substanzielle Ergebnisse blockieren kann, stellt ein wesentliches Hemmnis dar.
Viele Staaten unterstützen einen zweigliedrigen Ansatz mit einer Kombination aus Verboten und Vorschriften zur Bewältigung der erkannten Probleme. Die detaillierte Ausgestaltung dieser beiden Ebenen müsste zwar auf internationaler Ebene verhandelt werden. Dennoch erscheint dieser Weg vielversprechend.
Allerdings drängt die Zeit. Der österreichische Außenminister Schallenberg kommentierte auf der Wiener Konferenz treffend: „Die Technologie schreitet mit rasender Geschwindigkeit voran, während die Politik hinterherhinkt.“[4] Die Staatengemeinschaft muss ihre Meinungsverschiedenheiten hinsichtlich des weiteren Vorgehens überwinden und die politische Führung und Weitsicht zeigen, die diese Herausforderung von uns fordert.
Wie zahlreiche weitere Staaten richtet Österreich seine Hoffnung und Erwartung einerseits auf den für diesen Sommer angekündigten nächsten Bericht des Generalsekretärs sowie andererseits darauf, dass die durch die Wiener Konferenz (und viele Konferenzen zuvor) erzeugte Aufmerksamkeit der internationalen Gemeinschaft einen neuen Impuls geben wird, um mit größerer Dringlichkeit und klarer Zielsetzung voranzukommen. Zu den vielen Vorteilen des Berichts gehört, dass er die Ansichten aller UN-Mitglieds- und Beobachterstaaten einbezieht und somit über die 126 Hohen Vertragsparteien des UN-Waffenübereinkommens hinausgeht.
Belegt wird das Interesse an diesem Thema auch durch eine Reihe verschiedener Arbeitsgruppen, die sich mit der militärischen Nutzung der künstlichen Intelligenz befassen. Hierzu gehört etwa die Konferenzreihe „Responsible Artificial Intelligence in the Military Domain“, die im Februar 2023 in Den Haag stattfand und im September 2024 in Seoul fortgesetzt wird. Auch die politische Erklärung über die verantwortungsvolle militärische Nutzung von künstlicher Intelligenz und Autonomie („Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy“), eine Initiative der Vereinigten Staaten, bringt die Ebene der praktischen Umsetzung in die Debatte ein.
Künstliche Intelligenz und internationales Recht
Das derzeitige Rechtssystem ist auf Menschen ausgerichtet, nicht auf Maschinen. Es verortet die Verantwortung für eine Handlung entweder bei einzelnen Personen oder beim Staat. Das ist das wesentliche Problem im Zusammenhang mit KI, denn die Rechenschaftspflicht für Handlungen und ihre Folgen kann nicht auf Algorithmen übertragen werden. Die Feststellung und Zuweisung von Verantwortung ist jedoch eine zwingende Voraussetzung für das stabile Fortbestehen der internationalen und nationalen Rechtssysteme.
Wie können nun einzelne Personen für die Handlungen von Algorithmen verantwortlich gemacht werden, die sie nicht überblicken oder deren Handlungen nicht vorhergesehen oder erklärt werden können (das sogenannte „Blackbox-Problem“)? Hier muss über Regeln, Vorschriften und operative Beschränkungen ein Rahmen geschaffen werden, in dem die Handlungen autonomer Waffensysteme jederzeit hinreichend verstanden und sinnvoll kontrolliert werden können.
Gleichzeitig sind die Staaten an rechtliche Verpflichtungen gebunden, deren Einhaltung durch Phänomene wie algorithmische Verzerrungen oder die Herausforderungen des maschinellen Lernens immer schwieriger wird (zum Beispiel die rechtliche Überprüfung nach Artikel 36 des Zusatzprotokolls I der Genfer Konventionen von 1949 bei einem sich ständig weiterentwickelndem System).
Der Schlüssel zur Beantwortung vieler Fragen liegt in der Einbindung des Menschen bzw. in der Aufrechterhaltung und Sicherstellung der menschlichen Verantwortung bei der Gestaltung, Entwicklung und Nutzung autonomer Waffensysteme. Die Gewährleistung einer bedeutsamen menschlichen Kontrolle, auch in Form positiver Verpflichtungen, stellt einen Lösungsansatz für die wichtigsten Probleme dar.
Die ethische Dimension
Viele Staaten führen vor allem ethische Bedenken ins Feld, die die Festlegung rechtsverbindlicher Regeln, Verbote und Vorschriften für die Nutzung autonomer Waffensysteme ebenfalls notwendig erscheinen lassen. Sie leiten sich einerseits aus der grundlegenden Befürchtung ab, mit der Übertragung von Entscheidungen über Leben und Tod an Maschinen werde eine moralische Grenze überschritten, und andererseits aus einer Tradition im Humanitären Völkerrecht. Die Bestimmungen des Humanitären Völkerrechts basieren von jeher auf ethischen Erwägungen, insbesondere auf der Martensʼsche Klausel[5] als wichtige Grundlage. Die Menschenwürde ist nicht nur zentrales Element des Humanitären Völkerrechts und der Menschenrechte, sondern auch Bestandteil wichtiger internationaler Verträge und zahlreicher Staatsverfassungen der Welt. Insbesondere diejenigen Menschenrechtsverletzungen, die durch einen dehumanisierenden und objektivierenden Einsatz von Waffen entstehen, geben vielen Anlass zur Sorge. Eine präventive Regulierung für autonome Waffensysteme muss die oben genannten Punkte berücksichtigen und unter anderem auf ethischen und moralischen Grundsätzen aufbauen.
Bemerkenswerterweise führen immer mehr Staaten nun ethische Richtlinien, Rahmenwerke oder Gremien für die zivile und militärische Nutzung von KI ein – insbesondere Demokratien haben die Probleme, die durch den Einsatz von AWS entstehen können, und ihre gesellschaftliche Akzeptanz im Blick. Bereits 2021 veröffentlichte die NATO ein Grundsatzdokument zum verantwortungsvollen Einsatz von KI, das sich stark an die UNESCO-Empfehlung zur Ethik der KI aus demselben Jahr anlehnt. Es wäre nur logisch, die Standards und Normen, die Staaten mit hoch entwickelten Waffen für sich selbst anwenden, auch global zu verankern.
Wegweiser für die Zukunft
Autonome Waffensysteme werfen eine Reihe von Fragen und Bedenken auf, die sowohl ethische und sicherheitspolitische Fragen als auch die Anwendung bestehender Elemente des Völkerrechts betreffen. Die internationale Gemeinschaft hat die Pflicht, diese Anwendung näher zu bestimmen sowie Rechtslücken und Unklarheiten zu beseitigen.
Darüber hinaus stellt sich die grundlegende Frage nach unserer Rolle und Bedeutung als Menschen in der Kriegsführung und bei der Anwendung von Gewalt. Hier ist jegliche utilitaristische Sichtweise inakzeptabel. Es wäre ein gewaltiger Fehler, diesen erheblichen technologischen Wandel in den Mitteln und Methoden der Kriegsführung schlicht als gegeben hinzunehmen. Vielmehr bestimmen und gestalten wir ihn selbst durch unser Handeln. In Anbetracht der Folgen, die das Untätigbleiben nach sich ziehen könnte, ist dies tatsächlich der Oppenheimer-Moment unserer Generation.
Autonome Waffensysteme könnten schon bald überall auf der Welt verfügbar sein. Mit dieser großen sicherheitspolitischen Problematik umzugehen, wird alle Staaten und die gesamte Gesellschaft vor eine ethische Herausforderung stellen. Deshalb muss dieses Thema möglichst umfassend und unter Einbeziehung der Zivilgesellschaft, der Wissenschaft und der Industrie behandelt werden.
Dabei ist es unerlässlich, unsere Differenzen zu überwinden und den umfangreichen Bedenken konkrete Taten folgen zu lassen. Das Zögern einiger weniger Staaten sollte den Rest der Welt nicht davon abhalten, voranzuschreiten und eine rechtsverbindliche Norm zu schaffen. „Soft Law“ allein wird Staaten nicht daran hindern können, die Grenzen des Machbaren immer weiter auszudehnen. Auch die schwierige internationale Lage entbindet uns nicht von der politischen Verantwortung, die Herausforderungen anzugehen, die automatische Waffensysteme mit sich bringen. Die Zeit zum Handeln ist genau jetzt.
[1] Republik Österreich, Bundesministerium für Europäische und Internationale Angelegenheiten:
Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation.
[2] Vereinte Nationen (2019): Machines Capable of Taking Lives without Human Involvement Are Unacceptable, Secretary-General Tells Experts on Autonomous Weapons Systems, 25.3. press.un.org/en/2019/sgsm19512.doc.htm. (Übersetzung aus dem Englischen.)
[5] Die Martensʼsche-Klausel findet sich als salvatorische Klausel in vielen Rechtstexten, die das Recht der bewaffneten Konflikte betreffen. Erstmalig erscheint sie in der Präambel des Haager Abkommens (II) von 1899: „In der Hoffnung, dass es später gelingen wird, ein vollständigeres Kriegsgesetzbuch zu erlassen, halten es die hohen vertragschließenden Teile für zweckmäßig, festzusetzen, dass in den Fällen, die in den von ihnen angenommenen Bestimmungen nicht vorgesehen sind, die Bevölkerungen und Kriegführenden unter dem Schutze und den herrschenden Grundsätzen des Völkerrechts bleiben, wie sie sich aus den unter gesitteten Staaten geltenden Gebräuchen, aus den Gesetzen der Menschlichkeit und aus den Forderungen des öffentlichen Gewissens herausgebildet haben.“ Vgl. Wagner, Norbert B. (Hg.) (2021): Archiv des Humanitären Völkerrechts in bewaffneten Konflikten. 3. Auflage. Brühl, S. 26. http://www.humanitaeres-voelkerrecht.de/HVR.II.1.pdf.
Andreas Bilgeri
Andreas Bilgeri ist Botschaftsrat und Abrüstungsexperte bei der Ständigen Vertretung Österreichs in Genf. Aus der Organisation für Sicherheit und Zusammenarbeit in Europa, dem Europarat und der UNO hat er Erfahrung in der Arbeit in multilateralen Organisationen. Während seiner vorherigen Tätigkeit in Straßburg war er an der Arbeit des Europarates zur Regulierung der künstlichen Intelligenz im Hinblick auf Menschenrechte, Demokratie und Rechtsstaatlichkeit beteiligt. In Genf konzentriert sich seine Arbeit auf neue Technologien im militärischen Bereich. Er nimmt regelmäßig an den Diskussionen der Regierungsexperten für tödliche autonome Waffensysteme teil und war Teil des Teams, das Annahme einer Resolution zu diesem Thema durch die Generalversammlung im Jahr 2023 zuwege brachte.