Kontroversen in Militärethik und Sicherheitspolitik
Wie geht es mit den Bemühungen um ein rechtsverbindliches Abkommen zu autonomen Waffensystemen weiter?
Im Oktober 2023 riefen Antonio Guterres, Generalsekretär der Vereinten Nationen, und Mirjana Spoljaric, Präsidentin des Internationalen Komitees vom Roten Kreuz (IKRK), in einer richtungweisenden gemeinsamen Verlautbarung dazu auf, „sich eines humanitäres Anliegens von höchster Dringlichkeit anzunehmen“: autonome Waffensysteme. Guterres und Spoljaric appellierten an die politischen Entscheidungsträger, „dringend neue internationale Regeln aufzustellen“, und betonten:
„Wir müssen jetzt handeln, um die Kontrolle des Menschen über die Anwendung von Gewalt zu bewahren. Bei Entscheidungen über Leben und Tod muss die menschliche Kontrolle erhalten bleiben. Die autonome Zielauswahl und Bekämpfung von Menschen durch Maschinen stellt eine moralische Grenze dar, die wir nicht überschreiten dürfen. Maschinen, die die Macht und den Ermessensspielraum haben, ohne menschliches Zutun Leben zu nehmen, sollten durch völkerrechtliche Bestimmungen verboten werden.“
Mit diesem gemeinsamen Appell, der in bisher nicht gekannter Form einen Zeitrahmen vorgibt, wird die internationale Gemeinschaft aufgefordert, „Verhandlungen über eine neue rechtsverbindliche Übereinkunft zur Festlegung eindeutiger Verbote und Beschränkungen für autonome Waffensysteme aufzunehmen und diese Verhandlungen bis 2026 abzuschließen“.[1]
Im Anschluss an diesen Appell stimmten 152 Mitgliedstaaten der Generalversammlung der Vereinten Nationen mit überwältigender Mehrheit für die Resolution 78/241 – die erste Resolution zu autonomen Waffensystemen in der Generalversammlung der Vereinten Nationen überhaupt.[2] Die von Österreich eingebrachte und von einer überregionalen Gruppe von 43 Staaten mitgetragene Resolution betont „die dringende Notwendigkeit, dass sich die internationale Gemeinschaft mit den Herausforderungen und Bedenken auseinandersetzt, die autonome Waffensysteme aufwerfen“, und fordert den Generalsekretär auf, die Ansichten der Mitglieds- und Beobachterstaaten dazu einzuholen, „wie den damit verbundenen Herausforderungen und Bedenken dieser Staaten begegnet werden kann, die sich aus humanitärer, rechtlicher, sicherheitspolitischer, technologischer und ethischer Sicht sowie zur Rolle des Menschen bei der Anwendung von Gewalt ergeben“. Dies schließt die Einladung internationaler und regionaler Organisationen, des IKRK sowie der Zivilgesellschaft, Wissenschaft und Industrie zur Stellungnahme ein.[3]
Der daraus resultierende Bericht soll der Generalversammlung der Vereinten Nationen im Herbst 2024 vorgelegt werden. Laut der Resolution werden autonome Waffensysteme als eigener Punkt auf die Tagesordnung der nächsten Generalversammlung der Vereinten Nationen gesetzt (bisher wurden solche Systeme unter dem allgemeinen Tagesordnungspunkt „konventionelle Waffen“ diskutiert). Die Verabschiedung dieser Resolution stellt einen bemerkenswerten Fortschritt der internationalen Debatte zu diesem Thema dar, da sie „den Weg zu einem Rechtsrahmen ebnet, der eine bedeutsame menschliche Kontrolle über die Anwendung von Gewalt gewährleistet.“[4]
Zwischenzeitlich fand in den Jahren 2023 und 2024 weltweit eine Reihe regionaler und internationaler Konferenzen zu diesem Thema statt. Zum Zeitpunkt des Entstehens des vorliegenden Artikels hatten Österreich, Trinidad und Tobago, Costa Rica, Luxemburg, die Philippinen und Sierra Leone internationale und regionale Konferenzen zu autonomen Waffensystemen durchgeführt. Zu den aus diesen Konferenzen hervorgegangenen Erklärungen und Entschließungen aus separaten Prozessen gehören unter anderem: das „Communiqué of the Latin American and the Caribbean Conference on Social and Humanitarian Impact of Autonomous Weapons“ (Kommuniqué der lateinamerikanischen und karibischen Konferenz über die sozialen und humanitären Auswirkungen autonomer Waffensysteme), auch bekannt als Belén-Kommuniqué), die CARICOM-Erklärung zu autonomen Waffensystemen, das Freetown-Kommuniqué, die Resolution der Interparlamentarischen Union mit dem Titel „Addressing the social and humanitarian impact of autonomous weapon systems and artificial intelligence“ (Umgang mit den sozialen und humanitären Auswirkungen autonomer Waffensysteme und künstlicher Intelligenz) sowie die Sondererklärung des Iberoamerikanischen Gipfels zu den sozialen und humanitären Auswirkungen autonomer Waffensysteme. Die von Österreich ausgerichtete Wiener Konferenz zu autonomen Waffen mit dem Titel „Humanity at the Crossroads: Autonomous Weapons and the Challenge of Regulation“ (Die Menschheit am Scheideweg: Autonome Waffen und die Herausforderung der Regulierung), die im April 2024 stattfand, verzeichnete über 1000 Teilnehmer aus 144 Staaten sowie eine starke Präsenz der Zivilgesellschaft. Sie war damit die bisher größte internationale Zusammenkunft zur Regulierung autonomer Waffensysteme außerhalb der Vereinten Nationen.
Der Appell des UN-Generalsekretärs und der IKRK-Präsidentin sowie die nachdrückliche Unterstützung für die Resolution der UN-Generalversammlung zu autonomen Waffen bezeugen ebenso wie die weltweit zahlreichen internationalen und regionalen Konferenzen, politischen Erklärungen und Beschlüsse zum Thema autonome Waffen aus den Jahren 2023 und 2024 die weit verbreitete Besorgnis der internationalen Gemeinschaft über die von diesen Waffensystemen ausgehenden Bedrohungen und Herausforderungen. Dies unterstreicht zugleich den wachsenden zwischenstaatlichen Konsens im Hinblick auf die Notwendigkeit neuer, rechtsverbindlicher internationaler Regelungen.
Seit zehn Jahren finden im Rahmen der Konvention über bestimmte konventionelle Waffen (CCW, auch UN-Waffenübereinkommen) bei den Vereinten Nationen in Genf auf der Ebene der CCW-Gruppe von Regierungssachverständigen zu neuen Technologien im Bereich letaler autonomer Waffensysteme (Group of Governmental Experts, kurz GGE, zu LAWS) diplomatische Gespräche zu autonomen Waffensystemen statt. Obwohl die Mehrheit der an den Gesprächen in diesem Forum beteiligten Staaten ihren Willen deutlich gemacht hat, neue, rechtsverbindliche internationale Regeln aufzustellen, die auf einem so genannten „zweigliedrigen Ansatz“ (two-tiered approach) basieren, hat eine kleine Gruppe hoch militarisierter Staaten immer wieder sinnvolle Fortschritte in diesem Forum blockiert.[5] Da die CCW-Gespräche konsensbasiert sind und somit die Einigung aller Staaten auf ein Ergebnis erfordern, ist es diesen Staaten gelungen, Berichte zu verwässern und Fortschritte bei der Aushandlung neuer Regelungen für autonome Waffen zu verhindern.
Das neue Dreijahresmandat der GGE zu LAWS, das auf der Tagung der Hohen Vertragsparteien des CCW im November 2023 vereinbart wurde, ist kraft- und ambitionslos: Es sieht vor, dass die GGE „weiterhin im Konsensverfahren Bausteine einer Übereinkunft berät, ohne jedoch deren Charakter vorzugreifen, und andere Maßnahmen zum Umgang mit neuen Technologien im Bereich tödlicher autonomer Waffensysteme formuliert“. Im Grunde wird damit „auf weitschweifige Weise gesagt, dass die Gruppe weiterhin Ideen zusammentragen wird, aber weit davon entfernt ist, ein wirkliches Resultat auszuhandeln, geschweige denn zu vereinbaren, dass dieses Resultat in einer rechtsverbindlichen Übereinkunft bestehen soll“.[6]
Die zahlreichen regionalen und internationalen Konferenzen sowie die große Unterstützung für die Resolution der UN-Generalversammlung zu autonomen Waffen bezeugen den Wunsch vieler Staaten, die Gespräche zu diesem Thema vom CCW in ein inklusiveres Forum zu verlagern, das nicht durch den fortgesetzten Missbrauch der Konsensregel des UN-Waffenübereinkommens behindert wird. Sie zeigen auch, dass viele Staaten proaktiv handeln möchten und auf die Forderungen des UN-Generalsekretärs, der IKRK-Präsidentin, der Zivilgesellschaft und anderer Seiten, einschließlich des Heiligen Stuhls und vieler Wissenschaftler, nach einer rechtsverbindlichen Übereinkunft reagieren wollen.
Mögliche Elemente eines Übereinkommens zu autonomen Waffensystemen (AWS)
Laut IKRK sind AWS Systeme, die „ohne menschliches Eingreifen Ziele auswählen und mit Gewalt angreifen. Nach Erstaktivierung oder Start durch eine Person initiiert ein autonomes Waffensystem auf Informationen aus der Umgebung hin, die es über Sensoren und ausgehend von einem verallgemeinerten ,Zielprofil‘ erhält, selbsttätig einen Angriffsschlag bzw. löst einen solchen aus. Dies bedeutet, dass der Nutzer das/die konkrete(n) Ziel(e) und den genauen Zeitpunkt bzw. Ort der daraus resultierenden Anwendung(en) von Gewalt nicht auswählt oder nicht einmal kennt.“[7]
Ihre Funktionsweise unterscheidet autonome Waffen „qualitativ von anderen Waffensystemen“, denn „wenn solche Systeme gegen Menschen eingesetzt werden, bedeutet dies, dass Menschen als Datenmuster und Objekte von Maschinen erfasst, verarbeitet und als Ziel ausgewählt werden“[8]. Welche Informationen eine autonome Waffe für Zielauswahl und Angriff verwendet, hängt davon ab, welche Arten von Sensoren sie verwendet und welche Daten diese Sensoren sammeln.
Welche Informationen eine autonome Waffe für Zielauswahl und Angriff verwendet, hängt davon ab, welche Arten von Sensoren sie verwendet und welche Daten diese Sensoren sammeln
Autonome Waffen verwenden die Informationen, die sie von Sensoren erhalten, und gleichen diese Informationen mit einem verallgemeinerten Zielprofil ab. Passen die Informationen, die das Waffensystem von den Sensoren erhält, nicht zu seinem Zielprofil, kommt es nicht zur Anwendung von Gewalt. Stimmen jedoch die Informationen, die das Waffensystem von den Sensoren erhält, mit dem vorprogrammierten Zielprofil überein, wird die automatische Waffe ausgelöst. Die Entscheidung über die maschinengesteuerte Anwendung von Gewalt bzw. den Angriff eines Ziels wird also von einem Algorithmus auf der Grundlage der von den Sensoren erhaltenen Daten anstatt von einem Menschen (zum Beispiel einem Soldaten) getroffen.[9] Das IKRK weist zudem darauf hin, dass „das Gerät oder das Opfer den Angriff auslöst, nicht der Benutzer“[10].
In Anbetracht der grundlegenden moralischen, ethischen, rechtlichen und humanitären Fragen, die aus Entwicklung, Stationierung und Verwendung autonomer Waffensysteme erwachsen, sollte ein neues Abkommen eine Kombination aus Verboten und Vorschriften enthalten – also den oben genannten zweigliedrigen Ansatz. Dieser findet inzwischen sowohl innerhalb des CCW als auch in anderen Gremien breite Unterstützung, etwa beim IKRK sowie bei der Kampagne Stop Killer Robots. Stop Killer Robots fordert ein Verbot autonomer Waffen, die nicht unter bedeutsamer menschlicher Kontrolle eingesetzt werden können bzw. für den Einsatz gegen Menschen konzipiert sind oder genutzt werden. Für alle anderen autonomen Waffensysteme sollten positive Verpflichtungen in Form von Vorschriften gelten.
Die Notwendigkeit einer bedeutsamen Kontrolle durch den Menschen
Wie bereits erwähnt, ist für autonome Waffensysteme, deren Einsatz keiner bedeutsamen menschlichen Kontrolle (Meaningful Human Control) unterliegt, ein Verbot vonnöten, da beim Einsatz dieser Systeme kein menschlicher Nutzer das konkrete Ziel, den genauen Zeitpunkt oder den Ort eines Angriffs auswählt. Dies wirft wesentliche Anwendungsfragen in Bezug auf das Völkerrecht auf, insbesondere was Unterscheidung, Verhältnismäßigkeit, Menschlichkeit und militärische Notwendigkeit als zentrale und fundamentale Grundsätze des Humanitären Völkerrechts betrifft.
Konkrete Regeln sind erforderlich, um die menschliche Kontrolle über ein Waffensystem als „bedeutsame“ Kontrollezu gestalten und nicht lediglich zu einem „Abhaken“ mutieren zu lassen
Um die Achtung und Einhaltung der Regeln des Völkerrechts, einschließlich des Humanitären Völkerrechts und der internationalen Menschenrechtsnormen, zu gewährleisten, ist es von entscheidender Bedeutung, die menschliche Kontrolle über die kritischen Funktionen von Waffensystemen beizubehalten, insbesondere in Bezug auf die genaue Spezifikation des Ziels sowie auf die durch die Funktionsweise festgelegte Dauer, das Gebiet und die Reichweite eines Systems. Konkrete Regeln sind daher erforderlich, um die menschliche Kontrolle über ein Waffensystem als „bedeutsame“ Kontrollezu gestalten und nicht lediglich zu einem „Abhaken“ mutieren zu lassen. Diese Regeln sollten gewährleisten, dass Waffensysteme vorhersehbar und nachvollziehbar funktionieren und Beschränkungen hinsichtlich des zeitlichen und geografischen Einsatzbereichs sowie des Umfangs ihrer Einsätze unterworfen sind.
Das IKRK betont, dass „die Unvorhersehbarkeit von AWS das Humanitäre Völkerrecht grundlegend infrage stellt“ und „zur Einhaltung des Humanitären Völkerrechts und aus praktischen militärisch-operativen Gründen eine ausreichende Vorhersehbarkeit“ erforderlich ist.[11] Ein System kann nur dann als „vorhersehbar“ angesehen werden, wenn der Benutzer über angemessene Kenntnisse des Systems und des Anwendungskontexts verfügt. Die Nutzer autonomer Waffensysteme müssen die Funktionsweise des Systems und die wahrscheinlichen Auswirkungen eines Angriffs in dem operativen Kontext, in dem es eingesetzt werden soll, verstehen können. Damit ein Nutzer die wahrscheinlichen Auswirkungen eines Angriffs im operativen Kontext des Einsatzes vorhersehen kann, müssen die Dauer des Einsatzes, das geografische Einsatzgebiet und das Ausmaß des Einsatzes begrenzt sein. Das IKRK unterstreicht, es sei das Ziel dieser Beschränkungen, „die Nutzer von AWS in die Lage zu versetzen, über das erforderliche Situationsverständnis zu verfügen, um die Auswirkungen eines Angriffs zu antizipieren und bei der Einleitung des Angriffs mit hinreichender Sicherheit davon ausgehen zu können, dass dieser mit dem Humanitären Völkerrecht vereinbar ist. Diese Beschränkungen verringern auch das Risiko, dass sich Umstände während eines Angriffs ändern, und erleichtern die Überwachung während der Nutzung der AWS.“[12]
Mithilfe dieser Regeln – zur Vorhersehbarkeit, Verständlichkeit sowie zu Umfang und Ausmaß des Einsatzes – kann das Konzept der „bedeutsamen menschlichen Kontrolle“ operationalisiert werden. Je nach Kontext wird eine solche Kontrolle anders aussehen; das IKRK und das Stockholmer Friedensforschungsinstitut (SIPRI) haben festgestellt, die für eine bedeutsame menschliche Kontrolle erforderlichen Maßnahmen seien „je nach dem konkreten Kontext unterschiedlich (…). Soweit eine bestimmte Kontrollmaßnahme mangelhaft, unzureichend oder schwierig umzusetzen ist, können andere an Bedeutung gewinnen.“[13]
Sowohl das Kommuniqué von Belén, die CARICOM-Erklärung als auch das Kommuniqué von Freetown betonen die zentrale Bedeutung einer bedeutsamen menschlichen Kontrolle über autonome Waffensysteme. Im Belén-Kommuniqué heißt es: „Es ist von größter Wichtigkeit, eine bedeutsame menschliche Kontrolle aufrechtzuerhalten, um eine weitere Entmenschlichung der Kriegsführung zu verhindern sowie die individuelle Rechenschaftspflicht und Verantwortlichkeit des Staates zu gewährleisten.“[14] Die CARICOM-Erklärung unterstreicht, die CARICOM-Staaten seien entschlossen, „sich für die Unverzichtbarkeit einer bedeutsamen menschlichen Kontrolle über die Anwendung von Gewalt einzusetzen und dadurch das Streben nach einer internationalen rechtsverbindlichen Übereinkunft, die Verbote und Vorschriften für AWS enthält, zu fördern“[15]. Das Kommuniqué von Freetown verweist auf die „Bedenken“ der ECOWAS-Mitgliedsstaaten „gegen den potenziellen Einsatz autonomer Waffensysteme als tödliche Gewalt gegen Ziele ohne das Bestehen einer bedeutsamen menschlichen Kontrolle, welche jedoch entscheidend für die Einhaltung ethischer, rechtlicher und humanitärer Verpflichtungen ist“[16]. Die Chair’s Summary der Wiener Konferenz hebt hervor, dass „Systeme, die nicht angemessen verstanden oder auf einen bestimmten Kontext beschränkt werden können, nicht der menschlichen Kontrolle unterliegen können und daher nicht mit rechtmäßiger Nutzung und Rechenschaftspflicht vereinbar wären“ und dass „autonome Waffensysteme, die den Vorteil der Schnelligkeit versprechen, möglicherweise keine bedeutsame menschliche Kontrolle gestatten und die Gefahr einer Destabilisierung der internationalen Sicherheit bergen“.[17]
Wie die Delegation der Schweiz auf der ersten Sitzung der GGE des UN-Waffenübereinkommens zu LAWS 2023 betonte, verlagern sich die zwischenstaatlichen Diskussionen jetzt „von der Terminologie hin zu konkreten und operationalisierbaren Konzepten der Kontrolle oder Beteiligung. Im Mittelpunkt steht dabei der Gedanke, dass der Mensch in verschiedenen Phasen des Lebenszyklus einer Waffe – so auch beim Gefechtseinsatz autonomer Waffensysteme – Maßnahmen ergreifen und deren Funktionsweise in geeigneter Weise kennen muss.“[18]
Verbot der Zielauswahl von Personen
Menschen zum Zielobjekt autonomer Waffensysteme zu machen ist „ein äußerst dringliches ethisches Problem“[19]. Ein autonomes Waffensystem sollte selbst in Fällen, in denen es unter bedeutsamer menschlicher Kontrolle eingesetzt werden kann, verboten werden, soweit dieses System für den Einsatz gegen Menschen konzipiert ist oder hierfür genutzt wird. Die Gründe dafür sind vielfältig, wobei ein wesentlicher Grund darin besteht, dass autonome Waffen die grundlegendsten ethischen Prinzipien der Menschlichkeit verletzen, indem sie „menschliche Entscheidungen über Leben und Tod im Endeffekt durch Sensor-, Software- und maschinelle Prozesse ersetzen“[20]. Wie zu Beginn dieses Artikels hervorgehoben, betonten der Generalsekretär der Vereinten Nationen und die Präsidentin des IKRK in ihrem gemeinsamen Appell, dass „die autonome Auswahl menschlicher Ziele durch Maschinen eine moralische Grenze ist, die wir nicht überschreiten dürfen“[21].
Die Nutzung von Ersatzindikatoren wie Gewicht, Wärmebild, Bewegungsprofil oder konkreten biometrischen Merkmalen zur Klassifizierung und Zielauswahl von Menschen ist nicht nur ethisch und moralisch, sondern auch rechtlich problematisch. Nach den Regeln des Humanitären Völkerrechts unterliegt die Auswahl menschlicher Ziele einer Reihe differenzierter Kriterien und erfordert die Anwendung menschlichen Urteilsvermögens, welches Maschinen nicht zugetraut werden kann. Wie das IKRK darlegt:
„Zur Beurteilung der Rechtmäßigkeit einer Zielauswahlentscheidung ist zunächst festzustellen, ob das humanitäre Völkerrecht auf die betreffende Situation anwendbar ist [ ...] Neben der Entscheidung, ob das Humanitäre Völkerrecht anwendbar ist oder nicht, ist auch zu bewerten, welche seiner Vorschriften mit Bezug auf den vorliegenden Sachverhalt einschlägig sind, je nachdem, ob sich dieser Sachverhalt auf die Ausübung von Feindseligkeiten (historisch als ‚Haager Recht‘ bezeichnet) oder auf die Behandlung von Personen in der Gewalt einer Konfliktpartei (historisch als ‚Genfer Recht‘ bezeichnet) bezieht. Die Regeln für die Ausübung von Feindseligkeiten gelten für Personen oder Gegenstände, die sich nicht in der Hand der angreifenden Konfliktpartei befinden. Die Vorschriften zur Behandlung von Personen gelten dagegen nur für Einzelpersonen, die sich in der Gewalt einer Konfliktpartei befinden (z. B. Internierte, Kriegsgefangene, Häftlinge, Verwundete und Kranke, Bewohner besetzter Gebiete), und haben zur Folge, dass diese Personen als ‚hors de combat‘ gelten und daher jederzeit vor Angriffen geschützt sind.“[22]
Die oben genannten Aspekte sind lediglich die vordringlichsten, die es bei der Rechtmäßigkeit der Zielauswahl zu berücksichtigen gilt. Anschließend sind die Kardinalprinzipien der Zielunterscheidung, der Verhältnismäßigkeit und der Vorsicht beim Angriff anzuwenden.
Die Behauptung, dass autonome Waffen in der Lage sein könnten, auf der Grundlage von sensorgestützten Zielprofilen und der Verarbeitung und Klassifizierung von Algorithmen zwischen Zivilisten und Kombattanten zu unterscheiden, berührt das Diskriminationsprinzip als zentralen Grundsatz des Humanitären Völkerrechts sowie dessen andere oben genannte Kardinalprinzipien. Dasselbe gilt für die Unterscheidung zwischen Kombattanten und Personen, die sich hors de combat befinden oder sich ergeben wollen bzw. für die Unterscheidung zwischen Zivilisten und direkt an Feindseligkeiten beteiligten Personen aus der Zivilbevölkerung. Ganz zu schweigen von den erheblichen Herausforderungen, die solche Waffensysteme im Hinblick auf die internationalen Menschenrechte, insbesondere das Recht auf Leben, mit sich bringen.
Mehrere Staaten, die an den Gesprächen der Regierungssachverständigen zu LAWS beteiligt waren, plädieren für ein Verbot von Systemen, die dafür konzipiert sind oder eingesetzt werden, Menschen ins Visier zu nehmen. Sie äußern Bedenken im Hinblick auf die ethischen Fragen, die der Einsatz autonomer Waffensysteme aufwirft, wie etwa (algorithmische) Verzerrungen, die Unterscheidung von Kombattanten und Zivilisten sowie die Verletzung der Menschenwürde.
Die Zielerfassung mittels Sensordaten reduziert den Menschen auf Datenpunkte, verletzt die Menschenwürde und stellt somit ein gravierendes Beispiel für Entmenschlichung dar. Ein Verbot ist aus genau den Gründen erforderlich, die die IKRK-Präsidentin beschrieben hat: „Die ethischen Risiken sind zu gewaltig, und der potenzielle Schaden für die geschützten Personen ist zu hoch.“[23]
Risiken für die internationale Sicherheit durch den zunehmenden Einsatz von KI und Autonomie in Konflikten
Abgesehen von den oben genannten Risiken gefährden autonome Waffen international auch Frieden und Sicherheit. Eine umfangreiche Proliferation von autonomen Waffensystemen würde die Schwelle für die Anwendung von Gewalt wahrscheinlich weiter senken. Autonome Waffen stellen ein ernsthaftes Problem für die Verantwortlichkeit und Rechenschaftspflicht bei Verstößen gegen das Völkerrecht dar. Und, wie die IKRK-Präsidentin betonte, „die Technologie zur Entwicklung dieser Art von Waffen gibt es bereits, und staatliche wie nicht staatliche Akteure greifen darauf zu“[24]. Einige Staaten investieren bereits massiv in die militärische Anwendung künstlicher Intelligenz und autonomer Waffen und fördern damit ein KI-„Wettrüsten“. Darüber hinaus ist das Potenzial der Weiterverbreitung von Systemen mit autonomen Fähigkeiten durch nicht staatliche Akteure ebenfalls eine reale und wachsende Bedrohung.
Im Moment sind es die Staaten selbst, die bei der schleichenden Übertragung von Entscheidungen über Leben und Tod an Maschinen „das Feld anführen“. Immer mehr Berichte deuten darauf hin, dass Waffensysteme mit autonomen Funktionen und KI-Entscheidungsunterstützungs- und -Zielerfassungssysteme in Konflikten eingesetzt werden: vom Einsatz von Loitering Munition mit Bilderkennungsfähigkeiten in der Ukraine bis hin zum Einsatz von KI-Zielerfassungssystemen durch die israelischen Streitkräfte in Gaza. Dies wirft erhebliche Bedenken hinsichtlich der Einhaltung des Völkerrechts und des Schutzes von Zivilisten auf. Zum Zeitpunkt der Entstehung des vorliegenden Artikels liegen zwar noch keine verifizierten Berichte über den Einsatz autonomer Waffensysteme vor, die mithilfe von Sensoren sowohl ein Ziel auswählen als auch einen Angriff zu einem bestimmten Zeitpunkt und in einem bestimmten Gebiet ohne menschliche Zustimmung durchführen könnten. Allerdings entwickeln zahlreiche Staaten bereits entsprechende Vorläufersysteme und setzen diese auch ein. Die Präsidentin des IKRK stellte in ihrer Rede auf der Wiener Konferenz zu autonomen Waffen im April 2024 fest, die Berichte seien „schwer abschließend zu verifizieren“, deuteten aber „auf verstörende Trends hin zu immer komplexerer Technologie und einer Ausweitung der Einsatzparameter hin“[25].
Die zunehmende Berücksichtigung von KI und Autonomie durch den Militär- und Verteidigungssektor unterstreicht die Dringlichkeit gemeinsam ausgehandelter neuer Regeln
Die zunehmende Berücksichtigung von KI und Autonomie durch den Militär- und Verteidigungssektor unterstreicht die Dringlichkeit gemeinsam ausgehandelter neuer Regeln. In einem Bereich, in dem es um Entscheidungen über Leben und Tod geht, kann dieser Sektor nicht der Selbstregulierung überlassen werden. Ebenso wenig darf es den mächtigeren, stärker militarisierten Staaten überlassen bleiben, die internationale Gemeinschaft mit unverbindlichen Grundsätzen und Erklärungen abzuspeisen. Es ist nicht hinnehmbar, dass einige Staaten sich auf die potenziellen, allerdings unbewiesenen militärischen „Vorteile“ solcher Systeme fokussieren, während der Schutz der Menschenrechte und des menschlichen Lebens sowie die Einhaltung des Völkerrechts auf der Strecke bleiben. Die bereits bestehenden, höchst bedenklichen Fallstricke und realen Gefahren, die von autonomen Waffensystemen und KI ausgehen, sind inzwischen sowohl im zivilen als auch im militärischen Bereich bekannt und gut dokumentiert. Nachweislich haben sie unverhältnismäßige Auswirkungen auf die vulnerabelsten Bevölkerungsgruppen. Die Staatengemeinschaft muss daher zusammenarbeiten, um den Schutz vor derartigen Fallstricken und Gefahren zu gewährleisten, die mit der Delegation von Entscheidungen über Leben und Tod in Konflikten verbunden sind.[26]
Fazit
Ein Großteil der internationalen Gemeinschaft hat bereits erkannt, dass wir uns an einem entscheidenden Punkt in der Geschichte befinden, und die Entwicklung neuer völkerrechtlicher Regelungen hat erkennbar Fahrt aufgenommen. Alexander Schallenberg, österreichischer Bundesminister für europäische und internationale Angelegenheiten, betonte in seiner Eröffnungsrede auf der Wiener Konferenz:
„Das ist der ‚Oppenheimer-Moment‘ unserer Generation! Wir dürfen diesen Moment nicht verstreichen lassen, ohne zu handeln. Die Zeit für die Vereinbarung internationaler Regeln ist gekommen, um die Kontrolle durch den Menschen sicherzustellen.“[27]
Die Vielzahl internationaler und regionaler Konferenzen, die Resolution der Generalversammlung der Vereinten Nationen und Initiativen wie die Resolution der Interparlamentarischen Union zu Autonomen Waffensystemen bezeugen, dass eine wachsende Mehrheit der Staaten beträchtliches Interesse an neuen völkerrechtlichen Bestimmungen zu autonomen Waffen hat. Ein neues Vertragswerk wäre Ausdruck einer erneuerten gemeinsamen Verpflichtung auf Völkerrecht und Abrüstung. Im Vertrauen auf die offenkundig breite Unterstützung für neue völkerrechtlichen Regeln sollte die Staatengemeinschaft alle verfügbaren Ansätze verfolgen, um baldmöglichst Verhandlungen zur Schaffung klarer und verbindlicher Verbote und Vorschriften für autonome Waffensysteme aufzunehmen.
[3] Zum vollständigen Text der Resolution unter: United Nations General Assembly (2023): A/C.1/78/L.56. https://documents.un.org/doc/undoc/ltd/n23/302/66/pdf/n2330266.pdf?token=8qBVqWDIEDdZiRXByo&fe=true. Zu den Mitunterzeichnerstaaten gehören: Antigua und Barbuda, Österreich, Bahamas, Barbados, Belgien, Belize, Bulgarien, Kapverden, Costa Rica, Kroatien, Zypern, Tschechische Republik, Dänemark, Dominikanische Republik, Ekuador, Fidschi, Deutschland, Guatemala, Honduras, Ungarn, Island, Irland, Italien, Kasachstan, Kiribati, Liechtenstein, Luxemburg, Malediven, Malta, Mexiko, Montenegro, Niederlande, Neuseeland, Nordmazedonien, Norwegen, Philippinen, Republik Moldau, San Marino, Sierra Leone, Slowenien, Sri Lanka, Schweiz, Trinidad und Tobago.
[5] Weitere Informationen zu den Positionen der Staaten im Hinblick auf die Aushandlung einer rechtsverbindlichen Übereinkunft zu autonomen Waffensystemen unter: Automated Decision Research, State Positions Monitor. https://automatedresearch.org/state-positions/.
[19] Bundesministerium für europäische und internationale Angelegenheiten der Republik Österreich (2024), siehe Endnote 17. (Übersetzung aus dem Englischen.)
[20] ICRC (2021), siehe Endnote 11. (Übersetzung aus dem Englischen.)
[21] ICRC (2023), siehe Endnote 1. (Übersetzung aus dem Englischen.)
Dr. Catherine Connolly ist die Leiterin von Automated Decision Research, dem Beobachtungs- und Forschungsteam der Kampagne Stop Killer Robots. Sie hat an der Dublin City University, Irland, internationale Beziehungen studiert (BA), einen MA in War Studies am King’s College London absolviert und in Völkerrecht und Security Studies promoviert. Bevor sie sich 2021 dem Team von Stop Killer Robots anschloss, arbeitete sie an der School of Law and Government der Dublin City University und war Postdoctoral Fellow des Irish Research Council Government of Ireland.