Zum Hauptinhalt springen

Menschlichkeit im Krieg? Die Bedeutung von „Meaningful Human Control“ für die Regulierung von autonomen Waffensystemen

Das Problem der Verantwortungsdiffusion

Der Einsatz von (teil)automatisierten Waffensystemen ist aus heutigen Kriegen nicht mehr wegzudenken. Sie bieten, so wird argumentiert, für Staaten unter anderem eine kostengünstige und verfügbare Alternative zu den mitunter knappen Ressourcen an Soldaten und Munition. Daneben wird ihnen teilweise die Eigenschaft zugeschrieben, schnellere und rationalere Entscheidungen treffen zu können als Menschen. Ein Blick auf den technischen Stand von (teil)automatisieren Waffensystemen zeigt, wie rasant sich diese entwickeln. Das mag unter anderem auch den aktuellen Kriegen geschuldet sein, die die Entwicklung und Produktion von automatisierten und autonomen Waffensystemen enorm vorangetrieben haben. Auch wenn es kein Waffensystem im engeren Sinn ist, zeigt beispielsweise das israelische System Lavender, welche Potenziale zukünftig bei (teil)automatisieren militärischen Systemen denkbar sind. Dieses System analysiert in kürzester Zeit große Datenmengen mit Blick auf mögliche menschliche Ziele.[1] Die israelische Armee betont, dass dies lediglich der Unterstützung der Analysten bei der Zielidentifizierung diene und sämtliche völkerrechtlichen Vorgaben eingehalten würden.[2] Derzeit hat das System Lavender also zwar selbst noch keine Wirksamkeit bezüglich der Tötung von Menschen, es kann aber zum einen durchaus mittelbaren Einfluss auf die Tötungsentscheidung der Soldaten haben, zum anderen ist nicht auszuschließen, dass ähnliche Systeme in (teil)automatisierte Waffensysteme integriert werden und dadurch zu einer stärkeren Automatisierung der kill chain führen können. Die derzeitigen Entwicklungen zeigen also, dass die Diskussion um die Regulierung von Waffensystemen dringend ist.

Einige befürwortende Stimmen führen an, Kriege könnten durch den Einsatz Lernender Systeme vielleicht gar „gerechter“ und „humaner“ werden.[3] Gleichzeitig protestieren andere vehement gegen den Einsatz von (letalen) autonomen Waffensystemen.[4] Diese Kritiker befürchten, dass der Mensch durch ihren Einsatz objektiviert bzw. zu einem bloßen statistischen Wert in den Berechnungen des autonomen Waffensystems würde.[5] Hinzu kommen die ungewissen Risiken von solchen Waffensystemen, die immensen Schaden anrichten können. Favorisiert wird von vielen dieser Stimmen der Einsatz (teil)automatisierter Waffensysteme, die weiterhin einer menschlichen Überprüfung unterliegen.

Eine der vielen mit dieser Technologie verbundenen Herausforderungen ist, dass unsere (Straf-)Gesetze nicht für die Erfassung von automatisierten/autonomen Maschinen angelegt sind. Das führt zu Komplikationen bei der Rechtsanwendung[6] und könnte schließlich bedeuten, dass entweder niemand zur Verantwortung gezogen wird und dadurch Verantwortungslücken entstehen oder unangemessene Verantwortungszuschreibungen vorgenommen werden. Letztere entstehen, wenn die Benutzenden verantwortlich gemacht werden, obwohl sie selbst kaum Einfluss auf das Ergebnis hatten. Das ist nicht zuletzt deshalb problematisch, weil teilweise bezweifelt wird, ob es beim Einsatz von autonomen Waffensystemen überhaupt möglich ist, das geltende Recht und insbesondere das Humanitäre Völkerrecht einzuhalten, ohne dass ein Mensch in der Handlungsschleife beteiligt ist. Um nur ein Beispiel zu nennen, wird etwa kritisch hinterfragt, ob sie den Unterscheidungsgrundsatz wahren können.[7] Dieser besagt, dass das Töten von Zivilisten in den meisten Fällen ein Kriegsverbrechen darstellt, während gegnerische Soldaten grundsätzlich getötet werden dürfen. Aufgrund vieler Besonderheiten lässt sich nicht jede erdenkliche (und im Vorhinein womöglich unvorstellbare) Situation in die autonomen Waffensysteme implementieren. Zugleich muss ein autonomes Waffensystem beispielsweise einen kriegsunfähigen Soldaten, der vergleichbar einem Zivilisten Schutz genießt, von einem kämpfenden Soldaten zuverlässig unterscheiden können.

Wenn nun ein autonomes Waffensystem gegen das bestehende Recht verstößt, stellt sich die Frage nach der individuellen (völker-)strafrechtlichen Verantwortung. Wer ist zur Rechenschaft zu ziehen, wenn doch unrechtmäßig Zivilisten getötet werden? Die Frage wird nicht nur bei vollautonomen Systemen aufgeworfen, sondern ist mindestens ebenso relevant, wenn bei (teil)automatisierten Waffensystemen ein Mensch in der Entscheidungsschleife verbleibt. Soll dieser in gleichem Maße zur Verantwortung gezogen werden wie bei konventionellen Waffensystemen, auch wenn er möglicherweise weniger Einfluss ausüben kann? Diese Frage ist frühzeitig zu klären, um Verantwortungslücken zu vermeiden und einen rechtssicheren Einsatz – sowohl für die Soldaten als auch für die (internationale) Gesellschaft – zu klären. Sonst drohen, wie Geiß bereits 2015 attestierte, die völkerrechtlichen Regelungen erneut „einen Krieg zu spät“[8] zu kommen.

Das Problem hängt eng mit der Autonomie der autonomen Waffensysteme zusammen, denn dies ist der entscheidende Unterschied zwischen solchen Waffensystemen, bei denen noch ein Mensch involviert ist, und solchen, bei denen das nicht mehr der Fall ist. Wie der Begriff „Autonomie“ allerdings auszulegen ist und wie mit verschiedenen Autonomiegraden umzugehen ist, ist bislang nicht geklärt.[9] Allerdings zeichnet sich ein möglicher Konsens ab, dem dieser Beitrag folgt: Autonom meint, dass autonome Waffensysteme nach ihrer Aktivierung ohne menschliche Einflussnahme selbstständig Handlungen vornehmen.[10] Manche Stimmen sprechen hierbei vom „human-out-of-the-loop“. Autonome Waffensysteme sind also nur solche, die vollautonom agieren, während (teil)automatisierte Waffensysteme nicht hierunterfallen. Bei solchen Waffensystemen verbleibt ein Mensch, der sogenannte „human-in-“ oder „on-the-loop“, in der Entscheidungskette. In dieser überwacht er die Maschine in ihren Funktionsabläufen und nimmt die Tötungsentscheidung vor.[11] Die dem zugrunde liegende Mensch-Maschine-Interaktion kann auf verschiedene Weisen ausgestaltet sein. Sharkey hat anhand des zunehmenden Automatisierungsgrades fünf verschiedene Typen von autonomen Waffensystemen identifiziert.[12] Demnach bestimmt auf niedrigster Stufe der Mensch das Zielobjekt, während mit zunehmendem Autonomielevel das Waffensystem entweder mehrere mögliche menschliche Zielobjekte zur Auswahl vorschlägt oder bereits selbst ein Zielobjekt bestimmt und der Mensch nur noch den letztlichen Tötungsbefehl erteilen muss. Schließlich ist es denkbar, dass der Mensch die Tötung nicht aktiv anordnet, sondern nur interveniert, wenn er mit der Auswahl der Maschine nicht einverstanden ist. Auf höchster Stufe der Autonomie wird dem Menschen keine Interventionsmöglichkeit eingeräumt.

In diesem Beitrag wird der Fokus auf stetig autonomer werdende Systeme gelegt, bei denen der Mensch in irgendeiner Form an der Tötungsentscheidung mitwirkt. Denn hier stellt sich ganz besonders die Frage, ob das menschliche Verhalten noch ausreichend ist bzw. sein sollte, um ihn strafrechtlich verantwortlich zu machen. Allerdings ist zu berücksichtigen, dass selbst bei vollautonomen Systemen Menschen letztlich noch insofern mitentscheiden, als sie das System aktiveren. Irgendwo in der Entscheidungsschleife finden sich immer „menschliche Entscheider“.

Neujustierung des Strafrechts?

Aufgrund der Fähigkeit bestimmter Waffensysteme, jedenfalls Teilelemente der Handlungen in der sogenannten kill chain autonom vornehmen zu können, unterscheiden sie sich maßgeblich von konventionellen Waffen(systemen). Denn die menschliche Bedienperson hat nicht mehr die gleiche Kontrollmöglichkeit über das jeweilige Waffensystem, selbst wenn sie an bestimmten Stellen in der Entscheidungskette eingebunden ist. Der Mensch ist zum einen davon abhängig, dass das (teil)automatisierte Waffensystem die vorgegebene Handlung vornimmt. Zum anderen beruht die Entscheidung des Menschen auf den – zum Teil vorgefilterten – Informationen von Maschinen.[13] Er hat typischerweise weder die Möglichkeit noch die Zeit[14], die Vorschläge dieser (teil)automatisierten Waffensysteme auf ihre Richtigkeit und Vollständigkeit hin zu überprüfen oder andere Informationen einzuholen, sondern er muss auf das System vertrauen. Ein bedeutsames Beispiel, welches diese Probleme abbildet, ist das eingangs erwähnte KI-System Lavender, welches große Datenmengen auf mögliche Ziele hin untersucht und damit den menschlichen Analysten beim Zielidentifizierungsprozess unterstützt. Es ist kaum zu erwarten, dass eine intensive menschliche Überprüfung dieser Erkenntnisse vorgenommen wird. Dagegen, dass dies ein neues Problem sei, wird eingewendet, dass auch ohne den Einsatz von (teil)automatisierten Waffensystemen Entscheidungen aufgrund vorsortierter und automatisierter Informationen getroffen werden.[15] Doch treten bei den neuen Waffensystemen verstärkt Probleme wie der sogenannte automation bias auf, also das (ungerechtfertigte) übermäßige Vertrauen in maschinelle Ergebnisse.[16] Selbst wenn es sich nicht um ein qualitativ neues Phänomen handelt, so werden die Voreingenommenheit des Menschen, der Zeitdruck, eine Entscheidung zu treffen, und der daraus resultierende psychische Stress sowie die Schwierigkeit, sich gegen die Maschine zu entscheiden, doch mit zunehmender Autonomisierung der Waffensysteme verstärkt. Das gilt nicht zuletzt deshalb, weil der menschliche Entscheider weiß, dass er sich auch dafür rechtfertigen muss, sollte er sich gegen die – aus der Retrospektive – richtige Entscheidung des (teil)automatisierten Waffensystems entschieden haben.

Es ist allerdings zu bedenken, dass (teil)automatisierte Waffensysteme den Menschen entlasten sollen. Sie sollen ihn zum Beispiel bei der Entscheidungsfindung unterstützen. Das erfordert zugleich, dass dieser Mensch das (teil)automatisierte Waffensystem nicht ständig überwachen und umfassend kontrollieren muss.[17] Wenn wir also den Einsatz auch nur (teil)automatisierter Waffensysteme akzeptieren wollen, ist es nicht vermeidbar, dass sie die Entscheidungen des Menschen beeinflussen. Mit zunehmender Interaktion zwischen Mensch und Maschine wird die Rolle des Menschen in der Entscheidungskette abnehmen.[18] Und damit besteht zumindest die Gefahr, dass auch seine rechtliche Verantwortung abnimmt; es sei denn, es wird gegengesteuert, indem weiterhin eine effektive menschliche Kontrolle bei der Entscheidungsfindung (zum Beispiel durch Meaningful Human Control)sichergestellt wird.

Effektive Kontrolle als Folge von individueller strafrechtlicher Verantwortung

Das Internationale Strafrecht unterscheidet nicht zwischen konventionellen und autonomen Waffen(systemen) und bislang existiert auch keine allgemein anerkannte Anpassung der Verantwortungszurechnung an die Besonderheiten Lernender Systeme. Damit droht eine unangemessene Behandlung der menschlichen Bedienperson, die in die Tötungsentscheidung des (teil)automatisierten Waffensystems involviert ist. In diesem Beitrag werden bezüglich dieser Problematik nur das Römische Statut des Internationalen Strafgerichtshofs (Rom-Statut) sowie das deutsche Völkerstrafgesetzbuch (VStGB) als Teilmenge des Internationalen Strafrechts betrachtet. Beide Gesetze zementieren die individuelle Verantwortlichkeit – auch für die Kontexte bewaffneter Auseinandersetzungen.[19] Dem Verständnis dieser Gesetze nach bedeutet individuelle Verantwortlichkeit im Grunde genommen, dass eine Person für ihr eigenes Fehlverhalten zur Verantwortung gezogen wird. Das gilt auch dann, wenn sie innerhalb militärischer Hierarchien agiert. Als mögliches Fehlverhalten kommt zum Beispiel die rechtswidrige Tötung von Zivilisten oder kampfunfähigen Soldaten in Betracht. Das stellt wie oben ausgeführt zumeist ein Kriegsverbrechen dar. Dafür muss sich nach dem geltenden Recht die oder der menschlich Letztinvolvierte regelmäßig strafrechtlich verantworten, denn sie bzw. er hat den Abschuss freigegeben oder keinen Abbruchbefehl erteilt.

Ohne an dieser Stelle ins Detail gehen zu können, kann das Verständnis von individueller strafrechtlicher Verantwortung nicht in sämtlichen Szenarien die Besonderheiten der (teil)automatisierten Waffensysteme auffangen. Beispielsweise berücksichtigen weder die Kausalität noch der Vorsatz die menschliche Abhängigkeit von der Maschine in überzeugender Weise. Das Kausalitätselement verlangt lediglich, dass der menschliche Beitrag notwendig für den Taterfolg durch das (teil)automatisierte Waffensystem ist.[20] Das Betätigen eines Abschussknopfes durch die menschliche Bedienperson würde hierfür genügen. Dadurch wird aber nicht hinreichend berücksichtigt, dass die durch Lernende Systeme vorbereitete Entscheidung psychologischen Erschwernissen unterliegt, insbesondere wenn die Bedienperson nicht genügend Zeit hatte, ihre Entscheidung zu treffen. Diese Überlegungen könnten zwar durch das Vorsatzerfordernis aufgefangen werden. Die potenziellen Hemmungen, sich gegen die Maschine zu entscheiden, oder der Zeitmangel für eigene Überlegungen werden vom Vorsatz jedoch nicht berücksichtigt. Das bedeutet, dass die menschliche Bedienperson unter Umständen kausal und vorsätzlich handelt und damit strafrechtlich verantwortlich ist, obwohl sie faktisch in ihrer Entscheidung stark limitiert ist.

Insofern ist ein weiteres Element erforderlich, um diesen Besonderheiten von (teil)automatisierten Waffensystemen angemessen Rechnung zu tragen. Dadurch ist zu gewährleisten, dass die menschliche Bedienperson nur dann die Verantwortung trägt, wenn dies angemessen ist. Insbesondere müssen die in Kooperation mit dem Lernenden Systemen getroffenen Entscheidungen, die in ihrer eher hybriden Funktion zwischen den herkömmlichen Waffensystemen und Menschen angesiedelt sind, dem Menschen zugerechnet werden können. Die Notwendigkeit effektiver Kontrolle ergibt sich damit direkt aus dem Konzept von individueller strafrechtlicher Verantwortung.

Meaningful Human Control als Anforderung aus dem Konzept der individuellen Verantwortung

Ein großer Teil der Staatengemeinschaft scheint der Ansicht zu sein, dass autonome Waffensysteme reguliert werden müssen. So wird etwa gefordert, dass jeder Einsatz solcher Waffensysteme der menschlichen Kontrolle unterliegen soll, sprich: dass letztlich nur (teil)automatisierte Systeme erlaubt sein sollen.

Untermauert wird dies durch die Leitprinzipien derGroup of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems von 2019. Dort wird statuiert, dass die Interaktion des Menschen mit der Maschine „within a responsible chain of human command and control“ erfolgen soll.[21] Damit wird anerkannt, dass der Programmcode dieser Technologien niemals vollständig sein kann. Beispielsweise sind Verhaltensregeln kaum in Programmcode zu übersetzen.[22] Autonome Waffensysteme können zudem oft nicht angemessen auf unvorhergesehene und unübersichtliche Situationen (fog of war) reagieren, weil nicht jede Situation einprogrammiert wurde.[23] Auch das eingangs geschilderte Problem bezüglich der Unterscheidung zwischen im Humanitären Völkerrecht geschützten Personen (zum Beispiel Zivilisten, kampfunfähige Soldaten) und Kombattanten kommt hier zum Tragen. Daher bedürfen die Handlungen von autonomen Waffensystemen stets einer menschlichen Überprüfung. So kann sichergestellt werden, dass unter anderem die im Humanitären Völkerrecht vielfach erforderlichen Abwägungen rechtskonform erfolgen. Aber auch ethische Bedenken, dass Maschinen Menschen töten dürfen, können durch eine menschliche Kontrolle ausgeräumt werden.

Das erfordert allerdings, dass der Mensch wirksam Kontrolle ausüben kann und diese Kontrolle nicht durch mit Krieg und Kampfhandlungen verbundenen Entscheidungsdruck oder Stress in der Weise ausgehebelt wird, dass das Waffensystem faktisch Entscheidungen treffen darf. Denn dadurch würde die menschliche Entscheidung nur „vorgeschoben“. Ein favorisierter Ansatz[24] vieler Politiker, Nichtregierungsorganisationen sowie Wissenschaftler, der in der Forschungsliteratur, aber auch bei weltweit stattfindenden Konferenzen diskutiert wird, ist die sogenannte Meaningful Human Control (zu Deutsch: „bedeutsame menschliche Kontrolle“). Dieser Ansatz zeichnet sich durch einen leicht verständlichen Begriff aus, unter dem sich jeder Mensch etwas vorstellen kann und der zugleich viel Interpretationsspielraum lässt.[25] Im Kern geht es bei Meaningful Human Control darum, dass nicht jede Art menschlicher Kontrolle wie zum Beispiel das bloße Betätigen eines Abschussknopfes[26] ausreichen kann. Erforderlich ist eine normative Hürde, der mit dem (austauschbaren) Begriff „meaningful“ zum Ausdruck gebracht werden soll.[27] Der Mensch muss effektiv auf das Verhalten des Waffensystems Einfluss nehmen können[28], indem er dieses überwachen, steuern und korrigieren kann. Damit wird sichergestellt, dass Entscheidungen wie die ethisch grundsätzlich kritische Tötungsentscheidung weiterhin durch Menschen erfolgt.

Anforderungen an Meaningful Human Control

Bislang besteht allerdings noch keine Einigkeit darüber, wann eine solche Meaningful Human Control genau vorliegt. Das liegt unter anderem daran, dass hierbei sehr viele Perspektiven berücksichtigt werden müssen. Beispielsweise reicht es nicht aus, nur die Entscheidungssituation – sowohl rechtlich wie ethisch – an sich zu betrachten. Sämtliche Handlungen und Vorschläge der Maschinen beruhen auf deren Programmcode. Die (teil)automatisierten Waffensysteme sollten so programmiert werden, dass sie dem menschlichen Bedienpersonal die notwendigen Informationen vollständig und verständlich zur Verfügung stellen.[29] Erforderlich sind zudem Ausbildungen, die sicherstellen, dass das menschliche Bedienpersonal physisch wie psychisch in der Lage ist, das Waffensystem zu kontrollieren.[30] Trabucco spricht insofern von einer Betrachtung des gesamten „Lebenszyklus“ der Maschine.[31]

Ebenso ist zu berücksichtigen, dass es neben (teil)automatisierten Waffensystemen auch viele weitere Lernende Systeme gibt, auf die sich die Überlegungen zu Meaningful Human Control übertragen lassen. Daran wird deutlich, dass es nicht ein Konzept geben kann, sondern dass Meaningful Human Control unter Berücksichtigung der Gefährlichkeit und des zunehmenden Autonomielevels des Systems abgestuft zu verstehen ist.[32] Es sind daher divergierende Anforderungen an die menschliche Kontrolle zu stellen, je nachdem, ob es sich beispielsweise um Aufklärungsdrohnen oder um Loitering Weapons handelt, welche zur Tötung von Menschen fähig sind. Meaningful Human Controlmuss also allgemein betrachtet werden. Gleichzeitig scheint es einen kleinsten gemeinsamen Nenner dahingehend zu geben, welche Anforderungen an (teil)automatisierten Waffensystemen im militärischen Kontext typischerweise vorliegen müssen, um eine Meaningful Human Control zu bejahen. Kwik plädiert insofern für die Etablierung eines einheitlichen Rahmens, um eine Zerfaserung des Konzepts durch zu viele Einzelelemente, die zudem unterschiedlich bezeichnet sind, zu verhindern.[33] Um konsensfähig zu sein, muss Meaningful Human Control über einen klaren und übersichtlichen Kriterienkatalog verfügen. Dadurch wird deutlich, dass die einzelnen Aspekte voneinander abhängig sind oder aufeinander aufbauen.[34] Kwik hat insgesamt fünf Hauptaspekte analysiert, die sich noch weiter aufspalten lassen: Bewusstsein (awareness), Waffenkunde (weaponeering), Kontextkontrolle, Vorhersagbarkeit (predictability) sowie Verantwortlichkeit (accountability).[35] Maßgeblich sind insbesondere möglichst vollständige und richtige Informationen.[36] Nur durch den Umständen entsprechend umfassende Informationen lässt sich überhaupt Kontrolle ermöglichen.[37] Das Bewusstseinskriterium bezieht sich vor allem auf die Kenntnis der Funktionsweise des (teil)automatisierten Waffensystems wie auch des Zielobjekts und Einsatzkontextes.Mit dem Erfordernis der Waffenkunde soll gewährleistet werden, dass (teil)automatisierte Waffensysteme so eingesetzt werden, dass der gewünschte Effekt erreicht wird.[38] Die Kontextkontrolle stellt unter anderem sicher, dass die menschliche Bedienperson die Handlungen des (teil)automatisierten Waffensystems jederzeit unterbrechen oder ändern kann und durch die Regulierung der Reichweite der Mission die Auswirkungen des (teil)automatisierten Waffensystems begrenzen kann.[39] Des Weiteren müssen die Handlungen der Maschine vorhersehbar sein.[40] Das bedeutet, dass das (teil)automatisierte Waffensystem sich im Wesentlichen so verhält, wie die Bedienperson es erwartet. Weiterhin muss nachvollziehbar sein, wie das (teil)automatisierte Waffensystem seine Vorschläge trifft (sogenannte Explainable AI).[41] Dadurch kann die letztentscheidende Person die Vorschläge verstehen und hierauf basierend eine Entscheidung treffen. Letztlich soll der Mensch ermächtigt werden, ethisch wie rechtlich für die Handlungsergebnisse des (teil)automatisierten Waffensystems verantwortlich zu bleiben.

Ein weiterer Ansatz, um Meaningful Human Control auszuleuchten, besteht darin, die Aufgaben der menschlichen Bedienperson festzulegen, die diese bei der Verwendung von (teil)automatisierten Waffensystemen innehat. Amoroso und Tamburrini heben drei wesentliche Funktionen hervor, die teilweise mit Kwiks Kategorien übereinstimmen: Erstens müsse der Mensch Fehlfunktionen der Maschine vermeiden können (fail-safe actor). Zweitens soll er die rechtlichen Anforderungen an Verantwortung erfüllen (accountability attractor). Drittens soll nur er kritische Entscheidungen wie solche über Leben und Tod treffen dürfen (moral agency enactor).[42]

Das sind nur einige wenige Ansätze, um Meaningful Human Controlzu konkretisieren. Die Liste ließe sich um einiges verlängern, doch würde das den Rahmen dieses Beitrags sprengen.

Ausblick

Meaningful Human Control ist eine Ausprägung des hier dargestellten Verständnisses von individueller strafrechtlicher Verantwortung. Zugleich ist sie ein aussichtsreicher Ansatz, um eine angemessene Verantwortungszuschreibung zu ermöglichen. Allerdings steckt die Diskussion um das Konzept noch in ihren Anfängen. Insbesondere müssen spezifische und praxistaugliche Anforderungen eruiert werden, um Meaningful Human Control auszufüllen.

Das interdisziplinäre Netzwerk „Meaningful Human Control. Autonome Waffensysteme zwischen Regulation und Reflexion“[43] arbeitet an diesen Fragen. In diesem Verbund engagieren sich Forschende und Fellows aus verschiedensten Disziplinen wie Robotik, Rechtswissenschaft, Soziologie, Physik, Politikwissenschaft, Gender Studies und Medienwissenschaft. Ihr gemeinsames Ziel ist es, bisher unverbundene Problemfelder zu analysieren und zu verbinden, um ein Konzept für Meaningful Human Control zu erarbeiten. Durch das Konzept soll gewährleistet werden, dass die Interaktion zwischen Mensch und Maschine menschzentriert ist. Der menschliche Letztinvolvierte soll unter anderem nur dann strafrechtlich zur Verantwortung gezogen werden, wenn dies angemessen ist. Das erfordert interdisziplinare Debatten über die Kriterien von Meaningful Human Control.

 


[1] McKernan, Bethan und Davies, Harry (2024): ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets. The Guardian, 3.4.https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes (Stand aller Internetbelege: 21.5.2024).

[2] Israel Defence Force (2024): Israel Defence Forces’ response to claims about use of ‘Lavender’ AI database in Gaza. The Guardian, 3.4. www.theguardian.com/world/2024/apr/03/israel-defence-forces-response-to-claims-about-use-of-lavender-ai-database-in-gaza.

[3] Geiß, Robin (2015): Die völkerrechtliche Dimension autonomer Waffensysteme. Friedrich-Ebert-Stiftung, Internationale Politikanalyse. Berlin, S. 13.

[4] Asaro, Peter (2012): On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decision-making. In: International Review of the Red Cross 94 (886), S. 687-709, S. 694; Misselhorn, Catrin (2019): Autonome Waffensysteme/Kriegsroboter. Wiesbaden, S. 321; Sharkey, Noel (2016): Staying in the loop: human supervisory control of weapons. In: Bhuta, Nehal et al. (Hg.): Autonomous Weapons Systems: Law, Ethics, Policy. Cambridge, S. 23-38, S. 26.

[5] Dahlmann, Anja, Hoffberger-Pippan, Elisabeth und Wachs, Lydia (2021): Autonome Waffensysteme und menschliche Kontrolle: Konsens über das Konzept, Unklarheit über die Operationalisierung. SWP-Aktuell 31, S. 5. www.swp-berlin.org/publications/products/aktuell/2021A31_AutonomeWaffensysteme.pdf.

[6] Vgl. nur: Art. 103 Abs. 2 GG; Art. 22 Abs. 2 Rom-Statut.

[7] Dahlmann, Anja, Hoffberger-Pippan, Elisabeth und Wachs, Lydia (2021), s. Endnote 5, S. 4; Ferl, Anna-Katharina (2023): Imagining Meaningful Human Control: Autonomous Weapons and the (De-) Legitimisation of Future Warfare. In: Global Society 38 (1), S. 139-155, S. 142.

[8] Geiß, Robin (2015), s. Endnote 3, S. 5.

[9] Ferl, Anna-Katharina (2023), s. Endnote 7, S. 141.

[10] Amoroso, Daniele und Tamburrini, Guglielmo (2020): Autonomous Weapons Systems and Meaningful Human Control: Ethical and Legal Issues. In: Current Robotics Reports 1, S. 187-194, S. 187; Asaro, Peter (2012), s. Endnote 4, S. 690; Sharkey, Noel (2016), s. Endnote 4, S. 23; Sparrow, Robert (2007): Killer Robots. In: Journal of Applied Philosophy 24 (1), S. 62-77, S. 65.

[11] Christie, Edward Hunter et al. (2023): Regulating lethal autonomous weapon systems: exploring the challenges of explainability and traceability. In: AI and Ethics 4, S. 229-245, S. 230; Docherty, Bonnie (2012): Losing humanity: the case against killer robots. Human Rights Watch, Amsterdam, Berlin; Misselhorn, Catrin (2019), s. Endnote 4, S. 321.

[12] Sharkey, Noel (2016), s. Endnote 4, S. 34 ff.

[13] Beck, Susanne, Faber, Michelle und Gerndt, Simon (2023): Rechtliche Aspekte des Einsatzes von KI und Robotik in Medizin und Pflege. In:

Ethik in der Medizin. Official Journal of the German Academy of Ethics in Medicine 35, S. 247-263, S. 256.

[14] Asaro, Peter (2012), s. Endnote 4, S. 695.

[15] Dahlmann, Anja, Hoffberger-Pippan, Elisabeth und Wachs, Lydia (2021), s. Endnote 5, S. 6.

[16] Beck, Susanne, Faber, Michelle und Gerndt, Simon (2023), s. Endnote 13, S. 256.

[17] Beck, Susanne (2020): Die Diffusion strafrechtlicher Verantwortlichkeit durch Digitalisierung und Lernende Systeme. In: Zeitschrift für Internationale Strafrechtsdogmatik 15 (2), S. 41-50, S. 46. www.zis-online.com/dat/artikel/2020_2_1343.pdf.

[18] Beck, Susanne (2020), s. Endnote 17, S. 45.

[19] Für das VStGB: Beck, Susanne (2020), s. Endnote 17, S. 47; Lohmann, Anna (2021): Strafrecht im Zeitalter von Künstlicher Intelligenz: Der Einfluss von autonomen Systemen und KI auf die tradierten strafrechtlichen Verantwortungsstrukturen. Baden-Baden, S. 86; für das Rom-Statut: Art. 25 Abs. 1, 2 Rom-Statut; Satzger, Helmut (2022): Internationales und Europäisches Strafrecht: Strafanwendungsrecht, Europäisches Straf- und Strafverfahrensrecht, Völkerstrafrecht. Baden-Baden, S. 389 f.

[20] Ambos, Kai (2019): Internationales Strafrecht: Strafanwendungsrecht, Völkerstrafrecht, Europäisches Strafrecht, Rechtshilfe. München, Kap. 7 Rn. 3; Esser, Robert und Gerson, Oliver Harry (2023): § 2 VStGB. In: Leipziger Kommentar StGB, Völkerstrafgesetzbuch. De Gruyter. Rn. 16.

[21] Lit. d) der Guiding Principles bestätigt von der Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System, CCW/MSP/2019/9.

[22] Geiß, Robin (2015), s. Endnote 3, S. 14.

[23] Asaro, Peter (2012), s. Endnote 4, S. 692.

[24] Die NGO Article 36 macht deutlich, dass sie dieses Konzept als Ansatz und nicht als Lösung der Debatte ansieht; vgl. Article 36 (2016): Key elements of Meaningful Human Control, S. 2. www.article36.org/wp-content/uploads/2016/04/MHC-2016-FINAL.pdf.

[25] Amoroso, Daniele und Tamburrini, Guglielmo (2021): Toward a Normative Model of Meaningful Human Control over Weapons Systems. In: Ethics & International Affairs 35 (2), S. 245-272, S. 245; UNIDIR (2014): The Weaponization of Increasingly Autonomous Technologies: Considering how Meaningful Human Control might move the discussion forward. UNIDIR Resources, S. 3. unidir.org/wp-content/uploads/2023/05/considering-how-meaningful-human-control-might-move-the-discussion-forward-en-615.pdf.

[26] Asaro, Peter (2012), s. Endnote 4, S. 695.

[27] Amoroso, Daniele und Tamburrini, Guglielmo (2020), s. Endnote 10, S. 189; Article 36 (2016), s. Endnote 24, S. 2.

[28] Article 36 (2016), s. Endnote 24, S. 2 f.; UNIDIR (2014), s. Endnote 25, S. 3; Veluwenkamp, Herman (2022): Reasons for Meaningful Human Control. In: Ethics and Information Technology 24, S. 2. link.springer.com/article/10.1007/s10676-022-09673-8.

[29] Amoroso, Daniele und Tamburrini, Guglielmo (2021), s. Endnote 25, S. 264.

[30] Santoni De Sio, Filippo und Van Den Hoven, Jeroen (2018): Meaningful Human Control over Autonomous Systems: A Philosophical Account. In: Frontiers in Robotics and AI 5, S. 12. www.frontiersin.org/articles/10.3389/frobt.2018.00015/full.

[31] Trabucco, Lena (2023): What is Meaningful Human Control, Anyway? Cracking the Code on Autonomous Weapons and Human Judgment. mwi.westpoint.edu/what-is-meaningful-human-control-anyway-cracking-the-code-on-autonomous-weapons-and-human-judgment/.

[32] Amoroso, Daniele und Tamburrini, Guglielmo (2020), s. Endnote 10, S. 190; Santoni De Sio, Filippo und Van Den Hoven, Jeroen (2018), s. Endnote 30, S. 10.

[33] Kwik, Jonathan (2022): A Practicable Operationalisation of Meaningful Human Control, In: LAWS 11, 43, S. 3.

[34] Kwik, Jonathan (2022), s. Endnote 33, S. 15.

[35] Kwik, Jonathan (2022), s. Endnote 33, S. 7.

[36] Article 36 (2016), s. Endnote 24, S. 4; Dahlmann, Anja, Hoffberger-Pippan, Elisabeth und Wachs, Lydia (2021), s. Endnote 5, S. 3; Santoni De Sio, Filippo und Van Den Hoven, Jeroen (2018), s. Endnote 30, S. 10.

[37] UNIDIR (2014), s. Endnote 25, S. 5.

[38] Kwik, Jonathan (2022), s. Endnote 33, S. 11.

[39] Kwik, Jonathan (2022), s. Endnote 33, S. 13.

[40] Article 36 (2016), s. Endnote 24, S. 4; UNIDIR (2014), s. Endnote 25, S. 5 f.

[41] Amoroso, Daniele und Tamburrini, Guglielmo (2021), s. Endnote 25, S. 264; Article 36 (2016), s. Endnote 24, S. 3; UNIDIR (2014), s. Endnote 25, S. 6.

[42] Amoroso, Daniele und Tamburrini, Guglielmo (2020), s. Endnote 10, S. 189.

[43] Das Projekt wird mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01UG2206B gefördert. Für weitere Informationen siehe meaningfulhumancontrol.de.

 

Zusammenfassung

Susanne Beck

Susanne Beck ist Inhaberin des Lehrstuhls für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Leibniz Universität Hannover. Sie leitet das juristische Teilprojekt des Kompetenznetzes „Meaningful Human Control. Autonome Waffensysteme zwischen Regulation und Reflexion“.

Schirin Barlag ist wissenschaftliche Mitarbeiterin und Doktorandin an der Juristischen Fakultät der Leibniz Universität Hannover. Sie ist Forscherin in dem juristischen Teilprojekt des Kompetenznetzes „Meaningful Human Control. Autonome Waffensysteme zwischen Regulation und Reflexion“.


Download als PDF

Alle Artikel dieser Ausgabe

Wie geht es mit den Bemühungen um ein rechtsverbindliches Abkommen zu autonomen Waffensystemen weiter?
Catherine Connolly
Autonome Waffensysteme - zum Stand der internationalen Debatte
Andreas Bilgeri
Digitales Eskalationspotenzial: Wie agiert KI an den Grenzen der Vernunft?
Axel Siegemund
KI für das Militär braucht keine Sondermoral! Ein Zwischenruf zur Regulierung autonomer Waffensysteme
Erny Gillen
Menschenwürde und „autonome“ Robotik: Worin besteht das Problem?
Bernhard Koch
Die Beweispflicht in der Debatte um autonome Waffen – Warum die Verbotsbefürworter sie (noch) nicht erfüllt haben
Maciek Zając
Zuverlässigkeitsstandards für (autonome) Waffen: Der Mensch bleibt relevant
Nathan Wood
Gibt es ein Recht auf militärische Gewalt unterhalb der Schwelle zum Krieg? Neue Technologien und die Debatte um das ius ad vim
Bernhard Koch
„Meaningful Human Control“ und Komplexe Mensch-Maschine-Gefüge – Zu den Grenzen ethischer KI-Prinzipien im Kontext autonomer Waffensysteme
Jens Hälterlein, Jutta Weber
Menschlichkeit im Krieg? Die Bedeutung von „Meaningful Human Control“ für die Regulierung von autonomen Waffensystemen
Susanne Beck, Schirin Barlag
„Meaningful Human Control“ von autonomen Systemen
Daniel Giffhorn, Reinhard Gerndt
KI im Zeitalter des Misstrauens
Henning Lahmann

Specials

Ansgar Rieks, Wolfgang Koch ChatGPT