Zum Hauptinhalt springen

KI für das Militär braucht keine Sondermoral! Ein Zwischenruf zur Regulierung autonomer Waffensysteme

Seit 2014 finden im Rahmen der Convention on Certain Conventional Weapons (CCW) in Genf Beratungen zu den Lethal Autonomous Weapon Systems (LAWS) statt und 2019 wurden elf allgemeine Prinzipien als Leitlinien festgehalten.[1] Es geht dabei darum, den Gebrauch bestimmter konventioneller Waffen zu verbieten oder einzuschränken, von denen auszugehen ist, dass sie Menschen über das Maß hinaus verletzen können oder Zivilisten und Kämpfende nur ungenügend unterscheiden.

Doch die Verhandlungen in Genf stocken, gerade, aber nicht ausschließlich wegen der von zunehmenden Spannungen und Rivalitäten gekennzeichneten geopolitischen Situation. So wird unter anderem um Definitionen und Grenzen gerungen, um den ständigen und rasanten Fortschritt der Techniken zu fassen, welche durch die sogenannte künstliche Intelligenz (KI) angetrieben und in praktische Anwendungen übersetzt werden. Das diplomatisch-demokratische Ringen findet in den sich überlagernden Spannungsfeldern wirtschaftlicher, forschungs- und sicherheitspolitischer Interessen statt. Neben den Gefahren und Risiken erwarten sich viele außerordentliche Vorteile von diesen neuen Techniken, zumindest für diejenigen, die sie meistern und effizient disruptiv einsetzen werden. Die Erwartungen im zivilen und militärischen Bereich sind gleichermaßen hoch. Forschung, Wirtschaft und Armeen befürchten, dass die Politik sie zu früh oder zu stark ausbremst und so gegen das Interesse der Bevölkerung handeln könnte.

Aus ihrem als historisch bezeichneten AI Act[2], der am 13. März 2024 vom Europäischen Parlament definitiv verabschiedet wurde, klammert die Europäische Union explizit alle militärischen Anwendungen aus.[3] Dass die Verhandlungen zu den von KI angetriebenen autonomen Systemen getrennt nach militärischen und zivilen Anwendungen geführt werden, hilft einerseits, die Ängste der Bevölkerung auf wirtschaftliche und soziale Anwendungen zu fokussieren. Gleichzeitig trägt dies jedoch dazu bei, dass die erträumten Vorteile noch stärker überschätzt werden, weil die militärischen Anwendungen taktisch ausgeblendet und ausgelagert werden

Wie KI als eine Seite der Technik und die Autonomie, die sie über ihre Anwendungen ermöglicht, zusammenspielen, hat zuletzt das AI Team von Google Ende 2023 in einem Papier übersichtlich dargestellt.[4] Es wird darauf verwiesen, dass beide Seiten zu unterscheiden sind und sich gegenseitig verstärken (können, wenn und sofern dies gewollt ist). Die im Artikel vorgeschlagene strategische Nomenklatur kann unabhängig von ihrer zukünftigen wissenschaftlichen oder politischen Wirkungsgeschichte bereits heute als nützliches Raster zur pragmatischen Einordnung auch von aktuellen und zukünftigen militärischen KI-Anwendungen eingesetzt werden.

Wie auch immer die zukünftigen Diskussionen um KI und Autonomie verlaufen werden, so steht außer Zweifel, dass deren nach militärischen und zivilen Applikationen getrennte Beurteilung vor allem der politischen Taktik dient. Wie dünn die künstlich eingezogene Trennwand in der Praxis ist, wird nicht nur bei den umgebauten kommerziellen Drohnen etwa im Krieg um die Ukraine deutlich, sondern in den vielfältigen, Hunderte von Seiten füllenden Dual-Use-Bestimmungen etwa der EU.[5] Gerade mit ihren Möglichkeiten, humane oder Robotern zugeschriebene Autonomie zu verstärken, ist KI ein typisches Dual-Use-Produkt. Um der Lage Herr zu werden, verlagern sich die politischen Bestrebungen aktuell auf die Hardwarekomponenten, die nötig sind, um KI zu entwickeln.

Vor dem Hintergrund dieser Problematik lohnt es sich, eine breite Sicht auf die KI und deren Anwendungen einzunehmen. Die UNESCO hat dies umgesetzt und ihre in einem inklusiven globalen Aushandlungsprozess erarbeiteten Resultate schon Ende 2019 vorgelegt. Die UNESCO-Empfehlung wurde von 193 Staaten angenommen.[6] Anders als die EU im AI Act verfolgt die UNESCO keinen risikobasierten Ansatz, sondern geht von den unsere Zivilisationen tragenden Werten und Prinzipien aus. Vergleicht man ihre Empfehlungen zu einer Ethik der KI mit den bereits erwähnten elf Guiding Principles der Gruppe von Regierungsexperten zur Weiterentwicklung der CCW aus Genf, stellt man fest, dass Letztere sehr knapp und allgemein gehalten sind und auf eine DIN-A4-Seite passen. Diesem Minimalkonsens stehen seit Jahren andauernde Gespräche und Verhandlungen über die Definition autonomer Waffensysteme und das erforderliche Ausmaß menschlicher Einflussnahme gegenüber, ohne dass es bisher zu einem Durchbruch bei den Regulierungsbemühungen gekommen ist.

Das Grundprinzip

Laut der UNESCO-Empfehlung sollen Menschen und ihre Gemeinschaften KI-Systemen in keiner Phase ihres Lebenszyklus untergeordnet werden oder durch sie Schaden erleiden (Punkt 14). Auf dieser direkt aus der unverletzlichen Menschenwürde abgeleiteten Grundlage wird folgerichtig auch ausgeschlossen, dass vitale Entscheidungen an eine KI abgetreten werden dürften. Der Mensch soll also weder als Arbeitssuchender noch als Anwärter auf einen Kredit oder eine soziale Leistung noch als Patient noch als Bürger, Verbrecher oder Soldat zum Objekt einer ausschließlich maschinellen Berechnung werden.[7]

Die Guiding Principles suchen demgegenüber ein Gleichgewicht zwischen militärischer Notwendigkeit und humanitären Erwägungen (Punkt k). Die UNESCO-Empfehlungen verstehen KI-Ethik als Gesellschaftsaufgabe, die sich an Menschenrechten und Völkerrecht ausrichten muss. Sie zeigen einen gangbaren Weg auf, autonome Technik in der Hand des Menschen als Subjekt zu lassen. Übernimmt man diesen grundsätzlichen Standpunkt, wie er seit Kant auch unter Menschen, die Macht übereinander haben, gilt, so braucht es keine Sondermoral für autonome Waffensysteme.

Der deutsche Ethikrat macht dieses Prinzip ebenfalls stark, wenn er in seiner Stellungnahme und entsprechend seinem philosophischen Ansatz im März 2023 festhält: „Im Rahmen der philosophischen Handlungstheorie können Maschinen nicht handeln und kommen als genuine Akteure mit Verantwortung nicht infrage. Dennoch haben sie Einfluss auf menschliches Handeln, das in modernen Gesellschaften in zunehmendem Maß soziotechnisch situiert ist.“[8]

Demgegenüber bleibt die Genfer Gruppe bei der Formulierung ihrer Guiding Principles abstrakt, wenn sie lediglich fordert, dass der Einsatz autonomer Waffen (die auch gegen Personen gerichtet sein könnten) in der Letztverantwortung von Menschen bleiben muss (Punkt b, d). Hier siedeln sich dann alle Überlegungen zum bekannten Kehrvers des human in the loop an.

In letzter Konsequenz ergibt sich aus dem ethischen Grundprinzip, auf das die UNESCO ihre Empfehlungen stützt, dass autonome Waffen nur feindliche Waffensysteme direkt ins Ziel nehmen dürfen. Eine solche technische und ethische Verlagerung der Diskussion über autonome Waffensysteme könnte die Verhandlungen in Genf auf eine produktivere Ebene heben. Eigentlich müssten die Verhandlungsdelegationen innerhalb der CCW dieses Grundprinzip, das von ihren Ländern bereits im Rahmen der UNESCO anerkannt wurde, teilen. Auf dieser Basis könnte die Gruppe dann neu weiterarbeiten und die Anwendung autonomer Waffensysteme im Kriegsfall und im Rahmen des geltenden Humanitären Völkerrechts regeln.

Verteidigung unter Wahrung des Prinzips der Verhältnismäßigkeit

Automatisierte und autonome Verteidigungssysteme wären immer dann erlaubt, wenn sie nicht direkt Menschen zum Ziel hätten, sondern deren Angriffsmittel. Wie bei jedem Angriff würde auch in diesem Fall das Prinzip einer verhältnismäßigen Antwort gelten. Mit Angriffswaffen kämpfende Soldaten wären gegenüber autonomen Waffensystemen wie in jedem Krieg dem Risiko ausgesetzt, indirekt Opfer dieser Art einer maschinell betriebenen Verteidigung zu werden.

Die technischen Voraussetzungen für die Programmierung von Systemen, die zu ihrer Verteidigung auf sie gerichtete Waffen schneller, präziser, effizienter und verhältnismäßig ausschalten, liegen im Bereich des Möglichen bzw. solche Systeme sind bereits in Gebrauch, auch wenn Unfälle, wie bei allen technischen Prozessen und menschlichen Handlungen, natürlich nicht ausgeschlossen werden können.

Da ein generelles Verbot von autonomen Waffensystemen genauso utopisch ist wie ein Verbot von Kriegen, wird hier vorgeschlagen, die allgemeinen ethischen Werte und Prinzipien der UNESCO-Empfehlungen konkret in den 193 Mitgliedstaaten[9] und die Entwicklung, Herstellung und den Einsatz von autonomen Waffensystemen nicht als gesonderten Fall zu behandeln.

Schwer definierbare autonome Waffensysteme führen allen geopolitischen Kontrahenten das Schreckensszenario eines totalen Krieges vor Augen. Das sogenannte Gleichgewicht des Schreckens bezeichnet die gegenseitige Vernichtungsfähigkeit von Atommächten. Beide Seiten sollen von einer nuklearen Eskalation abgehalten werden, weil sie sicher mit einem zerstörerischen Gegenschlag rechnen müssen – der wie im Falle des ehemaligen sowjetischen Tote-Hand-Systems sogar automatisch ausgelöst würde, falls die politische und militärische Führung durch den Erstschlag nicht mehr am Leben wäre. Ein Wettrüsten im Bereich KI-gestützter Waffensysteme würde das Risiko eines durch Fehlfunktionen, unerwartete Interaktion und fehlende menschliche Kontrolle entfachten Kriegs, der letzten Endes die totale Zerstörung unserer Existenzgrundlage zur Folge haben könnte, nun aufs Neue erheblich steigern.

Dem unkontrollierten Einsatz autonomer Schwärme von Waffen auf dem Land, im Wasser und in der Luft wirken am besten Gespräche zwischen potenziellen Kriegsparteien entgegen, die aus Eigennutz bereit sind, sich zurückzuhalten. Auf dieser Grundlage könnte der technische und kontrollierbare Ausschluss von autonomen Waffensystemen, die direkt auf Menschen angesetzt würden, genauso akzeptabel sein wie sich selbst verteidigende autonome Systeme, die allerdings unter der Letztverantwortung und -kontrolle der Krieg führenden Menschen stehen müssen. In diesem Sinne wären im Interesse des Überlebens wenigstens einiger Menschen „Toter-Mann-Schalter“ auszuschließen.

Jede öffentliche Diskussion über dieses hochkontroverse Thema erfüllt schon dann ihren Zweck, wenn sie von möglichst vielen verfolgt und bestritten wird. Die UNESCO-Empfehlungen stellen ein Hoffnungszeichen dar – auch für die Militärethik.

 


[1] Diese „Guiding Principles der Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems“ (im Folgenden kurz: Guiding Principles) sind festgehalten in Annex IV unter https://documents.unoda.org/wp-content/uploads/2020/09/CCW_GGE.1_2019_3_E.pdf (Stand: 4.4.2024).

[2]www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf (Stand: 2.4.2024).

[3] Artikel 2, Abs. 3. Am 21.5.24 hat auch der zuständige Ministerrat dem Text zugestimmt.

[4] Ringel Morris, Meredith et al. (all members of Google DeepMind) (2023): Levels of AGI: Operationalizing Progress on the Path to AGI. In: Google DeepMind 2023-11-04. https:// arxiv.org/abs/2311.02462 (Stand: 26.12.2023).

[5] EU Regulation 2021/821, zuletzt am 15. September 2023 überarbeitet. https://eur-lex.europa.eu/eli/reg/2021/821/oj (Stand: 4.4.2024).

[6] UNESCO (2021): Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137 (Stand: 4.4.2024).

[7] Dieser Punkt ist entsprechend der EU-Datenschutzgrundverordnung (Artikel 22) bereits heute geltendes Recht. „Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.“ Ausgelegt und diskutiert wird heute neben den im Gesetz vorgesehenen Ausnahmen vor allem die Vokabel „ausschließlich“.

[8] Deutscher Ethikrat (2023): Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. Berlin, S. 183. www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf (Stand: 4.4.2024).

[9] Zum Zeitpunkt der Verabschiedung der Empfehlung im November 2021 waren die USA der UNESCO noch nicht wieder beigetreten.

Dr. Erny Gillen

Dr. Erny Gillen, Jahrgang 1960, ist Gründer und Leiter der Moral Factory in Luxemburg.Von 2019 bis 2020 hat er die Luxemburger Armee bei der Erstellung ihrer Werte-Charta und ihres Militärkodex im Auftrag des Verteidigungsministeriums fachlich begleitet. Erny Gillen studierte Theologie in der Schweiz und Belgien, promovierte über katholische Ethik und war unter anderem Vizepräsident von Caritas International sowie Generalvikar der Erzdiözese Luxemburg.

erny.gillen@moralfactory.com

Alle Artikel von Erny Gillen


Download als PDF

Alle Artikel dieser Ausgabe

Wie geht es mit den Bemühungen um ein rechtsverbindliches Abkommen zu autonomen Waffensystemen weiter?
Catherine Connolly
Autonome Waffensysteme - zum Stand der internationalen Debatte
Andreas Bilgeri
Digitales Eskalationspotenzial: Wie agiert KI an den Grenzen der Vernunft?
Axel Siegemund
KI für das Militär braucht keine Sondermoral! Ein Zwischenruf zur Regulierung autonomer Waffensysteme
Erny Gillen
Menschenwürde und „autonome“ Robotik: Worin besteht das Problem?
Bernhard Koch
Die Beweispflicht in der Debatte um autonome Waffen – Warum die Verbotsbefürworter sie (noch) nicht erfüllt haben
Maciek Zając
Zuverlässigkeitsstandards für (autonome) Waffen: Der Mensch bleibt relevant
Nathan Wood
Gibt es ein Recht auf militärische Gewalt unterhalb der Schwelle zum Krieg? Neue Technologien und die Debatte um das ius ad vim
Bernhard Koch
„Meaningful Human Control“ und Komplexe Mensch-Maschine-Gefüge – Zu den Grenzen ethischer KI-Prinzipien im Kontext autonomer Waffensysteme
Jens Hälterlein, Jutta Weber
Menschlichkeit im Krieg? Die Bedeutung von „Meaningful Human Control“ für die Regulierung von autonomen Waffensystemen
Susanne Beck, Schirin Barlag
„Meaningful Human Control“ von autonomen Systemen
Daniel Giffhorn, Reinhard Gerndt
KI im Zeitalter des Misstrauens
Henning Lahmann

Specials

Ansgar Rieks, Wolfgang Koch ChatGPT