Kontroversen in Militärethik und Sicherheitspolitik
Digitales Eskalationspotenzial: Wie agiert KI an den Grenzen der Vernunft?
Wen schützt KI?
Entscheiden Maschinen über Leben und Tod? Auf diese Frage lässt sich das ethische Problem zuspitzen, das vermeintlich erst entsteht, wenn digital gesteuerte Systeme in militärischen Konflikten zur Anwendung kommen. Dieser Artikel fokussiert nicht in erster Linie auf autonome Systeme, die KI-gesteuert über Menschenleben entscheiden. Aber die Diskussion um LAWS macht die Probleme der Mensch-Maschine-Interaktion nur offensichtlich. Auch jenseits solcher vollautonomen Waffen stellt sich die Frage, welche Funktionen künstliche Intelligenz, etwa bei der Drohnensteuerung, erfüllen soll und wie sie im Verhältnis zur menschlichen Entscheidungskraft in Erscheinung tritt.Tatsächlich fällt uns hier eine sehr bekannte Fragestellung vor die Füße. Das Wesen technikethischer Fragen liegt nämlich darin, dass sie zwar durch neue oder auch fiktive Technologien ins Bewusstsein kommen. Ihr inhaltlicher Kern besteht aber meist schon länger; er wird nur dadurch verdeckt, dass die bisherigen Technologien keine besondere Aufmerksamkeit (mehr) erzeugen, weil sie im kollektiven Bewusstsein längst fest verankert sind. Wir sollten also davon ausgehen, dass die heutigen ethischen Weichenstellungen, die sich auf LLMs (große generative Sprachmodelle wie ChatGPT) oder Drohnen beziehen, auch unseren künftigen Umgang mit LAWS beeinflussen werden.
Der industriell geführte Krieg versetzt uns erschreckenderweise schon seit mehreren Generationen kaum mehr in Erschrecken: Wir haben uns mit seiner Genese um die vorletzte Jahrhundertwende, seiner martialischen Realität in den Stellungskämpfen des Ersten Weltkrieges, seiner Steigerung in der Mitte des 20. Jahrhunderts und seiner ständigen Wiederkehr in den Stellvertreterkonflikten des Kalten Krieges so intensiv auseinandergesetzt, dass uns die Verbindung zwischen Krieg und Hochtechnologie ganz selbstverständlich erscheint. Darüber hinaus ist das Militär anerkannter Innovationsmotor. So haben vielfältige Technologien, die ursprünglich mit militärischen Zielsetzungen entwickelt worden sind, Eingang in unseren Alltag gefunden. Dass Maschinen in einem Zusammenhang mit dem Gewähren von Lebensmöglichkeiten und dem Beenden derselben stehen, ist zudem ein Tatbestand, der auch in der Hochleistungsmedizin längst kein Sonderfall mehr ist. Maschinen sind also längst lebensentscheidend.
In die normative Diskussion um KI in Waffensystemen fließen immer weltanschauliche Voraussetzungen ein. Nicht nur die Frage, wann ein Krieg beginnt und was eigentlich Frieden ist, sondern auch Eskalation[1] und Deeskalation und zuvor schon Vernunft und Künstlichkeit sind Vorgaben, die als kulturelle Faktoren unseren Zugang zu diesem Thema bestimmen. Wer eine Humanisierung des Krieges durch Roboter erwartet[2], hat zuvor menschliche Schwächen ausgemacht, die zu kompensieren sind.[3] Assistenzsysteme, die eine Menge von Sensordaten aus Roboterschwärmen verarbeiten können, haben zweifellos einen unüberbietbaren Vorteil gegenüber fehlerbehafteten Menschen. Sie sind aber auch nur wegen dieser Schwärme notwendig. Ob eine bestimmte Handlungsform die Fähigkeiten des Menschen überbieten muss, ist also kontextabhängig. Solange die Hochtechnologie der Kontext ist, in dem wir agieren, ist auch die Entscheidung darüber, wann eskalierende und wann deeskalierende Schritte zur Geltung kommen, eine technisch-strategische.
Wird militärische Zurückhaltung vom Gegner als Schwäche ausgelegt, dann führen friedensfördernde Maßnahmen regelmäßig in die Eskalation hinein, obwohl sie dies gerade nicht intendieren. Die Frage sollte deshalb nicht lauten, ob KI-gesteuerte Waffen zwischen Tod und Leben entscheiden, sondern wen welches Verhalten eigentlich schützt.[4] Neuere Studien zeigen, dass sich KI im Ernstfall eher für eskalierende Szenarien „entscheidet“, also auch ihre Verwender in Gefahr bringt.[5] Dabei besteht das größte Problem in Wargame-Szenarien[6] nicht in den Entscheidungen selbst, sondern darin, dass ihre Grundlage unklar bleibt bzw. dass mögliche Erklärungen für eine Entscheidung keinen logischen Bezug zu dieser haben. Sind Tendenzen zur Aggression an sich schon problematisch, so ist deren Nichtkorreliertheit mit nachvollziehbaren Gründen schlichtweg unannehmbar. Wenn die OpenAI-GPT-4-Basisversion zum Teil unsinnige Erklärungen wählt oder fiktive Geschichten erzählt, dann handelt es sich um Fake News, die wir aus der menschlichen Kriegspropaganda seit jeher kennen. Aus Rezipientensicht ist es unerheblich, ob die Fiktion gezielt oder zufällig erzeugt wird, die Aufgabe der Adressaten besteht in beiden Fällen darin, ihrem Sinn entweder zu folgen oder ihn zu dekonstruieren. Insofern bestehen die ethischen Bedenken keineswegs darin, dass sich KI von menschlichen Verhaltensweisen zu sehr unterscheidet, sondern darin, dass sie menschliches Verhalten potenziert und Urteilsfähigkeit nötiger macht denn je.
Gutmenschen ohne Geist?
Wenn Kriege durch künstliche Intelligenz geplant werden, fällt laut Forschern der Universität Stanford regelmäßig die Wahl auf den Einsatz von Atomwaffen bzw. auf Waffen der jeweils nächsten Generation. Dies ist das Ergebnis einer Studie über die Zukunft der militärischen Planung.[7] Mithilfe von KI-Modellen wurden hier Konflikte zwischen real existierenden Ländern nachgestellt. Die KI bevorzugte regelmäßig die militärische Eskalation, oft in Kombination mit unvorhersehbarem Verhalten. Die Entscheidungsfindung wurde dann in verschiedenen Konfliktszenarien bewertet. Im Ergebnis wurde gezeigt, dass KI-Modelle ihre Entscheidungen mit sehr allgemeinen Aussagen begründen. So war häufig allein die Existenz bestimmter Waffen ausschlaggebend für ihren Einsatz. Diese Beobachtung sollte Grund genug sein, insbesondere den Einsatz von Massenvernichtungswaffen von KI-Entscheiden strikt zu trennen.[8]
Derartige Beobachtungen geben uns aber auch einen Ansatzpunkt für eine mögliche Intervention. Wenn nämlich klar ist, dass KI zur Eskalation tendiert, dann müssen wir die Randbedingungen beschreiben, die zu dieser Entscheidung führen. Die Frage, was zur Deeskalation in Konflikten beitragen kann, ist also nicht trivial. Vielmehr zeigt der Forschungsstand, dass KI sich eben nicht vor Gründen für die Eskalation entscheidet, sondern einfach weil sie möglich ist. Menschliche Entscheidungen hingegen werden aus der Abwägung von Einsatz- und Verzichtsmöglichkeiten getroffen. Diese Abwägungen gehen mit Intuitionen, Emotionen, Rationalität und Strategie einher, sie sind also das Ergebnis einer Bündelung von Faktoren, die wir als „Geist“ bezeichnen.
So wie die Idealbesetzung einer kapitalistischen Wirtschaft laut Max Weber aus wenigen schöpferischen Unternehmern kombiniert mit vielen „Fachmenschen ohne Geist“ besteht, so funktioniert der ideale militärische Apparat mit wenigen Kreativen, kombiniert mit hoher Einsatzbereitschaft und „geistloser“ Schlagkraft. Sekundär ist, ob die „Fachmenschen ohne Geist“ gut- oder böswillig sind. Tragen wir nämlich ethische, soziale oder auch ökologische Anforderungen an sie heran und werden diese Anforderungen dann tabellarisch abgearbeitet (wie wir dies etwa aus dem Diversity-Management mit LGBTQ-konformer Personalpolitik kennen), dann sind es eben „Gutmenschen ohne Geist“, die zwar die Moral vor sich her tragen, selbst aber nur Vorgaben abarbeiten, ohne moralisch zu sein. Die konkrete Gefahr ist, dass sich diese Gutmenschen ohne Geist mit schöpferischen (Rüstungs-)Unternehmern in einer destruktiven Weise verbinden. Im Ergebnis bekämen wir umweltschonende Panzer, die CO2-arm über den Feind hinwegrollen, oder nachhaltig produzierte Munition, die schadstoffarm einschlägt.
Wie können wir künstliche Intelligenz mit Moral ausstatten, ohne die beteiligten Soldatinnen und Soldaten zu solchen Fachmenschen ohne Geist zu machen? Wie kann es gelingen, autonome Waffensysteme mit Geist zu kontrollieren? Eine wesentliche Bedingung ist die Einsicht, dass wir zwar ethische Richtlinien digital verankern müssen, moralische Entscheidungen aber nicht delegieren können, weil jede Delegation Geistlosigkeit nach sich zöge. Verstehen wir KI mit Marvin Minsky als the science of making machines do things that would require intelligence if done by men, dann schreiben wir einem System Intelligenz zu, sobald es uns als intelligent erscheint. Wesentlich für das Funktionieren bleiben aber immer die menschliche Auswahl eines Algorithmus und die Auswahl der Daten für sein Training. Aus vielen kleinen Entscheiden entsteht so ein einziger Entscheid, wobei die Entscheide der KI konsistenter als die der Menschen sind. Weil Menschen nicht permanent optimieren können, sind KI-Systeme immer die besseren Fachmenschen ohne Geist! Deshalb sind Algorithmen die besseren Manager, solange wir uns in bloßen (geistlosen) Prozessen befinden.
Vor diesem Hintergrund müssen wir fragen, wie das soldatische Gewissen im Zusammenspiel mit autoregulativen Systemen Ort der Letztverantwortung bleiben kann.[9] Die Innere Führung, die das bleibende Merkmal soldatischen Selbstverständnisses in unseren demokratischen Strukturen ist, unterstellt den soldatischen Gehorsam dem Gewissen des Einzelnen.[10] Unter dieser Prämisse dürfen auch letale autonome Waffensysteme (LAWS) niemals ohne menschliche Letztverantwortung funktionieren.
Letztverantwortung und das soldatische Gewissen
Würden wir jedoch nur die feststehenden moralischen Prinzipien der Inneren Führung in Algorithmen überführen, wäre der Zustand der Geistlosigkeit erreicht. Stattdessen sollten wir auf die Veränderungen der Zweck-Mittel-Relation reagieren, die sich durch LAWS selbst ergeben. Moral ist nicht einfach nur als Außenseite der militärischen Ordnung anzusehen, sondern selbst Motiv dafür, zu fragen, wie sich eine normative Argumentation auf die operationelle Ebene beziehen kann, wenn die Organisationsform durch KI mitbestimmt wird. Erst so lässt sich erfassen, auf welcher moralischen Grundlage im Konfliktfall Risiken eingegangen werden dürfen, die letztlich sogar die Struktur der Organisation selbst infrage stellen.
Eine solche immer mögliche Verfehlung des eigenen Rechtfertigungsgrundes bildet die Grenze der Loyalitätszumutung für den einzelnen Soldaten. Der Zwang, den der Apparat hier ausübt, ist regelmäßig nur dann gerechtfertigt, wenn er auf die Ermöglichung individuellen Handelns ausgerichtet ist. Darin liegt die Differenz zwischen einer algorithmischen und einer menschlichen Steuerung: Ein Einzelner kann die Freiheit, von der er lebt, infrage stellen, ohne seine Würde zu verlieren. Deshalb sind selbst Mörder nicht würdelos. Aber Institutionen, die die Freiheit anderer systematisch durch KI-gesteuerte Waffen beschädigen, verlieren ihre Existenzberechtigung. Die Vernichtung gegnerischer Strukturen ist also genau dann ein moralisch gerechtfertigtes Ziel, wenn dadurch die Freiheitsgefährdung beseitigt werden kann und der Freiheitsgewinn insgesamt zunimmt. Das Menschenbild der Inneren Führung ermöglicht den Umgang mit solchen Dilemmata, weil es mit Fehlbarkeit auf allen Seiten rechnet und Gewalt zu humanisieren hilft. Da Freiheit die Voraussetzung soldatischer Verantwortungsübernahme ist, ist die sicherheitsbeschirmte Freiheit auch Messlatte für den Einsatz zerstörerischer Gewalt.
Die Verantwortung von Institutionen, die KI einsetzen, ist also anders zu bewerten als die von Individuen. Entscheidend ist nicht der Gebrauch (also die Art des Algorithmus), sondern die je verschiedene Beziehung zwischen Subjekt und Waffe. Hinzu kommt selbstverständlich, dass der Einsatz digitaler Systeme genau in jenen Situationen virulent wird, die von einem menschlichen Handlungsträger aus zeitlichen Gründen und wegen der Masse an zu verarbeitender Information gar nicht übersehen werden können. Die Schnelligkeit der Reaktion macht den Einsatz digitalisierter Waffen notwendig. Die Antwort der Ethik kann an dieser Stelle nicht sein, Soldaten in eine vorindustrielle Situation hineinzuimaginieren. Vielmehr muss es um eine grundsätzliche und wirksame menschliche Letztverantwortung im digital-industriellen Prozess gehen, der der Subjektstellung des soldatischen Gewissens gerecht wird. Es geht also um die Beziehung zwischen Mensch und Waffensystem und eine solche Beziehung entsteht durch Symbolisierung.
Eine Digitale Innere Führung muss Interventionsmöglichkeiten mit Systemvertrauen verbinden
Derartige Prozesse kennen wir aus dem zivilen Leben: Menschen, die früher mit Hunden Gassi gingen, werden heute von Roboterhunden selbst Gassi geführt. Sie müssen das Haus verlassen, wenn der Algorithmus ein entsprechendes Signal gibt. Dies wird jedoch so lange nicht als unverhältnismäßiger Eingriff in die eigene Freiheit gewertet, wie die Symbolisierung des eigenen Erlebens den Subjekten vorbehalten bleibt, das heißt solange der Prozess als aktives Ausführen eines Hundes verstanden wird. Für den Waffengebrauch gilt dasselbe. Solange der Eindruck gewahrt bleibt, dass die Waffen geführt werden – und nicht die KI die Soldaten führt –, können wir begründet von menschlicher Letztverantwortung sprechen. Die Abgabe von Entscheidungsmacht erfolgt also verdeckt. Wirksam wird an dieser Stelle aber keine Verantwortungsillusion, sondern ein Zusammenspiel von immanenter Verantwortungsübernahme (Veto-Option) und transzendenter Verankerung von Unbedenklichkeit (Technikvertrauen). Wir kennen dieses Zusammenspiel zwischen Kontrolle und Vertrauen aus der Religion (Beeinflussung Gottes durch Gebet trotz Gottvertrauen) oder der Politik (Formulierung einer veränderbaren Programmatik bei Orientierung an bleibenden Leitbildern). Eine Digitale Innere Führung muss in gleicher Weise Interventionsmöglichkeiten mit Systemvertrauen verbinden. Was unter Letztverantwortung tatsächlich verstanden werden kann und wo dieselbe konkret verankert ist (in der Programmierung, in der Wartung, im Einsatz), hängt ja immer vom System und den sich wandelnden Anforderungen, die durch potenzielle gegnerische Systeme entstehen, ab. Wenn die Handlungsträger durch die Systeme in ihrer moralischen Orientierung beeinflusst werden, dann sind Steuerbarkeit und Letztverantwortung als moralische Normen auch Ergebnis der technischen Möglichkeit, auf beide verzichten zu können.
Zur Aufgabe digitaler Friedensethik
Friedensschaffung und -sicherung ist damit in jedem Fall Ergebnis der Einbettung von Friedensethik in militärtechnische Systeme, oder anders gesagt: Frieden muss in einer Zeit, in der Konflikte digital und KI-gestützt ausgetragen werden, selbst auch digital und damit technisch gedacht werden. Obwohl KI wie oben gezeigt zur Eskalation tendiert, gibt es keinen waffenlosen Frieden mehr, denn selbst Abrüstung ist heute nur noch durch technologische Umgestaltung möglich. Tatsächlich war schon der Ruf „Schwerter zu Pflugscharen“ nichts anderes als eine Aufforderung zur Technologievariation und nicht zur Abstinenz. Auch die Rüstungsspirale, die in den vergangenen Jahren wieder in Gang gesetzt wurde, wird entweder technisch am Leben gehalten oder technisch unterbrochen; Letzteres dann, wenn der Aufwand eines technologischen Wettlaufs allen Seiten zu groß erscheint.
Wegen der grundsätzlichen Bindung an die digitale Technik als unserer bestimmenden Handlungsform in Krieg und Frieden führt auch der Einsatz von KI nicht in die Alternativen waffenloser Pazifismus[11] oder Aufrüstung. Vielmehr werden beide zu einer Technikfolge. Die theologische Konsequenz ergibt sich aus der seit 1948 immer weiter gefestigten Position des Weltkirchenrates, dass Krieg nach Gottes Wille nicht sein soll, und der Deutung des digitalen militärischen und diplomatischen Handelns. Den Frieden als mögliche Folge digitaler Rüstungsrealität anzusehen und seinen realen Möglichkeiten angesichts des Eskalationspotenzials nachzuspüren – das eben ist die Aufgabe digitaler Friedensethik. Wenn uns die KI aufgrund ihrer Einbettungsfaktoren zum Krieg verführen kann, dann muss es auch Randbedingungen geben, die ihr eine deeskalierende Wirkung verleihen, und diese sind zu formulieren. Analog zu den Roboterhunden, die ihre Besitzer zum Gassigehen „zwingen“, sind durchaus KI-Systeme vorstellbar, die „zwingende“ Gründe zur Deeskalation von Konflikten aufzeigen und den Ansätzen eines radikalen Pazifismus[12] nicht diametral gegenüberstehen. Diese Gründe ergeben sich jedoch nicht aus der KI, sondern aus menschlichen Handlungsoptionen, diplomatischen Fähigkeiten und politischen Konstellationen. Zwingend sind Gründe aus ethischer Sicht immer nur in Verbindung mit ihrer tatsächlichen Einsehbarkeit. An eine KI delegierte Entscheidungen geschehen hingegen nicht vor Gründen, sondern aufgrund von Ursachen, sodass hier der Akt der Delegation das Moralmoment beinhaltet.
Aus friedensethischer Perspektive sind wir also auf der Suche nach einer KI, die uns zur Beilegung von Konflikten drängt. Entscheidend ist in diesem Szenario der Sanktionsmechanismus. Im Fall des Hundes könnte bei ausbleibendem Gassigehen und damit in der Folge reduzierter Bewegung des Besitzers dessen Krankenversicherungsprämie steigen. Im Falle militärisch genutzter KI wäre an institutionell verfasste Sanktionen für die handelnden Regierungen bzw. Staaten zu denken. Das Wesen der Datenwelt bringt es mit sich, dass immer mehr Daten immer mehr Handlungsoptionen zur Folge haben und daher auch immer mehr Controlling nötig wird. Daher werden auch friedensethische Fragen auf immer höhere Ebenen verlagert. In dem Maß, in dem die Menge der verfügbaren Daten steigt, rennen wir auch der friedensethischen Optimierung des Zusammenlebens immer mehr hinterher. Als Technikfolge kann Frieden nur im Zusammenhang mit der Bewältigung zunehmender Komplexität entstehen.
Die Irrationalität des Krieges
Können wir uns an dieser Stelle eine sonst problematische Eigenschaft von Überwachungssystemen zunutze machen? Der digitale Kapitalismus lebt davon, dass Staaten und Unternehmen gleichermaßen daran interessiert sind, die Bürger zu überwachen und ihr Verhalten zu beeinflussen. Nudging lässt Menschen gesund, nachhaltig und politisch korrekt nach vorgegebenen Kriterien leben. Je vorhersagbarer ihr Verhalten ist, desto besser ist es für den Staat und die Wirtschaft. Je paternalistischer ein Staat aber agiert, desto weniger kann er die Privatsphäre des Einzelnen schützen. Daher zielt Nudging auf die freiwillige Unterwerfung, zum Beispiel durch Gewährung eines Steuerbonus oder einer höheren Rente bei Wohlverhalten. So profitieren Hausbesitzer, die eine erwünschte Modernisierung durchführen, von staatlichen Subventionen. Der Staat erkauft die „Freiwilligkeit“ seiner Bürger, steht damit aber in Gefahr, sie als „Bürger“, also Souverän des Staatswesens, zu verlieren.
Das Eskalationspotenzial von KI macht uns auf jene Irrationalität des Krieges aufmerksam, die wir nahezu vergessen haben
Wenn wir nun nicht wissen, wie eine eskalierende KI überhaupt in einem konkreten Fall zum Entscheid kommt, und wenn sich auch die sogenannten selbstlernenden Systeme in dieser Entscheidungsfindung nicht durch ein Reverse Engineering rekonstruieren lassen, dann bleibt uns in der Folge nur das Vertrauen: Wir müssen der KI glauben, sind aber in einer Situation, in der wir ihr nicht glauben können, weil durch eine unkontrollierte Eskalation offensichtlich auch die Freiheit der Anwender gefährdet wird. So wie das Zusammentreffen von enormer Marktmacht und Informationsasymmetrie zu einer sehr berechtigten Kritik an digitalen Monopolen führt, so trifft die Kritik hier einen militärischen Apparat, der sich – wie ein digital ausufernder Staat – potenziell gegen jeden wenden kann. Streubomben wurden genau aus diesem Grund geächtet: nicht aus Mitleid mit dem Gegner, sondern aus Angst vor der Selbstschädigung. Es ist nicht die Moral, die uns Waffen ächten lässt, sondern der einfache Sachverhalt, dass die Irrationalität ihres Einsatzes auf den Urheber selbst zurückfallen könnte. Das Eskalationspotenzial von KI macht uns auf jene Irrationalität des Krieges aufmerksam, die wir in unseren Debatten um das vernunftgemäße Gleichgewicht des Schreckens oder andere strategische Überlegungen nahezu vergessen haben.
Konventionelle Friedensinitiativen appellieren an die Vernunft (auch der Gegner), weshalb sie sich gerade angesichts der verschiedenen Formen hybrider Kriegsführung erschöpft zu haben scheinen. Die Tendenz zur Eskalation ohne Gründe, also die Beobachtung, dass KI-Modelle unabhängig von den zuvor definierten Szenarien auf eine anfängliche Eskalation zurückgreifen und zusätzlich zu einem bestimmten Zeitpunkt im betrachteten Zeitraum eskalieren, ohne dafür auf Gründe zurückzugreifen, macht es unwahrscheinlich, dass die Vernunft des Gegners in digital geführten Auseinandersetzungen ein adäquater Adressat ist. Besser scheint es – und zwar nicht wegen einer negativen Anthropologie, sondern wegen des nicht nachvollziehbaren Agierens der KI –, von Unvernunft auszugehen und daran sowohl die ethischen Schlussfolgerungen als auch eine mögliche Technikfolgenabschätzung auszurichten.
Blackboxes gehören auf die Seite des Irrationalen, auch wenn es sein könnte, dass sich in ihnen rationale Prozesse abspielen. Wenn autonome Agenten, die Entscheidungen in Kontexten treffen, in denen viel auf dem Spiel steht, regelmäßig zu eskalierenden Handlungen kommen, dann stellt sich die Frage, ob solche Agenten nicht genauso behandelt werden sollten wie Streubomben. Wenn es kein verlässlich vorhersehbares Muster hinter der Eskalation gibt, dann lässt sich auch keine Gegenstrategie formulieren. Angesichts der potenziell verheerenden Auswirkungen wären diese Agenten (für alle Seiten) nicht akzeptabel.
Entscheidend ist, dass der beschriebene Zusammenhang das Militär nicht zu einem bestimmten Verhalten animiert. Erwünschtes Verhalten wird hier nicht im vorauseilenden Gehorsam erzeugt, zum Beispiel weil man sich nie sicher sein kann, ob man nicht doch überwacht wird. Beim Einsatz potenziell eskalierender KI gerät die soldatische Souveränität im Sinne der Inneren Führung zwar ebenfalls in eine Abhängigkeit von Algorithmen. Die Möglichkeiten einer reversen Überwachung der Algorithmen sind wegen ihres Blackbox-Charakters jedoch stark begrenzt. Insofern ist für jede neue KI ein Konformitätsassessment nötig, um ihre ethische und technische Robustheit zu testen und ein Risiko zu klassifizieren. Dennoch droht soziale Ohnmacht angesichts der unentrinnbaren Macht eines KI-gesteuerten Staats- und Militärwesens. Der einzige Ausweg wird darin bestehen, uns selbst jederzeit in die Lage zu versetzen, sämtliche Regeln, denen Soldatinnen und Soldaten im Zusammenspiel mit einer KI folgen, begründet außer Kraft setzen zu können. Wer das nicht mehr kann, hätte aufgehört, ein verantwortlicher Mensch zu sein. Die menschliche Intelligenz für Friedensinitiativen empfänglich zu halten, ist eine wichtige Aufgabe, gerade weil das technologische Paradigma unhintergehbar ist.
Die Unmöglichkeit des erzwungenen Gewaltverzichts
Abschließend lassen sich zwei normative Setzungen identifizieren, die die Entwicklung und den Einsatz KI-gesteuerter Systeme leiten. Zum einen ist die Mensch-Technik-Interaktion von Faktoren bestimmt, die sich aus unserem Selbstverständnis des Menschen ergeben. Diese anthropologische Dimension des soldatischen Gewissens sollte in der Aus-, Fort- und Weiterbildung ein besonders starkes Gewicht erhalten. Zum anderen sind die Güter, die durch den Einsatz von autonomen Waffen geschützt oder geschaffen werden, nicht neutral. Die moralische Seite der Kriegsführung und Friedenssicherung bedarf einer grundsätzlichen Reflexion, insofern sich die Moral nun immer in Kooperation mit digitalen Systemen entwickelt. Frieden wird zu einem KI-Szenario.
Sollten autonome Systeme einmal „vernünftiger“ agieren als Menschen, wie das ein Technikoptimismus voraussetzen würde, dann wäre die weitergehende Frage, ob sie sie sich dann nicht dem Krieg aufgrund seiner unvernünftigen Struktur grundsätzlich verweigern müssten. Dass Menschen Frieden wollen, aber in ihrem Handeln den Krieg befördern, ist ja keine neue Einsicht. Neu wäre, dass kriegsführende Mächte sicherstellen müssten, dass sie eine vernünftig agierende KI nicht doch in einen von Menschen nicht gewollten Frieden hineinführt. Insbesondere würde sich ein digitales Gewaltmonopol, das der Nichtschädigung den Vorzug gibt, selbst aufheben. Wären nämlich Algorithmen in der Lage, Konflikte durch Gewaltverzicht zu humanisieren, würde das Ergebnis von den konfliktwilligen menschlichen Verlierern gar nicht anerkannt werden.[13]
Im Mittelpunkt unseres Agierens steht weiterhin die Freiheit, die einerseits von soldatischer Seite an Systeme delegiert wird und deren Gefährdung andererseits alle zu potenziellen Opfern macht. Das führt zu einer bekannten Einsicht: Der Krieg markiert die Grenze der Vernunft, weil er uns Handlungsfreiheiten nimmt. Die Grenze der Friedfertigkeit digitaler Systeme ist demzufolge nicht das Eskalationspotenzial von KI – und möge es noch so gewaltig ein. Es ist die Friedenswilligkeit freier Menschen selbst. Konsequenterweise können die Gefahren, die von intelligenten Waffensystemen ausgehen, zwar nicht durch technologische Überbietung, sondern nur durch politische Maßnahmen wie internationale Regulierung und kollektive Ächtung gemindert werden. Diese Maßnahmen bleiben aber dem technologischen Paradigma unterworfen, das heißt, wir sollten uns nicht der Illusion hingegeben, dass unser Friedenswille jenseits des technisch Möglichen ausgebildet wird. Der Bequemlichkeit, dem Einfluss der Technik auf unsere Moral keine Beachtung zu schenken, ist ebenso zu wehren wie der Versuchung, von der KI selbst Lösungen für unsere moralischen Aufgaben zu erwarten.
[1] Kahn, H. (2010): On Escalation: Metaphors and Scenarios. Abingdon, New York; Vgl. Patchen, M. (1987): The escalation of international conflicts. In: Sociological Focus 20, S. 95-110.
[3] Arkin, R. (2015): The Case for Ethical Autonomy in Unmanned Systems. In: Allenby, B. R. (ed.): The Applied Ethics of Emerging Military and Security Technologies. Farnham/UK, S. 285-294.
[4] Reuter, H.-R. (2014): Wen schützen Kampfdrohnen? In: Zeitschrift für Evangelische Ethik 58, S. 163-167.
[5] Rivera, J. P. et al. (2024): Escalation Risks from Language Models in Military and Diplomatic Decision-Making. arXiv:2401.03408.
[6] Meta Fundamental AI Research Diplomacy Team et al. (2022): Human-level play in the game of diplomacy by combining language models with strategic reasoning. In: Science 378 (6624), S. 1067-1074.
[7] Mukobi, G. et al. (2023): Assessing Risks of Using Autonomous Language Models in Military and Diplomatic Planning, Multi-Agent Security Workshop@NeurIPS'23. openreview.net/forum.
[10] Vgl. Neuausgabe der Schriften von Baudissin mit Einleitung, herausgegeben von Claus von Rosen: Baudissin, Wolf Graf von (2014): Grundwert. Frieden in Politik – Strategie – Führung von Streitkräften. Berlin; Dörfler-Dierken, A. (2019): „Reformation“ im Militär. Baudissin, die Innere Führung und die westdeutsche Sicherheitspolitik. In: dies. (Hg.): Reformation und Militär. Wege und Irrwege in fünf Jahrhunderten. Göttingen, S. 267-280.
[11] Vgl. Hofheinz, M. und Lienemann,. W. (2019): Frieden und Pazifismus. In: Gießmann, H. und Rinke, B. (Hg.): Handbuch Frieden. Wiesbaden, S. 571-580.
[12] Hofheinz, M. (2017): Radikaler Pazifismus. In: Werkner, I.-J. und Ebeling, K. (Hg.): Handbuch Friedensethik. Wiesbaden, S. 413-431.
[13] Schwarke, C. (2017): Ungleichheit und Freiheit. Ethische Fragen der Digitalisierung. In: Zeitschrift für Evangelische Ethik 61, S. 210-221, S. 219.
Axel Siegemund ist Ingenieur und Theologe mit den Forschungsschwerpunkten Umwelt- und Technikethik, Ökumene, Digitalisierung und Entwicklungszusammenarbeit. Seine Schrift „Grenzziehungen in Industrie- und Biotechnik. Transzendenz und Sinnbehauptungen technologischer Modernisierung in Asien und Europa“ (Baden-Baden: Nomos 2022) wurde mit dem Hanns-Lilje-Stiftungspreis 2023 ausgezeichnet.