Zum Hauptinhalt springen

Die Beweispflicht in der Debatte um autonome Waffen – Warum die Verbotsbefürworter sie (noch) nicht erfüllt haben

Wer trägt in der Debatte über die ethische Zulässigkeit des Einsatzes autonomer Waffensysteme (AWS)[1] die Beweislast? Das ist zweifellos eine wichtige Frage, zumal dieses praktische Problem letztlich auf die eine oder andere Weise gelöst werden muss. Leider haben bisher nur wenige – wenn überhaupt jemand – versucht, sie zu beantworten. Der vorliegende Artikel soll diese Lücke in der aktuellen Forschung schließen. Zunächst werde ich kurz darstellen, weshalb sich die Debatte um AWS für eine differenzierte Verteilung der Beweislast eignet. Im Anschluss begründe ich, dass die Zuweisung der Beweislast von den verschiedenen Themen und Kategorien von Argumenten in der Debatte abhängt. Mit Blick auf die Gegner eines generellen Verbots von AWS erörtere ich die Frage, inwiefern der Einsatz von AWS unter Einhaltung des Humanitären Völkerrechts möglich ist. Mit Blick auf die Verbotsbefürworter untersuche ich weitere denkbare Gründe für ein AWS-Verbot. Es folgen Anmerkungen dazu, wie gut die beiden Seiten die auf diese Weise verteilte Beweispflicht zu erfüllen scheinen.

Muss in der Kontroverse um AWS überhaupt die Beweislast verteilt werden? Meiner Meinung nach auf jeden Fall. Die Debatte ist festgefahren. Auf diplomatischer Ebene hat sie im vergangenen Jahrzehnt keine neuen Verträge oder andere allgemeinverbindliche Rechtsdokumente hervorgebracht – was nicht nur für die Verbotsbefürworter[2] frustrierend ist[3], sondern auch für die Befürworter eines grundlegenden Regelwerks, das auf beiden Seiten Unterstützung gefunden hat[4]. Auf wissenschaftlicher Ebene sind die Positionen im Wesentlichen verhärtet. Bemühungen, Kompromisslösungen zu finden, wie zum Beispiel der politische Fahrplan von Ronald Arkin, Stuart Russell, Paul Scharre und anderen prominenten Wissenschaftlern[5], haben keine nennenswerte Aufmerksamkeit oder Anhängerschaft gefunden. Keiner der Hauptbeteiligten an der Debatte hat bislang die eigene Einstellung zum Grundproblem geändert. Tendenziell unterscheiden sich die Vertreter beider Ansichten bereits in den grundlegendsten Anschauungen[6] bzw. neigen dazu, die Beweggründe der anderen Seite infrage zu stellen[7]. Eine klare Verteilung der Beweislast sowie die Durchsetzung weiterer Regeln zugunsten ehrlicher und sachgerechter Argumentation könnten für alle Beteiligten von Vorteil sein, da sie einen Anreiz bieten, entscheidende Ergebnisse zu liefern und auch Gegner anstatt lediglich Angehörige des eigenen Lagers zu überzeugen.

Was noch wichtiger ist: Die Uhr läuft – die Auseinandersetzung um AWS ist in erster Linie eine politische Debatte mit direkten und massiven Auswirkungen auf das wirkliche Leben. Unweigerlich wird es zu dieser oder jener praktischen Entscheidung kommen, selbst wenn es keine eindeutige theoretische Auflösung gibt – schließlich werden AWS entweder weltweit entwickelt und eingesetzt werden oder nicht. Ferner gibt es eine juristische Komponente, da es auch um unterschiedliche Auffassungen des Völkerrechts geht. Als solche ist sie genau die Art von Debatte, bei der es legitim ist, den jeweiligen Seiten eine Beweislast zuzuweisen.[8] Dies gilt selbst aus der Sicht der Autoren, die der Legitimität einer differenzierten Beweislastverteilung in philosophischen Debatten im Allgemeinen skeptisch gegenüberstehen. Denn hier geht es eindeutig um Recht und Gesetz einerseits und andererseits um Sicherheit, das heißt, die Debatte zielt auf Maßnahmen zur Vermeidung der schädlich(st)en Folgen ab.[9] Folglich wäre eine Beweislastverteilung nicht nur sinnvoll, um Bewegung in die Auseinandersetzung über AWS zu bringen, sondern diese steht beispielhaft für eine Kontroverse, die davon profitieren könnte und sollte.

Konformität mit dem Humanitären Völkerrecht

Das Humanitäre Völkerrecht (HVR; engl.Law of Armed Conflict, Abk. LOAC; Anm. d. Übers.) ist eine bedeutende Errungenschaft des modernen Rechts und der modernen Ethik. Es gilt für jeglichen Einsatz von Waffen und damit auch für den Einsatz autonomer Waffensysteme. Das HVR stellt einen – zumindest überwiegend – wohldurchdachten Kompromiss zwischen den Erfordernissen militärischer Notwendigkeit und humanitären Belangen dar und lässt als solcher keine weiteren Kompromisse zu.[10] Wenn also argumentiert wird, dass wir seine Anforderungen aufgrund bestimmter Bedenken lockern oder verschärfen müssen, bedeutet das in der Regel, dass man diese konkreten Bedenken doppelt berücksichtigt sehen möchte, da das HVR ihnen bereits Rechnung trägt. Was die Konformität mit dem HVR angeht, scheint die Beweislast eindeutig bei den Verbotsgegnern zu liegen – sie ist nicht verhandelbar.

Dies gilt auf jeden Fall für konkrete Modelle autonomer Waffensysteme, das heißt spezifische Ausprägungen des allgemeinen Konzepts. Würde eine solche Waffe konstruiert und gefertigt, sollte sie auf jeden Fall auf ihre Konformität hin überprüft werden, was empirische „Tests (einschließt), die die generischen, vorgesehenen Einsatzbedingungen realistisch nachbilden“, einschließlich des Gefechtsumfeldes und der beabsichtigten Einsatzart.[11] Wie viele andere Verbotsgegner stimme ich voll und ganz zu, dass diese Tests von angemessener Gründlichkeit und Strenge sein sollten und dass kein AWS eingesetzt werden sollte, solange es diese nicht bestanden hat.[12]

Daneben halte ich es für möglich, dass viele konkrete Ausführungen autonomer Waffensysteme – insbesondere wenn sie mit Software arbeiten, welche mithilfe von maschinellem Lernen und ähnlichen Techniken erstellt wurde – solche Tests nicht bestehen werden. Es ist sogar möglich, dass dies – zumindest für eine gewisse Zeit – keiner der vorgesehenen Ausführungen gelingen wird. Solche Misserfolge könnten Druck sowohl seitens der Rüstungsindustrie als auch seitens interessierter Militärs erzeugen, die Anforderungen zu senken. Darauf zu bestehen, dass Berechenbarkeit und Zuverlässigkeit von AWS ein wünschenswertes Niveau erreichen und die Messlatte entsprechend hoch angesetzt wird, wird zukünftig eine wichtige – wenn nicht sogar die wichtigste – Aufgabe für alle Ethiker sein, die sich mit AWS befassen. Die Beteiligung an der Gestaltung ausreichend strenger und umfassender Testsysteme sollte ein Schwerpunkt, vielleicht sogar der Schwerpunkt der AWS-Ethik werden.[13]

Was die Verbotsbefürworter fordern, sind aber gerade nicht solche skeptischen empirischen Untersuchungen, um potenzielle Mängel konkreter AWS-Ausführungen oder spezifischer, mit ihrem Einsatz verbundener Taktiken nachzuweisen. Sie bestehen darauf, dass Tests oder jegliche Entwicklung von AWS überhaupt nicht stattfinden sollten, weil nach ihrer (überwiegenden) Meinung alle AWS zwangsläufig gegen das HVR verstoßen. Diese Schlussfolgerung ergebe sich mit Sicherheit und a priori bereits aus der philosophischen Analyse des Konzepts von AWS.

Dies ist jedoch schlicht und nachweisbar nicht der Fall. AWS sind eine extrem breit gefächerte Waffenklasse in potenziell unendlichen Ausgestaltungen, die in allen möglichen Gefechtsumgebungen und -szenarien einsetzbar sind. Es ist daher höchst unplausibel zu behaupten, dass kein AWS, gleich in welchem Umfeld oder unter welchen Umständen, jemals völkerrechtskonform sein könne. Zur Widerlegung dieser Behauptung brauchen die Verbotsgegner nur ein einziges Beispiel eines AWS anzuführen, von dem nicht plausibel behauptet werden kann, es verstoße beim Einsatz unter den vorgesehenen Bedingungen gegen das HVR – zumindest nicht a prioriund ausgehend von rein philosophischen Überlegungen. Zwar müssen die Verbotsgegner nach wie vor den Nachweis führen, dass ein Verbot von AWS auf dieser Grundlage nicht haltbar ist – doch das dürfte ein Leichtes sein.

Es gibt mehrere Beispiele für Gefechtsfunktionen in konkreten Einsatzumgebungen, die AWS erfüllen können, ohne dass die Gefahr eines Verstoßes gegen das HVR bestünde. Doch konzentrieren wir uns auf das mit der vermutlich größten militärischen Bedeutungs – die Erlangung der Luftüberlegenheit in der hochmodernen Kriegsführung. Während die NATO-Staaten bei der Entwicklung von AWS bisher im Allgemeinen zögerlich waren, arbeiten die USA aktuell unter dem Label „Loyal Wingman“ am Einsatz einer großen Zahl potenziell autonomer Drohnen im Luftkampf gegen einen technologisch vergleichbar ausgestatteten Gegner; dieses Programm ist sehr umfangreich und bildet offenkundig das Kernstück des US-Konzepts für Luftoperationen.[14] Im Wesentlichen würde diese Klasse (potenziell bzw. optional) autonomer Waffensysteme aus unbemannten Kampfflugzeugen bestehen, die in der Lage sind, Flugzeuge innerhalb einer für den zivilen Verkehr gesperrten Luftraumzone anzugreifen, in der sich ausschließlich (befreundete oder feindliche) Militärflugzeuge befinden. Da den Besatzungen keine andere Möglichkeit zum Verlassen des Gefechts bleibt als der Absprung (in einem modernen Kampf- oder AWACS-Flugzeug gibt es keine Kapitulation, vor allem nicht im radargestützten Luftkampf[15], gibt es in diesem Raum per definitionem keine Nichtkombattanten; Besatzungen nicht befreundeter Flugzeuge, die in diesen Raum eindringen, können nicht fälschlich als Angriffsziel ausgewählt werden. Solange also das „Loyal Wingman“-AWS nur Luftziele innerhalb einer ausgewiesenen Gefechtszone angreift, gibt es keinen denkbaren Grund zur Annahme von Völkerrechtsverstößen. Ein Einsatz außerhalb einer solchen Zone, sei es durch eine Entscheidung des Kommandeurs oder eine Fehlfunktion, wäre höchstwahrscheinlich problematisch; doch gilt dies für jede Waffe, die auf ungeeignete Weise eingesetzt wird.

Zusammenfassend lässt sich sagen, dass die Beweislast für die Völkerrechtskonformität von AWS bzw. deren Übereinstimmung mit den Grundsätzen des ius in bello den Verbotsgegnern obliegt. In Bezug auf die Rechtmäßigkeit und ethische Vertretbarkeit des Einsatzes jedes einzelnen AWS ist diese Last in der Tat beträchtlich; in einer a prioriphilosophischen Diskussion ist sie jedoch sehr gering und leicht zu erfüllen.[16] Tatsächlich haben einige prominente Verbotsbefürworter dies bereits anerkannt[17] und versucht, den Schwerpunkt der Debatte auf andere Argumente zu verlagern. Diesen wenden wir uns im Folgenden zu.

Die Frage der Beweislast bei anderen Argumenten der Verbotsbefürworter

Es gibt zahlreiche Argumente gegen AWS, die sich nicht auf das HVR beziehen. Was die Beweislastverteilung anbelangt, sind diese jedoch alle ähnlich gelagert. Wie bereits erwähnt, beziehen sich die Argumente, die auf dem HVR basieren, auf Verhaltensregeln im Krieg. Diese haben Erwägungen der militärischen Notwendigkeit, also legitime Belange der Landesverteidigung, bereits zum Gegenstand. Sofern nicht die seltenen Bedingungen des sogenannten „äußersten Notfalls“ vorliegen[18], ergibt es somit keinen Sinn zu sagen, die militärische Notwendigkeit gebiete einen Verstoß gegen das HVR. Denn damit würden diese spezifischen Belange doppelt gewichtet. Diese Logik gilt jedoch nicht für anders geartete Argumente gegen AWS. Erwägungen der militärischen Notwendigkeit können und sollten hier gegen die dargestellten Nachteile von AWS abgewogen werden.

Der militärische Wert von AWS bleibt in gewissem Maße spekulativ, insbesondere im Hinblick auf bestimmte Typen von AWS – allerdings erscheint er auch nicht ungewisser als jede andere Vorhersage zur zukünftigen Entwicklung von Technologien. Wenn es gelingt, ausreichend robuste und zuverlässige AWS zu entwickeln – was noch empirisch zu ermitteln bleibt –, werden diese ihren Anwendern mit ziemlicher Sicherheit einen erheblichen militärischen Vorteil verschaffen. Einfach ausgedrückt bieten AWS die Möglichkeit, sämtliche menschliche Beschränkungen in taktischen Gefechten zu überwinden. Billiger, einfacher einzusetzen, präziser, schneller, mit einem höheren Grad an Einsatzbereitschaft, ultimativ erweiterbar und dennoch mit der Aussicht auf perfekten Fähigkeitserhalt in den gesamten Streitkäften – AWS würden alle diese Eigenschaften synergetisch auf sich vereinen und somit menschliche Kombattanten oder Drohnenbediener übertreffen. Sicherlich müssen diese Eigenschaften nicht von jedem einzelnen AWS erfüllt werden. Dennoch müsste dies das logische Ergebnis jeglicher kompetenter, ordentlich finanzierter, langfristiger Forschungs- und Entwicklungsanstrengungen sein – genauso wie die Bemühungen um die Entwicklung des Automobils logischerweise dazu führten, dass man schneller war als Pferdekutschen. Wir können daher davon ausgehen, dass der Einsatz von AWS einen bedeutenden militärischen Vorteil darstellt, der mindestens dem des Drohneneinsatzes entspricht. Diese Annahme erscheint mir aus mehreren Gründen gerechtfertigt, insbesondere deshalb, weil die gesamte AWS-Debatte andernfalls ihre Bedeutung verliert.[19]

Dass etwas einen militärischen Vorteil verschafft, selbst einen bahnbrechenden, stellt kein ethisches Kriterium dar. Sich gegen einen solchen Vorteil zu entscheiden, hat jedoch ethische Implikationen, da sowohl militärische als auch zivile Verantwortliche verpflichtet sind, ihre Bürger wirksam gegen plausible Sicherheitsbedrohungen zu verteidigen. Die Ablehnung einer bahnbrechenden Militärtechnologie ohne triftigen Grund verstößt gegen diese Pflicht. Dass die vermeintlich fehlende Konformität der AWS mit dem HVR einen solchen Grund darstellen würde, ist zumindest dem ersten Anschein nachunumstritten – das HVR ist Ausdruck eines gut verankerten moralischen Konsenses. Die sonstigen Gründe für die Ablehnung von AWS sollten ähnlich unumstritten sein – das heißt, sie sollten auf allgemein anerkannten Werten und soliden Annahmen beruhen. Es ist an den Verbotsbefürwortern, solche Gründe zu liefern. Um zu begreifen, weshalb ein weniger gewichtiges Argument nicht ausreicht, muss man verstehen, wie grundlegend die Pflicht einer Regierung zum Schutz ihrer Bürger aus ethischer Perspektive ist.

In westlichen Ländern, deren Sicherheit kaum offenkundig bedroht ist, ist es in gewisser Weise Mode, den staatlichen Sicherheitsapparat ähnlich zu betrachten wie einen Tabakkonzern – als verachtenswerte Institution, die mit menschlichen Lastern Geschäfte macht. Aus diesem Blickwinkel dürfte eine Verringerung der militärischen Fähigkeiten eines Landes begrüßt und ihr Ausbau mit Misstrauen betrachtet werden. Dabei handelt es sich jedoch um den zutiefst unseriösen Versuch, die politische, gesellschaftliche und moralische Rolle des Sicherheitsapparats in einer liberalen Demokratie zu beschreiben. Eine funktionierende Judikative und Exekutive ist für jeden Staat das erste und einzige Mittel zur Verwirklichung der grundlegenden Menschenrechte seiner Bürger. Weltweit herrscht ein beispielloser ethischer Konsens darüber, dass diese paradigmatischen Grundrechte absolut unerlässlich für jegliche menschliche Entfaltung sind.[20] Menschenrechte können jedoch einzig durch mehrere Institutionen verwirklicht, also geschützt und gewährleistet werden, die gemeinsam eine Reihe von Machtbefugnissen ausüben, welche wir als Attribute staatlicher Souveränität bezeichnen, etwa das Gewaltmonopol oder das Recht, Steuern zu erheben.[21] Jede Verletzung der Souveränität hat direkte und schwerwiegende Auswirkungen auf die Fähigkeit eines Staates, die grundlegenden Menschenrechte zu schützen und zu fördern, was einer Verletzung ebenjener Rechte gleichkommt. Dies verleiht der Fähigkeit, die Souveränität über das Staatsgebiet durchzusetzen und aufrechtzuerhalten – also der militärischen Fähigkeit –, einen sehr hohen ethischen Wert, vorausgesetzt, sie wird von einer Regierung ausgeübt, die ihre Pflicht zur Achtung und Förderung der Menschenrechte nicht vernachlässigt.

Diese Fähigkeit ist umso wichtiger für Regierungen, die sich einer aktiven Bedrohung ihrer Souveränität gegenübersehen. Die Ukraine, Taiwan und Südkorea stehen beispielhaft für Regierungen – und Gesellschaften – in dieser Situation. Es liegt auf der Hand, dass ausschließlich die militärische Handlungsfähigkeit dieser Staaten und ihrer Verbündeten verhindert, dass sie vernichtet und ihre Bürgerinnen und Bürger schweren, umfassenden Menschenrechtsverletzungen ausgesetzt werden. Den Ukrainern, Taiwanern oder Südkoreanern zu sagen, dass sie eine bestimmte militärische Fähigkeit nicht weiterentwickeln sollen, kommt der Aufforderung gleich, sich erheblichen Risiken auszusetzen – und damit liegt die Beweislast bei demjenigen, der diese Forderung stellt.

Die Umstände in der Ukraine oder in Südkorea bilden hier keine Ausnahme. Viele andere Länder schrecken plausible militärische Bedrohungen ausschließlich oder hauptsächlich durch ihre Wehrfähigkeit ab. Dass dies nicht sofort offensichtlich ist, liegt nicht daran, dass es keine solchen Bedrohungen gäbe, sondern daran, dass die entsprechenden Fähigkeiten äußerst robust sind. Wieder andere Länder verdanken ihren Frieden ganz oder teilweise den Anstrengungen, die ihre Verbündeten zu ihrem Schutz unternehmen. Wer von diesen Ländern verlangt, eine potenziell transformative Militärtechnologie nicht voranzutreiben, verlangt von ihnen, ein Risiko einzugehen. Es bedarf daher eines gewichtigen Grundes, um ein solches Opfer zu rechtfertigen.

Dabei ist festzuhalten, dass die Verteilung – oder Übernahme – der Beweislast die Diskussion in keiner Weise präjudizieren soll, ebenso wie es keine ungerechtfertigte Benachteiligung der Verbotsgegner bedeutet, dass ihnen die Nachweispflicht in puncto Völkerrechtskonformität obliegt. Allerdings müssen die vorgebrachten Argumente gut formuliert, hinreichend konkret und stichhaltig sein sowie auf allgemein akzeptierten – auch axiologischen – Prämissen beruhen. Das Recht, Sicherheit durch Wehrfähigkeit zu erreichen, ist ein allgemein anerkanntes Recht. Gründe, die gegen dieses Recht angeführt werden, müssen dieselbe Qualität aufweisen.

Ein ernsthafter Versuch, Einwände gegen die moralische Vertretbarkeit des Einsatzes von AWS vorzubringen, sollte auch die Anwendung von Kriterien umfassen, die für alle anderen Waffenkategorien gelten können.[22] Die Normen des HVR sind hierfür beispielhaft. Die Auswirkungen einer Waffenkategorie auf die strategische Stabilität können eine weitere Grundlage für eine ethische Bewertung bilden. Könnte der Einsatz dieser Waffe zu einer nicht mehr beherrschbaren Disruption führen? Zu Recht wird diese Frage häufig bei verschiedenen Systemen gestellt. Andererseits wird die Frage, ob diese oder jene Waffe ehrenhaft geführt werden kann, derzeit zwar in Bezug auf AWS[23] aufgeworfen, nicht aber für andere Waffensysteme. Hier wird mit anderen Worten mit zweierlei Maß gemessen, was zu weiteren absehbaren Problemen führt. Da dieses Kriterium nicht Ergebnis eines universellen Konsenses und kontinuierlicher Übung ist, halten sehr wahrscheinlich kulturabhängige Normen oder sogar individuelle Eigenheiten in die Debatte Einzug.

Zusammenfassend lässt sich sagen, dass Argumente gegen AWS, die sich nicht auf das HVR beziehen, eine erhebliche Beweispflicht erfüllen müssen. Denn auf ihrer Grundlage werden Regierungen, die sich ernsthaften militärischen Bedrohungen gegenübersehen, nachdrücklich aufgefordert, auf eine Militärtechnologie mit potenziell transformativer Wirkung zu verzichten. Solche Argumente müssen sich auf Werte und Belange berufen, die ebenso universell und substanziell sind wie die Belange der Landesverteidigung und die gleichzeitig in Bezug auf andere Waffenkategorien geltend gemacht werden können. Trifft dies auch auf andere Argumente der Verbotsbefürworter zu?

Schwere Last, wacklige Fundamente

Die gegen AWS ins Feld geführten Argumente lassen sich grob in drei Kategorien einteilen[24], von denen wir eine bereits erörtert haben. Der zweite Ansatz legt den Schwerpunkt auf langfristige Probleme, die durch eine Proliferation von AWS entstehen könnten, etwa die befürchtete weltweite Zunahme bewaffneter Konflikte oder ein Fähigkeitszuwachs terroristischer Gruppen und/oder autoritärer Staaten.[25] Die dritte Kategorie kann dagegen als „nicht konsequentialistisch“ (Sharkey spricht von „deontologischen Argumenten“) bezeichnet werden. Sie gehen davon aus, dass der Einsatz von AWS auf eine Weise schädlich sei, die in den Bedenken hinsichtlich ihrer Auswirkungen auf Sicherheit und Wohlergehen von Menschen nach üblichem Verständnis nicht zum Ausdruck komme. In diesem letzten Abschnitt werde ich kurz erörtern, inwieweit die beiden letztgenannten Argumentationen die ihnen zukommende Beweispflicht erfüllen.

Die vier schwerwiegendsten strategischen Bedenken sind die befürchteten Auswirkungen der Nutzung von AWS auf die Häufigkeit bewaffneter Konflikte[26] und ihre Auswirkungen auf die globale strategische Stabilität einschließlich des nuklearen Gleichgewichts[27], die Verbreitung von AWS an nicht staatliche Akteure einschließlich terroristischer Gruppierungen[28] sowie die negativen Auswirkungen ihres Einsatzes durch autoritäre und totalitäre Regime[29]. Diese Argumente sind zwar unterschiedlich, haben aber alle dieselben Werte zum Gegenstand wie die Normen des HVR und das aus dem Recht auf Landesverteidigung abgeleitete Argument für AWS: Ihr Ziel ist die Abwendung von Verletzungen durch physische Gewalt bzw. von Unterdrückung durch die Androhung von Gewalt. Ob diese Bedenken berechtigt sind oder nicht, sei dahingestellt – in jedem Fall beziehen sie sich auf Ziele von essenzieller Bedeutung. Wer sich um nukleare Stabilität oder eine Zunahme des Terrorismus sorgt, wird kaum das Argument akzeptieren, diese Themen seien im Kontext der AWS-Debatte irrelevant. Somit erfüllen diese strategischen Belange, sowohl einzeln als auch in ihrer Gesamtheit, eindeutig die im vorangegangenen Abschnitt erörterten Metastandards der Konkretheit und Relevanz.

Dem damit einhergehenden Standard der Stichhaltigkeit werden sie allerdings kaum gerecht. Das Argument der nuklearen Stabilität schneidet hier noch am besten ab, da die Szenarien eines absichtlichen oder versehentlichen Einsatzes von AWS gegen nukleare Abschreckungswaffen sowohl plausibel als auch zutiefst besorgniserregend sind. Fraglich ist jedoch, ob eine allgemeine Ächtung von AWS notwendig ist, um diesen Bedenken Rechnung zu tragen, da nur bestimmte Arten von AWS eine Bedrohung für die nukleare Abschreckungsfähigkeit darstellen könnten. 

Dieses Problem stellt sich noch wesentlich gravierender beim Doppelargument der Weiterverbreitung an terroristische Akteure und autoritäre Regime. Selbstverständlich wären die Folgen katastrophal – aber eine weltweite Ächtung ist offenbar weder notwendig noch ausreichend, um sie auszuschließen. Sowohl terroristische Anschläge als auch autoritäre Unterdrückung sind schließlich nach geltendem Völkerrecht bereits jetzt unrechtmäßig. Die Verabschiedung eines weiteren Abkommens wird kaum etwas am Verhalten von Akteuren ändern, die bereits per definitionem rechtliche und ethische Normen ablehnen und sich den Bemühungen zur Durchsetzung dieser Normen erfolgreich entziehen. Außerdem besteht kein ursächlicher Zusammenhang zwischen der Entwicklung hochmoderner, HVR-konformer und für die Erfüllung staatlicher Sicherheitsaufgaben geeigneter AWS (oder auch deren Ablehnung) durch demokratisch legitimierte Regierungen und der Produktion technisch simpler Killerroboter durch autoritäre Kräfte oder Terroristen, welche ausschließlich für Angriffe auf wehrlose Zivilisten geeignet sind.

Was die Bedenken hinsichtlich einer Zunahme kriegerischer Auseinandersetzungen anbelangt, so scheinen diese auf der Annahme zu beruhen, Zurückhaltung hänge entscheidend von der Verlusttoleranz ab. Tatsächlich werden Akteure mit einer niedrigen Verlusttoleranz aber durch eine Reihe anderer Faktoren zurückgehalten, während Akteure mit einer hohen Verlusttoleranz gar nicht betroffen wären. Ferner könnte der Standpunkt vertreten werden, nicht die Häufigkeit bewaffneter Konflikte, sondern die Häufigkeit zwischenstaatlicher Aggression und innerstaatlicher Unterdrückung solle im Mittelpunkt der Bedenken stehen. Der Einsatz von AWS könnte auch als – wenngleich derzeit noch unausgereifte – Reaktion auf diese bedrohlichen Phänomene gewertet werden.

Es würde den Rahmen dieses Artikels sprengen, auch nur eines, geschweige denn alle dieser strategischen Bedenken eingehend zu erörtern. Ich kann hier nur auf einige schwerwiegende Probleme hinweisen, die entstehen, wenn diese – generell durchaus legitimen – Einwände eine spezifische politische Lösung, also ein Verbot von AWS, begründen sollen. Auch wenn dieser Ansatz aus Sicht der Verbotsbefürworter den wohl vielversprechendsten darstellt, ist die damit verbundene Beweislast mit den überwiegend unausgereiften Argumenten eindeutig nicht erfüllt.

Selbst vor diesem Hintergrund aber erscheinen die konsequentialistischen Argumente gegen AWS im Vergleich zu ihren nicht konsequentialistischen Entsprechungen solide und sorgfältig unterfüttert. Hierzu gehören die Kritik an der vermeintlichen Willkürlichkeit der Zielauswahl durch AWS[30], die Forderung, einen Anschein von Fairness im Gefecht oder in der Kriegsführung zu wahren[31], sowie die Aussage, der Einsatz von AWS verletze die Würde der gegnerischen Kombattanten. Das erste Argument ist das schwächste. Es setzt entweder voraus, dass AWS unmöglich völkerrechtskonform sein können – dann ließe es sich auf ein HVR-bezogenes Argument reduzieren –, oder aber es setzt dies nicht voraus. Im letzteren Fall sehen wir uns mit der verwirrenden Behauptung konfrontiert, ein im Rahmen des HVR durchgeführter Angriff sei gleichwohl willkürlich, obwohl ein Angriff auf einen Kombattanten, weil er ein Kombattant ist, ex hypothesi bereits das Unterscheidungsgebot erfüllt. Im Weiteren ließe sich sogar folgende Meinung vertreten: Mitmenschen zum Ziel tödlicher Gewalt zu machen, nur weil sie Teil einer organisierten militärischen Unternehmung mit dem Ziel der Tötung und Unterwerfung anderer Menschen sind, sei eine beklemmende Vorstellung. Dies wäre allerdings ein Argument gegen den Krieg als solchen und nicht speziell gegen AWS.

Das Fairness-Argument ist ironischerweise ähnlich unfair – und ähnlich fehlgeleitet. Wenn jemand zur berechtigten Verteidigung seiner selbst oder anderer kämpft, ist es nicht nur nicht verpflichtend, dem Feind einen fairen Kampf anzubieten, sondern sogar moralisch falsch. Gibt es keine gute Rechtfertigung für einen Kampf, ist die Handlung als solche schon falsch, unabhängig davon, ob der Kampf fair ist oder nicht. Ein Angriff wird nicht dadurch gerechtfertigt, dass Angreifer und Opfer tatsächlich gleich stark sind; das Opfer eines Angriffs ist nicht verpflichtet, dem Täter eine Chance auf Sieg einzuräumen.

Was die verschiedenen Argumente rund um das Thema Menschenwürde angeht, so werden diese zwar häufig angeführt[32], ohne jedoch darzulegen, in welcher Weise völkerrechtskonforme AWS die Würde der anvisierten feindlichen Kombattanten verletzen könnten[33]. Gegnerische Kombattanten im Einklang mit dem HVR zu behandeln, bedeutet in Anbetracht der Tatsache, dass diese sich aktiv am Versuch beteiligen, ihre Gegner zu töten, schließlich nichts anderes, als den ihnen innewohnenden Wert als menschliche Wesen (also ihre Menschenwürde)so weit wie möglich zu respektieren. Zu postulieren, dass man über die Einhaltung des HVR hinausgehen sollte, indem man beispielsweise Gnade walten ließe[34], käme der Begünstigung feindlicher Kombattanten auf Kosten der Gefährdung anderer Menschen gleich, darunter auch der Nichtkombattanten. Dies ist moralisch inakzeptabel. Ohne die Nennung einer konkreten Pflicht gegenüber feindlichen Kombattanten, die durch den Einsatz von AWS verletzt würde, fehlt jeglicher Beleg für die Behauptung, ihre Menschenwürde werde missachtet. Außerdem drängt sich der Eindruck auf, dass die behauptete Verletzung der Menschenwürde der Kombattanten sich auf Szenarien bezieht, in denen gegen das HVR verstoßen wird, bzw. dass sie auf Beziehungen und Einstellungen der Kombattanten zueinander fußt, die diese nicht haben und die man von ihnen auch nicht verlangen kann.[35]

Fazit

Die Betrachtung der nicht konsequentialistischen Argumente zeigt, warum eine Verteilung der Beweislast in der AWS-Debatte sinnvoll ist. Wie in jeder Debatte ist es möglich, eine Reihe von unzureichend begründeten und zunehmend idiosynkratischen Argumenten vorzubringen. Diese a prioriabzulehnen, wäre falsch; man kann nicht im Voraus wissen, ob ein Argument, das auf den ersten Blick idiosynkratisch erscheint, sich schlussendlich durchsetzen wird. Es ist allerdings ebenso falsch zu glauben, man könne ein überzeugendes ethisches Plädoyer gegen AWS allein darauf aufbauen, dass diverse Appelle zur Einhaltung nicht allgemeingültiger Werte oder auf wackligen Prämissen beruhende Argumente existieren.

Die Verbotsgegner haben die beträchtliche Last des Nachweises zu tragen, dass sämtliche autonome Waffensysteme völkerrechtskonform eingesetzt werden können. Sie müssen Test- und Verifizierungsmethoden entwickeln, die geeignet sind, diese Frage abschließend zu beantworten. Diesen Nachweis müssen sie erst noch führen, insbesondere in Bezug auf ethisch problematischere Einsatzbedingungen. Ferner haben sie plausibel darzulegen, dass die Einhaltung des HVR theoretisch möglich und die entsprechende Forschungstätigkeit somit gerechtfertigt ist. Meines Erachtens ist Letzteres bereits erfolgt.

Abgesehen von Fragen der Konformität mit dem HVR können die Verbotsgegner auf plausible Vorteile der Entwicklung autonomer Waffensysteme verweisen und diese in Form allgemein akzeptierter Werte und Rechte benennen. Die Verbotsbefürworter müssen ebenso triftige Gründe gegen den Einsatz von AWS vorbringen. Obwohl ihre konsequentialistischen Argumente bislang nicht verfangen, sprechen sie dennoch gewichtige Bedenken an, die einer Regulierung bedürfen. Im Gegensatz dazu sind die nicht konsequentialistischen Argumente gegen AWS entweder fehlerbehaftet bzw. lassen sich auf andere Argumente reduzieren, oder sie können keinen stichhaltigen Zusammenhang zwischen dem Einsatz autonomer Waffensysteme und konkret greifbaren schädlichen Folgen herstellen.

Die Schlussfolgerung liegt auf der Hand: Konkretere und enger gefasste Kritikpunkte vonseiten der Verbotsbefürworter würden eine größere Überzeugungskraft entfalten. Daran sollten sie arbeiten – und die Verbotsgegner sollten sie sich sorgfältig anhören. Schließlich ist es unser gemeinsames Ziel, die Debatte in die Richtung praktisch umsetzbarer Lösungen zu lenken, die der Menschheit insgesamt zugutekommen.

 


[1] Das IKRK hat AWS als robotische Waffensysteme definiert, die „ohne menschliches Eingreifen Ziele auswählen und mit Gewalt angreifen. Nach Erstaktivierung oder Start durch eine Person initiiert ein autonomes Waffensystem als Reaktion auf Informationen aus der Umgebung, die es über Sensoren und ausgehend von einem verallgemeinerten ‚Zielprofil‘ erhält, selbsttätig einen Angriffsschlag bzw. löst einen solchen aus.“ An diese Definition halte ich mich. (Übersetzung aus dem Englischen; vgl. International Committee of the Red Cross (2021): ICRC position on Autonomous Weapon Systems and Background Paper, May 17th., S. 2. https://www.icrc.org/en/document/icrc-position-autonomous-weapon-systems. Stand aller Internetquellen: 22. April 2024.)

[2] Anm. d. Red.: Im Original verwendet der Autor „prohibitionists“ und „permissivists“, was im Folgenden als „Verbotsbefürworter“ bzw. „Verbotsgegner“ wiedergegeben wird. Gerade im letzteren Fall ist es wichtig zu wissen, dass viele Gegner eines generellen Verbots von AWS die Zulassung solcher Systeme durchaus an Bedingungen knüpfen – wie der Autor im Weiteren auch ausführt.

[3] Amoroso, Daniele (2020): Autonomous Weapons Systems and International Law: A Study on Human-Machine Interactions in Ethically and Legally Sensitive Domains. Neapel, S. 250-256; Jones, Isabelle (2021): Historic opportunity to regulate killer robots fails as a handful of states block the majority. Campaign to Stop Killer Robots press release, 17. Dezember. https://www.stopkillerrobots.org/news/historic-opportunity-to-regulate-killer-robots-fails-as-a-handful-of-states-block-the-majority/; Moyes, Richard (2019): Critical Commentary on the ‘Guiding Principlesʼ. Article 36, November. article36.org/wp-content/uploads/2019/11/Commentary-on-the-guiding-principles.pdf.

[4] Arkin, Ronald et al. (2019): Autonomous Weapon Systems, a Roadmapping Exercise. Georgia Tech Robot Laboratory Online Publications, 9. September. www.cc.gatech.edu/ai/robot-lab/online-publications/AWS.pdf.

[5] S. Endnote 4.

[6] Baker, Deane (2022): Should We Ban Killer Robots? Cambridge, Medford, MA, S. 96-99.

[7] Zuweilen öffentlich (vgl. Sparrow, Robert (2023): A military-philosophical complex. In: Metascience 32, S. 421-424. https://doi.org/10.1007/s11016-023-00902-4), häufiger jedoch inoffiziell.

[8] „Bei der Beweislast geht es eben gerade um die Verbindung zu konkreten praktischen Ergebnissen“: Hahn, Ulrike, und Mike Oaksford (2007): The burden of proof and its role in argumentation. In: Argumentation 21, S. 39-61, S. 42. „Häufig müssen wir nicht auf der Grundlage schlüssiger Beweise entscheiden und handeln, sondern auf der Grundlage dessen, was man vernünftigerweise als wahr annehmen kann“ (Übersetzung aus dem Englischen): Räikkä, Juha (2005): Global Justice and the Logic of the Burden of Proof. In: Metaphilosophy 36.1-2, S. 228-239, S. 228. ((Übersetzungen aus dem Englischen.)

[9] Dare, Tim, und Justine Kingsbury (2008): Putting the burden of proof in its place: When are differential allocations legitimate? In: The Southern Journal of Philosophy 46.4, S. 503-518, S. 503-509.

[10] Dinstein, Yoram (2016): The Conduct of Hostilities under the Law of International Armed Conflict, Third Edition. Cambridge, S. 8-10; Melzer, Nils (2016): International Humanitarian Law: a Comprehensive Introduction. Genf: Internationales Komitee vom Roten Kreuz, S. 17-18.

[11] Boothby, William H. (2014): Conflict law: the influence of new weapons technology, human rights and emerging actors. Berlin, Heidelberg, S. 168-176. (Übersetzung aus dem Englischen.)

[12] Zając, Maciej (2022): Autonomous Weapon Systems from Just War Theory Perspective. Dissertation an der Universität Warschau, S. 158-161; Anderson, Kenneth, and Matthew C. Waxman (2017): Debating Autonomous Weapon Systems, their Ethics, and their Regulation under International Law. In: Brownsword, Roger, Eloise Scotford, and Karen Yeung (Hg.): The Oxford Handbook of Law, Regulation and Technology. Oxford, S. 1097-1117; Burri, Susanne (2018): What is the moral problem with killer robots? In: Strawser, Bradley, Ryan Jenkins and Michael Robillard (Hg.): Who Should Die? The Ethics of Killing in War. New York, S. 163-185, S. 178; Lin, Patrick, George Bekey, and Keith Abney (2008): Autonomous military robotics: Risk, ethics, and design. California Polytechnic State University San Luis Obispo, S. 71; Lucas Jr., George R. (2011): Industrial challenges of military robotics. In: Journal of Military Ethics 10.4, S. 274-295; Wood, Nathan Gabriel (2020): The problem with killer robots. In: Journal of Military Ethics 19.3, S. 220-240, S. 221.

[13] Zu ersten Versuchen, Grundlagen für solche Arbeiten zu schaffen, s. Haugh, Brian A., David A. Sparrow, und David M. Tate (2018): Status of Test, Evaluation, Verification, and Validation (TEV&V) of Autonomous Systems. Institute for Defense Analyses. apps.dtic.mil/sti/trecms/pdf/AD1118676.pdf; Meier, Michael W. (2016): Lethal autonomous weapons systems (laws): conducting a comprehensive weapons review. In: Temple International and Comparative Law Journal 30, S. 119-132; Verbruggen, Maaike (2022): No, not that verification: Challenges posed by testing, evaluation, validation and verification of artificial intelligence in weapon systems. In: Reinhold, Thomas und Niklas Schörnig (Hg.): Armament, Arms Control and Artificial Intelligence: The Janus-faced Nature of Machine Learning in the Military Realm. Cham, S. 175-191.

[14] Trevithick, Joseph (2024): Everything New We Just Learned About The Collaborative Combat Aircraft Program. In: The War Zone, 23. Februar. www.twz.com/air/collaborative-combat-aircraft-poised-to-reshape-the-air-force.

[15] Engl. beyond visual range, abgek. BVR (Anm. d. Red.).. Eine Kapitulation von Luftfahrzeugen per Funk (Dinstein, Yoram (2016), s. Endnote 9, S. 133-34) oder mittels anderer Methoden (De Preux, Jean (1987): Article 41 - Safeguard of the enemy hors de combat. In: Pilloud, Claude et al. (Hg.): Commentary on the additional protocols of 8 June 1977 to the Geneva Conventions of 12 August 1949. Genf, S. 479-492, S. 487) mag bei verbotenen Passagier- oder Transportflugzeugen praktikabel sein, nicht jedoch in Gefechten hochmoderner BVR-Jets.

[16] Der Grund, warum so viele Verbotsbefürworter dies nicht sehen, ist die übermäßige Konzentration auf ethisch komplexe Szenarien der Aufstandsbekämpfung unter Ausschluss verschiedener anderer Gefechtsumgebungen und -aufgaben (Brenneke, Matthias (2020): Lethal Autonomous Weapon Systems and Their Compatibility with International Humanitarian Law: A Primer on the Debate. In: Yearbook of International Humanitarian Law, Band 21 (2018). Den Haag, S. 59-98, S. 68; Foy, James (2014): Autonomous Weapons Systems: Taking the human out of international humanitarian law. In: Dalhousie Journal of Legal Studies 23, S. 47-70, S. 55; Geiss, Robin, und Henning Lahmann (2017): Autonomous weapons systems: a paradigm shift for the law of armed conflict? In: Ohlin, Jens David (ed.): Research Handbook on Remote Warfare. Cheltenham, Northampton, MA, S. 371-404, S. 395).

[17] Sparrow, Robert (2016): Robots and respect: Assessing the case against autonomous weapon systems. In: Ethics & International Affairs 30.1, S. 93-116, S. 105; Rosert, Elvira, und Frank Sauer (2021): How (not) to stop the killer robots: A comparative analysis of humanitarian disarmament campaign strategies. In: Contemporary Security Policy 42.1, S. 4-29, S. 14.

[18] Orend, Brian (2013); The Morality of War. Second Edition Expanded and Updated. Peterborough, S. 153-171; Walzer, Michael (1982): Gibt es den gerechten Krieg? Stuttgart, S. 358-382.

[19] Ich bin von der dieser Annahme zugrunde liegenden Logik überzeugt – ebenso wie andere (Collins, Liam und Harrison „Brandon“ Morgan (2020): Affordable, Abundant and Autonomous: The Future of Ground Warfare. War on the Rocks, 21. April 2020. warontherocks.com/2020/04/affordable-abundant-and-autonomous-the-future-of-ground-warfare/; Etzioni, Amitai, und Oren Etzioni (2017): Pros and Cons of Autonomous Weapons Systems. In: Military Review May-June, S. 72-81, S. 72-73; Hurst, Jules (2017): Robotic swarms in offensive maneuver. In: Joint Force Quarterly 87.4, S. 105-111; O’Neill, Paul, Sam Cranny-Evans und Sarah Ashbridge (2024): Assessing Autonomous Weapons as a Proliferation Risk. Royal United Services Institute, Februar, S. 7. static.rusi.org/future-laws-occasional-paper-feb-2024.pdf; Watts, Sean (2016): Autonomous Weapons: Regulation tolerant or regulation resistant. In: Temple International and Comparative Law Journal 30, S. 177-186, S. 178-180). Darüber hinaus wurde sie meines Wissens nie von einer prominenten Publikation von Verbotsbefürwortern infrage gestellt.

[20] Orend, Brian (2002): Human Rights: Concept and Context. Peterborough, S. 33-34. Einem berühmten Ausspruch zufolge wollen Menschen jene Rechte, gleich, was sie sonst noch wollen (Nickel, James (2008): Making Sense of Human Rights. Zweite Auflage. Malden, S. 10-11).

[21] Buchanan, Allen E. (2004): Justice, legitimacy, and self-determination: Moral foundations for international law. Oxford.

[22] Baker, Deane (2022), s. Endnote 6, S. 45-46; Heller, Kevin (2023): The Concept of ‘The Human’ in the Critique of Autonomous Weapons. In: Harvard National Security Journal 15, S. 1-76, S. 9-17.

[23] Johnson, Aaron M., und Sidney Axinn (2013): The morality of autonomous robots. In: Journal of Military Ethics 12.2, S. 129-141, S. 135 f.

[24] Sauer, Frank (2020): Stepping back from the brink: Why multilateral regulation of autonomy in weapons systems is difficult, yet imperative and feasible. In: International Review of the Red Cross 102.913, S. 235-259; Sharkey, Amanda (2018): Autonomous weapons systems, killer robots and human dignity. In: Ethics and Information Technology 21.2, S. 75-87, S. 78.

[25] Frank Sauer nennt diese „strategische Implikationen“, während Amanda Sharkey von „konsequentialistischen Gründen“ spricht. 

[26] Sauer, Frank (2020), s. Endnote 24, S. 249-251.

[27] Sauer, Frank (2020), s. Endnote 24, S. 251-252.

[28] Kwik, Jonathan (2022): Mitigating the Risk of Autonomous Weapon Misuse by Insurgent Groups. In: Laws 12.1, S. 5. doi.org/10.3390/laws12010005.

[29] Asaro, Peter (2012): On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decision-making. In: International Review of the Red Cross 94.886, S. 687-709. Obwohl die beiden letztgenannten Bedenken zu den bedeutsamen und frühzeitig geäußerten Bedenken gehören, waren sie bisher in erschreckend geringem Maße Gegenstand von Forschungsarbeiten.

[30] Asaro, Peter (2012), s. Endnote 29, S. 697-700; Heyns, Christof (2017): Autonomous weapons in armed conflict and the right to a dignified life: an African perspective. In: South African Journal on Human Rights 33.1, S. 46-71, S. 57-60.

[31] Johnson, Aaron M., und Sidney Axinn (2013), s. Endnote 23; Killmister, Suzy (2018): Remote Weaponry: The ethical implications. In: Journal of Applied Philosophy 25.2, S. 121-133.

[32] Heyns, Christof (2016): Autonomous weapons systems: Living a dignified life and dying a dignified death. In: Bhuta, Nehal et al. (Hg.): Autonomous Weapons Systems: Law, Ethics, Policy. Cambridge, S. 3-20; Docherty, Bonnie Lynn, et al. (2018): Heed the Call: A Moral and Legal Imperative to Ban Killer Robots. Human Rights Watch. https://www.hrw.org/sites/default/files/report_pdf/arms0818_web.pdf; Rosert, Elvira, und Frank Sauer (2019), s. Endnote 17; Sparrow, Robert (2016), s. Endnote 17, S. 110-112.

[33] Birnbacher, Dieter (2016): Are Autonomous Weapons Systems a Threat to Human Dignity? In: Bhuta, Nehal et al. (Hg.), s. Endnote 32, S. 105-121, S. 105-116.

[34] Zając, Maciej (2020): No Right To Mercy − Making Sense of Arguments From Dignity in the Lethal Autonomous Weapons Debate. In: Etyka 59 (1), S. 134-155.

[35] Heller, Kevin (2023), s. Endnote 22, S. 14-17.

Zusammenfassung

Maciek Zając

Maciek Zając, derzeit Postdoc im Rahmen eines Stipendiums des polnischen Nationalen Wissenschaftszentrums „Sonatina“, promovierte 2022 an der Universität Warschau in Philosophie. Seine Dissertation trug den Titel „Autonome Waffensysteme aus der Sicht der Theorie des gerechten Krieges“. Er hat unter anderem in den Zeitschriften „Ethics and Information Technology“, „Journal of Military Ethics“ und „Diametros“ über ethische Fragen im Zusammenhang mit AWS sowie über andere Themen der Militärethik veröffentlicht.


Download als PDF

Alle Artikel dieser Ausgabe

Wie geht es mit den Bemühungen um ein rechtsverbindliches Abkommen zu autonomen Waffensystemen weiter?
Catherine Connolly
Autonome Waffensysteme - zum Stand der internationalen Debatte
Andreas Bilgeri
Digitales Eskalationspotenzial: Wie agiert KI an den Grenzen der Vernunft?
Axel Siegemund
KI für das Militär braucht keine Sondermoral! Ein Zwischenruf zur Regulierung autonomer Waffensysteme
Erny Gillen
Menschenwürde und „autonome“ Robotik: Worin besteht das Problem?
Bernhard Koch
Die Beweispflicht in der Debatte um autonome Waffen – Warum die Verbotsbefürworter sie (noch) nicht erfüllt haben
Maciek Zając
Zuverlässigkeitsstandards für (autonome) Waffen: Der Mensch bleibt relevant
Nathan Wood
Gibt es ein Recht auf militärische Gewalt unterhalb der Schwelle zum Krieg? Neue Technologien und die Debatte um das ius ad vim
Bernhard Koch
„Meaningful Human Control“ und Komplexe Mensch-Maschine-Gefüge – Zu den Grenzen ethischer KI-Prinzipien im Kontext autonomer Waffensysteme
Jens Hälterlein, Jutta Weber
Menschlichkeit im Krieg? Die Bedeutung von „Meaningful Human Control“ für die Regulierung von autonomen Waffensystemen
Susanne Beck, Schirin Barlag
„Meaningful Human Control“ von autonomen Systemen
Daniel Giffhorn, Reinhard Gerndt
KI im Zeitalter des Misstrauens
Henning Lahmann

Specials

Ansgar Rieks, Wolfgang Koch ChatGPT