Zum Hauptinhalt springen

Menschenwürde und „autonome“ Robotik: Worin besteht das Problem?

Menschenwürde: Material oder formal?

In der angewandten und auch der politischen Ethik sind scharfe Dualismen oft gefährlich, weil die Schattierungen der Wirklichkeit vernachlässigt werden oder graduelle Stufungen untergehen. Aber heuristisch sind Dualismen oft sehr gewinnbringend. Eine philosophische Unterscheidung, die viele Debatten voranbringen könnte, wenn sie besser beachtet würde, ist die von Formalität und Materialität. Auch die Verwendung des vielschichtigen Ausdrucks der Menschenwürde kann mithilfe dieser Unterscheidung besser bestimmt werden: Menschenwürde kann formal verstanden sein, sodass man sie zwar für alle Menschen konstatiert, aber noch nichts dazu sagt, worin sie jeweils besteht; Menschenwürde kann aber auch material verstanden, also inhaltlich bestimmt sein. Meistens sind inhaltliche Bestimmungen relativ voraussetzungsreich. Wenn man sagt: Die Menschenwürde besteht darin, dass der Mensch als Ebenbild Gottes geschaffen wurde, so setzt man sowohl die Existenz Gottes voraus als auch einen Schöpfungsglauben. In beidem werden vermutlich nicht alle Menschen de facto zustimmen, selbst solche nicht, die die formale Existenz der Menschenwürde anerkennen. Dass der Mensch eine besondere Würde besitzt, ist offenkundig für viele Menschen zustimmungsfähig. Aber auch hier gibt es bei manchen Denkerinnen und Denkern Widerspruch, weil sie die These von einer besonderen Würde, die nur Menschen zukomme, für einen Anthropozentrismus halten, der in der Ethik überwunden werden müsse. Menschen sind zwar in zahlreichen Eigenschaften anders als Tiere, aber in noch mehr Eigenschaften sind sie ihnen gleich, und die unterschiedlichen Eigenschaften rechtfertigen – nach dieser Auffassung – nicht die radikale These, dass Menschen eine besondere Würde zukomme.

Die beachtlichen Eigenschaften von Tieren (zum Beispiel kognitive Leistungen oder das Vermögen, Schmerzen zu empfinden) sind es einerseits, die die These von der besonderen Menschenwürde für manche unter Druck bringen. Die mittlerweile beachtlichen Eigenschaften künstlicher maschineller Systeme haben andererseits für manche Philosophinnen und Philosophen ebenfalls die These einer besonderen Menschenwürde schwieriger zu vertreten gemacht. Es wird mittlerweile die moralische Zurechenbarkeit von maschinellen „Handlungen“ diskutiert, was auch Handlungsurheberschaft von Maschinen voraussetzt und damit schon dem sehr nahekommt, was manche als spezifisches, die Würde des Menschen begründendes Merkmal angesehen haben.

Empirie und „Sittlichkeit“

Aber nehmen wir für alles weitere an, dass wir uns über das formale Faktum der Menschenwürde einig sind: Menschen besitzen Menschenwürde, was nicht nur eine deskriptive, sondern auch eine normative Bedeutung hat, sodass sie für normative Schlüsse vorausgesetzt werden kann. Dann stellt sich die Frage, worin sie besteht, und es stellt sich weiterhin die Frage, ob sich die normativen Folgerungen, die aus der Menschenwürde gezogen werden können, anders ausfallen, wenn die materiale Bestimmung anders ausfällt. Hier scheint nun ein zweiter Dualismus wichtig zu werden, der für die ethische Diskussion insgesamt von fundamentaler Bedeutung ist: der zwischen den empirischen Eigenschaften eines moralisch zu qualifizierenden „Gegenstandes“, zum Beispiel einer Handlung oder einer Person, und der – nicht einfachhin in der empirischen Welt erkennbaren – „sittlichen“ (Kant) Qualität. Schon der Ausdruck „sittlich“ ist ungewöhnlich: Vielleicht kann man ohne große Verfeinerung einfach sagen: „Sittlich gut“ ist, was beansprucht wird, wenn in einer ethischen Überlegung etwas als „gut“ ermittelt wird. Die Ethik bestimmt in dieser Hinsicht das „sittlich Gute“, das nicht einfachhin mit dem in der faktischen Moral als „moralisch Gutes“ Bezeichneten identisch ist. Die faktisch gelebte und vertretene Moral kann hinsichtlich dessen, was „sittlich richtig“ ist, im Irrtum sein. Nicht immer wird sich der Irrtum gänzlich vermeiden lassen. Es kommt vor allem auf den Anspruch an. Oft werden wir keine definitive Klarheit über die sittliche Qualität einer Handlung und noch weniger einer Person haben, aber wir wissen doch, was wir beanspruchen, wenn wir von der sittlichen Qualität sprechen.

An Handlungen lässt sich dieser Unterschied recht leicht erläutern: Ein und derselbe physische Vorgang kann als Handlung und damit auch sittlich ganz unterschiedlich zu beurteilen sein: Alfred richtet die Waffe gegen Berta. Tut er es, um Berta auszurauben, oder tut er es, um Berta ihrerseits von einem Angriff auf Christian abzuhalten? Empirisch hat es vielleicht die gleiche Gestalt, aber der intentionale Unterschied macht daraus unterschiedliche Handlungen (in einer philosophischen Handlungstheorie), die auch unterschiedlich bewertet werden. Die sittlichen Eigenschaften der Handlung können wir aber nicht einfach empirisch erkennen, sondern wir nehmen bestimmte Hinweise aus dem Kontext, um die Intention zu bestimmen. Es ist nicht ausgeschlossen, dass wir uns schlimm vertun: Wir gingen von einem Angriff aus, aber eigentlich – der Absicht des Handelnden nach – ging es um eine Rettung.

Immanuel Kant unterscheidet zwischen dem homo noumenon und dem homo phaenomenon[1]. Ein Mensch kann uns phänomenal, also in der Erfahrung (empirisch) erscheinen, aber diese Erscheinung ist kein definitiver Beleg dafür, was dieser Mensch in der „transempirischen“ (die Selbsterfahrung ausgenommen), sittlichen Welt tatsächlich ist. Ein Mensch mag als guter Mensch erscheinen und doch aus Absichten heraus handeln, die – wenn wir sie kennen würden – zeigten, dass es sich um keinen guten Menschen handelt. Und umgekehrt: Jemand wird als sittlich verdorben angesehen, muss vielleicht Ausgrenzung und Schande erfahren, aber man hat seine guten Absichten nicht erkannt und ihn daher verkannt.

Ist nun die Menschenwürde eine Eigenschaft des homo noumenon oder des homo phaenomenon? Es scheint, dass eine Hauptschwierigkeit in der ethischen Verwendung des Würdebegriffs eben genau darin liegt, dass der Begriff der Würde einmal auf den „sittlichen“ Menschen und ein andermal auf den empirischen, also mit den Sinnen erkennbaren Menschen bezogen wird. Die Klassiker der Philosophie, insbesondere wenn sie den sokratischen Schulen angehört haben, dachten, dass sich ein Mensch nur selbst um seine Würde bringen kann. Alles, was mit ihm gemacht wird – was er also nur erleidet – und was von anderen ausgeht, gehört ihm ja als die Person, die er ist, gar nicht an. Nur, was von ihm seinen Ursprung nimmt, was auf seine Absichten und Entschlüsse zurückzuführen ist, das beeinflusst die Weise, wie (quale) er ist – also seine Qualität und damit seine Würde. Das erscheint nun aber in anderer Hinsicht als ziemlich unbefriedigend: Wenn in Abu Ghraib Gefangene erst sexuell erregt und dann sogar auf Fotos bloßgestellt werden, dann wissen wir, dass dies Demütigen und Würdeverletzungen sind, obwohl sie dem Opfer nur von außen zugefügt wurden. Freilich haben diese Würdeverletzungen mit sozialen Konventionen zu tun: Jemand die Haare gänzlich abzuschneiden, ist in vielen Fällen keine Entwürdigung, aber bei Frauen in Frankreich kurz nach dem Zweiten Weltkrieg war es das.[2]

Fast immer liegen jedoch solchen Entwürdigungen Versuche zugrunde, Menschen auf ihr naturales Dasein zu reduzieren, und das in Bereichen, die kulturell überformt sind. Dazu gehört das Exponieren eines Menschen hinsichtlich seiner sexuellen Funktionen oder der Verdauung. Wenn Menschen im Todeskampf liegen, fallen sie häufig ganz auf ihre naturalen Funktionen zurück. Insofern kann ein solcher Todeskampf auf Betrachter selbst wie eine Entwürdigung wirken. In vielen Kriegen der Militärgeschichte wurden Menschen durch unpräzise Waffenwirkung zwar letal verletzt, aber doch nicht so, dass sie sofort verstorben wären, sondern sie hatten noch lange Zeit ohne hilfreiche medizinische Versorgung einen grausamen Todeskampf zu überstehen, in dem das ganze naturale Elend des Menschen überdeutlich wurde. Es ist daher nicht verwunderlich, wenn man sich – zum Beispiel – die Frage stellt, ob nicht der Einsatz neuerer Waffentechnologie, die auch im Töten präziser ist, hier sogar als eine Verbesserung hinsichtlich der Würdeverletzungen im bewaffneten Konflikt begriffen werden kann. Wenn es mithilfe von autonomen Waffensystemen gelänge, Tötungen in diesem Sinne „humaner“ zu machen, wären sie, vom Standpunkt der Menschenwürdeverletzung aus betrachtet, sogar vorzugswürdig. Es ist also unsicher, ob nach den bisherigen Überlegungen aufgewiesen werden kann, dass die Verwendung von tödlichen autonomen Waffensystemen eine Würdeverletzung darstellt – jedenfalls eine, die gewichtiger wäre als bei der Verwendung anderer Waffensysteme.

Manipulativer Vollzug am Menschen

Daher ist vielleicht ein anderer Weg aussichtsreicher, wenn es darum geht zu problematisieren, ob autonome Waffensysteme die Menschenwürde verletzen. Er geht aus von einer besonderen Problematik aller digitalen Technologien, in denen sich die Mensch-Maschine-Interaktion in gewisser Weise „symmetrisiert“ oder die Maschine sogar das Übergewicht erhält: das Fehlen von Anerkennung für das menschliche Dasein, das ebendieses würdebehaftete Dasein darstellt. Dies lässt sich wohl am leichtesten anhand einer beispielhaften Hinführung verdeutlichen. Wir können uns die Frage stellen, ob wir uns von einem Roboter den Blinddarm entnehmen lassen würden, wenn wir Belege dafür hätten, dass statistisch gesehen die Erfolgsaussichten bei Roboteroperationen deutlich besser sind als bei Operationen durch menschliche Chirurgen. Vermutlich würden wir zu einer Antwort kommen, die die Nutzung des Roboters nicht nur nicht ausschließt, sondern sogar als vorzugswürdig befindet. Es wäre also kurios, wenn jemand jede Nutzung eines Roboters, der – nennen wir es – „autonom“ agieren kann, in Bezug auf Veränderungen am Menschen und seiner Leiblichkeit ausschließen würde. „Autonome Robotik“ ist also nicht in diesem Sinne schlecht oder gar böse, dass sie niemals zum Einsatz kommen dürfte. Nehmen wir nun aber einen sozialen Roboter wie das zur Pflege von Demenzkranken eingesetzte Gerät „Paro“, das wie ein Seehund aussieht, sich auch so anfühlen soll (was schon eine Täuschung ist) und offenbar ganz effektiv darin ist, Demenzpatienten zu beruhigen, zuversichtlich zu stimmen und zu sozial-kommunikativen Handlungsweisen aufzuschließen. Ist es ethisch akzeptabel, einen solchen Kleinroboter zum Einsatz zu bringen? Das zentrale ethische Problem scheint darin zu liegen, dass hier eine Person absichtsvoll getäuscht wird. Sie nimmt an, es läge ein ihr gutwillig gestimmtes Tier vor, dessen zutrauliches Gebaren darauf beruht, dass es dieses Zutrauen zu der Person tatsächlich gefasst hat. Es scheint aber auch, dass diese Täuschung temporär eine Möglichkeit sein kann, eine therapeutische Verbesserung herbeizuführen. Man könnte sich fragen: Wäre ich damit einverstanden, dass man mich temporär täuscht, wenn das zu einer Verbesserung meines Zustandes führt? Vermutlich würde man zustimmen. Was aber ethisch inakzeptabel erscheint, ist, dass eine Person dauerhaft in eine Lage gebracht wird, in der sie getäuscht wird – also so ähnlich wie im Falle von Robert Nozicks Beispiel von Menschen, die, an Elektroden angeschlossen, permanent ihre Wünsche mittels Gehirnströmen erfüllt bekommen, aber darüber eben nicht mehr in der eigentlichen Realität leben, sondern in einer permanenten Scheinwelt.[3] Selbst wenn wir sagen könnten: Diese Person fühlt sich auf diese Weise doch besser als ohne diese Illusion, ließe sich einwenden, dass diese Gefühle letztlich nicht darüber entscheiden, ob dieses Leben richtig ist. Wer sich in eine solche Umgebung versetzen lässt, nimmt sich selbst die Würde. Wer andere in eine solche Umgebung versetzt, nimmt diesen anderen die Würde – immerhin dann, wenn dieses Versetzen in die künstliche und illusionistische Umgebung dauerhaft und endgültig ist.

Das mag ein etwas langer Anlauf sein für den Kern des hier vorgetragenen Arguments in Bezug auf autonome Waffensysteme, aber die Idee ist, dass unsere (Menschen-)Würde zu tun hat mit unserem Bezug auf das Sein. Nur Menschen beziehen sich in ihrem Weltbezug auf die Umgebung und sich selbst als Seiende und sind darin Träger des Bewusstseins. Weil ich als bewusstseinsfähiges Wesen den Unterschied von einer „‚eigentlichen Wirklichkeit“ und einer „Scheinwelt“ machen kann, kann ich mich nicht endgültig[4] der Scheinwelt ausliefern, ohne dabei meine Würde aufzugeben. Zu dieser Umgebung gehören nun auch andere Menschen als Seiende. Die Anerkennung des Mitmenschen als Menschen, der seinerseits in einem Bezug zum Sein steht wie ich selbst, scheint mir die Minimalvoraussetzung der Anerkennung von Würde zu sein. Ein Mensch ist kein Stein oder keine Kartoffel, den oder die ich zu meinen Zwecken einfachhin manipulieren (oder eben dauerhaft täuschen) könnte, ohne ihre Würde zu verletzen. – Deshalb empfinden wir es ja auch als entwürdigend, wenn wir Menschen „naturalisieren“, also als bloße Naturobjekte bloßstellen und dabei ihr Abgesetztsein von der Natur – trotz freilich der Bindung an diese – einfach ignorieren.

Selbst in der Tötung verlangen wir (wenn die hier vorgetragene Überlegung stimmt) diese minimale Anerkennung. Die oder der Tötende soll sich immerhin dessen bewusst sein, dass sie oder er hier einen Menschen tötet.[5] Hier wird ein finaler und endgültiger Schritt vorgenommen: Das Töten ist keine Therapie zu anderen Zwecken, die selbst im Interesse des Getöteten liegt. Unangesehen also der Tatsache, dass jemand selbst seine Tötung wünschen kann, könnte sie also nicht durch ein „autonomes“ System erfolgen, das die Anerkennung des Seins eines bewusstseinsfähigen Menschen nicht leisten kann. Wenn ein lebensmüder Mensch sich tatsächlich einem autonomen System aussetzen würde, handelte es sich schlicht um eine Selbsttötung, aber nicht um die Tötung durch dieses System.[6] Wenn aber ein System, das selbst kein Bewusstsein hat und daher auch kein Bewusstsein davon hat, dass hier ein anderes mit Seinsbezug ausgestattetes Wesen vernichtet wird, eine Person zu Tode bringt, dann vollzieht es das nicht anders als jeglichen anderen manipulativen Vollzug an irgendeinem Objekt der Welt.[7] Das scheint dann in der Tat die Würde des Menschen zu verletzen – zugegebenermaßen jedoch nur unter Rückgriff auf eine weitere Intuition.

Es geht hier nicht darum, die Würde des Menschen von der faktischen Anerkennung dieser Würde abhängig zu machen, sondern es geht um darum, dass jemand eine technische Installation nutzt, die genau diese Anerkennung unterläuft. Das kann selbst als würdeverletzend aufgefasst werden. Das Töten eines Menschen steht unter der Minimalanforderung, dass es als die Tötung eines Menschen aufgefasst wird; eine Forderung, die ein autonomes Waffensystem ohne Bewusstsein nicht erfüllen kann. Für die getötete Person aber ist die Tötung ein finaler Akt, sodass es hier auf das Bewusstsein des Agenten der Tötung durchaus ankommt.

Das Unverletzbarkeitsparadox

Das Argument steht vermutlich auf etwas wackeligen Füßen, denn es kann nach wie vor behauptet werden: Was immer in der empirischen Welt erfolgt, auf die Würde des transempirischen Menschen (homo noumenon) hat es keinen Einfluss. In einem gewissen Sinn scheint das nach wie vor richtig zu sein. Aber dann wäre jeglicher menschliche Vollzug, der eine empirische Seite hat, völlig würdeunschädlich und der Würdebegriff für jede angewandt-ethische Frage untauglich. Die Würde könnte nie beeinträchtigt werden, sodass der Imperativ, dass die Würde nicht verletzt werden dürfe, sinnlos ist (außer es ginge um die eigene Würde). Vielleicht ist jemand in der Lage, diesem Argument, das hier – in einer Art Hermeneutik einer moralischen Intuition – vorgebracht werden soll, ein solideres Fundament zu geben. Das wäre durchaus erfreulich. Aber für die Kampagne für ein Verbot von „LAWS“ ist es vielleicht doch nicht hinreichend universal plausibilisierbar. Daher, scheint mir, tut die Kampagne gut daran, auch anderen Argumenten Gewicht zu geben – insbesondere jenen Argumenten, die auf die enormen sicherheitspolitischen Risiken bei einer Etablierung solcher Waffensysteme hinweisen.[8]

Nur noch eine letzte Bemerkung: Wer Würdeverletzung an einem empirischen Umstand festmacht (zum Beispiel jemand werde „zum Datenpunkt reduziert“), wird schnell mit dem Einwand konfrontiert sein, dass ja auch andere Nutzungsweisen militärischer Systeme „zum Datenpunkt reduzieren“. Jetzt könnte man konsistenterweise sagen, dass auch diese Verwendungsweisen von Waffentechnik falsch sind. Das werden nun ihrerseits jene, die bereits – nach ihren Kriterien – „erfolgreich“ solche Systeme einsetzen, nicht akzeptieren.

Andererseits besteht ein praktisches Problem darin, dass auch empirische Kriterien angegeben werden müssen, wenn die Würdeverletzung an empirischen Umständen festgemacht wird; etwa nach folgendem Beispiel: „Bis zehn Minuten Todeskampf ist nicht würdeverletzend, ab einer Stunde ist er es – und dazwischen gibt es einen Graubereich.“ Von unserem moralischen Alltagsbewusstsein mag eine solche Sichtweise gar nicht so weit entfernt sein, aber für eine politische Aktion liefert sie dann doch nur wieder eine recht begrenzte Unterfütterung.

Würdeverluste

An dieser Stelle zeigt sich zugleich, dass die zunehmende Abhängigkeit von Technik den Druck erzeugt, ethische Überlegungen auch in technischen oder mathematischen Kriterien zu fassen. Das „technokratische Paradigma“, das Papst Franziskus schon in mehreren Texten (unter anderem Laudato Sí) beklagt hat, beinhaltet auch, dass wir unser ethisches Überlegen in die Form der Technik bringen.[9] Begründungen auch auf moralische Intuitionen zu stützen, wie es hier versucht wurde, und die mangelnde Operationalisierbarkeit von Konzepten nicht nur als Mangel zu begreifen, gerät zu schnell in den Ruch der „Esoterik“.

Für die Formulierung eines internationalen Verbotsabkommens oder zumindest strenger bindender Auflagen mag das, wie oben schon angedeutet, tatsächlich nicht hinreichend sein, zumal andere Religionen und Kulturen sich dem ohnehin schwer zu bestimmenden Würdebegriff möglicherweise noch aus anderen Blickwinkeln annähern. Jenseits davon kann eine andere Überlegung, die in diesem Beitrag nur angerissen wurde, vielleicht wenigstens zu einem möglichst restriktiven eigenen Umgang mit autonomen Waffensystemen anleiten. Die Auslagerung von (Tötungs-)„Entscheidungen“ an algorithmische Systeme birgt die Gefahr, das eigene normative Fundament zu untergraben – und damit selbst „würdelos“ zu agieren. Diese Überlegung wird auch nicht durch die Behauptung entkräftet, die Anerkennung für das menschliche Dasein spiele doch bereits in herkömmlichen Kriegen eine höchstens marginale Rolle. Dieses Argument würde nicht zuletzt die Konzeption der Inneren Führung, die schließlich auf einer Auseinandersetzung mit dem Würdebegriff basiert, obsolet machen.

 

Dieser Beitrag stellt ein Eingangs­statement auf einer Tagung des Peace Research Institute Frankfurt (PRIF) und des Instituts für Theologie und Frieden zur Leistungsfähigkeit des Würdearguments in Bezug auf die internationalen Bemühungen zum Verbot autonomer Waffensysteme am 29. April 2022 in Frankfurt dar. Der Autor dankt insbesondere Dr. Niklas Schörnig und Prof. Christopher Daase für die gelungene Kooperation.

Der Text wurde bereits in der Zeitschrift „Militärseelsorge. Dokumentation“ 2022 veröffentlicht und für diese Ausgabe leicht überarbeitet. Die Redaktion dankt für die Genehmigung zur erneuten Veröffentlichung.

 


[1] z. B. Metaphysik der Sitten, Akademie-Ausgabe VI, 418.

[2] Vgl. Wysling, Andres (2017): Frankreichs geschorene Frauen. Neue Züricher Zeitung, 16.8. . https://www.nzz.ch/international/die-befreiung-beginnt-mit-einer-hexenjagd-frankreichs-geschorene-frauen-ld.1305283?reduced=true (Stand aller Internetbelege: 30.5.2024.)

[3] Nozick, Robert (2006): Anarchie, Staat und Utopia. München (Neuauflage), S. 71–75.

[4] Was auch die Preisgabe der Unterscheidung von Scheinwelt und eigentlicher Wirklichkeit mitimpliziert.

[5] Vgl. hierzu etwa: Asaro, Peter (2020): Autonomous Weapons and the Ethics of Artificial Intelligence. In: Liao, S. Matthew (ed.): Ethics of Artificial Intelligence. New York, S. 212–236, S. XXX.

[6] Jemand könnte vielleicht auch den Kampf mit einem autonomen Waffensystem als besondere und lebensbedrohliche Herausforderung begreifen, so wie ein Torero den Kampf mit dem Stier als besondere und lebensgefährliche Herausforderung begreift. Das ist keine Menschenwürdeverletzung – weder durch den Torero selbst noch durch den Stier. Jeder kann sich eine lebensgefährliche Herausforderung suchen, ohne dass dadurch die Menschenwürde verletzt wird. Aber die Problematik des Tötens durch ein autonomes Waffensystem beinhaltet ja auch, dass dieses Risiko nicht gesucht, sondern aufgezwungen wird.

[7] Provokant gesprochen: „Für“ die Maschine ist das Töten eines Menschen nichts anderes als das Umschichten eines Haufens von Steinen oder Kartoffeln.

[8] Vgl. Alwardt, Christian und Schörnig, Niklas (2021): A necessary step back? Recovering the security perspective in the debate on lethal autonomy. In: Zeitschrift für Friedens- und Konfliktforschung 10, S. 295-317. link.springer.com/article/10.1007/s42597-021-00067-z. Eine Klassifizierung der Sicherheitsrisiken von KI-Anwendungen (inklusive autonomer Waffensysteme) für die internationale Sicherheit nimmt der folgende Bericht vor: Puscas, Ioana (2023): AI and International Security: Understanding the Risks and Paving the Path for Confidence-Building Measures. UNIDIR. https://unidir.org/wp-content/uploads/2023/10/UNIDIR_AI-international-security_understanding_risks_paving_the_path_for_confidence_building_measures.pdf.

[9] Vgl. Koch, Bernhard (2022): Technikethik. In: Merkl, Alexander und Schlögl-Flierl, Kerstin (Hg.): Moraltheologie kompakt. Grundlagen und aktuelle Herausforderungen. Regensburg, S. 340–350.

 

Zusammenfassung

Dr. Bernhard Koch

Dr. Bernhard Koch ist kommissarischer Leiter des Instituts für Theologie und Frieden in Hamburg und außerplanmäßiger Professor für Moraltheologie an der Universität Freiburg. Er studierte Philosophie, Logik und Wissenschaftstheorie sowie katholische Theologie in München und Wien und lehrte an der Pädagogischen Hochschule Weingarten, der Goethe-Universität Frankfurt a. M., der Helmut-Schmidt-Universität der Bundeswehr und der Universität Hamburg. 2014 war Bernhard Koch Visiting Fellow am Oxford Institute for Ethics, Law and Armed Conflict (ELAC). Seit 2012 ist er Co-Teacher Ethics am ICMM Center of Reference for Education on IHL and Ethics, Zürich.

koch@ithf.de

Alle Artikel von Bernhard Koch


Download als PDF

Alle Artikel dieser Ausgabe

Wie geht es mit den Bemühungen um ein rechtsverbindliches Abkommen zu autonomen Waffensystemen weiter?
Catherine Connolly
Autonome Waffensysteme - zum Stand der internationalen Debatte
Andreas Bilgeri
Digitales Eskalationspotenzial: Wie agiert KI an den Grenzen der Vernunft?
Axel Siegemund
KI für das Militär braucht keine Sondermoral! Ein Zwischenruf zur Regulierung autonomer Waffensysteme
Erny Gillen
Menschenwürde und „autonome“ Robotik: Worin besteht das Problem?
Bernhard Koch
Die Beweispflicht in der Debatte um autonome Waffen – Warum die Verbotsbefürworter sie (noch) nicht erfüllt haben
Maciek Zając
Zuverlässigkeitsstandards für (autonome) Waffen: Der Mensch bleibt relevant
Nathan Wood
Gibt es ein Recht auf militärische Gewalt unterhalb der Schwelle zum Krieg? Neue Technologien und die Debatte um das ius ad vim
Bernhard Koch
„Meaningful Human Control“ und Komplexe Mensch-Maschine-Gefüge – Zu den Grenzen ethischer KI-Prinzipien im Kontext autonomer Waffensysteme
Jens Hälterlein, Jutta Weber
Menschlichkeit im Krieg? Die Bedeutung von „Meaningful Human Control“ für die Regulierung von autonomen Waffensystemen
Susanne Beck, Schirin Barlag
„Meaningful Human Control“ von autonomen Systemen
Daniel Giffhorn, Reinhard Gerndt
KI im Zeitalter des Misstrauens
Henning Lahmann

Specials

Ansgar Rieks, Wolfgang Koch ChatGPT