Zum Inhalt springen

Mein neuer Kamerad – Hauptgefreiter Roboter?

Steht der Terminator bereit, um in die Gefechte von morgen einzugreifen? Führen künftig autonome Maschinen bewaffnete Auseinandersetzungen gegen Menschen, wie es im Film „Die Matrix“ den Anschein hat? Ist das alles noch Science Fiction oder schon bald Realität?

Schlagzeilen mit reißerischen Titeln wie „Sind Soldaten durch Roboter ersetzbar?“ oder „Roboter sind kostengünstiger als Soldaten“ erscheinen immer häufiger. Menschenrechtsorganisationen wie Human Rights Watch fordern Regierungen auf, Killerroboter rechtzeitig zu verbieten.

Viel seltener thematisiert die öffentliche Diskussion andere – militärische und zivile – Anwendungsmöglichkeiten, wie beispielsweise das Bergen von Verwundeten oder den Einsatz von Robotern in der Pflege. Daher ist es dringend notwendig, eine Versachlichung der Diskussion anzustoßen.

Die Bundeswehr hat sich mit der Zukunft der Robotik und möglichen Auswirkungen auf Streitkräfte wissenschaftlich auseinandergesetzt. Eine entsprechende Studie des Planungsamts der Bundeswehr in Berlin beschäftigte sich mit den neuesten und zukünftig zu erwartenden Entwicklungen der Roboterforschung, der künstlichen Intelligenz und der Nanotechnologie sowie mit möglichen Auswirkungen auf Aspekte der Sicherheitspolitik und auf die Streitkräfte. Vorrangig betrachtete das Planungsamt dabei mögliche Entwicklungen der nächsten fünf bis zehn Jahre. Die bis dato so populistisch betrachteten Kampfroboter spielen in diesem Zeitraum noch keine Rolle.

Technisch fraglich ist, so die Studie, ob die Entwicklung von autonomen Robotern mit den Funktionalitäten von Soldaten im Gefecht überhaupt realisierbar ist. Die Studie empfiehlt daher, sich auf robotische Systeme mit überschaubaren Funktionalitäten zur Unterstützung von Soldaten zu beschränken, anstatt Forschungsmittel auf die Entwicklung vollautonomer humanoider Roboter einzuplanen. Für die Bundeswehr bedeutet das keinen Richtungswechsel, denn sie schließt den Einsatz von Systemen aus, die eine autonome Entscheidung zum Waffeneinsatz gegen Menschen alleine aufgrund einer Computer- oder Maschinenlogik treffen.

Technisch möglich, militärisch fragwürdig

Der Einsatz von Soldaten beinhaltet nicht ausschließlich den Waffeneinsatz gegen mögliche Gegner, sondern umfasst ein deutlich umfangreicheres und vielfältigeres Aufgabenspektrum. Dazu zählen beispielsweise Patrouillenfahrten an spielenden Kindern vorbei oder überholende Fahrzeuge, von denen möglicherweise Gefahr ausgeht. Schon heute spricht die Bundeswehr von „strategischen Gefreiten“, deren Handeln in einer Konfliktsituation sich besonders auswirken kann.

Das Dezernat Zukunftsanalyse im Planungsamt der Bundeswehr erwartet künftig eine weitere Steigerung der Komplexität bei Krisensituationen, in denen Streitkräfte im Bündnis eingesetzt werden. Diese werden für die Bundeswehr weiterhin den Bogen von humanitären Katastrophenhilfseinsätzen über mögliche kürzere Stabilisierungsoperationen bis hin zu Kampfoperationen umfassen. Die Umgebung und der Auftrag von Soldaten in zukünftigen Einsätzen gestalten sich zunehmend komplexer und lassen folglich die Anforderungen an Soldaten weiter steigen. Komplexe Situationen zu handhaben, sich flexibel auf unbekannte neue Situationen einzustellen, fordert die menschliche Intelligenz. Daher liegt bei der Bundeswehr auch ein klarer Schwerpunkt auf der Ausbildung ihrer Soldaten – auch und gerade im Bereich der Ethik.

Doch besonders in diesem Bereich liegen die immer noch aktuellen Schwächen von künstlicher Intelligenz:

 

  • Überforderung bei nicht vorhersehbaren Ereignissen oder zu komplexen Aufgabenstellungen,
  • eine sehr geringe auftragsbezogene Flexibilität und
  • keine Fähigkeit zur Improvisation.

Kampfroboter hätten also höchstwahrscheinlich nur eine sehr begrenzte Einsatzmöglichkeit bei Operationen gegen technologisch halbwegs gleichwertige Gegner. Technologisch unterlegene Gegner hingegen neigen nicht dazu, sich im offenen Gefecht zu stellen, sondern suchen Hinterhalte oder andere Möglichkeiten, um ihre Absichten umzusetzen.

Zu untersuchen wäre auch, ob Kampfroboter gemeinsam mit Soldaten zum Einsatz kommen sollten und ob ein Gruppenführer eine Gruppe aus beispielsweise fünf Soldaten und zwei Kampfrobotern in einem Gefecht führen kann. Auch die Frage, ob Soldaten Vertrauen zu den Robotern herstellen können, ist zu klären. Die Kommunikation zwischen Mensch und Maschine sowie unter den Robotern muss reibungslos funktionieren. Kommunikationskanäle müssen sicher sein und die Kampfroboter müssen vor Hackern geschützt werden.

Die Entscheidung, in welchen Situationen der Einsatz eines Kampfroboters sinnvoll erscheint, muss bereits vor dem Einsatz klar sein. Eine weitere Herausforderung betrifft die Regelung der Logistik für Kampfroboter, also beispielsweise deren Energie- und Munitionsversorgung im Gefecht. Auch muss geregelt sein, wie defekte Kampfroboter gefahrlos geborgen werden – gegebenenfalls durch einen Bergeroboter.

Zusammenfassend ist der Mehrwert solcher Kampfroboter aus militärischer Sicht sehr fragwürdig. Viele ungelöste pragmatische Fragen stehen technologisch fragwürdigen Versprechungen entgegen. Können es sich Streitkräfte in der Zukunft überhaupt noch leisten, Systeme mit vermutlich nur sehr eingeschränkten Einsatzoptionen zu beschaffen? Auch hier wird deutlich: Nicht alles, was technisch theoretisch möglich erscheint, ist militärisch sinnvoll.

Moral eines Roboters

Die entscheidende Sichtweise, von der aus die Gesamtproblematik bewertet werden muss, ist die ethisch-rechtliche. Leider teilen jedoch nicht alle die eigenen rechtlichen und ethischen Einschätzungen – auch unter Verbündeten gibt es unterschiedliche Auffassungen.

Die Frage nach der Verantwortlichkeit bei einem Waffeneinsatz gegen Menschen ist immer zu stellen. Denn nach dem Kriegsvölkerrecht muss es einen Verantwortlichen geben. Bei autonomen Systemen wäre die Verantwortlichkeit jedoch unklar. Infrage kommen der Kommandeur der Einheit, der Hersteller oder sogar der Programmierer. Denn auch wenn ein Mensch beispielsweise eine Maschine bedroht, wäre es rechtlich unverhältnismäßig, von dieser getötet zu werden. Der Schusswaffengebrauch bzw. der Einsatz von Gewalt gegen Menschen ist und bleibt eine zutiefst ethische Entscheidung. Der Mensch, der getötet hat, muss hinterher mit den Konsequenzen seines Handelns zurechtkommen. Hier spielen der kulturelle Hintergrund und die ethische Grundhaltung eine entscheidende Rolle, wie Streitkräfte mit dieser Herausforderung umgehen. In unserer Gesellschaft ist der Einsatz von Gewalt gegen Menschen ein strafbewehrter Akt.

Bei einem Gefecht kann es nach dem Grundverständnis der Bundeswehr nicht darum gehen, möglichst viele Gegner zu töten, sondern Gegner handlungsunfähig zu machen, um die eigene Absicht durchzusetzen. Daher zielen Soldaten im Gefecht auf die Kampfunfähigkeit der Gegner und nicht auf deren Tod. Der Tod von Gegnern im Gefecht ist dennoch nicht immer vermeidbar.

Es geht hier um die ethische Grundhaltung, nicht mehr Gewalt auszuüben als zwingend notwendig. Dass Soldaten im Gefecht Fehler machen können, weil sie sich beispielsweise von Emotionen hinreißen lassen – eines der Hauptargumente von Befürwortern von Kampfrobotern – ist unbestritten. Auch dass Soldaten in Gefechtssituationen überlegt und mit Minimierung von Gewalt ihre Ziele erreichen bzw. ihren Auftrag erfüllen, erreicht die Bundeswehr nur über die entsprechende ethische Ausbildung – auch von Grundhaltungen. Es bestehen jedoch erhebliche Zweifel, ob ein Computeralgorithmus diese Komplexität auch nur annähernd abdecken kann.

Roboter als mögliche Gegner

Der Einsatz von Waffensystemen hat neben der Wirkung gegen Menschen und Umgebung auch eine sicherheitspolitische Dimension. Gerade die Drohnendebatte – auch in den USA – wirft immer häufiger die Frage auf, ob nicht gerade der Einsatz der Kampfdrohnen zum gezielten Töten noch mehr Widerstand erzeugt hat und ob strategische Ziele überhaupt erreicht wurden. Diese Frage würde sich umso mehr stellen, wenn letztlich eine Seite das Gefecht vermehrt oder ausschließlich über Maschinen führte.

Mit der wachsenden zivilen Robotikforschung wächst die Gefahr des Dual-Use, das heißt, dass zivile Anwendungen für andere Zwecke umfunktioniert werden können. Dieses gilt es im Rahmen nationaler Risiko- und Sicherheitsvorsorge zu beobachten und zu bewerten.

Für die Bundeswehr ist es wichtig, sich mit der langfristigen Risikovorsorge auseinanderzusetzen. Mögliche Gegner haben zum Teil andere Rechts- und Ethikverständnisse und könnten Roboter, deren Einsatz die Bundeswehr ausschließt, einsetzen. Wenn es der Staatengemeinschaft nicht gelingt, entsprechende Selbstbeschränkungen – wie von Human Rights Watch gefordert – durchzusetzen, besteht in der Nutzung von Kampfrobotern und der damit möglicherweise einhergehenden dramatisch kürzeren Reaktionszeit und höheren Treffergenauigkeit bei Kampfrobotern zukünftig ein hohes Risikopotenzial für Soldaten der Bundeswehr. Daher sollte zum einen die Entwicklung von unterstützenden robotischen Systemen der Bundeswehrsoldaten und zum anderen die Entwicklung von Strategien gegen Bedrohungen durch robotische, gegebenenfalls teilautonome Systeme gefördert werden.

Dieser Artikel versachlicht aus verschiedenen Blickwinkeln die aufkeimende Diskussion um den Einsatz von (Killer-)Robotern in Streitkräften. Keines der Argumente der verschiedenen Blickwinkel unterstützt die Entwicklung oder gar den Einsatz solcher Systeme. Im Gegenteil, es gibt sehr viele Argumente, die gegen die Entwicklung sprechen.

Bei der Entscheidung, Systeme zu nutzen, die ohne menschliche Interaktion auskommen, muss sorgfältig abgewogen werden, ob dieses ethisch und rechtlich vertretbar ist. Eines sollte aber auch sehr deutlich geworden sein: Die Soldaten der Bundeswehr sind und werden nicht durch Roboter ersetzbar.

Autor

Wellbrink__OTL_Dr._Joerg.jpg

Oberstleutnant i.G. Dr. Jörg Wellbrink ist seit März 2012 im Dezernat Zukunftsanalyse eingesetzt und verantwortete die Produkte des Dezernates bis zum Februar 2014 kommissarisch. 1985  verließ er die Bundeswehruniversität München als Dipl.-Ing. Elektrotechnik. 1998 studierte Dr. Wellbrink an der Naval Postgraduate School in Monterey, Kalifornien Operations Research (M.Sc. OR) und promovierte dort 2003 am MOVES-Institute; u.a. über Simulation menschlichen Leistungsverhaltens mit Multiagentensystemen. Später konzipierte er als Projektinitiator und -leiter im IT-Amt der Bundeswehr die Simulations- und Testumgebung der Bundeswehr. 2007 war er der erste Leiter einer bundeswehreigenen „Operations Research“-Zelle im Afghanistan Einsatz im PRT KUNDUZ. 2011 war er ein Jahr als "Visiting Lecturer für OR" an der Bundeswehruniversität München in Forschung und Lehre eingesetzt.

JoergWellbrinkbundeswehrorg