Zum Hauptinhalt springen

Ein ethisches Argument für Hochsicherheits-IT

Aus ethischer Perspektive ist der Cyberkrieg ein faszinierender neuer Gegenstand, der viele verschiedene Fragestellungen aus Sicherheitsethik und Medienethik auf einzigartige Weise zusammenbringt. Aus größerer Flughöhe ist zwar festzuhalten, dass Cyberkrieg immer noch Krieg oder zumindest Konflikt ist, der in seinem grundlegenden Habitus durch das neue Wirkmittel Hacker nicht beeinträchtigt ist. Die Grundmotive und Grundzüge des Krieges bleiben weitgehend erhalten, Konventionen wie Kriegsrecht sind in keiner Weise neuartig zu interpretieren und natürlich kann es auch im Cyberwar den gerechten Krieg geben, so dass also gröbere Narrative und Fanale eines kategorialen Wandels oder einer pauschalen Ächtung keine berechtigen Ansprüche erheben dürfen. 

Allerdings ist das Wirkmittel Hacker in Konjunktion mit seinem besonderen Wirksubstrat, mit den ebenfalls besonderen Modalitäten des Wirkens und den sich daraus ergebenden taktischen Bedingungen und strategischen Optionen aus ethischer Sicht neuartig. Das manipulative Beobachten und Wirken in vollkommener Stille und Unsichtbarkeit oder unter falscher Flagge, das taktischen Arbeiten mit Informationen, mit Wissen und Meinung oder mit tief in gesellschaftlichen Vorgängen verborgenen technischen Detailprozessen und die Symphonien dieser Wirkungen in geostrategischen Effekten provozieren konzeptionelle und operative Verschiebungen vieler klassischer Ansätze zu Offensive und Defensive und damit auch neue Gewichtungen oder neue hierarchische Orientierungen von Werten, die ihrerseits die Ethik aktivieren müssen.

Nicht alles davon muss übrigens negativ sein. So hat der Cyberkrieg etwa den interessanten Charakterzug, kostengünstig, hochgradig präzise und vollkommen „blutlos“ geführt werden zu können. Das militärisch immer wünschenswerte Ziel des Sieges ohne Kampf, selbst gegen einen übermächtigen Gegner, ist durch den Cyberwar mehr denn je möglich geworden. Kann man ein Militär bei einer Intervention einfach abschalten, so dass jede weitere kriegerische Handlung technisch unmöglich ist, so kann allein diese Fähigkeit bereits eine deutlich friedenssichernde und stabilisierende Wirkung haben. 

Allerdings ist das militärisch notwendig präferierte Ziel nicht zwingend auch das ethisch immer zu bevorzugende. Kann der ungerechte Invasor den gerechten Verteidiger ausschalten – und nicht umgekehrt –, so tritt der Cyberwar letztlich doch als Methode und Mittel statt als eigener Typus des Krieges in Erscheinung, womit er der Dualität jeder Technik unterworfen wird und ohne Kontext weder besonders zu verurteilen noch besonders zu präferieren ist. Hier wird es in Zukunft also vor allem auf eine technisch und kontextuell informierte Konkretisierung auf spezifische Fälle – wie etwa die kontrovers zu betrachtenden Varianten der Information Operations – ankommen, in denen spezifischer entschieden werden kann, unter welchen Ausgangsbedingungen und innerhalb welcher Modalitäten Werturteile getroffen und abgewogen werden können. Dies ist aber aus heutiger Sicht, selbst unter Einbezug der schon etwas fortgeschrittenen Debatte im Völkerrecht, noch in weiter Ferne.

Dennoch gibt es bereits jetzt einige deutlichere ethische Probleme, die vor allem mit der konstanten Erosion der Sicherheit und deren Unnötigkeit zu tun haben. Um diese Erosion und die damit zusammenhängenden Probleme klarer herauszustellen, muss der Status Quo der IT-Sicherheit kurz beleuchtet werden.

Wie also steht es aktuell um die Risiken? Das Cyber-Sicherheitsproblem ist nach wie vor drängend und nach wie vor weit davon entfernt, gelöst zu werden. Denn die Wahrscheinlichkeit für Angriffe ist kaum geringer geworden. Im Gegenteil: Es gibt deutlich mehr Angreifer, da die NSA über die letzten Jahre für dieses Feld gute Werbung gemacht hat. Da war zuerst Stuxnet als eindrückliche Demonstration der Sabotagekapazitäten und einer enormen Schlagdistanz und Schlageffizienz. Dann kamen – wie eine Lawine von Werbebroschüren für Cyber-Offensivtruppen – die Snowden-Dokumente, die demonstriert haben, wie ungewöhnlich viel in diesem Bereich schon passiert und – ex negativo in der mangelnden Detektion der NSA vor der Veröffentlichung dieser Dokumente – wie hochgradig effizient Tarnung, Täuschung und Unsichtbarkeit in diesem Bereich sind, wie ungestört man in diesem Feld angreifen, abhören, manipulieren und sabotieren kann. 

Infolgedessen sind viele Akteure an einem Aufbau einer Offensive interessiert. Sowohl organisierte kriminelle Kartelle als auch jeder Nachrichtendienst der Welt wird sich inzwischen mit großem Nachdruck um Fähigkeiten bemühen. Auf dieser Seite steigt das Risiko. 

Sinkt das Risiko denn auf der Seite der Verwundbarkeiten und des Schadens durch bessere IT-Sicherheit? Dies ist leider nicht der Fall.

Die Basis unserer Informationstechnik wird gegenwärtig nicht etwa sicherer, sondern unsicherer. Die grundlegenden Probleme der zigtausend kritischen Verwundbarkeiten in unserem IT-Substrat sind in keiner Weise behoben oder auch nur hinreichend in einer Innovationsstrategie adressiert. Einige Unternehmen haben zwar investiert, allerdings kaum mit strategischer Ausrichtung oder mit ausreichenden Ressourcen. Andere Industriegrößen bauen sogar ab. Microsoft etwa hat unlängst seine Sicherheitsabteilung aufgelöst, einen Teil der Mitarbeiter entlassen und einen anderen Teil in das lukrativere Cloud-Geschäft gesteckt. An dieser Stelle, von einem der Juggernauts der de facto IT-Monopolisten, ist also kein Zugewinn an Sicherheit zu erwarten, sondern aufgrund der hohen Expansion in viele Bereiche mit neuen Fehlern und Verwundbarkeiten eher eine Vervielfachung der Unsicherheit.

Auch die IT-Sicherheitsbranche hat trotz starker Aufmerksamkeit nicht viel geleistet. Die Unternehmen in diesem Feld sind Mittelständler mit zu geringen Ressourcen, um größere Innovationen in Vorschubleistungen zu finanzieren, und gehen von einer Problemperspektive aus, die strukturell immer noch am niederschwelligen Cybercrime ausgerichtet ist und veraltete Entwicklungsparadigmen der neunziger und 2000er Jahre verfolgt. Diese Paradigmen zeigen sich im Detail in den drei Stoßrichtungen Defend, Degrade und Deter

Die erste Stoßrichtung Defend bemüht sich vorrangig in den drei Paradigmen ad hoc, ex post facto sowie im Perimeter-Gedanken um die Errichtung einer oder mehrerer Grenzen und Beobachtungs- sowie Interventionsoptionen in einem soziotechnischen System sowie um das Management von Vorfällen bei Detektion. Allerdings ist die Detektion in diesem Bereich – und insbesondere in Cyberkrieg als der effizientesten Form der Cyberunsicherheit – ineffektiv. Die NSA-Operationen etwa sind fast ausschließlich über die Snowden-Dokumente bekannt geworden. Detektiert wurde von den inzwischen belegten über 230 Operationen des Jahres 2011 lediglich eine einzige (Flame). Dies spricht Bände über die Effektivität dieses gesamten Ansatzes. Auch sind die Konzepte des Vorfallmanagements unreif und wenig strategisch. Man geht hier von der bereits schwachen Hypothese aus, dass man als Verteidiger nur wenige Vorteile hat, allerdings zumindest den einen, dass man sein eigenes Terrain besser kennt und besser kontrollieren kann. So soll also ein Angreifer zwar nicht am Angriff, zumindest aber an der Exfiltration von Informationen gehindert werden können. Da dem Angreifer jedoch zahlreiche Optionen zur Exfiltration zur Verfügung stehen, harrt auch dieses Konzept noch des Nachweises seiner Wirksamkeit. Eine Vermeidung der Entstehung von Vorfällen, also eine Erhöhung der passiven Basissicherheit, findet nur in rudimentärer und hilfloser Form statt, indem etwa Mitarbeiterschulungen vor dem Öffnen seltsamer Attachments warnen (und komfortabel Verantwortung auf die Nutzer abschieben). Auch dieser Ansatz ist insbesondere im Cyberwar aufgrund der vielen möglichen Vektoren eines Angriffs praktisch irrelevant und dient nur der Gewährleistung einer Grundhygiene. Die deutlich zu bevorzugende Herstellung einer höheren Basisresilienz, also einer ex ante Unangreifbarkeit eines Systems, liegt konzeptionell außerhalb der Reichweite gegenwärtiger Ansätze zu IT-Sicherheit.

Die zweite Stoßrichtung Degrade wird als Ergänzung zu Defend angeführt und kann ebenfalls schnell abgehandelt werden. Hier geht man davon aus, dass sich bei hinreichender Detektion von Angriffen ein System mit Information Sharing aufbauen lässt, durch das erkannte Angriffe zeitnah allen potenziellen Opfern gemeldet werden, die in der Folge ihre eigenen Detektionsmechanismen wappnen und nicht mehr angreifbar sind, was wiederum langfristig zur Folge haben soll, dass die Angriffe deutlich weniger skalieren und ökonomisch für Angreifer weniger interessant werden. Bei dieser Ausrichtung sind jedoch verschiedene Strukturmerkmale außer Acht gelassen wie die bereits erwähnte schlechte Detektionsrate, dazu die hohe Modularisierbarkeit und die leichte Variierbarkeit von Angriffen, die exakten ökonomischen Modelle der Angreifer und die mögliche Beeinträchtigung durch Degrade-Ansätze, die Anforderungen für die Vollständigkeit und die operative Effizienz des Information Sharing, die taktische Flexibilität des Angreifers im Wechsel auf andersartig skalierende Geschäftsmodelle und – erneut besonders im Fall des Cyberwars – die ebenfalls taktische Variante der Skalierung nicht durch massenhafte Verbreitung bei vielen unterschiedlichen Systemen, sondern durch gezielte, dafür aber persistierende und sich lateral verbreitende Angriffe. All diese Faktoren lassen erhebliche Zweifel am Ansatz Degrade, die allerdings weder belegbar noch auszuräumen sind, da die dafür notwendigen empirischen Daten im Dunkelfeld liegen. Die Erfahrungen aus der Industrie mit den Jahren des Information Sharing und insbesondere mit gefährlicheren Spionagekampagnen belegen allerdings das Scheitern dieses Ansatzes zumindest in der Praxis.

Die letzte Stoßrichtung Deter schließlich wird ebenfalls als Ergänzung zu den beiden anderen Ansätzen konzipiert. In diesem Fall greift klassische aktive Abschreckungslogik eines deterrence by punishment, die entweder Angreifern droht, bei erfolgreicher Attribution drastische Maßnahmen zu ergreifen, oder die Angreifer direkt mit Gegenmaßnahmen belegt, die als Bestrafung das Kosten-Nutzen-Rational zukünftiger Angriffe beeinträchtigen sollen. Auch dieser Ansatz ist aber bislang nur begrenzt effektiv. Attribution ist ein aufgrund des nicht aufhebbaren, notwendigen Strukturmerkmals der Digitalität nicht lösbares Problem der Cybersicherheit. Gegenwärtige Erfolgsgeschichten der Attribution wie in der Aufdeckung chinesischer Spionagekampagnen sind lediglich Scheinerfolge, da sie Unterstützung aus Human Intelligence erhalten haben müssen, zu weiten Teilen nur aufgrund großer Fehler in der Operational Security der Gegner zustande kommen konnten und da sie zu anderen Teilen politisch getragen werden und gewünscht sind. Aktuelle Versuche der Herstellung von Attribution sind daher nur als temporär anzusehen und haben den zusätzlichen Nachteil, Angreifer in eine evolutionäre Entwicklung zu besserer Tarnung und OpSec (Operational Security) zu zwingen, die aufgrund der hohen Spielräume in dieser Hinsicht kaum Angreifer aussortieren oder abschrecken, das Problem aber noch wesentlich unsichtbarer machen werden. 

Keiner dieser Ansätze bringt also besonders deutliche oder nachhaltig effektive Sicherheitsgewinne hervor. Stattdessen ist eher von verschiedenen Verlagerungen der Unsicherheiten auszugehen, die aber weder taktisch noch strategisch antizipiert wurden und so sogar eine Reihe unangenehmer Überraschungen evozieren könnten. 

Der weitflächige Anbau einer Offensive unter gleichzeitigem Ausbau der Verwundbarkeiten bei paradigmatisch ineffizienter IT-Sicherheitstechnik ergeben in der Summe eine sich beschleunigende und ausbreitende sowie heterogenisierende Unsicherheit als höhere Angriffsmöglichkeit, die sich asymmetrisch ausprägt, indem sie deutlich stärker in Staaten und Strukturen mit hohem Technisierungsgrad auftritt.

An dieser Ausgangssituation lassen sich nun einige sicherheits- und technikethisch besonders problematische Punkte ausmachen. Sie sollen kurz geschildert werden.

Fahrlässigkeit der Unsicherheitstoleranz

Zuerst lässt sich festhalten, dass die Unsicherheit in der IT weit und oft auch bereits längere Zeit bekannt ist und ein absurdes Maß an Toleranz erfährt. An vielen Stellen wurde über Jahre und wird bis heute unter dem sicheren Wissen einer hohen Angreifbarkeit auf diesem Vektor gearbeitet, vor allem innerhalb vieler Militärs, ohne dass die Problematik politisch hinreichend stark eskaliert würde, um nachhaltigen Wandel anzustoßen. Zum einen kommt diese Toleranz durch Mittäterschaft zustande. Viele der handelnden Sicherheitsakteure haben in der Vergangenheit defizitäre Sicherheitsansätze als hinreichend erachtet und implementiert und können diese Grundhaltung nun nicht mehr ändern, ohne Zweifel an ihrer grundlegenden Kompetenz zu wecken. Andere neue Sicherheitsakteure können die Komplexität des Themas nicht beherrschen und tendieren dann zur Delegation oder Diffusion ihrer Verantwortung – oft an Sicherheits- oder IT-Firmen. Zum anderen entsteht die Toleranz aber auch durch epistemische Unsicherheiten, die sich von Annahmen zur Realität des Risikos über das Verhältnis von faktischen zu potenziellen Kosten von Unsicherheit und Sicherheit bis zur Unkenntnis der systematischen Schwächen bestehender Sicherheitsansätze erstrecken. Beide Probleme rufen eigene ethische Perspektiven und Fragestellungen auf. Toleranz durch Mittäterschaft bringt allgemein Berufsethik und im Cyberwar die damit in untrennbarem Zusammenhang stehende besondere Verantwortung des Militärs in seinem Beruf als Verteidiger auf. Hier muss besprochen werden, wie der Selbstschutz der Karriere gegen ein verantwortungsvolles Sicherheitsverhalten gewichtet werden soll und welche Alternativen entwickelt werden können, die ein moralisch weniger problematisches Verhalten ermöglichen. Die epistemische Unsicherheit und die aus ihr resultierenden Probleme über das ethisch zu bevorzugende Verhalten in Situationen mit hohen Risiken und hoher Unsicherheit bringen wieder andere Fragestellungen auf. Angesichts der im Cyberwar präsenten Hochrisiken des Krieges und der geostrategischen Erosion könnte hier nahegelegt werden, bei Unsicherheit über die anzunehmenden Problemperspektiven und die zu realisierenden Schutzhöhen eher Maximalansätze zu berücksichtigen, also vom Schlimmsten auszugehen und – solange keine signifikanten Wertkonflikte auftreten – maximale Sicherheitsforderungen aufzubauen. Für eine genauere Evaluierung ließe sich hier auch die von Christoph Hubig betonte technikethisch relevante Differenz zwischen Akzeptanz und Akzeptabilität anbringen. Was durch Unternehmen oder Militärs auf Basis halbinformierter und kurzfristig entworfener Szenarioabschätzung sowie des schlecht abzuschätzenden Return on Investment für Cybersicherheit akzeptiert wird, muss nicht akzeptabel sein. Vielmehr sollte zuerst formuliert werden, was akzeptabel ist, um von dort aus Defizite in der Wahrnehmung der Akzeptanz oder damit zusammenhängende Konflikte adressieren zu können. 

Verstärkung von Konfliktpotenzialen

Ein weiteres Problem der oben ausgeführten Ausgangsproblematik ist der Umstand, dass die hohen Unsicherheiten Anreize für viele weitere militärische und kriminelle Akteure zur Ausbildung offensiver Fähigkeiten schaffen. Dies kann natürlich rein theoretisch zu einer neutralen oder positiven Erhöhung von Stabilität führen, wird aber voraussichtlich auch zu einer Vervielfachung und Heterogenisierung des Problems führen sowie zu problematischen offensiven Pfadabhängigkeiten der Akteure, denn sofern die Fähigkeiten erst einmal ausgebildet sind, liegt deren offensive Nutzung zumindest näher als vorher. Auch dies muss nicht pauschal schlecht sein, wenn die offensive Nutzung etwa im Kontext eines gerechten Krieges liegt. Die Überpräsenz des ungerechten Krieges jedoch sowie die zahlreichen Möglichkeiten subversiver oder tentativer Kriegführung durch den Anreiz der hohen Unsichtbarkeit und der Fälschbarkeit von Identitäten legen nahe, dass Vervielfachung, Heterogenisierung und steigende Pfadabhängigkeiten im besonderen Fall des Cyberwar zu einer steigenden Zahl kleinerer Konflikte führen. Diese wiederum können leichter als in anderen, stärker etablierten Spielarten des Krieges zu Eskalationen führen, da aufgrund der Novität des Cyberwar die Interpretationen selbst kleinerer Vorfälle noch unsicher ist und ‒ verstärkt durch Medienhype ‒ aggressiver ausfallen könnte.

Eskalatorische Kompensationsmechanismen

Ein ebenfalls entstehendes und ethisch zu adressierendes Problem sind die im Ansatz Deter bereits sichtbar gewordenen Kompensationsmechanismen der schlechten Basissicherheit. Diese Mechanismen versuchen, Angreifern gegenüber trotz der krassen Mängel des passiven Schutzes und der Attribution von Angriffen immer noch eine Abschreckungswirkung aufzubauen, indem die einzig im Wirkungsbereich des Abschreckenden liegende Größe der Bestrafung drastisch erhöht wird. Mit anderen Worten: Wenn man einen Angreifer nicht abhalten und nur sehr selten identifizieren kann, dann muss man den Angreifer wenigstens drakonisch bestrafen, wenn man ihn mal erfolgreich erwischt hat, um so überhaupt noch eine Abschreckungswirkung zu erzielen. Während diese Logik zwar militärisch funktional ist und naheliegt (und bereits versuchsweise wie im Tallinn Manual zumindest in der Form harter Drohungen praktiziert wird), erhöht sie das Risiko für Eskalationen deutlich, indem eine entsprechende Haltung unter der besonderen Modalität der Fälschbarkeit von Identitäten zu false flag-Operationen einlädt, andererseits aber auch „ehrlich erwischten“ Angreifern einen Eindruck von stark unproportionalem Handeln vermittelt, was wieder durch andere Reaktionen des angeklagten Angreifers kompensiert werden könnte, so dass eine Eskalationsspirale entsteht. Schließlich entsteht im Kontext der Kompensationsmechanismen auch das Problem deutlich ansteigender globaler Internetüberwachung – mit seinen ganz eigenen Kollateralschäden an Freiheit – da das Funktionieren der Deter-Ansätze maximale Bemühungen der Feindaufklärung voraussetzt, die sich vor allem durch Überwachungstechnologien realisieren lassen.

Diese drei Probleme sind gegenwärtig drei der härteren Strukturprobleme des Cyberwar, mit gleichzeitig klar erkennbaren ethischen Dimensionen.

Eine ethische Diskussion wird allerdings neben der reinen Abwägung der Werte und der Festsetzung der Methodik dieser Abwägung auch alternative Handlungsoptionen benötigen, um theoretisch gehaltvoll und praktisch relevant zu werden. Dabei entsteht zunächst die Frage, ob man überhaupt eine Alternative vorweisen kann. Denn wenn es keine anderen Optionen gibt, befindet man sich schlicht in Sachzwängen, die ethisch wenig wünschenswert erscheinen und beklagt werden können, aber durch ihre Alternativlosigkeit letztlich wenig diskutabel sind. Tatsächlich trifft man insbesondere im Feld der IT-Sicherheit häufig eine Haltung des Ergebens in Alternativlosigkeit. Viele der bestehenden Akteure sind zu sehr gewöhnt an den Status quo und neue Akteure kennen ohnehin keine Optionen, so dass es fast schon ein Glaubenspostulat geworden ist, dass man eben mit dieser Unsicherheit leben müsse wie mit dem Klimawandel.

Aber das ist falsch.

Die Computerwissenschaften haben in vielen Nischenbeschäftigungen verschiedene Ansätze zu hochsicherer IT entwickelt, die als Basistechnologie weniger angreifbar ist und die einen guten Teil der Cybersicherheitsprobleme schlicht technisch löst. Insbesondere die hohen Verwundbarkeiten durch massenhafte Programmierfehler, schlechte Transparenz und Kontrolle durch zu hohe Komplexität sind gravierende und grundlegende Probleme, die eigentlich schon lange technisch lösbar sind. Hochsicherheits-IT kann dann ein entscheidender game-changer werden, der auch die oben angesprochenen drei Probleme effektiv adressiert. Erstens sind die Sicherheitsgewinne durch Hochsicherheits-IT so eindeutig, so drastisch und so klar belegbar, dass sie keinen Raum für fahrlässige Toleranz von Unsicherheit in kritischen Strukturen mehr lassen. Auch die initialen Kosten sind tragbar, Performanzverluste sind nicht zu erwarten, so dass hier deutlich besser und klarer argumentiert werden kann – vor allem aus einer Perspektive der Akzeptabilität. Zweitens würde das zeitnahe Einbringen hochsicherer Systeme in kritische Strukturen eine deutliche Hemmung der Entwicklung des Angreiferfelds bewirken. Fast alle der kleineren Akteure könnten die für Angriffe auf entsprechende Strukturen notwendigen Ressourcen und Expertisen nicht mehr aufbringen, für die größeren Akteure würden die Kosten-Nutzen-Rechnungen zurück in den Zustand der achtziger Jahre fallen. Das goldene Zeitalter der signals intelligence würde wieder zu einer Bronzezeit, das globale Konfliktpotenzial durch hohe und breite offensive Befähigung und Eskalationen wäre deutlich reduziert. Drittens gäbe es keinerlei Basis mehr für eskalatorische Kompensationsmechanismen, da keine grundlegende Unsicherheit mehr kompensiert werden müsste, respektive da die Kompensationsmechanismen eine deutlich schlechtere Option wären. Destabilisierung durch mögliche Eskalationen und Freiheitsverluste durch massive Überwachung wären damit behoben.

Damit wäre also Hochsicherheits-IT eine ethisch deutlich zu präferierende Lösung des Cybersicherheitsproblems. Der einzige, aber große und mächtige Feind dieses Ansatzes ist der Riese, der durch diesen neuen Ansatz sterben würde – die alte IT. Es sind vor allem die Hersteller und Monopolisten der bestehenden Chips und Betriebssysteme, der Enterprise Resources Software und anderer Produkte, die das Aufkommen dieses speziellen alternativen Ansatzes verhindern. Und so dreht sich vieles in diesem Feld letztlich um die ethisch zu evaluierende Frage, ob man auf Kosten der globalen Sicherheit ein strukturell defektes IT-Substrat durchfüttern muss.

Zusammenfassung

Dr. Sandro Gaycken

Dr. Sandro Gaycken forscht zu Datensicherheit, Freiheit im Internet und Cybersicherheit sowie deren Auswirkung auf die moderne Kriegführung, Nachrichtenwesen und Außenpolitik. Das Problem der strategischen Cyberverteidigung will er vmithilfe robuster Hochsicherheitsinformationstechnologie lösen. Diese Maßnahmen sollen von strengen Auflagen für die Industrie begleitet werden, um bestehende Marktlücken zu schließen. Er ist Leiter des NATO-Programms „Science for Peace and Security“ (SPS), das sich mit nationalen Cyberstrategien befasst, sowie Leiter der Arbeitsgruppe zum Thema Cybersicherheit. Bei der Konzeption der deutschen Außen- und Sicherheitspolitik war er federführender Autor im Bereich Informationstechnologie und für Freiheit im Internet sowie Cybersicherheit/Cyberverteidigung zuständig. Er war Experte zahlreicher Anhörungen im Bundestag und beriet UNO, NATO, G8, EU und IAEA strategisch. Zudem trat er als Sachverständiger bei internationalen Gerichtsverhandlungen zu militärischer Cyberspionage und Cybersabotage auf. 

sandro.gaycken@esmt.org


Download als PDF

Alle Artikel dieser Ausgabe

Cybersicherheit und Freiheitsrechte – eine Aufgabe für die Europäische Union
Annegret Bendiek
Ein ethisches Argument für Hochsicherheits-IT
Sandro Gaycken
Cyberwarfare – Herausforderungen an das Völkerrecht
Robin Geiß
Staatlicher Hacktivismus und der "Soft War"
George R. Lucas, Jr.
Cyberwarfare – Hype oder Bedrohung?
Götz Neuneck
Warum uns die Militarisierung des Cyberspace beunruhigen sollte
Dinah PoKempner
Wie kann Ethik bei der Regelung des Cyberkriegs helfen?
Mariarosaria Taddeo

Specials

Isabel Skierka Felix FX Lindner Michael Hange