Bericht zur Veranstaltung

cisgbonn Neuigkeiten, Veranstaltungen 2018

Am 11.10.2018 veranstalteten das Center for Global Studies (CGS) und das Center for International Security and Governance (CISG) der Universität Bonn im Festsaal der Bonner Universität eine Veranstaltung zum Thema Künstliche Intelligenz und Zukunft der Kriegsführung. Zur Begrüßung der zahlreich erschienenen Zuhörer führte Philip Ackermann vom CISG in den ebenso komplexen wie streitbaren Themenbereich ein, indem er feststellte, dass wir uns weit intensiver mit dem Thema KI auseinandersetzen müssen, deren Entwicklung immer schneller voranschreitet und uns die Erfassung aller mit ihr einhergehenden Implikationen zunehmend erschwert. Zur Annäherung an diese Problematik bot der Berliner Rechtsanwalt und freie Journalist Roger Näbig einen Überblick über den aktuellen technischen Entwicklungsstand von automatischen und autonomen Waffensystemen und ging der Frage nach, wo die Fortschritte der KI in der Waffenentwicklung möglicherweise hinführen könnten.

KI, konstatierte Näbig, ist ähnlich wie die Elektrizität oder die Erfindung der Dampfmaschine kein Teilaspekt technischer Entwicklung, sondern eine Erfindung, die alle anderen Bereiche grundlegend transformiert. Die rasante Verbreitung von automatischen Waffensystemen (AWS) ist bereits jetzt beachtlich: Verfügte etwa die U.S. Army um die Jahrtausendwende noch über nur etwa 50 Drohnen, lag die Zahl militärisch genutzter Drohnen und Landroboter alleine in den USA 2014 schon bei 23.000 und steigt seitdem immer weiter an. Das militärische Potential und Einsatzgebiete dieser Technik sind schon jetzt enorm. So ermöglichen sie die Überwindung sogenannter A2AD (Anti-Access Area Denial)-Zonen, also solche Zonen, die mit herkömmlichen militärischen Mitteln nicht besetzt oder durchquert werden können. Weiterhin betonen Befürworter die größere Präzision, Geschwindigkeit, Mobilität, Ausdauer und Reichweite automatischer Waffensysteme. Gerade auch durch die Eliminierung des menschlichen Faktors und die Gefahren durch Ermüdung, Angst oder Hass bei Soldaten würden außerdem menschliche „Kollateralschäden“ verringert, wobei Näbig diese Annahme mit Blick auf Afghanistan freilich mit einem gewissen Zweifel betrachtete.

Vollautonome letale Waffensysteme mit sogenannten Out-of-the-Loop-Systemen, bei denen Menschen keinerlei Eingriffsmöglichkeiten mehr haben und die aus völkerrechtlicher und ethischer Sicht enorme Probleme aufwerfen, gibt es Näbig zufolge derzeit noch nicht. Problematisch ist hierbei nicht jede autonome Funktion an sich, sondern primär die Erfassung, Verfolgung, Auswahl und Bekämpfung von Zielen, was landläufig als „aim and shoot“-Funkttionen bezeichnet wird – also letztlich die Frage, ob Maschinen autonom über Leben und Tod entscheiden können. Vollautomatische Systeme wie der festinstallierte Kampfroboter SGR-A1 mit Maschinenkanone von Samsung, der Menschen auf eine Distanz von bis zu 3 Kilometern bekämpfen kann und bei dem zumindest dem Hersteller zufolge eine manuelle Intervention noch möglich ist, sind hingegen bereits im Einsatz. Dennoch scheint die Grenze hier fließend zu verlaufen – die für das israelische Militär entwickelte Kamikazedrohne IAI Harop verfügt über einen autonomen Modus, in dem sie eigenständig andere Waffensysteme als Ziele identifiziert und zerstört. Ein Großteil der derzeit in Benutzung befindlichen Drohnen ist in Teilbereichen wie Start und Landung vollautomatisiert, jedoch nicht vollständig autonom.

Der Entwicklungsstand in der militärischen Nutzung weist derzeit international recht große Unterschiede auf, was zukünftig Probleme bei gemeinsamen Einsätzen ungleich stark entwickelter Alliierter zur Folge haben dürfte. Die USA sehen AWS etwa als kriegsentscheidend für zukünftige Konflikte an, während die Bundesrepublik sich im Bereich der AWS- und KI-Entwicklung sehr zurückhaltend verhält. Russlands Präsident Putin ließ derweil verlauten, dass, wer auch immer KI beherrscht, damit die Welt beherrsche. China will laut einer Bekanntmachung von 2017 bis 2030 im KI-Bereich führend sein.

Resümierend ließ sich aus Näbigs Präsentation schließen, dass der technische Stand der automatisierten Waffenentwicklung bereits sehr weit fortgeschritten ist. Gerade in Kombination mit Elementen künstlicher Intelligenz, durch die etwa hochgradig komplexe Drohnenschwarmangriffe koordiniert werden können, wird sie bis dato kaum absehbare Implikationen für die Zukunft der Kriegsführung haben und das Schicksal von Staaten entscheidend mit prägen.

Abgesehen von der Vielzahl der von Näbig aufgeführten Nachteile und Probleme beim Einsatz von AWS, bei denen es sich in erster Linie um technische Herausforderungen wie die Einsatzfähigkeit bei suboptimalen Witterungsbedingungen handelt, stellt sich beim Einsatz von autonomen Waffensystemen besonders ein Problem als zentral heraus: nämlich das der Verantwortung und Abwägung bei der Entscheidung über Leben und Tod. Im Kriegsfall gelten die völkerrechtlichen Grundsätze der Verhältnismäßigkeit, der Vorsicht und Vorsorge sowie der Unterscheidung zwischen zivilen und militärischen Zielen. Eine Abwägung ist hier schon für den Menschen von Situation zu Situation eine Herausforderung, woraus sich die Frage ergibt, wie sich diese Art der Abwägungsfähigkeit programmieren lassen soll. SIPRI konkludierte 2017, dass volle Autonomie nicht das Ziel ist und auch nicht sein kann. Während der Westen hier übergreifend recht zurückhaltend ist, scheinen Russland und China dies jedoch etwas anders zu sehen. Mit einem kritischen Blick auf vollautonome Waffensysteme konkludierte Roger Näbig seinen Vortrag mit der Feststellung, dass Leben, Tod, Mensch und Krieg nicht auf bloße Nullen und Einsen reduziert werden dürfen.