Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Die Macht der Kriegsmaschinen
> WAFFEN Wer ist Freund, wer ist Feind, wer wird getötet: das könnten in
> Zukunft Robotor statt Soldaten entscheiden
VON LALON SANDER
BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“
installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das
intelligente System lernt schnell, viel zu schnell. Als die Bediener des
Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt
der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und
Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der
intelligente Roboter aus der Zukunft den künftigen Anführer der
menschlichen Widerstandsbewegung zu ermorden versuchen.
Während rebellierende Maschinen und intelligente Computer noch weit
entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass
die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden
könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne
menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von
20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt eine
Studie der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19.
November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu
verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu
sein.
Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA,
die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet
haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am
Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben.
Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag
mehrerer europäischer Länder das unbemannte Kampfflugzeug „Neuron“. Es
fliegt eigenständig, ohne menschlichen Eingriff und muss das auch können,
denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen Linien
fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und
schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten�…
sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von
Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger
Mensch.
Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr,
das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene
Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer
rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt
seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind…
Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu
drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig
gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die
„sinnvollste“ Kanone wird berechnet. Abschuss.
Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend
berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend
zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen
sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde
eine zentrale Komponente fehlen: Empathie.
Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der
zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür
verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die
Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte
Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber
keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer,
auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar
ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“
Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen
Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch
benötigt wird, wird ständig getestet. So bereiten Computer an vielen
Stellen Entscheidungen für Menschen so weit vor, dass in dringenden
Situationen wenig Zeit für eine eigenständige Entscheidung bleibt. Human
Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher dem
automatisierten System folgen und dem Angriff zustimmen werden. Die Gefahr
besteht, dass die Entscheidung des Computers zur Regel werden könnte.
Wenige Tage nach der HRW-Studie veröffentlichte das
US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher
Waffen und ihre Einsätze regelt.
Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern
ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten,
wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang
denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem
deutschen Verteidigungsministerium heißt es zum Beispiel, autonome
Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche
Beurteilung. Ganz anders die USA: Eine „Roadmap“ des US-Militärs sieht die
Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für
Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“.
Die kürzlich erschienene Direktive des US-Verteidigungsministeriums
definiert nun aber konkrete Rahmenbedingungen für die Produktion und den
Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur
Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch
dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne
einen knopfdrückenden Soldaten wäre also zugelassen. Doch in einem Halbsatz
eröffnet sich der Weg zu autonomen Waffen: Es heißt, wenn semiautonome
Systeme, deren Ziele von Menschen vorgegeben werden, den Kontakt zu
Bedienern verlieren, könnten sie dennoch bereits definierte Ziele
angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne, deren
Kommunikation gestört wird, also nicht mehr berücksichtigen müssen.
„Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht
auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon
auszugehen, dass militärische Kräfte diese Waffen ‚ordnungsgemäß‘ oder
‚verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der
Knackpunkt, um den gestritten wird. In einer Erwiderung an Kritiker von
autonomen Waffen schreibt etwa Jeffrey Thurnher, Major und Professor am
Naval War College der USA, dass Kommandeure autonome Waffensysteme in
Gegenden einsetzen könnten, wo das Risiko von Kollateralschäden besonders
gering ist, etwa unter Wasser, oder in Situationen, in denen feindliche
Soldaten einfach zu erkennen sind. Zur Aufstandsbekämpfung seien sie
hingegen nicht geeignet. Allerdings könnten sich Roboter in solchen
Situationen einem Angriff aussetzen, um Feinde zweifelsfrei zu
identifizieren – Menschen wären da schon tot.
Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine
Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die
Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter
Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee
der Wahl eines Diktators im Falle einer Rebellion? Und was passiert, wenn
sich autonome Waffen gegenseitig angreifen? „Im schlimmsten Fall könnten
durch Missverständnisse in unübersichtlichen Situationen in Krisen sogar
Kriege ausgelöst werden“, sagt Jürgen Altmann, Physiker an der TU Dortmund
und Mitglied im Internationalen Komitee für die Kontrolle von
Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere autonome Waffen
leicht ihren Weg in die Hände von Terroristen finden könnten.
Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument
ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben
und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so
abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt
HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen.
„Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen
Terminator“, kommentierte ein Sprecher die neue Direktive.
20 Dec 2012
## AUTOREN
LALON SANDER
## ARTIKEL ZUM THEMA
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.