# taz.de -- Die Macht der Kriegsmaschinen | |
> WAFFEN Wer ist Freund, wer ist Feind, wer wird getötet: das könnten in | |
> Zukunft Robotor statt Soldaten entscheiden | |
VON LALON SANDER | |
BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“ | |
installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das | |
intelligente System lernt schnell, viel zu schnell. Als die Bediener des | |
Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt | |
der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und | |
Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der | |
intelligente Roboter aus der Zukunft den künftigen Anführer der | |
menschlichen Widerstandsbewegung zu ermorden versuchen. | |
Während rebellierende Maschinen und intelligente Computer noch weit | |
entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass | |
die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden | |
könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne | |
menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von | |
20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt eine | |
Studie der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19. | |
November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu | |
verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu | |
sein. | |
Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA, | |
die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet | |
haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am | |
Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben. | |
Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag | |
mehrerer europäischer Länder das unbemannte Kampfflugzeug „Neuron“. Es | |
fliegt eigenständig, ohne menschlichen Eingriff und muss das auch können, | |
denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen Linien | |
fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und | |
schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten�… | |
sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von | |
Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger | |
Mensch. | |
Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr, | |
das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene | |
Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer | |
rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt | |
seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind… | |
Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu | |
drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig | |
gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die | |
„sinnvollste“ Kanone wird berechnet. Abschuss. | |
Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend | |
berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend | |
zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen | |
sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde | |
eine zentrale Komponente fehlen: Empathie. | |
Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der | |
zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür | |
verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die | |
Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte | |
Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber | |
keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer, | |
auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar | |
ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“ | |
Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen | |
Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch | |
benötigt wird, wird ständig getestet. So bereiten Computer an vielen | |
Stellen Entscheidungen für Menschen so weit vor, dass in dringenden | |
Situationen wenig Zeit für eine eigenständige Entscheidung bleibt. Human | |
Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher dem | |
automatisierten System folgen und dem Angriff zustimmen werden. Die Gefahr | |
besteht, dass die Entscheidung des Computers zur Regel werden könnte. | |
Wenige Tage nach der HRW-Studie veröffentlichte das | |
US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher | |
Waffen und ihre Einsätze regelt. | |
Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern | |
ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten, | |
wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang | |
denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem | |
deutschen Verteidigungsministerium heißt es zum Beispiel, autonome | |
Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche | |
Beurteilung. Ganz anders die USA: Eine „Roadmap“ des US-Militärs sieht die | |
Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für | |
Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“. | |
Die kürzlich erschienene Direktive des US-Verteidigungsministeriums | |
definiert nun aber konkrete Rahmenbedingungen für die Produktion und den | |
Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur | |
Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch | |
dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne | |
einen knopfdrückenden Soldaten wäre also zugelassen. Doch in einem Halbsatz | |
eröffnet sich der Weg zu autonomen Waffen: Es heißt, wenn semiautonome | |
Systeme, deren Ziele von Menschen vorgegeben werden, den Kontakt zu | |
Bedienern verlieren, könnten sie dennoch bereits definierte Ziele | |
angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne, deren | |
Kommunikation gestört wird, also nicht mehr berücksichtigen müssen. | |
„Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht | |
auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon | |
auszugehen, dass militärische Kräfte diese Waffen ‚ordnungsgemäß‘ oder | |
‚verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der | |
Knackpunkt, um den gestritten wird. In einer Erwiderung an Kritiker von | |
autonomen Waffen schreibt etwa Jeffrey Thurnher, Major und Professor am | |
Naval War College der USA, dass Kommandeure autonome Waffensysteme in | |
Gegenden einsetzen könnten, wo das Risiko von Kollateralschäden besonders | |
gering ist, etwa unter Wasser, oder in Situationen, in denen feindliche | |
Soldaten einfach zu erkennen sind. Zur Aufstandsbekämpfung seien sie | |
hingegen nicht geeignet. Allerdings könnten sich Roboter in solchen | |
Situationen einem Angriff aussetzen, um Feinde zweifelsfrei zu | |
identifizieren – Menschen wären da schon tot. | |
Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine | |
Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die | |
Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter | |
Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee | |
der Wahl eines Diktators im Falle einer Rebellion? Und was passiert, wenn | |
sich autonome Waffen gegenseitig angreifen? „Im schlimmsten Fall könnten | |
durch Missverständnisse in unübersichtlichen Situationen in Krisen sogar | |
Kriege ausgelöst werden“, sagt Jürgen Altmann, Physiker an der TU Dortmund | |
und Mitglied im Internationalen Komitee für die Kontrolle von | |
Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere autonome Waffen | |
leicht ihren Weg in die Hände von Terroristen finden könnten. | |
Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument | |
ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben | |
und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so | |
abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt | |
HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen. | |
„Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen | |
Terminator“, kommentierte ein Sprecher die neue Direktive. | |
20 Dec 2012 | |
## AUTOREN | |
LALON SANDER | |
## ARTIKEL ZUM THEMA |