Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen
> Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt
> Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele
> treffen?
Bild: Killerroboter aus der Zukunft: Der „Terminator“ sieht nur aus wie ein…
BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“
installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das
intelligente System lernt schnell, viel zu schnell. Als die Bediener des
Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt
der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und
Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der
intelligente Roboter aus der Zukunft den künftigen Anführer der
menschlichen Widerstandsbewegung zu ermorden versuchen.
Während rebellierende Maschinen und intelligente Computer noch weit
entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass
die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden
könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne
menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von
20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt [1][eine
Studie] der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19.
November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu
verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu
sein.
Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA,
die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet
haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am
Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben.
Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag
mehrerer europäischer Länder das [2][unbemannte Kampfflugzeug „Neuron“].
Es fliegt eigenständig, ohne menschlichen Eingriff und muss das auch
können, denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen
Linien fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und
schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten�…
sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von
Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger
Mensch.
## Im Zweifel mit dem Computer
Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr,
das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene
Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer
rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt
seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind…
Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu
drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig
gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die
„sinnvollste“ Kanone wird berechnet. Abschuss.
Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend
berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend
zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen
sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde
eine zentrale Komponente fehlen: Empathie.
Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der
zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür
verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die
Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte
Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber
keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer,
auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar
ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“
Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen
Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch
benötigt wird, wird ständig getestet. So bereiten Computer an vielen
Stellen Entscheidungen für Menschen so weit vor, dass in dringenden
Situationen wenig Zeit für eine eigenständige Entscheidung bleibt.
Human Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher
dem automatisierten System folgen und dem Angriff zustimmen werden. Die
Gefahr besteht, dass die Entscheidung des Computers zur Regel werden
könnte. Wenige Tage nach der HRW-Studie veröffentlichte das
US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher
Waffen und ihre Einsätze regelt.
## „Kein Thema für Deutschland“
Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern
ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten,
wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang
denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem
deutschen Verteidigungsministerium heißt es zum Beispiel, autonome
Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche
Beurteilung. Ganz anders die USA: [3][Eine „Roadmap“ des US-Militärs] sieht
die Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für
Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“.
Die [4][kürzlich erschienene Direktive] des US-Verteidigungsministeriums
definiert nun aber konkrete Rahmenbedingungen für die Produktion und den
Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur
Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch
dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne
einen knopfdrückenden Soldaten wäre also zugelassen.
Doch in einem Halbsatz eröffnet sich der Weg zu autonomen Waffen: Es heißt,
wenn semiautonome Systeme, deren Ziele von Menschen vorgegeben werden, den
Kontakt zu Bedienern verlieren, könnten sie dennoch bereits definierte
Ziele angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne,
deren Kommunikation gestört wird, also nicht mehr berücksichtigen müssen.
„Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht
auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon
auszugehen, dass militärische Kräfte diese Waffen ’ordnungsgemäß‘ oder
’verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der
Knackpunkt, um den gestritten wird.
## Roboter gegen Roboter
In einer Erwiderung an Kritiker von autonomen Waffen [5][schreibt etwa
Jeffrey Thurnher], Major und Professor am Naval War College der USA, dass
Kommandeure autonome Waffensysteme in Gegenden einsetzen könnten, wo das
Risiko von Kollateralschäden besonders gering ist, etwa unter Wasser, oder
in Situationen, in denen feindliche Soldaten einfach zu erkennen sind. Zur
Aufstandsbekämpfung seien sie hingegen nicht geeignet. Allerdings könnten
sich Roboter in solchen Situationen einem Angriff aussetzen, um Feinde
zweifelsfrei zu identifizieren – Menschen wären da schon tot.
Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine
Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die
Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter
Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee
der Wahl eines Diktators im Falle einer Rebellion?
Und was passiert, wenn sich autonome Waffen gegenseitig angreifen? „Im
schlimmsten Fall könnten durch Missverständnisse in unübersichtlichen
Situationen in Krisen sogar Kriege ausgelöst werden“, sagt Jürgen Altmann,
Physiker an der TU Dortmund und Mitglied im Internationalen Komitee für die
Kontrolle von Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere
autonome Waffen leicht ihren Weg in die Hände von Terroristen finden
könnten.
Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument
ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben
und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so
abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt
HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen.
„Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen
Terminator“, [6][kommentierte ein Sprecher] die neue Direktive.
19 Dec 2012
## LINKS
[1] http://www.hrw.org/reports/2012/11/19/losing-humanity-0
[2] http://www.dassault-aviation.com/en/aviation/press/press-kits/2012/the-neur…
[3] http://contracting.tacom.army.mil/future_buys/FY11/UGS%20Roadmap_Jul11.pdf
[4] http://www.hsdl.org/?view&did=726163
[5] http://www.ndu.edu/press/fully-autonomous-targeting.html
[6] http://www.defensenews.com/article/20121127/DEFREG02/311270005/U-S-DoD-8217…
## AUTOREN
Lalon Sander
## TAGS
Drohnenkrieg
Rüstungsindustrie
Rüstungspolitik
Autonome Waffen
Killerroboter
Autonome Waffen
Autonome Waffen
Autonome Waffen
Kundus
Roboter
Terminator
Digitalisierung
Roboter
Roboter
Drohnen
Killerroboter
Drohnen
USA
USA
Folter
Drohnenkrieg
Drohnen
## ARTIKEL ZUM THEMA
Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter
Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus.
Sie warnen vor der Selbstvernichtung der Menschheit.
UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot
Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen
organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA
und Russland sperren.
Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter
Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht
entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin.
Schlagloch US-Kriegsführung: Komplizen des Abschlachtens
Unter Obama begann ein großes Schweigen über Opfer im Anti-Terror-Krieg.
Dafür sind besonders Drohnen verantwortlich.
Roboter muss USA-Reise beenden: Arme abgerissen, Kopf gestohlen
Der trampende Roboter „hitchBOT“ sollte einmal quer durch die USA reisen.
Doch nun wurde er von Vandalen zerstört.
Neuer „Terminator“-Film: Der Mann des Imperativs
Alan Taylors „Terminator: Genisys“ hat nur einen Lichtblick: Ex-Gouverneur
Arnold Schwarzenegger. Auch wenn er an den Kindergartencop erinnert.
Schlagloch Automation: Selbstlenkende Gesellschaft
Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich.
Doch sie wird noch viel schneller kommen als wir es befürchten.
Gehirnforschung und Roboter: Wurm in der Maschine
Ist es möglich, ein Gehirn komplett als Computerprogramm nachzubauen? Einem
US-Forscher ist die Simulation für einen winzigen Wurm gelungen.
Autonome Roboter im Straßenverkehr: Der Fahrer in der Maschine
Bald könnten selbststeuernde Fahrzeuge auf Straßen unterwegs sein. Doch
dürfen sie in Unfallsituationen entscheiden, wer lebt und wer stirbt?
Rüstungsforscher über Kampfdrohnen: „Sind dann Programmierer schuld?“
Künftig könnten Kampfdrohnen auch ohne menschliche Kontrolle agieren, sagt
der Forscher Hilmar Linnenkamp. Aber wer ist dann für sie verantwortlich?
Autonome Waffen in Schwellenländern: China testet das „scharfe Schwert“
Die USA und die EU entwickeln Waffen, die ohne menschliche Kontrolle
auskommen könnten. Nun wollen auch Indien und China solche Systeme.
Drohnen-Testflug über Deutschland: Größer als ein Passagierflugzeug
In Oberbayern startete der Testflug von Europas größter Drohne. Das
unbemannte Flugzeug kann mittels Sensoren Radarstrahler und
Kommunikationssender aufspüren.
Kommentar US-Außenpolitik: Die Abzieher
Die Grundidee von Obamas Abzugsplänen: weniger Soldaten, mehr Drohnen.
Militärische Mittel werden ein Instrument der US-Außenpolitik bleiben.
Video der Woche: God bless guns
Todeszahlen, eine US-Flagge, Schüsse: Was nach dem Amoklauf in Newtown wie
eine aktuelle Anti-Waffen-Kampagne anmutet, ist doch viel älter.
Film „Zero Dark Thirty“: So war das aber nicht!
„Zero Dark Thirty“ zeigt die Tötung von Osama Bin Laden. US-Senatoren
beklagen: zu viel Folter im Film. Was sagt uns das?
Kommentar Drohnenkrieg: Wenn Kriegführen zu einfach wird
Krieg wird nicht grausamer, wenn Drohnen oder Roboter ihn führen. Aber die
Welt wird unsicherer.
Debatte Tötung durch Drohnen: Perverse Waffen
Drohnen haben in den vergangenen Jahren tausende Menschen getötet – auch
viele Zivilisten. Die UNO muss die unbemannten Kampfmaschinen ächten.
Streit um Waffenbeschaffung: SPD: Drohnen frühestens 2020
Die Bundeswehr soll bewaffnete Drohnen erst nach ausreichender Debatte über
„Einsatzschwelle“ bekommen, sagt ein SPD-Verteidigungsexperte.
Debatte Kampfdrohnen: Waffen sind nicht ethisch neutral
Um den Kauf von Kampfdrohnen zu verteidigen, tut Innenminister de Maizière
so, als wären Waffen an sich neutral. Doch die Geschichte spricht gegen
ihn.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.