# taz.de -- Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen | |
> Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt | |
> Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele | |
> treffen? | |
Bild: Killerroboter aus der Zukunft: Der „Terminator“ sieht nur aus wie ein… | |
BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“ | |
installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das | |
intelligente System lernt schnell, viel zu schnell. Als die Bediener des | |
Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt | |
der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und | |
Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der | |
intelligente Roboter aus der Zukunft den künftigen Anführer der | |
menschlichen Widerstandsbewegung zu ermorden versuchen. | |
Während rebellierende Maschinen und intelligente Computer noch weit | |
entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass | |
die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden | |
könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne | |
menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von | |
20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt [1][eine | |
Studie] der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19. | |
November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu | |
verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu | |
sein. | |
Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA, | |
die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet | |
haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am | |
Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben. | |
Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag | |
mehrerer europäischer Länder das [2][unbemannte Kampfflugzeug „Neuron“]. | |
Es fliegt eigenständig, ohne menschlichen Eingriff und muss das auch | |
können, denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen | |
Linien fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und | |
schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten�… | |
sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von | |
Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger | |
Mensch. | |
## Im Zweifel mit dem Computer | |
Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr, | |
das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene | |
Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer | |
rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt | |
seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind… | |
Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu | |
drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig | |
gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die | |
„sinnvollste“ Kanone wird berechnet. Abschuss. | |
Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend | |
berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend | |
zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen | |
sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde | |
eine zentrale Komponente fehlen: Empathie. | |
Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der | |
zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür | |
verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die | |
Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte | |
Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber | |
keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer, | |
auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar | |
ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“ | |
Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen | |
Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch | |
benötigt wird, wird ständig getestet. So bereiten Computer an vielen | |
Stellen Entscheidungen für Menschen so weit vor, dass in dringenden | |
Situationen wenig Zeit für eine eigenständige Entscheidung bleibt. | |
Human Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher | |
dem automatisierten System folgen und dem Angriff zustimmen werden. Die | |
Gefahr besteht, dass die Entscheidung des Computers zur Regel werden | |
könnte. Wenige Tage nach der HRW-Studie veröffentlichte das | |
US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher | |
Waffen und ihre Einsätze regelt. | |
## „Kein Thema für Deutschland“ | |
Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern | |
ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten, | |
wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang | |
denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem | |
deutschen Verteidigungsministerium heißt es zum Beispiel, autonome | |
Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche | |
Beurteilung. Ganz anders die USA: [3][Eine „Roadmap“ des US-Militärs] sieht | |
die Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für | |
Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“. | |
Die [4][kürzlich erschienene Direktive] des US-Verteidigungsministeriums | |
definiert nun aber konkrete Rahmenbedingungen für die Produktion und den | |
Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur | |
Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch | |
dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne | |
einen knopfdrückenden Soldaten wäre also zugelassen. | |
Doch in einem Halbsatz eröffnet sich der Weg zu autonomen Waffen: Es heißt, | |
wenn semiautonome Systeme, deren Ziele von Menschen vorgegeben werden, den | |
Kontakt zu Bedienern verlieren, könnten sie dennoch bereits definierte | |
Ziele angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne, | |
deren Kommunikation gestört wird, also nicht mehr berücksichtigen müssen. | |
„Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht | |
auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon | |
auszugehen, dass militärische Kräfte diese Waffen ’ordnungsgemäß‘ oder | |
’verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der | |
Knackpunkt, um den gestritten wird. | |
## Roboter gegen Roboter | |
In einer Erwiderung an Kritiker von autonomen Waffen [5][schreibt etwa | |
Jeffrey Thurnher], Major und Professor am Naval War College der USA, dass | |
Kommandeure autonome Waffensysteme in Gegenden einsetzen könnten, wo das | |
Risiko von Kollateralschäden besonders gering ist, etwa unter Wasser, oder | |
in Situationen, in denen feindliche Soldaten einfach zu erkennen sind. Zur | |
Aufstandsbekämpfung seien sie hingegen nicht geeignet. Allerdings könnten | |
sich Roboter in solchen Situationen einem Angriff aussetzen, um Feinde | |
zweifelsfrei zu identifizieren – Menschen wären da schon tot. | |
Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine | |
Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die | |
Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter | |
Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee | |
der Wahl eines Diktators im Falle einer Rebellion? | |
Und was passiert, wenn sich autonome Waffen gegenseitig angreifen? „Im | |
schlimmsten Fall könnten durch Missverständnisse in unübersichtlichen | |
Situationen in Krisen sogar Kriege ausgelöst werden“, sagt Jürgen Altmann, | |
Physiker an der TU Dortmund und Mitglied im Internationalen Komitee für die | |
Kontrolle von Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere | |
autonome Waffen leicht ihren Weg in die Hände von Terroristen finden | |
könnten. | |
Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument | |
ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben | |
und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so | |
abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt | |
HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen. | |
„Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen | |
Terminator“, [6][kommentierte ein Sprecher] die neue Direktive. | |
19 Dec 2012 | |
## LINKS | |
[1] http://www.hrw.org/reports/2012/11/19/losing-humanity-0 | |
[2] http://www.dassault-aviation.com/en/aviation/press/press-kits/2012/the-neur… | |
[3] http://contracting.tacom.army.mil/future_buys/FY11/UGS%20Roadmap_Jul11.pdf | |
[4] http://www.hsdl.org/?view&did=726163 | |
[5] http://www.ndu.edu/press/fully-autonomous-targeting.html | |
[6] http://www.defensenews.com/article/20121127/DEFREG02/311270005/U-S-DoD-8217… | |
## AUTOREN | |
Lalon Sander | |
## TAGS | |
Drohnenkrieg | |
Rüstungsindustrie | |
Rüstungspolitik | |
Autonome Waffen | |
Killerroboter | |
Autonome Waffen | |
Autonome Waffen | |
Autonome Waffen | |
Kundus | |
Roboter | |
Terminator | |
Digitalisierung | |
Roboter | |
Roboter | |
Drohnen | |
Killerroboter | |
Drohnen | |
USA | |
USA | |
Folter | |
Drohnenkrieg | |
Drohnen | |
## ARTIKEL ZUM THEMA | |
Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter | |
Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. | |
Sie warnen vor der Selbstvernichtung der Menschheit. | |
UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot | |
Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen | |
organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA | |
und Russland sperren. | |
Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter | |
Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht | |
entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin. | |
Schlagloch US-Kriegsführung: Komplizen des Abschlachtens | |
Unter Obama begann ein großes Schweigen über Opfer im Anti-Terror-Krieg. | |
Dafür sind besonders Drohnen verantwortlich. | |
Roboter muss USA-Reise beenden: Arme abgerissen, Kopf gestohlen | |
Der trampende Roboter „hitchBOT“ sollte einmal quer durch die USA reisen. | |
Doch nun wurde er von Vandalen zerstört. | |
Neuer „Terminator“-Film: Der Mann des Imperativs | |
Alan Taylors „Terminator: Genisys“ hat nur einen Lichtblick: Ex-Gouverneur | |
Arnold Schwarzenegger. Auch wenn er an den Kindergartencop erinnert. | |
Schlagloch Automation: Selbstlenkende Gesellschaft | |
Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich. | |
Doch sie wird noch viel schneller kommen als wir es befürchten. | |
Gehirnforschung und Roboter: Wurm in der Maschine | |
Ist es möglich, ein Gehirn komplett als Computerprogramm nachzubauen? Einem | |
US-Forscher ist die Simulation für einen winzigen Wurm gelungen. | |
Autonome Roboter im Straßenverkehr: Der Fahrer in der Maschine | |
Bald könnten selbststeuernde Fahrzeuge auf Straßen unterwegs sein. Doch | |
dürfen sie in Unfallsituationen entscheiden, wer lebt und wer stirbt? | |
Rüstungsforscher über Kampfdrohnen: „Sind dann Programmierer schuld?“ | |
Künftig könnten Kampfdrohnen auch ohne menschliche Kontrolle agieren, sagt | |
der Forscher Hilmar Linnenkamp. Aber wer ist dann für sie verantwortlich? | |
Autonome Waffen in Schwellenländern: China testet das „scharfe Schwert“ | |
Die USA und die EU entwickeln Waffen, die ohne menschliche Kontrolle | |
auskommen könnten. Nun wollen auch Indien und China solche Systeme. | |
Drohnen-Testflug über Deutschland: Größer als ein Passagierflugzeug | |
In Oberbayern startete der Testflug von Europas größter Drohne. Das | |
unbemannte Flugzeug kann mittels Sensoren Radarstrahler und | |
Kommunikationssender aufspüren. | |
Kommentar US-Außenpolitik: Die Abzieher | |
Die Grundidee von Obamas Abzugsplänen: weniger Soldaten, mehr Drohnen. | |
Militärische Mittel werden ein Instrument der US-Außenpolitik bleiben. | |
Video der Woche: God bless guns | |
Todeszahlen, eine US-Flagge, Schüsse: Was nach dem Amoklauf in Newtown wie | |
eine aktuelle Anti-Waffen-Kampagne anmutet, ist doch viel älter. | |
Film „Zero Dark Thirty“: So war das aber nicht! | |
„Zero Dark Thirty“ zeigt die Tötung von Osama Bin Laden. US-Senatoren | |
beklagen: zu viel Folter im Film. Was sagt uns das? | |
Kommentar Drohnenkrieg: Wenn Kriegführen zu einfach wird | |
Krieg wird nicht grausamer, wenn Drohnen oder Roboter ihn führen. Aber die | |
Welt wird unsicherer. | |
Debatte Tötung durch Drohnen: Perverse Waffen | |
Drohnen haben in den vergangenen Jahren tausende Menschen getötet – auch | |
viele Zivilisten. Die UNO muss die unbemannten Kampfmaschinen ächten. | |
Streit um Waffenbeschaffung: SPD: Drohnen frühestens 2020 | |
Die Bundeswehr soll bewaffnete Drohnen erst nach ausreichender Debatte über | |
„Einsatzschwelle“ bekommen, sagt ein SPD-Verteidigungsexperte. | |
Debatte Kampfdrohnen: Waffen sind nicht ethisch neutral | |
Um den Kauf von Kampfdrohnen zu verteidigen, tut Innenminister de Maizière | |
so, als wären Waffen an sich neutral. Doch die Geschichte spricht gegen | |
ihn. |