| # taz.de -- Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen | |
| > Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt | |
| > Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele | |
| > treffen? | |
| Bild: Killerroboter aus der Zukunft: Der „Terminator“ sieht nur aus wie ein… | |
| BERLIN taz | Am 4. August 1997 wird der Militärcomputer „Skynet“ | |
| installiert, um das nationale Waffenarsenal der USA zu kontrollieren. Das | |
| intelligente System lernt schnell, viel zu schnell. Als die Bediener des | |
| Computers in Panik geraten und versuchen, es wieder abzustellen, beginnt | |
| der Rechner einen atomaren Weltkrieg. Von dem Krieg zwischen Menschen und | |
| Maschinen handelt die Science-Fiction-Filmreihe „Terminator“, in der | |
| intelligente Roboter aus der Zukunft den künftigen Anführer der | |
| menschlichen Widerstandsbewegung zu ermorden versuchen. | |
| Während rebellierende Maschinen und intelligente Computer noch weit | |
| entfernt scheinen, gibt es inzwischen deutliche Entwicklungen dahin, dass | |
| die Kriege der Zukunft von eigenständigen Militärrobotern geführt werden | |
| könnten. „Autonome Waffensysteme“ werden die Roboter genannt, die ohne | |
| menschliches Eingreifen Ziele auswählen und bekämpfen können. Innerhalb von | |
| 20 bis 30 Jahren könnte es solche Roboter bereits geben, schätzt [1][eine | |
| Studie] der Menschenrechtsorganisation Human Rights Watch (HRW) vom 19. | |
| November. Darin wird gefordert, solche Roboter schon jetzt vorsorglich zu | |
| verbieten. Obwohl der Appell früh kommt, scheint es bereits zu spät zu | |
| sein. | |
| Beispiel Drohnen: Breit diskutiert sind bereits die Kampfdrohnen der USA, | |
| die in Afghanistan und Pakistan wohl mehrere tausend Menschen getötet | |
| haben. Während sie keinen Piloten an Bord haben, sondern weit entfernt am | |
| Boden, wird die nächste Generation wohl gar keinen Piloten mehr haben. | |
| Anfang Dezember testete die französische Waffenfirma Dassault im Auftrag | |
| mehrerer europäischer Länder das [2][unbemannte Kampfflugzeug „Neuron“]. | |
| Es fliegt eigenständig, ohne menschlichen Eingriff und muss das auch | |
| können, denn die Tarnkappendrohne soll Geheimeinsätze hinter feindlichen | |
| Linien fliegen – jede Funkkommunikation würde ihre Deckung zerstören. Und | |
| schießen? „Wir müssen den Menschen in jedem Fall in der Schleife behalten�… | |
| sagt ein Sprecher von Dassault. „Wir suchen aber die richtige Mischung von | |
| Automatisierung und menschlicher Kontrolle.“ Heißt: mehr Maschine, weniger | |
| Mensch. | |
| ## Im Zweifel mit dem Computer | |
| Beispiel Raketenabwehr: Brandneu ist das System „Mantis“ der Bundeswehr, | |
| das im September getestet wurde. Das Werbevideo zeigt vier beigefarbene | |
| Kanonen, die zackig von einer Seite zur andern schwenken, auf ihren Dächer | |
| rotiert das Radar. Mündungsfeuer blitzt auf. Treffer. „Mantis“ verfolgt | |
| seine Ziele automatisch und sortiert sie per Radar in „Freund“ und „Feind… | |
| Dann haben die Soldaten maximal 20 Sekunden Zeit, auf den roten Knopf zu | |
| drücken, der den Abschuss freigibt. Wenn es mehrere Ziele gleichzeitig | |
| gibt, bleibt noch weniger Zeit. Danach entscheidet wieder der Computer. Die | |
| „sinnvollste“ Kanone wird berechnet. Abschuss. | |
| Computer könnten die Verhältnismäßigkeit von Einsätzen nicht ausreichend | |
| berücksichtigen, argumentiert die HRW-Studie, sie würden nur unzureichend | |
| zwischen Kämpfern und Zivilisten unterscheiden können – beide Abwägungen | |
| sind nach dem Völkerrecht notwendig – und bei ihren Entscheidungen werde | |
| eine zentrale Komponente fehlen: Empathie. | |
| Die Befürchtung der Menschenrechtsorganisation HRW ist, dass die Zahl der | |
| zivilen Kriegsopfer steigen könnte – und am Ende niemand dafür | |
| verantwortlich gemacht werden könnte. „Es werden Fehler passieren, und die | |
| Frage ist, wen wir dann zur Rechenschaft ziehen“, sagt HRW-Waffenexperte | |
| Steve Goose. „Ist es der Kommandeur, der die Maschine rausschickte, aber | |
| keinen Einfluss auf konkrete Schießbefehle hatte? Ist es der Programmierer, | |
| auf dessen Algorithmen diese Entscheidungen basieren? Der Hersteller? Klar | |
| ist nur: Die Maschine selbst kann nicht zur Verantwortung gezogen werden.“ | |
| Wegen der völkerrechtlichen Bedenken bilden heute Menschen einen zentralen | |
| Teil von jedem Waffensystem. Doch die Grenze dessen, wie viel Mensch | |
| benötigt wird, wird ständig getestet. So bereiten Computer an vielen | |
| Stellen Entscheidungen für Menschen so weit vor, dass in dringenden | |
| Situationen wenig Zeit für eine eigenständige Entscheidung bleibt. | |
| Human Rights Watch geht davon aus, dass Bediener hierbei im Zweifel eher | |
| dem automatisierten System folgen und dem Angriff zustimmen werden. Die | |
| Gefahr besteht, dass die Entscheidung des Computers zur Regel werden | |
| könnte. Wenige Tage nach der HRW-Studie veröffentlichte das | |
| US-Verteidigungsministerium eine Direktive, die die Entwicklung solcher | |
| Waffen und ihre Einsätze regelt. | |
| ## „Kein Thema für Deutschland“ | |
| Technisch sind Roboter, die eigenständig zwischen Zivilisten und Kämpfern | |
| ohne Uniform unterscheiden oder gar ganze Kampfszenarien bewerten könnten, | |
| wie es das Völkerrecht vorschreibt, noch längst nicht machbar. Bislang | |
| denken nur wenige über die nötigen Rahmenbedingungen nach. Aus dem | |
| deutschen Verteidigungsministerium heißt es zum Beispiel, autonome | |
| Waffensysteme seien „kein Thema“. Deshalb gebe es noch keinerlei rechtliche | |
| Beurteilung. Ganz anders die USA: [3][Eine „Roadmap“ des US-Militärs] sieht | |
| die Entwicklung autonomer Roboter vor, etwa für Minenräumung oder für | |
| Rettungseinsätze. Aber perspektivisch auch für den „Einsatz von Gewalt“. | |
| Die [4][kürzlich erschienene Direktive] des US-Verteidigungsministeriums | |
| definiert nun aber konkrete Rahmenbedingungen für die Produktion und den | |
| Einsatz autonomer Waffen. Sie gibt vor, dass autonome Waffensysteme nur zur | |
| Verteidigung bemannter Einrichtungen eingesetzt werden dürfen, aber auch | |
| dann nicht gegen menschliche Ziele – das Bundeswehr-System „Mantis“ ohne | |
| einen knopfdrückenden Soldaten wäre also zugelassen. | |
| Doch in einem Halbsatz eröffnet sich der Weg zu autonomen Waffen: Es heißt, | |
| wenn semiautonome Systeme, deren Ziele von Menschen vorgegeben werden, den | |
| Kontakt zu Bedienern verlieren, könnten sie dennoch bereits definierte | |
| Ziele angreifen. Eine veränderte Gefechtslage würde eine autonome Drohne, | |
| deren Kommunikation gestört wird, also nicht mehr berücksichtigen müssen. | |
| „Die Direktive zeigt, dass die US-Regierung auf Regulierung setzt und nicht | |
| auf ein Verbot“, sagt Steve Goose von Human Rights Watch. „Einfach davon | |
| auszugehen, dass militärische Kräfte diese Waffen ’ordnungsgemäß‘ oder | |
| ’verantwortungsvoll‘ verwenden werden, reicht nicht.“ Doch das ist der | |
| Knackpunkt, um den gestritten wird. | |
| ## Roboter gegen Roboter | |
| In einer Erwiderung an Kritiker von autonomen Waffen [5][schreibt etwa | |
| Jeffrey Thurnher], Major und Professor am Naval War College der USA, dass | |
| Kommandeure autonome Waffensysteme in Gegenden einsetzen könnten, wo das | |
| Risiko von Kollateralschäden besonders gering ist, etwa unter Wasser, oder | |
| in Situationen, in denen feindliche Soldaten einfach zu erkennen sind. Zur | |
| Aufstandsbekämpfung seien sie hingegen nicht geeignet. Allerdings könnten | |
| sich Roboter in solchen Situationen einem Angriff aussetzen, um Feinde | |
| zweifelsfrei zu identifizieren – Menschen wären da schon tot. | |
| Doch es drohen noch schwerwiegendere Konsequenzen. Was passiert, wenn eine | |
| Armee zu großen Teilen aus unbemannten Maschinen besteht? Steigt dann die | |
| Bereitschaft, Krieg zu führen, weil er weniger menschliche Opfer unter | |
| Militärs fordern würde? Wären empathielose Kriegsroboter nicht die Armee | |
| der Wahl eines Diktators im Falle einer Rebellion? | |
| Und was passiert, wenn sich autonome Waffen gegenseitig angreifen? „Im | |
| schlimmsten Fall könnten durch Missverständnisse in unübersichtlichen | |
| Situationen in Krisen sogar Kriege ausgelöst werden“, sagt Jürgen Altmann, | |
| Physiker an der TU Dortmund und Mitglied im Internationalen Komitee für die | |
| Kontrolle von Roboterwaffen. Er sieht außerdem die Gefahr, dass kleinere | |
| autonome Waffen leicht ihren Weg in die Hände von Terroristen finden | |
| könnten. | |
| Regulierung oder Verbot? Am Ende könnte ein ganz anderes Argument | |
| ausschlaggebend sein. „Der Gedanke, dass in Zukunft Maschinen über Leben | |
| und Tod von Menschen entscheiden könnten, ist für die meisten Menschen so | |
| abstoßend und abscheulich, dass wir uns gute Chancen ausrechnen“, sagt | |
| HRW-Experte Goose. Und die US-Regierung sieht auch Zeit für Diskussionen. | |
| „Es ist nicht so, dass wir denken würden, jemand entwickelt gerade einen | |
| Terminator“, [6][kommentierte ein Sprecher] die neue Direktive. | |
| 19 Dec 2012 | |
| ## LINKS | |
| [1] http://www.hrw.org/reports/2012/11/19/losing-humanity-0 | |
| [2] http://www.dassault-aviation.com/en/aviation/press/press-kits/2012/the-neur… | |
| [3] http://contracting.tacom.army.mil/future_buys/FY11/UGS%20Roadmap_Jul11.pdf | |
| [4] http://www.hsdl.org/?view&did=726163 | |
| [5] http://www.ndu.edu/press/fully-autonomous-targeting.html | |
| [6] http://www.defensenews.com/article/20121127/DEFREG02/311270005/U-S-DoD-8217… | |
| ## AUTOREN | |
| Lalon Sander | |
| ## TAGS | |
| Drohnenkrieg | |
| Rüstungsindustrie | |
| Rüstungspolitik | |
| Autonome Waffen | |
| Killerroboter | |
| Autonome Waffen | |
| Autonome Waffen | |
| Autonome Waffen | |
| Kundus | |
| Roboter | |
| Terminator | |
| Digitalisierung | |
| Roboter | |
| Roboter | |
| Drohnen | |
| Killerroboter | |
| Drohnen | |
| USA | |
| USA | |
| Folter | |
| Drohnenkrieg | |
| Drohnen | |
| ## ARTIKEL ZUM THEMA | |
| Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter | |
| Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. | |
| Sie warnen vor der Selbstvernichtung der Menschheit. | |
| UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot | |
| Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen | |
| organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA | |
| und Russland sperren. | |
| Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter | |
| Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht | |
| entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin. | |
| Schlagloch US-Kriegsführung: Komplizen des Abschlachtens | |
| Unter Obama begann ein großes Schweigen über Opfer im Anti-Terror-Krieg. | |
| Dafür sind besonders Drohnen verantwortlich. | |
| Roboter muss USA-Reise beenden: Arme abgerissen, Kopf gestohlen | |
| Der trampende Roboter „hitchBOT“ sollte einmal quer durch die USA reisen. | |
| Doch nun wurde er von Vandalen zerstört. | |
| Neuer „Terminator“-Film: Der Mann des Imperativs | |
| Alan Taylors „Terminator: Genisys“ hat nur einen Lichtblick: Ex-Gouverneur | |
| Arnold Schwarzenegger. Auch wenn er an den Kindergartencop erinnert. | |
| Schlagloch Automation: Selbstlenkende Gesellschaft | |
| Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich. | |
| Doch sie wird noch viel schneller kommen als wir es befürchten. | |
| Gehirnforschung und Roboter: Wurm in der Maschine | |
| Ist es möglich, ein Gehirn komplett als Computerprogramm nachzubauen? Einem | |
| US-Forscher ist die Simulation für einen winzigen Wurm gelungen. | |
| Autonome Roboter im Straßenverkehr: Der Fahrer in der Maschine | |
| Bald könnten selbststeuernde Fahrzeuge auf Straßen unterwegs sein. Doch | |
| dürfen sie in Unfallsituationen entscheiden, wer lebt und wer stirbt? | |
| Rüstungsforscher über Kampfdrohnen: „Sind dann Programmierer schuld?“ | |
| Künftig könnten Kampfdrohnen auch ohne menschliche Kontrolle agieren, sagt | |
| der Forscher Hilmar Linnenkamp. Aber wer ist dann für sie verantwortlich? | |
| Autonome Waffen in Schwellenländern: China testet das „scharfe Schwert“ | |
| Die USA und die EU entwickeln Waffen, die ohne menschliche Kontrolle | |
| auskommen könnten. Nun wollen auch Indien und China solche Systeme. | |
| Drohnen-Testflug über Deutschland: Größer als ein Passagierflugzeug | |
| In Oberbayern startete der Testflug von Europas größter Drohne. Das | |
| unbemannte Flugzeug kann mittels Sensoren Radarstrahler und | |
| Kommunikationssender aufspüren. | |
| Kommentar US-Außenpolitik: Die Abzieher | |
| Die Grundidee von Obamas Abzugsplänen: weniger Soldaten, mehr Drohnen. | |
| Militärische Mittel werden ein Instrument der US-Außenpolitik bleiben. | |
| Video der Woche: God bless guns | |
| Todeszahlen, eine US-Flagge, Schüsse: Was nach dem Amoklauf in Newtown wie | |
| eine aktuelle Anti-Waffen-Kampagne anmutet, ist doch viel älter. | |
| Film „Zero Dark Thirty“: So war das aber nicht! | |
| „Zero Dark Thirty“ zeigt die Tötung von Osama Bin Laden. US-Senatoren | |
| beklagen: zu viel Folter im Film. Was sagt uns das? | |
| Kommentar Drohnenkrieg: Wenn Kriegführen zu einfach wird | |
| Krieg wird nicht grausamer, wenn Drohnen oder Roboter ihn führen. Aber die | |
| Welt wird unsicherer. | |
| Debatte Tötung durch Drohnen: Perverse Waffen | |
| Drohnen haben in den vergangenen Jahren tausende Menschen getötet – auch | |
| viele Zivilisten. Die UNO muss die unbemannten Kampfmaschinen ächten. | |
| Streit um Waffenbeschaffung: SPD: Drohnen frühestens 2020 | |
| Die Bundeswehr soll bewaffnete Drohnen erst nach ausreichender Debatte über | |
| „Einsatzschwelle“ bekommen, sagt ein SPD-Verteidigungsexperte. | |
| Debatte Kampfdrohnen: Waffen sind nicht ethisch neutral | |
| Um den Kauf von Kampfdrohnen zu verteidigen, tut Innenminister de Maizière | |
| so, als wären Waffen an sich neutral. Doch die Geschichte spricht gegen | |
| ihn. |