Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Autonome Waffen in Schwellenländern: China testet das „scharfe S…
> Die USA und die EU entwickeln Waffen, die ohne menschliche Kontrolle
> auskommen könnten. Nun wollen auch Indien und China solche Systeme.
Bild: Der angebliche Testflug der chinesischen Drohne „Scharfes Schwert“.
PEKING taz/ap | Nach den USA und der EU steigen nun auch Schwellenländer in
die Entwicklung von autonomen Waffen ein. Am Freitag wurde bekannt, dass
China eine Tarnkappendrohne getestet hat: Fotos des 20-minütigen Flugs nahe
einem Testgelände im Südwesten des Landes erschienen am Freitag in
chinesischen Medien. Die Drohne heißt „Lijian“ (deutsch: „scharfes
Schwert“).
„Der erfolgreiche erste Flug von Lijian symbolisiert, wie Chinas
militärische Modernisierung die entwickelten Länder einholt“, sagte der
ehemalige Volksarmee-General Xu Guangyu [1][der South China Morning Post].
Die Drohne könne unentdeckt in großen Flughöhen fliegen. Die [2][staatliche
Zeitung China Daily] verglich sie mit der US-Drohne „X-47“ sowie der
europäischen Drohne „Neuron“.
Damit ist China auf dem Weg Waffensysteme zu entwickeln, die als „autonom“
eingestuft werden und keine menschliche Kontrolle brauchen. Die „Neuron“
beispielsweise [3][fliegt eigenständig] [4][und muss das auch können], denn
jede Funkkommunikation würde ihre Deckung zerstören – das trifft auch auf
„Scharfes Schwert“ zu. Die „X-47B“ landete im Sommer erfolgreich ohne P…
auf einem Flugzeugträger – eine der schwierigsten Luftfahrt-Manöver
überhaupt.
Nicht nur China strebt solche Entwicklungen an, sondern auch Indien. Der
Chef der Rüstungsforschungsbehörde DRDO des Landes, Avinash Chander, hatte
bereits [5][im Sommer bekannt gegeben], dass Indien anstrebe
„Robotersoldaten“ zu entwickeln. Diese sollten zu einem „hohen Grad der
Intelligenz“ entwickelt werden, um „zwischen Feind und Freund“
unterscheiden zu können. Kurz: sie sollen auch ohne menschlichen Eingriff
angreifen können.
Bei beiden Waffentypen könnte es Zukunft Versionen geben, die auch ohne
Erlaubnis oder Kenntnis eines Menschen töten dürften. Genau solche Waffen
erfahren jedoch Kritik [6][einer Kampagne] der Menschenrechtsorganisation
Human Rights Watch. Sie kritisiert, dass die Entscheidung, Menschen zu
töten, nicht Computern und Robotern überlassen werden darf und fordert ein
Verbot solcher Waffen. Erst vergangene Woche hatte [7][die UN entschieden],
2014 Experten zum Thema anzuhören.
Unklar ist allerdings noch, ob die neue chinesische Drohne wie die
Tarnkappendrohnen von EU und USA theoretisch auch bewaffnet werden kann
oder nur Aufklärungsflüge machen soll. Bekannt ist allerdings, dass das
Land mehrere bemannte Tarnkappenbomber besitzt, sowie bewaffnete Drohnen
mit menschlichen Piloten.
22 Nov 2013
## LINKS
[1] http://www.scmp.com/news/china/article/1362390/stealth-drone-completes-succ…
[2] http://usa.chinadaily.com.cn/epaper/2013-11/22/content_17124629.htm
[3] /!107731/
[4] /!107731/
[5] http://articles.timesofindia.indiatimes.com/2013-06-10/science/39871724_1_s…
[6] http://www.stopkillerrobots.org/
[7] http://www.stopkillerrobots.org/2013/11/ccwmandate/
## AUTOREN
Lalon Sander
## TAGS
Killerroboter
Autonome Waffen
Indien
China
Human Rights Watch
Drohnen
Autonome Waffen
Roboter
Drohnen
Drohnenkrieg
## ARTIKEL ZUM THEMA
UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot
Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen
organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA
und Russland sperren.
Gehirnforschung und Roboter: Wurm in der Maschine
Ist es möglich, ein Gehirn komplett als Computerprogramm nachzubauen? Einem
US-Forscher ist die Simulation für einen winzigen Wurm gelungen.
Rüstungsforscher über Kampfdrohnen: „Sind dann Programmierer schuld?“
Künftig könnten Kampfdrohnen auch ohne menschliche Kontrolle agieren, sagt
der Forscher Hilmar Linnenkamp. Aber wer ist dann für sie verantwortlich?
Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen
Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt
Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele
treffen?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.