# taz.de -- Petition der Woche – autonome Waffen: Freiwillig gegen Killerrobo… | |
> Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. | |
> Sie warnen vor der Selbstvernichtung der Menschheit. | |
Bild: Darf die Drohne selbständig entscheiden, wer lebt und wer stirbt? | |
Es wird als das perfekte Kriegsszenario verkauft: feindliche Roboterarmeen, | |
die sich gegenseitig die Köpfe einschlagen, ohne dass ein Mensch zu Schaden | |
kommt. Leider wird die immer raffiniertere Technik in Wirklichkeit eher | |
gegen den Menschen verwendet. Das zeigen die US-amerikanischen | |
Drohnenangriffe in Syrien, Somalia, dem Irak. Der nächste Schritt wäre, | |
wenn sie von einer künstlichen Intelligenz, einer KI, gesteuert würden, die | |
selbst darüber entscheidet, zu töten oder am Leben zu lassen. | |
Der Gedanke ist nicht abwegig. Deshalb haben WissenschaftlerInnen, | |
Ingenieure und Unternehmer, die in der KI-Forschung und -Entwicklung tätig | |
sind, [1][eine Selbstverpflichtung unterschrieben]: Sie werden sich nicht | |
daran beteiligen, autonome Maschinen zu entwickeln, die über menschliches | |
Leben entscheiden. Es wäre zwar „billiger und effizienter, solche Maschinen | |
in den wachsenden Militäreinsatzgebieten einzusetzen, statt das Leben von | |
SoldatInnen zu riskieren“, sagt Günther Görz. Doch die Steuerung solcher | |
Systeme sei fehleranfällig. Was, wenn es einen Hackerangriff gibt? Und | |
sowieso, wer trägt am Ende die Verantwortung?, fragt er. | |
Görz, Professor für Computerwissenschaften in Erlangen, ist einer der | |
Unterzeichner der Selbstverpflichtung. Er sagt: „Natürlich kann man | |
Maschinen bauen, die gezielt bestimmte Personen erkennen und diese gezielt | |
um die Ecke bringen.“ Sie könnten auch schon autonom Entscheidungen | |
treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch | |
keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu | |
erklären. | |
Die Selbstverpflichtung ist eine von vielen Initiativen des Future of Life | |
Institute aus Cambridge, Massachusetts. Es wurde 2014 unter anderem von | |
Skype-Miterfinder Jaan Tallinn und dem Physiker Max Tegmark gegründet und | |
wird finanziell von Tesla- und Space-X-Chef Elon Musk unterstützt. Auch der | |
verstorbene Stephen Hawking beteiligte sich. Die Intention ist es, | |
moralische und ethische Richtlinien für den Umgang mit der immer weiter | |
fortgeschrittenen Technik aufzustellen. Dazu gehört vor allem das | |
Forschungsgebiet der KI, das mithilfe von Computerprogrammierung versucht, | |
menschliche Intelligenz zu simulieren. Das Future of Life Institute | |
fordert, dass KI dem Wohl der Menschen dient und nicht missbraucht wird. | |
## „Büchse der Pandora“ | |
223 Organisationen und 2.861 Personen haben die Selbstverpflichtung bereits | |
unterschrieben. Unabhängig davon haben sich 26 Staaten für ein Verbot von | |
automatisierten tödlichen Waffensystemen ausgesprochen. Deutschland ist | |
nicht darunter. | |
Der Selbstverpflichtung ging ein vom Future of Life Institute organisiertes | |
Treffen über „Beneficial KI“ im Januar 2017 voraus, in dem Prinzipien zu KI | |
formuliert wurden. Dazu schreibt die „Vereinigung Deutscher | |
Wissenschaftler“: „Mit der künstlichen Intelligenz öffnen die Menschen ei… | |
Büchse der Pandora. Im digitalen Zeitalter entfalten die Hilfsmittel für | |
menschliches Denken womöglich eine autonome Position, die sich mächtig | |
gegen den ohnmächtig werdenden Menschen richtet.“ Sie warnen vor der | |
Selbstvernichtung der Menschheit und vor einem Auslöschungskrieg ohne | |
Sieger. | |
Und in der Tat entwickeln die USA, das Vereinigte Königreich, Russland, | |
China, Israel und Südkorea bereits solche automatisierten tödlichen | |
Waffensysteme. An der Grenze zu Nordkorea sind sie schon im Einsatz. Die | |
Erfahrung lehrt: Irgendwo auf der Welt gibt es eben immer jemanden, der es | |
macht. | |
5 Aug 2018 | |
## LINKS | |
[1] https://futureoflife.org/lethal-autonomous-weapons-pledge/ | |
## AUTOREN | |
Stella Schalamon | |
## TAGS | |
Autonome Waffen | |
Killerroboter | |
künstliche Intelligenz | |
Roboter | |
Krieg | |
Drohnen | |
Militärforschung | |
Killerroboter | |
Online-Petition | |
Vereinte Nationen | |
Europäische Union | |
Autonome Waffen | |
Drohnenkrieg | |
## ARTIKEL ZUM THEMA | |
Autonome Waffensysteme: Killerroboter verbieten | |
Eine Human-Rights-Watch-Direktorin meint: Deutschland braucht mehr | |
Engagement gegen Killerroboter. | |
Waffen mit künstlicher Intelligenz: 26 Staaten für Killerroboter-Verbot | |
UNO-Staaten beraten, ob die Entwicklung autonomer tödlicher Waffen | |
verhindert werden soll. Deutschland hält Unverbindliches für ausreichend. | |
Petition der Woche: War’s ein Serienkiller? | |
In England treibt der „Katzenkiller von Croydon“ sein Unwesen und die | |
Politik tut nichts. Oder ist doch alles ganz anders? | |
Forderung nach Verbot von Killerrobotern: Nicht länger Science Fiction | |
In Genf verhandeln Vertreter aus mehr als 75 Nationen über Waffensysteme | |
mit künstlicher Intelligenz. Es gibt gute Argumente für ihr Verbot. | |
Streit um die Verteidigungspolitik der EU: Verbale Schlacht um Killerroboter | |
Die EU will die Rüstungsindustrie fördern und dabei auch bisher verpönte | |
Kriegswaffen zulassen. Grüne und Linke drohen mit einer Klage. | |
UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot | |
Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen | |
organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA | |
und Russland sperren. | |
Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen | |
Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt | |
Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele | |
treffen? |