| # taz.de -- Petition der Woche – autonome Waffen: Freiwillig gegen Killerrobo… | |
| > Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. | |
| > Sie warnen vor der Selbstvernichtung der Menschheit. | |
| Bild: Darf die Drohne selbständig entscheiden, wer lebt und wer stirbt? | |
| Es wird als das perfekte Kriegsszenario verkauft: feindliche Roboterarmeen, | |
| die sich gegenseitig die Köpfe einschlagen, ohne dass ein Mensch zu Schaden | |
| kommt. Leider wird die immer raffiniertere Technik in Wirklichkeit eher | |
| gegen den Menschen verwendet. Das zeigen die US-amerikanischen | |
| Drohnenangriffe in Syrien, Somalia, dem Irak. Der nächste Schritt wäre, | |
| wenn sie von einer künstlichen Intelligenz, einer KI, gesteuert würden, die | |
| selbst darüber entscheidet, zu töten oder am Leben zu lassen. | |
| Der Gedanke ist nicht abwegig. Deshalb haben WissenschaftlerInnen, | |
| Ingenieure und Unternehmer, die in der KI-Forschung und -Entwicklung tätig | |
| sind, [1][eine Selbstverpflichtung unterschrieben]: Sie werden sich nicht | |
| daran beteiligen, autonome Maschinen zu entwickeln, die über menschliches | |
| Leben entscheiden. Es wäre zwar „billiger und effizienter, solche Maschinen | |
| in den wachsenden Militäreinsatzgebieten einzusetzen, statt das Leben von | |
| SoldatInnen zu riskieren“, sagt Günther Görz. Doch die Steuerung solcher | |
| Systeme sei fehleranfällig. Was, wenn es einen Hackerangriff gibt? Und | |
| sowieso, wer trägt am Ende die Verantwortung?, fragt er. | |
| Görz, Professor für Computerwissenschaften in Erlangen, ist einer der | |
| Unterzeichner der Selbstverpflichtung. Er sagt: „Natürlich kann man | |
| Maschinen bauen, die gezielt bestimmte Personen erkennen und diese gezielt | |
| um die Ecke bringen.“ Sie könnten auch schon autonom Entscheidungen | |
| treffen. Auf die Frage, wie es zu einer Entscheidung kam, hätten sie jedoch | |
| keine Antwort, weil sie noch nicht in der Lage sind, ihr Handeln zu | |
| erklären. | |
| Die Selbstverpflichtung ist eine von vielen Initiativen des Future of Life | |
| Institute aus Cambridge, Massachusetts. Es wurde 2014 unter anderem von | |
| Skype-Miterfinder Jaan Tallinn und dem Physiker Max Tegmark gegründet und | |
| wird finanziell von Tesla- und Space-X-Chef Elon Musk unterstützt. Auch der | |
| verstorbene Stephen Hawking beteiligte sich. Die Intention ist es, | |
| moralische und ethische Richtlinien für den Umgang mit der immer weiter | |
| fortgeschrittenen Technik aufzustellen. Dazu gehört vor allem das | |
| Forschungsgebiet der KI, das mithilfe von Computerprogrammierung versucht, | |
| menschliche Intelligenz zu simulieren. Das Future of Life Institute | |
| fordert, dass KI dem Wohl der Menschen dient und nicht missbraucht wird. | |
| ## „Büchse der Pandora“ | |
| 223 Organisationen und 2.861 Personen haben die Selbstverpflichtung bereits | |
| unterschrieben. Unabhängig davon haben sich 26 Staaten für ein Verbot von | |
| automatisierten tödlichen Waffensystemen ausgesprochen. Deutschland ist | |
| nicht darunter. | |
| Der Selbstverpflichtung ging ein vom Future of Life Institute organisiertes | |
| Treffen über „Beneficial KI“ im Januar 2017 voraus, in dem Prinzipien zu KI | |
| formuliert wurden. Dazu schreibt die „Vereinigung Deutscher | |
| Wissenschaftler“: „Mit der künstlichen Intelligenz öffnen die Menschen ei… | |
| Büchse der Pandora. Im digitalen Zeitalter entfalten die Hilfsmittel für | |
| menschliches Denken womöglich eine autonome Position, die sich mächtig | |
| gegen den ohnmächtig werdenden Menschen richtet.“ Sie warnen vor der | |
| Selbstvernichtung der Menschheit und vor einem Auslöschungskrieg ohne | |
| Sieger. | |
| Und in der Tat entwickeln die USA, das Vereinigte Königreich, Russland, | |
| China, Israel und Südkorea bereits solche automatisierten tödlichen | |
| Waffensysteme. An der Grenze zu Nordkorea sind sie schon im Einsatz. Die | |
| Erfahrung lehrt: Irgendwo auf der Welt gibt es eben immer jemanden, der es | |
| macht. | |
| 5 Aug 2018 | |
| ## LINKS | |
| [1] https://futureoflife.org/lethal-autonomous-weapons-pledge/ | |
| ## AUTOREN | |
| Stella Schalamon | |
| ## TAGS | |
| Autonome Waffen | |
| Killerroboter | |
| Krieg | |
| Drohnen | |
| Roboter | |
| Schwerpunkt Künstliche Intelligenz | |
| Militär | |
| Killerroboter | |
| Online-Petition | |
| Vereinte Nationen | |
| Rüstung | |
| Autonome Waffen | |
| Drohnenkrieg | |
| ## ARTIKEL ZUM THEMA | |
| Autonome Waffensysteme: Killerroboter verbieten | |
| Eine Human-Rights-Watch-Direktorin meint: Deutschland braucht mehr | |
| Engagement gegen Killerroboter. | |
| Waffen mit künstlicher Intelligenz: 26 Staaten für Killerroboter-Verbot | |
| UNO-Staaten beraten, ob die Entwicklung autonomer tödlicher Waffen | |
| verhindert werden soll. Deutschland hält Unverbindliches für ausreichend. | |
| Petition der Woche: War’s ein Serienkiller? | |
| In England treibt der „Katzenkiller von Croydon“ sein Unwesen und die | |
| Politik tut nichts. Oder ist doch alles ganz anders? | |
| Forderung nach Verbot von Killerrobotern: Nicht länger Science Fiction | |
| In Genf verhandeln Vertreter aus mehr als 75 Nationen über Waffensysteme | |
| mit künstlicher Intelligenz. Es gibt gute Argumente für ihr Verbot. | |
| Streit um die Verteidigungspolitik der EU: Verbale Schlacht um Killerroboter | |
| Die EU will die Rüstungsindustrie fördern und dabei auch bisher verpönte | |
| Kriegswaffen zulassen. Grüne und Linke drohen mit einer Klage. | |
| UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot | |
| Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen | |
| organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA | |
| und Russland sperren. | |
| Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen | |
| Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt | |
| Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele | |
| treffen? |