Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Kompl…
> Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche
> Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google.
Bild: Hilft Ihre Internetnutzung, eine Drohne zu steuern? – Graffiti im Jemen…
Das Google-Postfach war schon zum Greifen nahe, da sprang das verhasste
Fenster wieder auf. „Bitte bestätigen Sie, dass sie kein Roboter sind“.
Alle Bildchen aus der Matrix mit Straßen- oder Straßenschildanteil
anklicken – schon verschwindet das Dialogfeld wieder. Das klingt bekannt?
Glückwunsch, dann haben auch Sie Googles künstliche Intelligenz trainiert.
Und damit indirekt dem US-Außenministerium bei seinen Drohneneinsätzen in
Kriegsgebieten geholfen. Mit dem Beweis ihrer Menschlichkeit helfen Sie der
Technologie, Bilder immer präziser ohne menschliches Auge zu analysieren.
Maschinenlernen heißt das im Fachjargon. Google verkauft die Technologie an
die US-Einsatzkräfte, die wiederum sie zur Terrorismusbekämpfung nutzen.
Bisher sind fast nur Googles eigene Mitarbeiter entsetzt.
Während also über Facebook eine Empörungswelle hereinbricht, verschwinden
andere Tech-Giganten wie Google in deren Windschatten. Dabei entwickeln sie
Technologie für das US-Militär, die gezielt in der Terrorabwehr eingesetzt
wird. Die Kunden sind, meist unwissentlich, die Versuchskaninchen. Es
greift deshalb zu kurz, Facebook als das schwarze Schaf des Silicon Valley
herauszugreifen und zur Verantwortung zu ziehen. Wir brauchen eine breitere
und öffentlichere Debatte über die moralischen Grenzen der gesamten
Branche, besonders wenn es um die Verwertung von Kundendaten für politische
oder, wie im Fall Google, gar militärische Zwecke geht.
Öffentlich sollte Googles Arbeit für das Pentagon nicht werden. Das
amerikanische Onlineportal Gizmodo zwang das Unternehmen zu einer
Stellungnahme, bevor die New York Times das Thema aufgriff. Auch das
US-Außenministerium bekannte sich öffentlich zu Googles Beteiligung am
„Maven Project“, das die Verquickung von Big Data und Maschinenlernen für
das Pentagon ausbauen soll. Laut Wall Street Journal gab das Pentagon 2017
7,4 Milliarden US-Dollar für Künstliche-Intelligenz-Projekte aus. Das
Forschungsfeld boomt. Google, dessen Aktienkurse seit Bekanntwerden der
Kooperation stiegen, ist nicht das einzige Technikunternehmen mit
Verbindungen zum US-Militär: Microsoft etwa stellt Systeme zur
Speicherplatzverwaltung bereit, Amazon bietet ebenfalls eine
Bilderkennungssoftware an.
Laut Google handelt es sich bisher um Technologie, die lediglich bei der
Erkennung von bewegten und unbewegten Objekten auf Drohnenbildern helfe –
so können Militärangestellte ihre Zeit besser nutzen, als Tausende Stunden
lang Bildmaterial zu durchsuchen. Nicht angewendet werde die Technologie
auf Menschen und in Kriegshandlungen, erklärt das Unternehmen. Man wolle
mit dem Militär erst noch Richtlinien für den Einsatz der Technologie
erarbeiten. Sonderbar, denn das Department of Defense erklärte im Juli 2017
in einer Pressemitteilung, die Technologie ab „Ende des Jahres“ in
Kriegsgebieten einsetzen zu wollen, um Antiterrorismusoperationen zu
unterstützen.
Googles Argument, dass die Technologie nicht direkt für Kriegshandlungen
und zur gezielten Tötung genutzt werde, empfinden knapp 3.100 der 70.000
Angestellten als scheinheilig. In einem offenen Brief wandten sie sich
Anfang April 2018 gegen die Firmenführung: „Einmal geliefert, kann die
Technologie für alles Mögliche eingesetzt werden“, argumentieren sie. „Wir
können die moralische Verantwortung für unsere Technologie nicht an Dritte
weitergeben, besonders weil uns unsere Kunden mit ihren Daten vertrauen.“
Dass die enge Verquickung der Branche mit dem Militär auch intern zunehmend
für Entrüstung sorgt, zeigt, wie konkret die Unterstützung bereits geworden
ist.
Die Unternehmensspitze zeigt sich davon eher unbeeindruckt. Bereits im
November 2017 sprach der ehemalige Google-Chef Eric Schmidt (2001 bis 2011)
am Center For a New American Security darüber, wie Google langfristig das
Pentagon mit künstlicher Intelligenz bei seiner Arbeit unterstützen wolle.
Er sei sich bewusst, dass es Bedenken in der Tech-Community gebe, dass ihre
Kreativität vom Militär zur gezielten Tötung missbraucht werden würde.
Letztlich, sagte der eingetragene Demokrat und
Hillary-Clinton-Unterstützer, ginge es aber um die nationale Sicherheit –
da sei es genau richtig, die neusten Möglichkeiten auszuschöpfen. Solcher
Patriotismus scheint derzeit besonders im Weißen Haus gut anzukommen.
Das moralische Problem ist nicht nur, dass Google künstliche Intelligenz
für das US-Militär zur Verfügung stellt. Es ist auch problematisch, dass
dies ohne das Wissen der Nutzer passiert – deren Nutzung des Systems die
Technologie überhaupt erst ermöglichte. Die Diskussion über Facebook und
Cambridge Analytica ist nur eine Facette der weitaus größeren Frage, wo die
moralischen Grenzen der Happy-Family-Unternehmen aus dem Silicon Valley
liegen. Bisher wird diese Debatte hauptsächlich von ein paar Spezialisten
und US-Senatoren geführt. In der Mitte der Gesellschaft ist sie nur in Form
von resignierter Wut angekommen. Das ist fatal, da jetzt der Zeitpunkt ist,
um die Spielregeln festzulegen. Die am 25. Mai 2018 in Kraft tretende
Datenschutz-Grundverordnung ist da nur der Anfang.
## Google ändert schon mal sein Motto
Was Schmidt angeht, so verließ er seinen Posten als Vorstandsvorsitzender
bei Google-Mutterkonzern „Alphabet“ noch im Herbst 2017 – obwohl er im
Aufsichtsrat verbleibt. Eine bessere Position als Vorsitzender des Defense
Innovation Board war freigeworden, direkt im Herzen des Pentagons. Auch
Milo Medin, Vizepräsident bei Google, ist jetzt Teil der Gruppe. Sie
arbeiten nun an der Entwicklung des Waffenarsenals der Zukunft und beraten
die Trump-Administration in militärischen Fragen; gerade der Syrienkrieg
erfordert immer mehr technische Expertise.
Dass es sich dabei um eine republikanische und keine demokratische
Regierung handelt, scheint den Demokraten Schmidt wenig zu stören –
schließlich geht es ja um die nationale Sicherheit. Googles Motto wurde
derweil von „Don’t be evil“ in „Do the right thing“ umgeändert.
28 May 2018
## AUTOREN
Paul Ostwald
## TAGS
Google
Schwerpunkt Meta
Pentagon
Drohnen
Microsoft
Lesestück Meinung und Analyse
Google
Google
künstliche Intelligenz
Whistleblower
Schwerpunkt Meta
künstliche Intelligenz
## ARTIKEL ZUM THEMA
Künstliche Intelligenz von Google: Waffensysteme bleiben dämlich
Google hat beschlossen, keine künstliche Intelligenz mehr für Waffen zu
entwickeln. Die Belegschaft hatte sich deswegen zerstriten, 13 Mitarbeiter
sind gegangen.
Googles Zusammenarbeit mit US-Militär: Project Maven wird nicht verlängert
Ab 2020 wird Google nicht mehr zu künstlicher Intelligenz bei Drohnen mit
dem Pentagon kooperieren. Angestellte hatten deshalb protestiert und
gekündigt.
Big Data und Datenrevolution: Computer werden immer schlauer
Der rasante Fortschritt bei der Künstlichen Intelligenz elektrisiert
Forscher und Politik. Eine Enquête-Kommission soll die Entwicklung
begleiten.
US-Whistleblowerin in Berlin: Popstar Chelsea Manning
Die Whistleblowerin ruft auf der Digitalkonferenz re:publica in Berlin zum
Widerstand gegen das Silicon Valley auf – und wird gefeiert.
Facebook-Algorithmen sollen Leben retten: Geht es dir gut?
Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz
werden Posts überprüft. Nebenbei greift das Unternehmen sehr private Daten
ab.
Künstliche Intelligenz: Mensch, gib mir deine Daten
Die Entwicklung künstlicher Intelligenz ist ein altes Militärprojekt. Nun
sprechen Forscher von einer Revolution. Gefahr oder Chance?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.