Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter
> Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht
> entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin.
Bild: Wer ist schuld, wenn ein selbstfahrendes Auto deinen Roboter umfährt?
Ein selbstfahrendes Auto muss entscheiden, ob es in eine Gruppe Kinder
fährt oder eine Rentnerin umfährt – wie entscheidet es? Eine autonome
Kampfdrohne erschießt einen Zivilisten – wer ist schuld? Was machen die
Millionen Menschen, wenn ihre Jobs von Robotern und Computerprogrammen
besser erledigt werden können als von ihnen. Was passiert, wenn nicht nur
körperliche Arbeit, sondern auch geistige von Computerprogrammen übernommen
werden?
In der Debatte um künstliche Intelligenz und Automatisierung werden derzeit
große moralische Fragen diskutiert und mögliche Dystopien: Computer, die
die Welt beherrschen wollen, weitreichende Arbeitslosigkeit. Es sind große
und wichtige Debatten, doch ihre Zuspitzung auf die möglichst schrecklichen
Szenarien, zu Fragen über Leben und Tod lenken auch ab: Wir sind derzeit
mittendrin in solchen Debatten.
Kurz nach dem Massaker von Las Vegas, stießen Menschen, die im Netz nach
Informationen suchten, auf ein Problem: Plattformen wie Google, Facebook
und Youtube verwiesen in ihren Nachrichtenrubriken auf fragwürdige Seiten,
[1][auf Falschmeldungen, Hoaxes und Propaganda]. Sowohl Google – dem
Konzern gehört auch Youtube – als auch Facebook verwiesen darauf, dass
Computerprogramme entschieden hatten, was in dort angezeigt wird, und dass
Menschen erst im Nachhinein eingriffen, um sie zu korrigieren.
Das Problem gibt es auch an anderer Stelle: Erst vor wenigen Wochen
erschien eine Reihe Artikel, die aufzeigte, wie Werbung auf [2][Facebook],
[3][Twitter] und [4][Google] zu rassistischen Schlagwörtern ausgespielt
werden konnte. Auch hier war Software verantwortlich und auch hier griffen
die Konzerne erst ein, als sie von außen darauf hingewiesen wurden.
Ähnliche Sicherheitslücken konnten offenbar viel effektiver ausgenutzt
werden: Inzwischen mehren sich die Hinweise, dass Agenten der russischen
Regierung [5][mit gezielten Anzeigen auf Facebook] und [6][Twitter] (und
vielleicht [7][Google]) versuchten, die Wahl zu beeinflussen.
Hier sind Entscheidungen, die eine eindeutige moralische Komponente haben,
an Computerprogramme ausgelagert worden, an eine sehr einfache Variante von
künstlicher Intelligenz. Kein Programmierer konnte im Vorfeld wissen, wie
die Algorithmen konkret über die Sortierung von Nachrichten entscheiden
sollten, als in Las Vegas das Massaker losging. Stattdessen haben sie
allgemeine Regeln verfasst und den Einzelfall der Software überlassen. Und
diese entschied falsch.
Dass Computerprogramme keine verlässlichen Entscheidungsinstanzen sind,
sollte niemanden überraschen. Erst 2016 [8][feuerte Facebook sein gesamtes
redaktionelles Team] wegen Vorwürfen der Parteilichkeit und ersetzte sie
mit Software. Prompt am nächsten Tag verbreitete der „Trending
Topics“-Bereich des Netzwerkes nur noch Falschmeldungen. Das ist auch nicht
überraschend, denn Software übernimmt meist die Vorurteile von Menschen.
Das beste Beispiel dafür: Der Microsoft-Gesprächsroboter „Tay“, der nach
weniger als einem Tag [9][zu einem Hitler- und Sex-Fan wurde].
## Was bedeutet das für Leben und Tod?
Auch in Fragen von Jobverlusten sind wir inzwischen mittendrin. Nur selten
läuft es dabei ab wie bei Facebook, dass Menschen konkret gefeuert werden
und ein Computerprogramm den Job übernimmt. Google und Facebook dominieren
gemeinsam den Online-Werbemarkt und setzen damit jährlich rund 100
Milliarden Dollar um. Früher hätten sie riesige Anzeigenabteilungen
beschäftigt, heute regeln Algorithmen den Anzeigenverkauf. Anderswo
schrumpft der Anzeigenmarkt und Menschen verlieren ihre Jobs – so
übernehmen „Roboter“ leise und ohne große Skandale die Arbeitsplätze.
Wenn wir schon jetzt die großen moralischen Fragen verhandeln, was bedeutet
das dann für die Zukunft? Konzerne werden sich hüten, irgendwelche
Verantwortung für die Untaten ihrer künstlichen Intelligenzen zu
übernehmen. Eher werden sie diese durch AGBs an die Käufer abgeben. Das
wird auch die Programmierer*innen schützen. Sehr grobe Fehlleistungen
werden sie – wie jetzt bei Anzeigen- und Nachrichtenalgorithmen –
nachträglich korrigieren.
Danach heißt es dann: Dein selbstfahrendes Auto hat jemanden überfahren? Du
warst dazu verpflichtet, es während der Fahrt zu überwachen. Deine autonome
Waffe hat Unschuldige erschossen? Du hast schriftlich die Verantwortung
übernommen. Die Schuldfrage wird formal geklärt und die Verantwortung
bleibt bei denjenigen hängen, die vermutlich am wenigsten über das
Innenleben der Roboter wissen.
4 Oct 2017
## LINKS
[1] https://www.theatlantic.com/technology/archive/2017/10/google-and-facebook-…
[2] https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-je…
[3] http://www.thedailybeast.com/twitter-lets-you-target-millions-of-users-who-…
[4] https://www.buzzfeed.com/alexkantrowitz/google-allowed-advertisers-to-targe…
[5] http://edition.cnn.com/2017/10/03/politics/russian-facebook-ads-michigan-wi…
[6] https://www.washingtonpost.com/business/economy/twitter-finds-hundreds-of-a…
[7] https://www.wsj.com/articles/google-conducting-broad-investigation-of-russi…
[8] https://www.theguardian.com/technology/2016/aug/29/facebook-fires-trending-…
[9] /Microsofts-Twitterbot/!5286773
## AUTOREN
Lalon Sander
## TAGS
Autonome Waffen
Selbstfahrendes Auto
Google
Schwerpunkt Meta
Automatisierung
Roboter
Schwerpunkt Künstliche Intelligenz
Fake News
Harry Potter
Schach
Saudi-Arabien
Wie weiter, Germans?
Tesla
Drohnenkrieg
## ARTIKEL ZUM THEMA
„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
Entwickler über neue Schreibhilfen: Harry Potter und der Halbbotprinz
Mithilfe künstlicher Intelligenz wurde ein neues Harry-Potter-Kapitel
geschrieben. Ganz allein kann die Maschine das aber nicht, sagt Entwickler
Jamie Brew.
Künstliche Intelligenz und Schach: Erschreckend klug
Alpha Zero hat in nur vier Stunden Schach erlernt. Gegen die künstliche
Intelligenz haben weder Menschen noch Schachprogramme die leiseste Chance.
Künstliche Intelligenz in Saudi-Arabien: Roboterin mit Pass
Saudi-Arabien hat dem humanoiden Roboter „Sophia“ die Staatsbürgerschaft
verliehen. Im Internet sorgt das für Häme.
Serie: Wie weiter, Germans? (4): Das Rennen gegen die Maschine
Die gute Nachricht: Roboter nehmen Ihnen künftig die Scheißarbeit ab. Die
schlechte: Sie nehmen Ihnen die Arbeit weg. Die Politik muss darauf
reagieren.
Debatte Selbstfahrende Autos: Smart Crash
Die Industrie verspricht, dass schon bald autonome Autos fahren. Doch statt
ausgereifter Technik gibt es nur „Beta-Versionen“ – ein gefährlicher Tre…
Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen
Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt
Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele
treffen?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.