| # taz.de -- Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter | |
| > Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht | |
| > entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin. | |
| Bild: Wer ist schuld, wenn ein selbstfahrendes Auto deinen Roboter umfährt? | |
| Ein selbstfahrendes Auto muss entscheiden, ob es in eine Gruppe Kinder | |
| fährt oder eine Rentnerin umfährt – wie entscheidet es? Eine autonome | |
| Kampfdrohne erschießt einen Zivilisten – wer ist schuld? Was machen die | |
| Millionen Menschen, wenn ihre Jobs von Robotern und Computerprogrammen | |
| besser erledigt werden können als von ihnen. Was passiert, wenn nicht nur | |
| körperliche Arbeit, sondern auch geistige von Computerprogrammen übernommen | |
| werden? | |
| In der Debatte um künstliche Intelligenz und Automatisierung werden derzeit | |
| große moralische Fragen diskutiert und mögliche Dystopien: Computer, die | |
| die Welt beherrschen wollen, weitreichende Arbeitslosigkeit. Es sind große | |
| und wichtige Debatten, doch ihre Zuspitzung auf die möglichst schrecklichen | |
| Szenarien, zu Fragen über Leben und Tod lenken auch ab: Wir sind derzeit | |
| mittendrin in solchen Debatten. | |
| Kurz nach dem Massaker von Las Vegas, stießen Menschen, die im Netz nach | |
| Informationen suchten, auf ein Problem: Plattformen wie Google, Facebook | |
| und Youtube verwiesen in ihren Nachrichtenrubriken auf fragwürdige Seiten, | |
| [1][auf Falschmeldungen, Hoaxes und Propaganda]. Sowohl Google – dem | |
| Konzern gehört auch Youtube – als auch Facebook verwiesen darauf, dass | |
| Computerprogramme entschieden hatten, was in dort angezeigt wird, und dass | |
| Menschen erst im Nachhinein eingriffen, um sie zu korrigieren. | |
| Das Problem gibt es auch an anderer Stelle: Erst vor wenigen Wochen | |
| erschien eine Reihe Artikel, die aufzeigte, wie Werbung auf [2][Facebook], | |
| [3][Twitter] und [4][Google] zu rassistischen Schlagwörtern ausgespielt | |
| werden konnte. Auch hier war Software verantwortlich und auch hier griffen | |
| die Konzerne erst ein, als sie von außen darauf hingewiesen wurden. | |
| Ähnliche Sicherheitslücken konnten offenbar viel effektiver ausgenutzt | |
| werden: Inzwischen mehren sich die Hinweise, dass Agenten der russischen | |
| Regierung [5][mit gezielten Anzeigen auf Facebook] und [6][Twitter] (und | |
| vielleicht [7][Google]) versuchten, die Wahl zu beeinflussen. | |
| Hier sind Entscheidungen, die eine eindeutige moralische Komponente haben, | |
| an Computerprogramme ausgelagert worden, an eine sehr einfache Variante von | |
| künstlicher Intelligenz. Kein Programmierer konnte im Vorfeld wissen, wie | |
| die Algorithmen konkret über die Sortierung von Nachrichten entscheiden | |
| sollten, als in Las Vegas das Massaker losging. Stattdessen haben sie | |
| allgemeine Regeln verfasst und den Einzelfall der Software überlassen. Und | |
| diese entschied falsch. | |
| Dass Computerprogramme keine verlässlichen Entscheidungsinstanzen sind, | |
| sollte niemanden überraschen. Erst 2016 [8][feuerte Facebook sein gesamtes | |
| redaktionelles Team] wegen Vorwürfen der Parteilichkeit und ersetzte sie | |
| mit Software. Prompt am nächsten Tag verbreitete der „Trending | |
| Topics“-Bereich des Netzwerkes nur noch Falschmeldungen. Das ist auch nicht | |
| überraschend, denn Software übernimmt meist die Vorurteile von Menschen. | |
| Das beste Beispiel dafür: Der Microsoft-Gesprächsroboter „Tay“, der nach | |
| weniger als einem Tag [9][zu einem Hitler- und Sex-Fan wurde]. | |
| ## Was bedeutet das für Leben und Tod? | |
| Auch in Fragen von Jobverlusten sind wir inzwischen mittendrin. Nur selten | |
| läuft es dabei ab wie bei Facebook, dass Menschen konkret gefeuert werden | |
| und ein Computerprogramm den Job übernimmt. Google und Facebook dominieren | |
| gemeinsam den Online-Werbemarkt und setzen damit jährlich rund 100 | |
| Milliarden Dollar um. Früher hätten sie riesige Anzeigenabteilungen | |
| beschäftigt, heute regeln Algorithmen den Anzeigenverkauf. Anderswo | |
| schrumpft der Anzeigenmarkt und Menschen verlieren ihre Jobs – so | |
| übernehmen „Roboter“ leise und ohne große Skandale die Arbeitsplätze. | |
| Wenn wir schon jetzt die großen moralischen Fragen verhandeln, was bedeutet | |
| das dann für die Zukunft? Konzerne werden sich hüten, irgendwelche | |
| Verantwortung für die Untaten ihrer künstlichen Intelligenzen zu | |
| übernehmen. Eher werden sie diese durch AGBs an die Käufer abgeben. Das | |
| wird auch die Programmierer*innen schützen. Sehr grobe Fehlleistungen | |
| werden sie – wie jetzt bei Anzeigen- und Nachrichtenalgorithmen – | |
| nachträglich korrigieren. | |
| Danach heißt es dann: Dein selbstfahrendes Auto hat jemanden überfahren? Du | |
| warst dazu verpflichtet, es während der Fahrt zu überwachen. Deine autonome | |
| Waffe hat Unschuldige erschossen? Du hast schriftlich die Verantwortung | |
| übernommen. Die Schuldfrage wird formal geklärt und die Verantwortung | |
| bleibt bei denjenigen hängen, die vermutlich am wenigsten über das | |
| Innenleben der Roboter wissen. | |
| 4 Oct 2017 | |
| ## LINKS | |
| [1] https://www.theatlantic.com/technology/archive/2017/10/google-and-facebook-… | |
| [2] https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-je… | |
| [3] http://www.thedailybeast.com/twitter-lets-you-target-millions-of-users-who-… | |
| [4] https://www.buzzfeed.com/alexkantrowitz/google-allowed-advertisers-to-targe… | |
| [5] http://edition.cnn.com/2017/10/03/politics/russian-facebook-ads-michigan-wi… | |
| [6] https://www.washingtonpost.com/business/economy/twitter-finds-hundreds-of-a… | |
| [7] https://www.wsj.com/articles/google-conducting-broad-investigation-of-russi… | |
| [8] https://www.theguardian.com/technology/2016/aug/29/facebook-fires-trending-… | |
| [9] /Microsofts-Twitterbot/!5286773 | |
| ## AUTOREN | |
| Lalon Sander | |
| ## TAGS | |
| Autonome Waffen | |
| Selbstfahrendes Auto | |
| Schwerpunkt Meta | |
| Automatisierung | |
| Roboter | |
| Schwerpunkt Künstliche Intelligenz | |
| Fake News | |
| Harry Potter | |
| Schach | |
| Saudi-Arabien | |
| Wie weiter, Germans? | |
| Tesla | |
| Drohnenkrieg | |
| ## ARTIKEL ZUM THEMA | |
| „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt? | |
| Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. | |
| Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war. | |
| Entwickler über neue Schreibhilfen: Harry Potter und der Halbbotprinz | |
| Mithilfe künstlicher Intelligenz wurde ein neues Harry-Potter-Kapitel | |
| geschrieben. Ganz allein kann die Maschine das aber nicht, sagt Entwickler | |
| Jamie Brew. | |
| Künstliche Intelligenz und Schach: Erschreckend klug | |
| Alpha Zero hat in nur vier Stunden Schach erlernt. Gegen die künstliche | |
| Intelligenz haben weder Menschen noch Schachprogramme die leiseste Chance. | |
| Künstliche Intelligenz in Saudi-Arabien: Roboterin mit Pass | |
| Saudi-Arabien hat dem humanoiden Roboter „Sophia“ die Staatsbürgerschaft | |
| verliehen. Im Internet sorgt das für Häme. | |
| Serie: Wie weiter, Germans? (4): Das Rennen gegen die Maschine | |
| Die gute Nachricht: Roboter nehmen Ihnen künftig die Scheißarbeit ab. Die | |
| schlechte: Sie nehmen Ihnen die Arbeit weg. Die Politik muss darauf | |
| reagieren. | |
| Debatte Selbstfahrende Autos: Smart Crash | |
| Die Industrie verspricht, dass schon bald autonome Autos fahren. Doch statt | |
| ausgereifter Technik gibt es nur „Beta-Versionen“ – ein gefährlicher Tre… | |
| Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen | |
| Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt | |
| Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele | |
| treffen? |