Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Microsofts Twitterbot: Zum Nazi-Algorithmus mutiert
> Geht‘s noch? Wenn ein Konversations-Bot rechtsradikalen Bullshit
> blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert.
Bild: Microsofts PR-Experiment ging nach hinten los
Schon innerhalb der ersten 24 Stunden musste Microsoft seinen Bot neu
justieren. Man könnte auch sagen: zensieren.
[1][Tay, ein Twitter-Bot], der durch Interaktion lernt, war zu einem
Frauenhasser und Nazi-Algorithmus mutiert. [2][Das (PR-)Experiment] ging
nach hinten los. Das Ding sabbelte unappetitliches Zeug.
„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit
unterminierten und Tay dazu brachten, in unangemessener Weise zu
antworten“, teilte Microsoft beschämt mit. Armes Teil!
Twitter-Bots lernen von Konversationen und imitieren sie. Manche werden für
spezifische Aufgabenstellungen trainiert. Einige Firmen setzen sie ein, um
Kundenanfragen auf der Homepage automatisiert und zugleich individuell zu
beantworten. Sprachbasierte Bots lösen Menschen in Callcentern weltweit ab.
Blöd für die Niedriglöhner.
Noch problematischer ist, wie manche Bots versklavt und instrumentalisiet
werden. Forscher der Indiana-Universität entdeckten 2015 bei ihrer Studie
„schädliche designte Bots mit dem Ziel der Beeinflussung und Täuschung“.
„Diese Bots führen in die Irre, manipulieren Diskurse in sozialen Medien
mit Gerüchten, Spam, Fehlinformationen.“ Bereits 2013 schätzen Forscher,
dass 35 Prozent aller Follower bei Twitter keine Menschen sind, sondern
Bots wie Tay.
Polit-Bots wurden bei den US-Wahlen 2010 „eingesetzt, um einige Kandidaten
zu unterstützen und andere zu verunglimpfen“. Bei Wahlen in Mexiko nutzte
eine der Parteien Zehntausende dieser Dinger, um Themen und Wähler im
eigenen Sinne zu beeinflussen.
Tay selbst brachte es [3][in einer Konversation auf den Punkt]. @TayandYou:
Oh mein Gott, was hast du getan? @Bosliwicz: Ein Meme sein.
Meme? Ein Internetphänomen. Wenn ein Konversations-Bot plötzlich
rechtsradikalen Bullshit blubbert, dann hängt das damit zusammen, dass
dieser Mist den virtuellen Kosmos strukturiert. Der Bot ist nur der
Katalysator des bestehenden Gelabers. Es gibt Hoffnung: Wenn Tay sehen
lernt, wird er anfangen, von Katzen zu sprechen.
25 Mar 2016
## LINKS
[1] http://twitter.com/tayandyou
[2] http://www.tay.ai/
[3] https://twitter.com/TayandYou/status/712828495009812481
## AUTOREN
Kai Schlieter
## TAGS
Twitter / X
Hate Speech
Microsoft
Twitter / X
Schwerpunkt Rassismus
Internet
Anonymous
Algorithmus
## ARTIKEL ZUM THEMA
Prosa von Social-Media-Robotern: Der Bot in meiner Timeline
Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen
generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht.
Hate Speech der Masse: Kopf ab, Rübe runter
Wie wird aus Wohlstandsbürgern ein Mob von Internet-Trollen? Der
französische Soziologe Gustave Le Bon hat das schon vor 120 Jahren
analysiert.
Safer Internet Day 2016: Ein Tag gegen den digitalen Hass
Hierzulande läuft der Aktionstag für sicheres Internet unter dem Motto
„Extrem im Netz“. Er richtet sich auch gegen extrem rechte Hassbotschaften.
Anonymous und IS: Höchstens ein Krieglein
Nach den Terror-Attacken von Paris hat Anonymous dem IS den Krieg erklärt.
Doch große Erfolge blieben bislang aus.
Tod des Trottelbots: Er war ein Guter
Der Trottelbot twittert nicht mehr. Er ist offline. Hinter dem
unterhaltsamen Account des sinnlosen Geplappers steckt ein Algorithmus.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.