# taz.de -- Microsofts Twitterbot: Zum Nazi-Algorithmus mutiert | |
> Geht‘s noch? Wenn ein Konversations-Bot rechtsradikalen Bullshit | |
> blubbert, dann, weil dieser Mist den virtuellen Kosmos strukturiert. | |
Bild: Microsofts PR-Experiment ging nach hinten los | |
Schon innerhalb der ersten 24 Stunden musste Microsoft seinen Bot neu | |
justieren. Man könnte auch sagen: zensieren. | |
[1][Tay, ein Twitter-Bot], der durch Interaktion lernt, war zu einem | |
Frauenhasser und Nazi-Algorithmus mutiert. [2][Das (PR-)Experiment] ging | |
nach hinten los. Das Ding sabbelte unappetitliches Zeug. | |
„Uns fiel auf, dass einige User koordiniert Tays Kommentarfähigkeit | |
unterminierten und Tay dazu brachten, in unangemessener Weise zu | |
antworten“, teilte Microsoft beschämt mit. Armes Teil! | |
Twitter-Bots lernen von Konversationen und imitieren sie. Manche werden für | |
spezifische Aufgabenstellungen trainiert. Einige Firmen setzen sie ein, um | |
Kundenanfragen auf der Homepage automatisiert und zugleich individuell zu | |
beantworten. Sprachbasierte Bots lösen Menschen in Callcentern weltweit ab. | |
Blöd für die Niedriglöhner. | |
Noch problematischer ist, wie manche Bots versklavt und instrumentalisiet | |
werden. Forscher der Indiana-Universität entdeckten 2015 bei ihrer Studie | |
„schädliche designte Bots mit dem Ziel der Beeinflussung und Täuschung“. | |
„Diese Bots führen in die Irre, manipulieren Diskurse in sozialen Medien | |
mit Gerüchten, Spam, Fehlinformationen.“ Bereits 2013 schätzen Forscher, | |
dass 35 Prozent aller Follower bei Twitter keine Menschen sind, sondern | |
Bots wie Tay. | |
Polit-Bots wurden bei den US-Wahlen 2010 „eingesetzt, um einige Kandidaten | |
zu unterstützen und andere zu verunglimpfen“. Bei Wahlen in Mexiko nutzte | |
eine der Parteien Zehntausende dieser Dinger, um Themen und Wähler im | |
eigenen Sinne zu beeinflussen. | |
Tay selbst brachte es [3][in einer Konversation auf den Punkt]. @TayandYou: | |
Oh mein Gott, was hast du getan? @Bosliwicz: Ein Meme sein. | |
Meme? Ein Internetphänomen. Wenn ein Konversations-Bot plötzlich | |
rechtsradikalen Bullshit blubbert, dann hängt das damit zusammen, dass | |
dieser Mist den virtuellen Kosmos strukturiert. Der Bot ist nur der | |
Katalysator des bestehenden Gelabers. Es gibt Hoffnung: Wenn Tay sehen | |
lernt, wird er anfangen, von Katzen zu sprechen. | |
25 Mar 2016 | |
## LINKS | |
[1] http://twitter.com/tayandyou | |
[2] http://www.tay.ai/ | |
[3] https://twitter.com/TayandYou/status/712828495009812481 | |
## AUTOREN | |
Kai Schlieter | |
## TAGS | |
Twitter / X | |
Hate Speech | |
Microsoft | |
Twitter / X | |
Schwerpunkt Rassismus | |
Internet | |
Anonymous | |
Algorithmus | |
## ARTIKEL ZUM THEMA | |
Prosa von Social-Media-Robotern: Der Bot in meiner Timeline | |
Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen | |
generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht. | |
Hate Speech der Masse: Kopf ab, Rübe runter | |
Wie wird aus Wohlstandsbürgern ein Mob von Internet-Trollen? Der | |
französische Soziologe Gustave Le Bon hat das schon vor 120 Jahren | |
analysiert. | |
Safer Internet Day 2016: Ein Tag gegen den digitalen Hass | |
Hierzulande läuft der Aktionstag für sicheres Internet unter dem Motto | |
„Extrem im Netz“. Er richtet sich auch gegen extrem rechte Hassbotschaften. | |
Anonymous und IS: Höchstens ein Krieglein | |
Nach den Terror-Attacken von Paris hat Anonymous dem IS den Krieg erklärt. | |
Doch große Erfolge blieben bislang aus. | |
Tod des Trottelbots: Er war ein Guter | |
Der Trottelbot twittert nicht mehr. Er ist offline. Hinter dem | |
unterhaltsamen Account des sinnlosen Geplappers steckt ein Algorithmus. |