# taz.de -- Automatisierte Profile in Online-Netzwerken: Ein Twitterbot zum Ver… | |
> Profile auf Twitter und Facebook werden oft von Programmen kontrolliert. | |
> Sie werden selten erkannt und können Beziehungen zwischen Menschen | |
> verändern. | |
Bild: Zwitschert da wirklich ein Mensch? | |
BERLIN taz | Es ist nicht mehr einfach im Netz zwischen Mensch und Maschine | |
zu unterscheiden. Ist der oder die Unbekannte gegenüber, mit dem oder man | |
seit Wochen flirtet, ein Mensch oder nur ein Flirtprogramm? Ist die | |
attraktive Frau, die mit einem befreundet sein will, echt? Oder nur ein | |
Roboter, der Daten abfischen will? | |
Profile auf sozialen Netzwerken werden häufig von Programmen, genannt | |
Socialbots, kontrolliert. Manche erledigen offensichtlich automatisierte | |
Aufgaben, wie etwa Twitter nach Schlagworten zu durchsuchen und die | |
gefundenen Meldungen wiederzugeben. Doch viele andere sind kaum noch von | |
Menschen unterscheidbar. | |
Zwei neue Studien haben nachgewiesen, dass es erstaunlich leicht ist, Bots | |
in Onlinenetzwerke einzuschleusen und dass sie überraschende Auswirkungen | |
auf die menschlichen Nutzer haben können. | |
[1][Im ersten Fall] erforschten Wissenschaftler der kanadischen University | |
of British Columbia das Netzwerk Facebook, indem sie Programme schrieben, | |
die gefälschte Konten auf Facebook führten. Mit Erfolg: Ein Fünftel der | |
Freundschaftseinladungen der Botkonten auf Facebook wurde angenommen. Sie | |
erhielten so innerhalb einer Woche Zugriff auf Tausende werberelevante | |
Datenpunkte – Alter, Adressen und Telefonnummern. Auch das Abwehrsystem | |
Facebooks versagte: Von 102 Botkonten wurden nur 20 gesperrt. | |
[2][In der zweiten Studie] nahmen sich Tim Hwang und seinen Kollegen vom | |
Forschungsprojekt Web Ecology das Netzwerk Twitter vor. Drei Teams | |
versuchten mit selbst geschriebenen Programmen die Verbindungen zwischen | |
2.700 Nutzern auf Twitter zu beeinflussen. In den Erfolgsindex gingen alle | |
Verbindungen ein, die die Twitterbots mit den Menschen im Netzwerk aufbauen | |
konnten sowie alle namentlichen Nennungen des Programms durch die | |
menschlichen Nutzer. | |
Auch hier hatten die Forscher Erfolg: Im Schnitt folgten den Programmen im | |
Schnitt 62 Nutzer und sie wurden 33 mal erwähnt. Doch auch das Netzwerk | |
hatte sich verändert: Durch den Einfluss der Bots waren auch die | |
Verbindungen zwischen den Menschen angestiegen. | |
## Für 25 Euro zu kaufen | |
„Unsere ersten Ergebnisse deuten darauf hin, dass solche Bots soziale | |
Gruppen stark beeinflussen können“, sagt Tim Hwang. Mit Schwärmen dieser | |
Programme könnten viel größere Effekte erzielt werden, ganze | |
Onlinenetzwerke könnten beispielsweise aufgebaut und zu einem bestimmten | |
Zeitpunkt für eine Werbekampagne genutzt werden. | |
Andererseits können sie auch eingesetzt werden, um missliebige Netzwerke zu | |
bekämpfen: „Programme, die Gruppen zusammenbringen, können Gruppen auch | |
sprengen.“ Aufstände, die über soziale Netzwerke organisiert werden, | |
könnten durch einen Schwarm von Socialbots effektiv bekämpft werden. | |
Doch schon die Experimente, das Sozialverhalten von Nutzern ohne das Wissen | |
der Betroffenen zu steuern, sind höchst umstritten. „Man kommt da in | |
ethisch fragwürdige Gebiete“, gibt Hwang zu. Doch Bots würden schon jetzt | |
im Netz eingesetzt und seien für fragwürdige Zwecke für rund 25 Euro zu | |
kaufen. “Je mehr wir über Bots wissen, desto besser können wir Menschen | |
helfen, sie zu erkennen und dagegen zu verteidigen.“ Sein Team | |
veröffentliche deshalb alle Informationen über die Experimente | |
nachträglich, inklusive des Quelltexts der eingesetzten Roboter. | |
Die Ergebnisse der Studien offenbaren eine der größten Schwächen von | |
Online-Netzwerken: die Nutzer selbst. „Wir haben festgestellt, dass sobald | |
ein Twitterbot als Mensch akzeptiert wurde, diese Einschätzung nur selten | |
in Frage gestellt wird“, so Tim Hwang. Das Problem ist in Diensten wie | |
Twitter schon angelegt: Durch die Kürze der Nachrichten verschwimme, ob auf | |
der anderen Seite Intelligenz oder Algorithmen stecke. | |
Und die Programmierer werden gewiefter: Um ihre Programme besser zu tarnen, | |
schrieben Hwang und Kollegen ein Programm, das regelmäßig Menschen vorwarf, | |
Twitterbots zu sein. Die entrüsteten Antworten werden aufgezeichnet und von | |
anderen Twitterbots eingesetzt. | |
Hwangs Twitterbots sind gut, sehr gut. So gut, dass sie heikle Situationen | |
herbeiführen können. Beispielsweise als sich ein Twitter-Nutzer in einen | |
„weiblichen“ Twitterbot verliebte. Als der Nutzer immer mehr flirtete, | |
schalteten Hwang und Kollegen das Programm ab. | |
5 Mar 2012 | |
## LINKS | |
[1] http://www.lersse-dl.ece.ubc.ca/record/264/files/ACSAC_2011.pdf | |
[2] http://www.pacsocial.com/files/pacsocial_field_test_report_2011-11-15.pdf | |
## AUTOREN | |
Lalon Sander | |
## ARTIKEL ZUM THEMA |