| # taz.de -- Automatisierte Profile in Online-Netzwerken: Ein Twitterbot zum Ver… | |
| > Profile auf Twitter und Facebook werden oft von Programmen kontrolliert. | |
| > Sie werden selten erkannt und können Beziehungen zwischen Menschen | |
| > verändern. | |
| Bild: Zwitschert da wirklich ein Mensch? | |
| BERLIN taz | Es ist nicht mehr einfach im Netz zwischen Mensch und Maschine | |
| zu unterscheiden. Ist der oder die Unbekannte gegenüber, mit dem oder man | |
| seit Wochen flirtet, ein Mensch oder nur ein Flirtprogramm? Ist die | |
| attraktive Frau, die mit einem befreundet sein will, echt? Oder nur ein | |
| Roboter, der Daten abfischen will? | |
| Profile auf sozialen Netzwerken werden häufig von Programmen, genannt | |
| Socialbots, kontrolliert. Manche erledigen offensichtlich automatisierte | |
| Aufgaben, wie etwa Twitter nach Schlagworten zu durchsuchen und die | |
| gefundenen Meldungen wiederzugeben. Doch viele andere sind kaum noch von | |
| Menschen unterscheidbar. | |
| Zwei neue Studien haben nachgewiesen, dass es erstaunlich leicht ist, Bots | |
| in Onlinenetzwerke einzuschleusen und dass sie überraschende Auswirkungen | |
| auf die menschlichen Nutzer haben können. | |
| [1][Im ersten Fall] erforschten Wissenschaftler der kanadischen University | |
| of British Columbia das Netzwerk Facebook, indem sie Programme schrieben, | |
| die gefälschte Konten auf Facebook führten. Mit Erfolg: Ein Fünftel der | |
| Freundschaftseinladungen der Botkonten auf Facebook wurde angenommen. Sie | |
| erhielten so innerhalb einer Woche Zugriff auf Tausende werberelevante | |
| Datenpunkte – Alter, Adressen und Telefonnummern. Auch das Abwehrsystem | |
| Facebooks versagte: Von 102 Botkonten wurden nur 20 gesperrt. | |
| [2][In der zweiten Studie] nahmen sich Tim Hwang und seinen Kollegen vom | |
| Forschungsprojekt Web Ecology das Netzwerk Twitter vor. Drei Teams | |
| versuchten mit selbst geschriebenen Programmen die Verbindungen zwischen | |
| 2.700 Nutzern auf Twitter zu beeinflussen. In den Erfolgsindex gingen alle | |
| Verbindungen ein, die die Twitterbots mit den Menschen im Netzwerk aufbauen | |
| konnten sowie alle namentlichen Nennungen des Programms durch die | |
| menschlichen Nutzer. | |
| Auch hier hatten die Forscher Erfolg: Im Schnitt folgten den Programmen im | |
| Schnitt 62 Nutzer und sie wurden 33 mal erwähnt. Doch auch das Netzwerk | |
| hatte sich verändert: Durch den Einfluss der Bots waren auch die | |
| Verbindungen zwischen den Menschen angestiegen. | |
| ## Für 25 Euro zu kaufen | |
| „Unsere ersten Ergebnisse deuten darauf hin, dass solche Bots soziale | |
| Gruppen stark beeinflussen können“, sagt Tim Hwang. Mit Schwärmen dieser | |
| Programme könnten viel größere Effekte erzielt werden, ganze | |
| Onlinenetzwerke könnten beispielsweise aufgebaut und zu einem bestimmten | |
| Zeitpunkt für eine Werbekampagne genutzt werden. | |
| Andererseits können sie auch eingesetzt werden, um missliebige Netzwerke zu | |
| bekämpfen: „Programme, die Gruppen zusammenbringen, können Gruppen auch | |
| sprengen.“ Aufstände, die über soziale Netzwerke organisiert werden, | |
| könnten durch einen Schwarm von Socialbots effektiv bekämpft werden. | |
| Doch schon die Experimente, das Sozialverhalten von Nutzern ohne das Wissen | |
| der Betroffenen zu steuern, sind höchst umstritten. „Man kommt da in | |
| ethisch fragwürdige Gebiete“, gibt Hwang zu. Doch Bots würden schon jetzt | |
| im Netz eingesetzt und seien für fragwürdige Zwecke für rund 25 Euro zu | |
| kaufen. “Je mehr wir über Bots wissen, desto besser können wir Menschen | |
| helfen, sie zu erkennen und dagegen zu verteidigen.“ Sein Team | |
| veröffentliche deshalb alle Informationen über die Experimente | |
| nachträglich, inklusive des Quelltexts der eingesetzten Roboter. | |
| Die Ergebnisse der Studien offenbaren eine der größten Schwächen von | |
| Online-Netzwerken: die Nutzer selbst. „Wir haben festgestellt, dass sobald | |
| ein Twitterbot als Mensch akzeptiert wurde, diese Einschätzung nur selten | |
| in Frage gestellt wird“, so Tim Hwang. Das Problem ist in Diensten wie | |
| Twitter schon angelegt: Durch die Kürze der Nachrichten verschwimme, ob auf | |
| der anderen Seite Intelligenz oder Algorithmen stecke. | |
| Und die Programmierer werden gewiefter: Um ihre Programme besser zu tarnen, | |
| schrieben Hwang und Kollegen ein Programm, das regelmäßig Menschen vorwarf, | |
| Twitterbots zu sein. Die entrüsteten Antworten werden aufgezeichnet und von | |
| anderen Twitterbots eingesetzt. | |
| Hwangs Twitterbots sind gut, sehr gut. So gut, dass sie heikle Situationen | |
| herbeiführen können. Beispielsweise als sich ein Twitter-Nutzer in einen | |
| „weiblichen“ Twitterbot verliebte. Als der Nutzer immer mehr flirtete, | |
| schalteten Hwang und Kollegen das Programm ab. | |
| 5 Mar 2012 | |
| ## LINKS | |
| [1] http://www.lersse-dl.ece.ubc.ca/record/264/files/ACSAC_2011.pdf | |
| [2] http://www.pacsocial.com/files/pacsocial_field_test_report_2011-11-15.pdf | |
| ## AUTOREN | |
| Lalon Sander | |
| ## ARTIKEL ZUM THEMA |