| # taz.de -- Datenexperte über Social Bots: „Manipulation ist nicht so einfac… | |
| > In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als | |
| > Mensch ausgibt. Wie verändert das den öffentlichen Diskurs? | |
| Bild: Fast wie ein Mensch: Social Bots mischen sich in Diskussionen auf Twitter… | |
| taz: Herr Hegelich, Sie forschen zu sogenannten Social Bots – | |
| Softwareprogrammen, die sich in die Unterhaltungen in Sozialen Netzwerken | |
| mischen und dort vorgaukeln, echte Personen zu sein. Was war denn Ihr | |
| bislang spannendster Fund? | |
| Simon Hegelich: Das erste große Botnetz, das ich jemals gefunden habe, ist | |
| im Ukraine-Konflikt nach wie vor tätig. Da geht es um etwa 15.000 Bots auf | |
| Twitter. Die verbreiten da sehr viele Sportnachrichten, erzählen Witze – | |
| und zwischendurch machen sie Propaganda für den rechten Sektor in der | |
| Ukraine. Das ist schon allein deshalb ziemlich spannend, weil da eine | |
| relativ gute Software benutzt wird. An diesem Botnetz kann man | |
| unterschiedliche Strategien studieren. Wie es zum Beispiel bestimmte | |
| Hashtags populär macht, einfach dadurch, dass immer wieder ein Hashtag | |
| benutzt wird. Oder wie es Hashtags kombiniert, so dass man jetzt immer auf | |
| den rechten Sektor stößt, wenn man auf Twitter nach Maidan sucht. | |
| Sie sagen, dass dieses Botnetzwerk gezielt junge Männer ansprechen soll. | |
| Das ist die Theorie. Sie erklärt ein bisschen, warum sexistische Witze, | |
| Sportnachrichten und illegale Downloads auftauchen. | |
| Konnten Sie auch Rückschlüsse ziehen, wer dahintersteckt? | |
| Das bleibt Spekulation. Ich versuche immer allen Leuten klarzumachen, dass | |
| das auch so bleiben wird. Das glaubt mir dann aber niemand so richtig. | |
| Solange man nicht die NSA ist und genau nachprüfen kann, welcher echte | |
| Mensch irgendwann an irgendeinem Computer gesessen hat, wird man das nicht | |
| erfahren. | |
| Hinter der Beschäftigung mit Social Bots steht ja die These, die | |
| künstlichen Programme könnten demokratische Prozesse beeinflussen. Für wie | |
| wahrscheinlich halten Sie das? | |
| Die Frage ist, was damit gemeint ist. Dass demokratische Prozesse durch | |
| Bots beeinflusst werden, ist beinahe ein Fakt. Weil nämlich jede Debatte, | |
| die in den sozialen Medien geführt wird, von Bots begleitet wird, sage ich | |
| mal vorsichtig. Sofern wir also annehmen, dass die sozialen Medien | |
| irgendeine politische Relevanz haben – und die meisten Leute nehmen das an | |
| –, müssen wir davon ausgehen, dass die Bots in irgendeiner Form daran | |
| teilhaben. Aber es ist ganz sicherlich nicht so, wie das verkürzt häufig | |
| dargestellt wird, dass viele Bots was zum Thema Brexit schreiben – und dann | |
| stimmen die Leute für den Brexit. So passiert das nicht. | |
| Warum? Weil ich auch als Laie einen simplen Bot erkennen kann und dann | |
| einfach nicht glaube, was er verbreitet? | |
| Das ist eine Möglichkeit. Aber auch generell ist Manipulation nicht so | |
| einfach. Ich kann nicht einfach jemandem sagen: Sei jetzt für den Brexit – | |
| und dann sagt der einfach: okay. Ich muss die Leute schon abholen bei | |
| etwas, was sie sich vielleicht selbst schon gedacht haben. | |
| Aber könnten Social Bots nicht doch den Diskurs beeinflussen? Etwa indem | |
| sie Diskussionen in sozialen Medien so ätzend machen, dass echte Menschen | |
| vergrault werden? | |
| Ja, so könnte Beeinflussung stattfinden. Bots sind häufig sehr aggressiv. | |
| Das führt vermutlich dazu, dass gemäßigtere Meinungen sich angewidert aus | |
| diesen Diskussionen zurückziehen. Wer ähnlich radikal denkt, fühlt sich | |
| bestätigt. Und die anderen Radikalen, die andersherum denken, fühlen sich | |
| herausgefordert. Dann haben wir ein riesiges Geschrei. Was dann vielleicht | |
| auch dazu führt, dass es – auch wenn das empirisch schwer zu zeigen ist – | |
| über die Zeit eine Radikalisierung gibt, eine Zunahme von Aggressivität in | |
| den sozialen Medien. | |
| Das Beispiel, dass Sie eben ansprachen, ist nicht theoretisch: Eine Studie | |
| zeigte, dass sich vor der britischen Brexit-Abstimmung auf Twitter viele | |
| Social Bots unter Hashtags wie #brexit und #strongerin eingemischt haben. | |
| Einige Medien sehen darin Beeinflussungsversuche. | |
| Die Kollegen haben diese Arbeit vor der Abstimmung in Großbritannien | |
| veröffentlicht. Und sie haben nicht gesagt, dass die Abstimmung manipuliert | |
| worden ist. Wenn man sich mal etwas genauer anschaut, was die Bots gemacht | |
| haben, um die es da geht, wird klar: Das waren sogenannte Spambots: Die | |
| haben sich einfach an den Hashtag #brexit drangehängt und in Wirklichkeit | |
| Links zu russischen Videoplattformen gepostet. | |
| Da kann ich mir nicht vorstellen, dass das jemanden großartig in seinem | |
| Wahlverhalten beeinflusst. Was allerdings auch mit diesen dummen Spambots | |
| beeinflussbar ist, sind die Trends von Social-Media-Plattformen. Wenn durch | |
| die bei Reportern der Eindruck entsteht: Uh, der #brexit ist total trendig, | |
| wir müssen da noch mal unsere Berichterstattung revidieren und der | |
| Brexit-Stimme ein stärkeres Gewicht geben – dann kann das schon Einfluss | |
| darauf haben, was die Leute tatsächlich hinterher wählen. | |
| Wie erkennen Sie eigentlich, ob hinter einem Social-Media-Profil ein Bot | |
| steht? | |
| Wenn ich mir Profile anschaue, gibt es ein paar Sachen, die einem | |
| merkwürdig vorkommen können. Wenn jemand zum Beispiel extrem viele Posts | |
| auf Twitter gesendet hat, aber noch gar nicht lange dabei ist. Oder wenn | |
| man immer wieder die gleichen Bilder sieht. Aber die richtige Überprüfung | |
| läuft über Machine-Learning-Algorithmen. Dafür müsste ich die Daten erst | |
| runterladen und dann dem Klassifizierungsprogramm geben, das ich entwickelt | |
| habe. Das überprüft dann alle möglichen Muster, die von Bots bekannt sind, | |
| und errechnet eine Wahrscheinlichkeit, ob das jetzt ein Bot ist oder nicht. | |
| Das Prinzip dabei ist machine learning: Ich habe einen großen Haufen Daten, | |
| von denen ich weiß, dass es Bots sind. Und einen anderen Haufen, die keine | |
| Bots sind. Ziemlich intelligente Algorithmen erkennen darin Muster. | |
| Was für Daten sind das? | |
| Bei Twitter sind etwa 140 Metadaten zugänglich. Das können zum Beispiel | |
| Geokoordinaten sein, aber auch die Farbe des Hintergrundes, den man gewählt | |
| hat. Oder der Link zum Foto. Die meisten Forscher beschäftigen sich mit | |
| Twitter. Das liegt aber auch daran, dass man dort so einfach an die Daten | |
| kommt. Eigentlich müssten wir viel mehr Facebook-Forschung machen, weil das | |
| viel wichtiger ist. | |
| Wie viele Social Bots sind denn tatsächlich in sozialen Netzwerken | |
| unterwegs? Es kursiert ja ein breites Spektrum an Zahlen. | |
| Die können Sie alle vergessen. | |
| Und wenn man die Bot-Accounts zählt? | |
| Die Zahlen funktionieren leider alle nicht. Seriös kann man die nicht | |
| rausgeben – wenn man nicht gerade Twitter oder Facebook ist. Denn: Wie hoch | |
| der Anteil aller Meldungen ist, bei denen man davon ausgehen kann, dass | |
| Bots dahinterstehen, kommt sehr darauf an, wie ich die Daten erhebe. Zum | |
| Beispiel auf den Beobachtungszeitraum – denn Bots werden immer dann aktiv, | |
| wenn ein Hashtag in sozialen Netzwerken schon trendet. | |
| Auch im US-Wahlkampf haben Sie Hinweise auf Social Bots gefunden: | |
| Twitter-Accounts, die sexistische, antisemitische oder rassistische Witze | |
| erzählen und später Trump diffamieren – womit möglicherweise bewirkt werden | |
| soll, Trump-Unterstützer umzudrehen. Mal ganz naiv gefragt: Kann es am Ende | |
| sein, dass Social Bots den Ausgang von US-Wahlen beeinflussen? | |
| Denkbar ist das tatsächlich. Unterstellt ist dabei, dass es insgesamt ein | |
| knappes Wahlergebnis wird. Ich glaube nach wie vor nicht, dass Bots ein | |
| geeignetes Instrument sind, um Massen umzudrehen. Aber in Situationen, wo | |
| wenige Stimmen entscheidend sein können, haben Bots möglicherweise einen | |
| Einfluss. Es wird allerdings unmöglich sein, das jemals nachzuweisen – weil | |
| man nie nachweisen kann, ob die Leute nicht ohne die Bots das Gleiche | |
| gewählt hätten. Generell muss man allerdings sagen: Social Bots spielen in | |
| Wahlkampagnen im Moment noch keine Rolle. Aber das kann ja noch kommen. | |
| Ein wenig bedrohlich klingt das Potenzial von Social Bots ja schon. Wie | |
| geht man am wirksamsten gegen sie vor? | |
| Das Wichtigste ist erst einmal, über das Thema aufzuklären. Denn wenn die | |
| Leute wissen, dass es diese Möglichkeit gibt, lassen sie sich schon viel | |
| schlechter manipulieren. Das Zweite ist: Ich glaube, dass die Leute, die | |
| aus Social-Media-Daten etwas ableiten wollen, als Nächstes in der Pflicht | |
| sind. Die müssen die Kompetenzen haben, solche Manipulationen zu erkennen. | |
| In der Politik muss es erst einmal darum gehen, sich diesem gesamten Thema | |
| Digitalisierung vernünftig zu widmen – und das geht natürlich weit über | |
| Social Bots hinaus. Wir müssen akzeptieren, dass wir es mit einer | |
| gesellschaftlichen Revolution zu tun haben, und viel radikaler über | |
| Möglichkeiten nachdenken, wie man diesen Flaschengeist halbwegs wieder | |
| eingefangen kriegt. Das wird sicherlich nicht darüber gehen, dass man eine | |
| Ausweiskontrolle für Bots einführt. | |
| 21 Sep 2016 | |
| ## AUTOREN | |
| Meike Laaff | |
| ## TAGS | |
| Bot | |
| Social Media | |
| Propaganda | |
| Schwerpunkt Künstliche Intelligenz | |
| Twitter / X | |
| Fake News | |
| Fake News | |
| Social Media | |
| Marketing | |
| Bot | |
| Bot | |
| Hate Speech | |
| Bot | |
| Twitter / X | |
| ## ARTIKEL ZUM THEMA | |
| Manipulation durch Social Bots: Mensch oder Maschine | |
| Automatisiert in sozialen Netzwerken verbreitete Beiträge können die | |
| öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker | |
| wichtig. | |
| Umgang in Sozialen Netzwerken: Schwarz-Grün gegen Social Bots | |
| Die Grünen fordern eine Kennzeichnungspflicht für maschinell erstellte | |
| Meldungen. Die CSU auch – und will sich auch um Cybermobbing und Fake News | |
| kümmern. | |
| Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das | |
| Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“ | |
| einzurichten. Als Hauptakteur der Fake News sieht es Russland an. | |
| Facebook, Twitter und Youtube: Gemeinsam gegen Terror-Propaganda | |
| Forderungen an Online-Netzwerke, Content schneller und konsequenter zu | |
| löschen, gibt es schon lange. Eine gemeinsame Datenbank soll dies nun | |
| vereinfachen. | |
| Werberoboter von IBM: „Watson“ weiß, was du brauchst | |
| Suppenhersteller Campbell’s wirbt jetzt mit künstlicher Intelligenz. Das | |
| klingt, als hätte die Zukunft endlich angefangen. Ist aber nicht so. | |
| Neuer Messenger von Google: Allo Google! Und Tschüss? | |
| Der US-Konzern hat einen neuen Textmessenger für Smartphones | |
| veröffentlicht. Wer alle Funktionen nutzen will, muss Google mitlesen | |
| lassen. | |
| Testfahrt des ersten Schäferbots: Wird Lassie wegrationalisiert? | |
| Australier testen den ersten Roboter, der Vieh hütet. Er heißt Swagbot und | |
| soll der VW Käfer fortschrittsaffiner Farmer werden. | |
| Beratung durch Computerprogramme: Ein Chatbot für Flüchtlinge | |
| Ein 19-Jähriger entwickelte einen Bot, der Falschparker vor Knöllchen | |
| retten soll. Jetzt will er damit Flüchtlingen beim Asylantrag helfen. | |
| Hasskommentare im Internet: Ein Netzwerk gegen Trolle | |
| Die deutsche Ausgabe der Kampagne „No Hate Speech Movement“ ist gestartet. | |
| Sie wendet sich gegen menschenfeindliche Postings im Internet. | |
| Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft | |
| „Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das | |
| Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt. | |
| Prosa von Social-Media-Robotern: Der Bot in meiner Timeline | |
| Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen | |
| generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht. |