# taz.de -- Datenexperte über Social Bots: „Manipulation ist nicht so einfac… | |
> In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als | |
> Mensch ausgibt. Wie verändert das den öffentlichen Diskurs? | |
Bild: Fast wie ein Mensch: Social Bots mischen sich in Diskussionen auf Twitter… | |
taz: Herr Hegelich, Sie forschen zu sogenannten Social Bots – | |
Softwareprogrammen, die sich in die Unterhaltungen in Sozialen Netzwerken | |
mischen und dort vorgaukeln, echte Personen zu sein. Was war denn Ihr | |
bislang spannendster Fund? | |
Simon Hegelich: Das erste große Botnetz, das ich jemals gefunden habe, ist | |
im Ukraine-Konflikt nach wie vor tätig. Da geht es um etwa 15.000 Bots auf | |
Twitter. Die verbreiten da sehr viele Sportnachrichten, erzählen Witze – | |
und zwischendurch machen sie Propaganda für den rechten Sektor in der | |
Ukraine. Das ist schon allein deshalb ziemlich spannend, weil da eine | |
relativ gute Software benutzt wird. An diesem Botnetz kann man | |
unterschiedliche Strategien studieren. Wie es zum Beispiel bestimmte | |
Hashtags populär macht, einfach dadurch, dass immer wieder ein Hashtag | |
benutzt wird. Oder wie es Hashtags kombiniert, so dass man jetzt immer auf | |
den rechten Sektor stößt, wenn man auf Twitter nach Maidan sucht. | |
Sie sagen, dass dieses Botnetzwerk gezielt junge Männer ansprechen soll. | |
Das ist die Theorie. Sie erklärt ein bisschen, warum sexistische Witze, | |
Sportnachrichten und illegale Downloads auftauchen. | |
Konnten Sie auch Rückschlüsse ziehen, wer dahintersteckt? | |
Das bleibt Spekulation. Ich versuche immer allen Leuten klarzumachen, dass | |
das auch so bleiben wird. Das glaubt mir dann aber niemand so richtig. | |
Solange man nicht die NSA ist und genau nachprüfen kann, welcher echte | |
Mensch irgendwann an irgendeinem Computer gesessen hat, wird man das nicht | |
erfahren. | |
Hinter der Beschäftigung mit Social Bots steht ja die These, die | |
künstlichen Programme könnten demokratische Prozesse beeinflussen. Für wie | |
wahrscheinlich halten Sie das? | |
Die Frage ist, was damit gemeint ist. Dass demokratische Prozesse durch | |
Bots beeinflusst werden, ist beinahe ein Fakt. Weil nämlich jede Debatte, | |
die in den sozialen Medien geführt wird, von Bots begleitet wird, sage ich | |
mal vorsichtig. Sofern wir also annehmen, dass die sozialen Medien | |
irgendeine politische Relevanz haben – und die meisten Leute nehmen das an | |
–, müssen wir davon ausgehen, dass die Bots in irgendeiner Form daran | |
teilhaben. Aber es ist ganz sicherlich nicht so, wie das verkürzt häufig | |
dargestellt wird, dass viele Bots was zum Thema Brexit schreiben – und dann | |
stimmen die Leute für den Brexit. So passiert das nicht. | |
Warum? Weil ich auch als Laie einen simplen Bot erkennen kann und dann | |
einfach nicht glaube, was er verbreitet? | |
Das ist eine Möglichkeit. Aber auch generell ist Manipulation nicht so | |
einfach. Ich kann nicht einfach jemandem sagen: Sei jetzt für den Brexit – | |
und dann sagt der einfach: okay. Ich muss die Leute schon abholen bei | |
etwas, was sie sich vielleicht selbst schon gedacht haben. | |
Aber könnten Social Bots nicht doch den Diskurs beeinflussen? Etwa indem | |
sie Diskussionen in sozialen Medien so ätzend machen, dass echte Menschen | |
vergrault werden? | |
Ja, so könnte Beeinflussung stattfinden. Bots sind häufig sehr aggressiv. | |
Das führt vermutlich dazu, dass gemäßigtere Meinungen sich angewidert aus | |
diesen Diskussionen zurückziehen. Wer ähnlich radikal denkt, fühlt sich | |
bestätigt. Und die anderen Radikalen, die andersherum denken, fühlen sich | |
herausgefordert. Dann haben wir ein riesiges Geschrei. Was dann vielleicht | |
auch dazu führt, dass es – auch wenn das empirisch schwer zu zeigen ist – | |
über die Zeit eine Radikalisierung gibt, eine Zunahme von Aggressivität in | |
den sozialen Medien. | |
Das Beispiel, dass Sie eben ansprachen, ist nicht theoretisch: Eine Studie | |
zeigte, dass sich vor der britischen Brexit-Abstimmung auf Twitter viele | |
Social Bots unter Hashtags wie #brexit und #strongerin eingemischt haben. | |
Einige Medien sehen darin Beeinflussungsversuche. | |
Die Kollegen haben diese Arbeit vor der Abstimmung in Großbritannien | |
veröffentlicht. Und sie haben nicht gesagt, dass die Abstimmung manipuliert | |
worden ist. Wenn man sich mal etwas genauer anschaut, was die Bots gemacht | |
haben, um die es da geht, wird klar: Das waren sogenannte Spambots: Die | |
haben sich einfach an den Hashtag #brexit drangehängt und in Wirklichkeit | |
Links zu russischen Videoplattformen gepostet. | |
Da kann ich mir nicht vorstellen, dass das jemanden großartig in seinem | |
Wahlverhalten beeinflusst. Was allerdings auch mit diesen dummen Spambots | |
beeinflussbar ist, sind die Trends von Social-Media-Plattformen. Wenn durch | |
die bei Reportern der Eindruck entsteht: Uh, der #brexit ist total trendig, | |
wir müssen da noch mal unsere Berichterstattung revidieren und der | |
Brexit-Stimme ein stärkeres Gewicht geben – dann kann das schon Einfluss | |
darauf haben, was die Leute tatsächlich hinterher wählen. | |
Wie erkennen Sie eigentlich, ob hinter einem Social-Media-Profil ein Bot | |
steht? | |
Wenn ich mir Profile anschaue, gibt es ein paar Sachen, die einem | |
merkwürdig vorkommen können. Wenn jemand zum Beispiel extrem viele Posts | |
auf Twitter gesendet hat, aber noch gar nicht lange dabei ist. Oder wenn | |
man immer wieder die gleichen Bilder sieht. Aber die richtige Überprüfung | |
läuft über Machine-Learning-Algorithmen. Dafür müsste ich die Daten erst | |
runterladen und dann dem Klassifizierungsprogramm geben, das ich entwickelt | |
habe. Das überprüft dann alle möglichen Muster, die von Bots bekannt sind, | |
und errechnet eine Wahrscheinlichkeit, ob das jetzt ein Bot ist oder nicht. | |
Das Prinzip dabei ist machine learning: Ich habe einen großen Haufen Daten, | |
von denen ich weiß, dass es Bots sind. Und einen anderen Haufen, die keine | |
Bots sind. Ziemlich intelligente Algorithmen erkennen darin Muster. | |
Was für Daten sind das? | |
Bei Twitter sind etwa 140 Metadaten zugänglich. Das können zum Beispiel | |
Geokoordinaten sein, aber auch die Farbe des Hintergrundes, den man gewählt | |
hat. Oder der Link zum Foto. Die meisten Forscher beschäftigen sich mit | |
Twitter. Das liegt aber auch daran, dass man dort so einfach an die Daten | |
kommt. Eigentlich müssten wir viel mehr Facebook-Forschung machen, weil das | |
viel wichtiger ist. | |
Wie viele Social Bots sind denn tatsächlich in sozialen Netzwerken | |
unterwegs? Es kursiert ja ein breites Spektrum an Zahlen. | |
Die können Sie alle vergessen. | |
Und wenn man die Bot-Accounts zählt? | |
Die Zahlen funktionieren leider alle nicht. Seriös kann man die nicht | |
rausgeben – wenn man nicht gerade Twitter oder Facebook ist. Denn: Wie hoch | |
der Anteil aller Meldungen ist, bei denen man davon ausgehen kann, dass | |
Bots dahinterstehen, kommt sehr darauf an, wie ich die Daten erhebe. Zum | |
Beispiel auf den Beobachtungszeitraum – denn Bots werden immer dann aktiv, | |
wenn ein Hashtag in sozialen Netzwerken schon trendet. | |
Auch im US-Wahlkampf haben Sie Hinweise auf Social Bots gefunden: | |
Twitter-Accounts, die sexistische, antisemitische oder rassistische Witze | |
erzählen und später Trump diffamieren – womit möglicherweise bewirkt werden | |
soll, Trump-Unterstützer umzudrehen. Mal ganz naiv gefragt: Kann es am Ende | |
sein, dass Social Bots den Ausgang von US-Wahlen beeinflussen? | |
Denkbar ist das tatsächlich. Unterstellt ist dabei, dass es insgesamt ein | |
knappes Wahlergebnis wird. Ich glaube nach wie vor nicht, dass Bots ein | |
geeignetes Instrument sind, um Massen umzudrehen. Aber in Situationen, wo | |
wenige Stimmen entscheidend sein können, haben Bots möglicherweise einen | |
Einfluss. Es wird allerdings unmöglich sein, das jemals nachzuweisen – weil | |
man nie nachweisen kann, ob die Leute nicht ohne die Bots das Gleiche | |
gewählt hätten. Generell muss man allerdings sagen: Social Bots spielen in | |
Wahlkampagnen im Moment noch keine Rolle. Aber das kann ja noch kommen. | |
Ein wenig bedrohlich klingt das Potenzial von Social Bots ja schon. Wie | |
geht man am wirksamsten gegen sie vor? | |
Das Wichtigste ist erst einmal, über das Thema aufzuklären. Denn wenn die | |
Leute wissen, dass es diese Möglichkeit gibt, lassen sie sich schon viel | |
schlechter manipulieren. Das Zweite ist: Ich glaube, dass die Leute, die | |
aus Social-Media-Daten etwas ableiten wollen, als Nächstes in der Pflicht | |
sind. Die müssen die Kompetenzen haben, solche Manipulationen zu erkennen. | |
In der Politik muss es erst einmal darum gehen, sich diesem gesamten Thema | |
Digitalisierung vernünftig zu widmen – und das geht natürlich weit über | |
Social Bots hinaus. Wir müssen akzeptieren, dass wir es mit einer | |
gesellschaftlichen Revolution zu tun haben, und viel radikaler über | |
Möglichkeiten nachdenken, wie man diesen Flaschengeist halbwegs wieder | |
eingefangen kriegt. Das wird sicherlich nicht darüber gehen, dass man eine | |
Ausweiskontrolle für Bots einführt. | |
21 Sep 2016 | |
## AUTOREN | |
Meike Laaff | |
## TAGS | |
künstliche Intelligenz | |
Propaganda | |
Social Media | |
Bot | |
Fake News | |
Fake News | |
Social Media | |
künstliche Intelligenz | |
Bot | |
Bot | |
Hate Speech | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Manipulation durch Social Bots: Mensch oder Maschine | |
Automatisiert in sozialen Netzwerken verbreitete Beiträge können die | |
öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker | |
wichtig. | |
Umgang in Sozialen Netzwerken: Schwarz-Grün gegen Social Bots | |
Die Grünen fordern eine Kennzeichnungspflicht für maschinell erstellte | |
Meldungen. Die CSU auch – und will sich auch um Cybermobbing und Fake News | |
kümmern. | |
Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das | |
Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“ | |
einzurichten. Als Hauptakteur der Fake News sieht es Russland an. | |
Facebook, Twitter und Youtube: Gemeinsam gegen Terror-Propaganda | |
Forderungen an Online-Netzwerke, Content schneller und konsequenter zu | |
löschen, gibt es schon lange. Eine gemeinsame Datenbank soll dies nun | |
vereinfachen. | |
Werberoboter von IBM: „Watson“ weiß, was du brauchst | |
Suppenhersteller Campbell’s wirbt jetzt mit künstlicher Intelligenz. Das | |
klingt, als hätte die Zukunft endlich angefangen. Ist aber nicht so. | |
Neuer Messenger von Google: Allo Google! Und Tschüss? | |
Der US-Konzern hat einen neuen Textmessenger für Smartphones | |
veröffentlicht. Wer alle Funktionen nutzen will, muss Google mitlesen | |
lassen. | |
Testfahrt des ersten Schäferbots: Wird Lassie wegrationalisiert? | |
Australier testen den ersten Roboter, der Vieh hütet. Er heißt Swagbot und | |
soll der VW Käfer fortschrittsaffiner Farmer werden. | |
Beratung durch Computerprogramme: Ein Chatbot für Flüchtlinge | |
Ein 19-Jähriger entwickelte einen Bot, der Falschparker vor Knöllchen | |
retten soll. Jetzt will er damit Flüchtlingen beim Asylantrag helfen. | |
Hasskommentare im Internet: Ein Netzwerk gegen Trolle | |
Die deutsche Ausgabe der Kampagne „No Hate Speech Movement“ ist gestartet. | |
Sie wendet sich gegen menschenfeindliche Postings im Internet. | |
Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft | |
„Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das | |
Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt. | |
Prosa von Social-Media-Robotern: Der Bot in meiner Timeline | |
Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen | |
generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht. |