Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Datenexperte über Social Bots: „Manipulation ist nicht so einfac…
> In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als
> Mensch ausgibt. Wie verändert das den öffentlichen Diskurs?
Bild: Fast wie ein Mensch: Social Bots mischen sich in Diskussionen auf Twitter…
taz: Herr Hegelich, Sie forschen zu sogenannten Social Bots –
Softwareprogrammen, die sich in die Unterhaltungen in Sozialen Netzwerken
mischen und dort vorgaukeln, echte Personen zu sein. Was war denn Ihr
bislang spannendster Fund?
Simon Hegelich: Das erste große Botnetz, das ich jemals gefunden habe, ist
im Ukraine-Konflikt nach wie vor tätig. Da geht es um etwa 15.000 Bots auf
Twitter. Die verbreiten da sehr viele Sportnachrichten, erzählen Witze –
und zwischendurch machen sie Propaganda für den rechten Sektor in der
Ukraine. Das ist schon allein deshalb ziemlich spannend, weil da eine
relativ gute Software benutzt wird. An diesem Botnetz kann man
unterschiedliche Strategien studieren. Wie es zum Beispiel bestimmte
Hashtags populär macht, einfach dadurch, dass immer wieder ein Hashtag
benutzt wird. Oder wie es Hashtags kombiniert, so dass man jetzt immer auf
den rechten Sektor stößt, wenn man auf Twitter nach Maidan sucht.
Sie sagen, dass dieses Botnetzwerk gezielt junge Männer ansprechen soll.
Das ist die Theorie. Sie erklärt ein bisschen, warum sexistische Witze,
Sportnachrichten und illegale Downloads auftauchen.
Konnten Sie auch Rückschlüsse ziehen, wer dahintersteckt?
Das bleibt Spekulation. Ich versuche immer allen Leuten klarzumachen, dass
das auch so bleiben wird. Das glaubt mir dann aber niemand so richtig.
Solange man nicht die NSA ist und genau nachprüfen kann, welcher echte
Mensch irgendwann an irgendeinem Computer gesessen hat, wird man das nicht
erfahren.
Hinter der Beschäftigung mit Social Bots steht ja die These, die
künstlichen Programme könnten demokratische Prozesse beeinflussen. Für wie
wahrscheinlich halten Sie das?
Die Frage ist, was damit gemeint ist. Dass demokratische Prozesse durch
Bots beeinflusst werden, ist beinahe ein Fakt. Weil nämlich jede Debatte,
die in den sozialen Medien geführt wird, von Bots begleitet wird, sage ich
mal vorsichtig. Sofern wir also annehmen, dass die sozialen Medien
irgendeine politische Relevanz haben – und die meisten Leute nehmen das an
–, müssen wir davon ausgehen, dass die Bots in irgendeiner Form daran
teilhaben. Aber es ist ganz sicherlich nicht so, wie das verkürzt häufig
dargestellt wird, dass viele Bots was zum Thema Brexit schreiben – und dann
stimmen die Leute für den Brexit. So passiert das nicht.
Warum? Weil ich auch als Laie einen simplen Bot erkennen kann und dann
einfach nicht glaube, was er verbreitet?
Das ist eine Möglichkeit. Aber auch generell ist Manipulation nicht so
einfach. Ich kann nicht einfach jemandem sagen: Sei jetzt für den Brexit –
und dann sagt der einfach: okay. Ich muss die Leute schon abholen bei
etwas, was sie sich vielleicht selbst schon gedacht haben.
Aber könnten Social Bots nicht doch den Diskurs beeinflussen? Etwa indem
sie Diskussionen in sozialen Medien so ätzend machen, dass echte Menschen
vergrault werden?
Ja, so könnte Beeinflussung stattfinden. Bots sind häufig sehr aggressiv.
Das führt vermutlich dazu, dass gemäßigtere Meinungen sich angewidert aus
diesen Diskussionen zurückziehen. Wer ähnlich radikal denkt, fühlt sich
bestätigt. Und die anderen Radikalen, die andersherum denken, fühlen sich
herausgefordert. Dann haben wir ein riesiges Geschrei. Was dann vielleicht
auch dazu führt, dass es – auch wenn das empirisch schwer zu zeigen ist –
über die Zeit eine Radikalisierung gibt, eine Zunahme von Aggressivität in
den sozialen Medien.
Das Beispiel, dass Sie eben ansprachen, ist nicht theoretisch: Eine Studie
zeigte, dass sich vor der britischen Brexit-Abstimmung auf Twitter viele
Social Bots unter Hashtags wie #brexit und #strongerin eingemischt haben.
Einige Medien sehen darin Beeinflussungsversuche.
Die Kollegen haben diese Arbeit vor der Abstimmung in Großbritannien
veröffentlicht. Und sie haben nicht gesagt, dass die Abstimmung manipuliert
worden ist. Wenn man sich mal etwas genauer anschaut, was die Bots gemacht
haben, um die es da geht, wird klar: Das waren sogenannte Spambots: Die
haben sich einfach an den Hashtag #brexit drangehängt und in Wirklichkeit
Links zu russischen Videoplattformen gepostet.
Da kann ich mir nicht vorstellen, dass das jemanden großartig in seinem
Wahlverhalten beeinflusst. Was allerdings auch mit diesen dummen Spambots
beeinflussbar ist, sind die Trends von Social-Media-Plattformen. Wenn durch
die bei Reportern der Eindruck entsteht: Uh, der #brexit ist total trendig,
wir müssen da noch mal unsere Berichterstattung revidieren und der
Brexit-Stimme ein stärkeres Gewicht geben – dann kann das schon Einfluss
darauf haben, was die Leute tatsächlich hinterher wählen.
Wie erkennen Sie eigentlich, ob hinter einem Social-Media-Profil ein Bot
steht?
Wenn ich mir Profile anschaue, gibt es ein paar Sachen, die einem
merkwürdig vorkommen können. Wenn jemand zum Beispiel extrem viele Posts
auf Twitter gesendet hat, aber noch gar nicht lange dabei ist. Oder wenn
man immer wieder die gleichen Bilder sieht. Aber die richtige Überprüfung
läuft über Machine-Learning-Algorithmen. Dafür müsste ich die Daten erst
runterladen und dann dem Klassifizierungsprogramm geben, das ich entwickelt
habe. Das überprüft dann alle möglichen Muster, die von Bots bekannt sind,
und errechnet eine Wahrscheinlichkeit, ob das jetzt ein Bot ist oder nicht.
Das Prinzip dabei ist machine learning: Ich habe einen großen Haufen Daten,
von denen ich weiß, dass es Bots sind. Und einen anderen Haufen, die keine
Bots sind. Ziemlich intelligente Algorithmen erkennen darin Muster.
Was für Daten sind das?
Bei Twitter sind etwa 140 Metadaten zugänglich. Das können zum Beispiel
Geokoordinaten sein, aber auch die Farbe des Hintergrundes, den man gewählt
hat. Oder der Link zum Foto. Die meisten Forscher beschäftigen sich mit
Twitter. Das liegt aber auch daran, dass man dort so einfach an die Daten
kommt. Eigentlich müssten wir viel mehr Facebook-Forschung machen, weil das
viel wichtiger ist.
Wie viele Social Bots sind denn tatsächlich in sozialen Netzwerken
unterwegs? Es kursiert ja ein breites Spektrum an Zahlen.
Die können Sie alle vergessen.
Und wenn man die Bot-Accounts zählt?
Die Zahlen funktionieren leider alle nicht. Seriös kann man die nicht
rausgeben – wenn man nicht gerade Twitter oder Facebook ist. Denn: Wie hoch
der Anteil aller Meldungen ist, bei denen man davon ausgehen kann, dass
Bots dahinterstehen, kommt sehr darauf an, wie ich die Daten erhebe. Zum
Beispiel auf den Beobachtungszeitraum – denn Bots werden immer dann aktiv,
wenn ein Hashtag in sozialen Netzwerken schon trendet.
Auch im US-Wahlkampf haben Sie Hinweise auf Social Bots gefunden:
Twitter-Accounts, die sexistische, antisemitische oder rassistische Witze
erzählen und später Trump diffamieren – womit möglicherweise bewirkt werden
soll, Trump-Unterstützer umzudrehen. Mal ganz naiv gefragt: Kann es am Ende
sein, dass Social Bots den Ausgang von US-Wahlen beeinflussen?
Denkbar ist das tatsächlich. Unterstellt ist dabei, dass es insgesamt ein
knappes Wahlergebnis wird. Ich glaube nach wie vor nicht, dass Bots ein
geeignetes Instrument sind, um Massen umzudrehen. Aber in Situationen, wo
wenige Stimmen entscheidend sein können, haben Bots möglicherweise einen
Einfluss. Es wird allerdings unmöglich sein, das jemals nachzuweisen – weil
man nie nachweisen kann, ob die Leute nicht ohne die Bots das Gleiche
gewählt hätten. Generell muss man allerdings sagen: Social Bots spielen in
Wahlkampagnen im Moment noch keine Rolle. Aber das kann ja noch kommen.
Ein wenig bedrohlich klingt das Potenzial von Social Bots ja schon. Wie
geht man am wirksamsten gegen sie vor?
Das Wichtigste ist erst einmal, über das Thema aufzuklären. Denn wenn die
Leute wissen, dass es diese Möglichkeit gibt, lassen sie sich schon viel
schlechter manipulieren. Das Zweite ist: Ich glaube, dass die Leute, die
aus Social-Media-Daten etwas ableiten wollen, als Nächstes in der Pflicht
sind. Die müssen die Kompetenzen haben, solche Manipulationen zu erkennen.
In der Politik muss es erst einmal darum gehen, sich diesem gesamten Thema
Digitalisierung vernünftig zu widmen – und das geht natürlich weit über
Social Bots hinaus. Wir müssen akzeptieren, dass wir es mit einer
gesellschaftlichen Revolution zu tun haben, und viel radikaler über
Möglichkeiten nachdenken, wie man diesen Flaschengeist halbwegs wieder
eingefangen kriegt. Das wird sicherlich nicht darüber gehen, dass man eine
Ausweiskontrolle für Bots einführt.
21 Sep 2016
## AUTOREN
Meike Laaff
## TAGS
Bot
Social Media
Propaganda
Schwerpunkt Künstliche Intelligenz
Twitter / X
Fake News
Fake News
Social Media
Marketing
Google
Bot
Bot
Hate Speech
Bot
Twitter / X
## ARTIKEL ZUM THEMA
Manipulation durch Social Bots: Mensch oder Maschine
Automatisiert in sozialen Netzwerken verbreitete Beiträge können die
öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker
wichtig.
Umgang in Sozialen Netzwerken: Schwarz-Grün gegen Social Bots
Die Grünen fordern eine Kennzeichnungspflicht für maschinell erstellte
Meldungen. Die CSU auch – und will sich auch um Cybermobbing und Fake News
kümmern.
Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das
Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“
einzurichten. Als Hauptakteur der Fake News sieht es Russland an.
Facebook, Twitter und Youtube: Gemeinsam gegen Terror-Propaganda
Forderungen an Online-Netzwerke, Content schneller und konsequenter zu
löschen, gibt es schon lange. Eine gemeinsame Datenbank soll dies nun
vereinfachen.
Werberoboter von IBM: „Watson“ weiß, was du brauchst
Suppenhersteller Campbell’s wirbt jetzt mit künstlicher Intelligenz. Das
klingt, als hätte die Zukunft endlich angefangen. Ist aber nicht so.
Neuer Messenger von Google: Allo Google! Und Tschüss?
Der US-Konzern hat einen neuen Textmessenger für Smartphones
veröffentlicht. Wer alle Funktionen nutzen will, muss Google mitlesen
lassen.
Testfahrt des ersten Schäferbots: Wird Lassie wegrationalisiert?
Australier testen den ersten Roboter, der Vieh hütet. Er heißt Swagbot und
soll der VW Käfer fortschrittsaffiner Farmer werden.
Beratung durch Computerprogramme: Ein Chatbot für Flüchtlinge
Ein 19-Jähriger entwickelte einen Bot, der Falschparker vor Knöllchen
retten soll. Jetzt will er damit Flüchtlingen beim Asylantrag helfen.
Hasskommentare im Internet: Ein Netzwerk gegen Trolle
Die deutsche Ausgabe der Kampagne „No Hate Speech Movement“ ist gestartet.
Sie wendet sich gegen menschenfeindliche Postings im Internet.
Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft
„Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das
Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt.
Prosa von Social-Media-Robotern: Der Bot in meiner Timeline
Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen
generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.