# taz.de -- Manipulation durch Social Bots: Mensch oder Maschine | |
> Automatisiert in sozialen Netzwerken verbreitete Beiträge können die | |
> öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker | |
> wichtig. | |
Bild: Menschen. Keine Bots | |
BERLIN taz | Teuer ist das Ganze schon einmal nicht. 500 US-Dollar kostet | |
eine Software, mit der sich 10.000 Twitter-Accounts steuern lassen. | |
Accounts, die dann Tweets verfassen, andere retweeten, Nutzern folgen oder | |
bestimmte Hashtags verwenden. #alternativefacts zum Beispiel. Ganz | |
automatisch. Und immer im Sinne des Auftraggebers. | |
Social Bot wird dieses Phänomen genannt, wobei „Bot“ als Abkürzung für | |
Roboter steht. In die Kritik geraten diese Bots derzeit, weil sie in | |
sozialen Netzwerken wie Twitter, Facebook, Instagram oder Google+ | |
automatisiert Beiträge verbreiten und dabei von von Menschen verfassten | |
Beiträgen kaum zu unterscheiden sind. | |
Es gibt die Bots in unterschiedlichen Komplexitätsstufen: Die einfachsten | |
retweeten oder favorisieren nur Nachrichten mit bestimmten Hashtags, um für | |
eine größere Verbreitung und Wahrnehmung zu sorgen. Bei komplexeren Bots | |
erstellt der Algorithmus entsprechend der Vorgaben selbst Kurznachrichten. | |
Hierbei spielt auch künstliche Intelligenz eine Rolle, damit die | |
Nachrichten möglichst nicht von denen menschlicher Urheber zu unterscheiden | |
sind. In der Praxis wäre es beispielweise möglich, einen Social Bot darauf | |
zu programmieren, auf jeden Tweet mit einem Pro-Clinton-Hashtag wie | |
#ImWithHer zu reagieren und dazu jeweils einen variierenden Antworttweet | |
abzusetzen, der Clinton der Korruption beschuldigt. | |
500 US-Dollar. Die Zahl stammt aus einer Studie von Simon Hegelich, | |
Professor an der Hochschule für Politik an der Technischen Universität | |
München. Und sie zeigt, warum Social Bots für alle, die Meinung machen | |
wollen, so attraktiv sind: Wie viele Werbeflächen an Bushaltestellen muss | |
man buchen, wie viele TV-Spots, wie viele Google-Ads, um in einer ähnlichen | |
Dimension wahrgenommen zu werden wie mit einer Bot-Stärke, die der | |
Einwohnerzahl einer Kleinstadt entspricht? | |
Das Problem bei den Social Bots: Anders als bei Werbung auf Webseites oder | |
dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder | |
etwas – unterwegs ist, dem es vor allem darum geht, die Meinung der | |
Empfänger zu beeinflussen. Und noch weniger ist ersichtlich, wer hinter der | |
anschließenden Verbreitung – durch Retweets, Favorisierungen und Nutzung | |
eines Hashtags – steckt. Stammen die Tweets, die Trump beleidigen, vom | |
demokratischen Wahlkampfteam? Oder aus Trumps eigenem Umkreis, um seiner | |
Gegnerin in der Diskussion diskreditierendes Verhalten vorwerfen zu können? | |
Oder versucht hier jemand, einen viel gelesenen Hashtag für kommerzielle | |
Zwecke zu nutzen? | |
## Wie Bots auffallen | |
Dabei ist nicht einmal klar, wie hoch der Anteil computergenerierter | |
Nachrichten in den Netzwerken überhaupt ist. „Wir haben keine Social Bots | |
auf unserer Plattform“, heißt es etwa bei Facebook schlicht. Diese seien | |
schließlich nicht erlaubt. Auch Twitter verweist darauf, dass solche | |
Profile auf der Plattform verboten seien. Allerdings kam der Forscher | |
Philip Howard von der Universität Oxford nach einer Untersuchung von 9 | |
Millionen Tweets, die nach dem ersten TV-Duell von Hillary Clinton und | |
Donald Trump gepostet wurden, zu dem Ergebnis: Jeder dritte Tweet aus dem | |
Trump-Lager kam von einem Bot, bei Clinton knapp jeder vierte. | |
Tabea Wilke hat mit Botswatch ein Werkzeug entwickelt, das Social Bots in | |
Echtzeit erkennen kann. Als Bot gilt ein Account dabei unter anderem, wenn | |
er über 50 Tweets am Tag absetzt – selbst sehr fleißige menschliche Nutzer | |
hierzulande kommen laut Wilke nur auf 20 bis 25 Tweets. „Twitter ist | |
deswegen relevant, weil wesentliche Influencer die Plattform nutzen“, sagt | |
sie. Politiker zum Beispiel. Wer es also schaffe, hier Debatten zu | |
manipulieren, der beeinflusse die politische Diskussion. | |
Das Potenzial zeigt Wilke etwa anhand einer Auswertung der Tweets während | |
einer Sendung „Hart aber fair“ vom Dezember. Mehr als 20 Prozent der Tweets | |
seien hier von Bots abgesetzt worden – ungewöhnlich viele, sagt Wilke. Und | |
es gibt Auffälligkeiten. Als Bots identifizierte Accounts verwendeten etwa | |
Schlagworte wie „Islam“, „Merkel“ oder „AfD“ häufiger als die Acco… | |
menschlichen Nutzern. „Erdoğan“, „eingeladen“ oder „Polizei“ kam d… | |
bei Bots nicht vor, sondern nur bei menschlichen Twitterern. Das zeige | |
zumindest, dass Bots eine Diskussion verschieben könnten, erklärt Wilke. | |
Der konkrete Einfluss, den das am Ende auf Menschen habe, sei aber kaum | |
messbar. | |
Die Grünen fordern nun zumindest eine verpflichtende Kennzeichnung. „Bots | |
per se sind weder gut noch schlecht. Aber Social Bots sind ein Phänomen, | |
das zu Diskursverschiebungen im Netz führen kann, zum Beispiel durch das | |
massenhafte Verbreiten von Falschnachrichten“, begründet Konstantin von | |
Notz, netzpolitischer Sprecher der Grünen-Fraktion, den Vorschlag. Wie das | |
im Detail aussehen soll, ist allerdings unklar. Bislang haben CDU, SPD, | |
Linkspartei, Grüne, FDP und – nach anfänglichen gegenteiligen Aussagen – | |
auch die AfD auf freiwilliger Basis erklärt, im anstehenden | |
Bundestags-Wahlkampf nicht auf Social Bots setzen zu wollen. Das Problem: | |
Das kann sich nur auf offizielle Accounts beziehen. Wenn ein Parteimitglied | |
selbst entscheidet, Bots für die Wahlwerbung einzusetzen, würde auch ein | |
Gesetz nicht greifen. | |
## Ausmaß des Potenzials ergründen | |
Auch Katrin Weller, Leiterin des Teams Social Analytics and Services am | |
Leibniz-Institut für Sozialwissenschaften, geht davon aus, dass die Social | |
Bots einen Einfluss auf die Meinungsbildung haben. „Wenn damit der Eindruck | |
erweckt wird, dass es eine große Community gibt, die eine bestimmte Ansicht | |
vertritt, dann kann das sowohl Politiker beeinflussen als auch dazu | |
beitragen, die eigene Meinung zu festigen.“ Für besonders anfällig hält | |
Weller Nutzer, die ihre Informationen lediglich über einen einzelnen | |
Medienkanal – also beispielsweise ausschließlich über Facebook – beziehen. | |
Und das sei immer häufiger der Fall. | |
Trotzdem hält Weller den Vorstoß der Grünen nicht für praktikabel. Den | |
Betreibern einschlägiger Bots komme es gerade darauf an, dass ihre Postings | |
nicht als automatisch generiert erkannt würden. „Bot-Farmen in Russland | |
wird man damit vermutlich nicht in den Griff bekommen.“ Für | |
vielversprechender hält sie es, die Plattformbetreiber zu verpflichten. | |
„Die haben ganz andere Möglichkeiten, Bots aufzuspüren.“ Tabea Wilke von | |
Botswatch spricht sich vor allem für eine Stärkung der Medienkompetenz von | |
Nutzern aus. | |
Einig sind sich von Notz und Weller darin, dass durchaus noch mehr | |
Forschung nötig wäre, um das Ausmaß des meinungsbildenden Potenzials von | |
Social Bots zu ergründen. Auch das Büro für Technikfolgen-Abschätzung beim | |
Deutschen Bundestag arbeitet seit Oktober an einer Untersuchung dazu. In | |
einem Papier, das die Zwischenergebnisse zusammenfasst, heißt es, dass | |
gesicherte Nachweise über die Wirkung fehlten. Und dass man den Fokus nicht | |
nur auf die Politik, sondern auch die Wirtschaft lenken müsse. | |
So wurde vor zwei Jahren in einem der wenigen gut belegten Fälle der | |
Börsenkurs eines Technologieunternehmens durch Social Bots per Twitter in | |
die Höhe getrieben, als im Börsenhandel eingesetzte Algorithmen auf von | |
Bots verbreitete Gerüchte hin investierten. Die Verluste nach dem Aussetzen | |
des Handels, die waren dann real. | |
30 Jan 2017 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Facebook | |
Social Bots | |
Hashtag | |
Lesestück Recherche und Reportage | |
Schwerpunkt UN-Migrationspakt | |
Social Bots | |
Fake News | |
Fake News | |
künstliche Intelligenz | |
Fake News | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
UN-Migrationspakt auf Twitter: Angeblicher Bot-Grusel | |
Jeder vierte Tweet zum Migrationspakt soll von einem Bot stammen. Ob wahr | |
oder nicht: Wir müssen viele Infos im Netz genau hinterfragen. | |
taz-Bot Judith Botler zum Frauentag: { track: „#genderwahnsinn“ } | |
Zum Weltfrauentag haben wir einen Bot programmiert. Warum? Weil das | |
Programmieren eine Form der Selbstermächtigung ist. | |
Rechtswissenschaftler über Fake News: „Regierung ist nicht die Instanz“ | |
Kampf gegen Fake News im Netz: Rechtswissenschaftler Karl-Heinz Ladeur regt | |
die Einrichtung privater Schiedsgerichte an. | |
Umgang in Sozialen Netzwerken: Schwarz-Grün gegen Social Bots | |
Die Grünen fordern eine Kennzeichnungspflicht für maschinell erstellte | |
Meldungen. Die CSU auch – und will sich auch um Cybermobbing und Fake News | |
kümmern. | |
Gespräch zwischen Computern: Talk to my Bit! | |
Künstliche Intelligenzen haben eine eigene Sprache entwickelt, in der sie | |
sich verständigen können. Die taz hat ein Gespräch protokolliert. | |
Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das | |
Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“ | |
einzurichten. Als Hauptakteur der Fake News sieht es Russland an. | |
Datenexperte über Social Bots: „Manipulation ist nicht so einfach“ | |
In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als | |
Mensch ausgibt. Wie verändert das den öffentlichen Diskurs? | |
Prosa von Social-Media-Robotern: Der Bot in meiner Timeline | |
Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen | |
generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht. |