Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Manipulation durch Social Bots: Mensch oder Maschine
> Automatisiert in sozialen Netzwerken verbreitete Beiträge können die
> öffentliche Meinung beeinflussen. Das ist auch für deutsche Politiker
> wichtig.
Bild: Menschen. Keine Bots
Berlin taz | Teuer ist das Ganze schon einmal nicht. 500 US-Dollar kostet
eine Software, mit der sich 10.000 Twitter-Accounts steuern lassen.
Accounts, die dann Tweets verfassen, andere retweeten, Nutzern folgen oder
bestimmte Hashtags verwenden. #alternativefacts zum Beispiel. Ganz
automatisch. Und immer im Sinne des Auftraggebers.
Social Bot wird dieses Phänomen genannt, wobei „Bot“ als Abkürzung für
Roboter steht. In die Kritik geraten diese Bots derzeit, weil sie in
sozialen Netzwerken wie Twitter, Facebook, Instagram oder Google+
automatisiert Beiträge verbreiten und dabei von von Menschen verfassten
Beiträgen kaum zu unterscheiden sind.
Es gibt die Bots in unterschiedlichen Komplexitätsstufen: Die einfachsten
retweeten oder favorisieren nur Nachrichten mit bestimmten Hashtags, um für
eine größere Verbreitung und Wahrnehmung zu sorgen. Bei komplexeren Bots
erstellt der Algorithmus entsprechend der Vorgaben selbst Kurznachrichten.
Hierbei spielt auch künstliche Intelligenz eine Rolle, damit die
Nachrichten möglichst nicht von denen menschlicher Urheber zu unterscheiden
sind. In der Praxis wäre es beispielweise möglich, einen Social Bot darauf
zu programmieren, auf jeden Tweet mit einem Pro-Clinton-Hashtag wie
#ImWithHer zu reagieren und dazu jeweils einen variierenden Antworttweet
abzusetzen, der Clinton der Korruption beschuldigt.
500 US-Dollar. Die Zahl stammt aus einer Studie von Simon Hegelich,
Professor an der Hochschule für Politik an der Technischen Universität
München. Und sie zeigt, warum Social Bots für alle, die Meinung machen
wollen, so attraktiv sind: Wie viele Werbeflächen an Bushaltestellen muss
man buchen, wie viele TV-Spots, wie viele Google-Ads, um in einer ähnlichen
Dimension wahrgenommen zu werden wie mit einer Bot-Stärke, die der
Einwohnerzahl einer Kleinstadt entspricht?
Das Problem bei den Social Bots: Anders als bei Werbung auf Webseites oder
dem Werbespot im Fernsehen ist nicht ersichtlich, dass hier jemand – oder
etwas – unterwegs ist, dem es vor allem darum geht, die Meinung der
Empfänger zu beeinflussen. Und noch weniger ist ersichtlich, wer hinter der
anschließenden Verbreitung – durch Retweets, Favorisierungen und Nutzung
eines Hashtags – steckt. Stammen die Tweets, die Trump beleidigen, vom
demokratischen Wahlkampfteam? Oder aus Trumps eigenem Umkreis, um seiner
Gegnerin in der Diskussion diskreditierendes Verhalten vorwerfen zu können?
Oder versucht hier jemand, einen viel gelesenen Hashtag für kommerzielle
Zwecke zu nutzen?
## Wie Bots auffallen
Dabei ist nicht einmal klar, wie hoch der Anteil computergenerierter
Nachrichten in den Netzwerken überhaupt ist. „Wir haben keine Social Bots
auf unserer Plattform“, heißt es etwa bei Facebook schlicht. Diese seien
schließlich nicht erlaubt. Auch Twitter verweist darauf, dass solche
Profile auf der Plattform verboten seien. Allerdings kam der Forscher
Philip Howard von der Universität Oxford nach einer Untersuchung von 9
Millionen Tweets, die nach dem ersten TV-Duell von Hillary Clinton und
Donald Trump gepostet wurden, zu dem Ergebnis: Jeder dritte Tweet aus dem
Trump-Lager kam von einem Bot, bei Clinton knapp jeder vierte.
Tabea Wilke hat mit Botswatch ein Werkzeug entwickelt, das Social Bots in
Echtzeit erkennen kann. Als Bot gilt ein Account dabei unter anderem, wenn
er über 50 Tweets am Tag absetzt – selbst sehr fleißige menschliche Nutzer
hierzulande kommen laut Wilke nur auf 20 bis 25 Tweets. „Twitter ist
deswegen relevant, weil wesentliche Influencer die Plattform nutzen“, sagt
sie. Politiker zum Beispiel. Wer es also schaffe, hier Debatten zu
manipulieren, der beeinflusse die politische Diskussion.
Das Potenzial zeigt Wilke etwa anhand einer Auswertung der Tweets während
einer Sendung „Hart aber fair“ vom Dezember. Mehr als 20 Prozent der Tweets
seien hier von Bots abgesetzt worden – ungewöhnlich viele, sagt Wilke. Und
es gibt Auffälligkeiten. Als Bots identifizierte Accounts verwendeten etwa
Schlagworte wie „Islam“, „Merkel“ oder „AfD“ häufiger als die Acco…
menschlichen Nutzern. „Erdoğan“, „eingeladen“ oder „Polizei“ kam d…
bei Bots nicht vor, sondern nur bei menschlichen Twitterern. Das zeige
zumindest, dass Bots eine Diskussion verschieben könnten, erklärt Wilke.
Der konkrete Einfluss, den das am Ende auf Menschen habe, sei aber kaum
messbar.
Die Grünen fordern nun zumindest eine verpflichtende Kennzeichnung. „Bots
per se sind weder gut noch schlecht. Aber Social Bots sind ein Phänomen,
das zu Diskursverschiebungen im Netz führen kann, zum Beispiel durch das
massenhafte Verbreiten von Falschnachrichten“, begründet Konstantin von
Notz, netzpolitischer Sprecher der Grünen-Fraktion, den Vorschlag. Wie das
im Detail aussehen soll, ist allerdings unklar. Bislang haben CDU, SPD,
Linkspartei, Grüne, FDP und – nach anfänglichen gegenteiligen Aussagen –
auch die AfD auf freiwilliger Basis erklärt, im anstehenden
Bundestags-Wahlkampf nicht auf Social Bots setzen zu wollen. Das Problem:
Das kann sich nur auf offizielle Accounts beziehen. Wenn ein Parteimitglied
selbst entscheidet, Bots für die Wahlwerbung einzusetzen, würde auch ein
Gesetz nicht greifen.
## Ausmaß des Potenzials ergründen
Auch Katrin Weller, Leiterin des Teams Social Analytics and Services am
Leibniz-Institut für Sozialwissenschaften, geht davon aus, dass die Social
Bots einen Einfluss auf die Meinungsbildung haben. „Wenn damit der Eindruck
erweckt wird, dass es eine große Community gibt, die eine bestimmte Ansicht
vertritt, dann kann das sowohl Politiker beeinflussen als auch dazu
beitragen, die eigene Meinung zu festigen.“ Für besonders anfällig hält
Weller Nutzer, die ihre Informationen lediglich über einen einzelnen
Medienkanal – also beispielsweise ausschließlich über Facebook – beziehen.
Und das sei immer häufiger der Fall.
Trotzdem hält Weller den Vorstoß der Grünen nicht für praktikabel. Den
Betreibern einschlägiger Bots komme es gerade darauf an, dass ihre Postings
nicht als automatisch generiert erkannt würden. „Bot-Farmen in Russland
wird man damit vermutlich nicht in den Griff bekommen.“ Für
vielversprechender hält sie es, die Plattformbetreiber zu verpflichten.
„Die haben ganz andere Möglichkeiten, Bots aufzuspüren.“ Tabea Wilke von
Botswatch spricht sich vor allem für eine Stärkung der Medienkompetenz von
Nutzern aus.
Einig sind sich von Notz und Weller darin, dass durchaus noch mehr
Forschung nötig wäre, um das Ausmaß des meinungsbildenden Potenzials von
Social Bots zu ergründen. Auch das Büro für Technikfolgen-Abschätzung beim
Deutschen Bundestag arbeitet seit Oktober an einer Untersuchung dazu. In
einem Papier, das die Zwischenergebnisse zusammenfasst, heißt es, dass
gesicherte Nachweise über die Wirkung fehlten. Und dass man den Fokus nicht
nur auf die Politik, sondern auch die Wirtschaft lenken müsse.
So wurde vor zwei Jahren in einem der wenigen gut belegten Fälle der
Börsenkurs eines Technologieunternehmens durch Social Bots per Twitter in
die Höhe getrieben, als im Börsenhandel eingesetzte Algorithmen auf von
Bots verbreitete Gerüchte hin investierten. Die Verluste nach dem Aussetzen
des Handels, die waren dann real.
30 Jan 2017
## AUTOREN
Svenja Bergt
## TAGS
Twitter / X
Schwerpunkt Meta
Social Bots
Hashtag
Lesestück Recherche und Reportage
Schwerpunkt UN-Migrationspakt
Social Bots
Fake News
Fake News
künstliche Intelligenz
Fake News
künstliche Intelligenz
Twitter / X
## ARTIKEL ZUM THEMA
UN-Migrationspakt auf Twitter: Angeblicher Bot-Grusel
Jeder vierte Tweet zum Migrationspakt soll von einem Bot stammen. Ob wahr
oder nicht: Wir müssen viele Infos im Netz genau hinterfragen.
taz-Bot Judith Botler zum Frauentag: { track: „#genderwahnsinn“ }
Zum Weltfrauentag haben wir einen Bot programmiert. Warum? Weil das
Programmieren eine Form der Selbstermächtigung ist.
Rechtswissenschaftler über Fake News: „Regierung ist nicht die Instanz“
Kampf gegen Fake News im Netz: Rechtswissenschaftler Karl-Heinz Ladeur regt
die Einrichtung privater Schiedsgerichte an.
Umgang in Sozialen Netzwerken: Schwarz-Grün gegen Social Bots
Die Grünen fordern eine Kennzeichnungspflicht für maschinell erstellte
Meldungen. Die CSU auch – und will sich auch um Cybermobbing und Fake News
kümmern.
Gespräch zwischen Computern: Talk to my Bit!
Künstliche Intelligenzen haben eine eigene Sprache entwickelt, in der sie
sich verständigen können. Die taz hat ein Gespräch protokolliert.
Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das
Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“
einzurichten. Als Hauptakteur der Fake News sieht es Russland an.
Datenexperte über Social Bots: „Manipulation ist nicht so einfach“
In Online-Netzwerken wimmelt es von Social Bots – Software, die sich als
Mensch ausgibt. Wie verändert das den öffentlichen Diskurs?
Prosa von Social-Media-Robotern: Der Bot in meiner Timeline
Bots sind Twitter-Accounts, bei denen ein Programm die 140 Zeichen
generiert. Einige kommen äußerst kreativ und politisch daher, andere nicht.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.