# taz.de -- Analyst über prorussische Desinformation: „Sowas haben wir noch … | |
> Vor den EU-Wahlen haben Forscher:innen neue Methoden von | |
> Desinformation dokumentiert. Der Analyst Saman Nazari erklärt, was man | |
> dagegen tun kann. | |
Bild: Wie kann man Menschen, die unabhängige Medien für ein Problem halten, �… | |
wochentaz: Herr Nazari, Sie und Ihre Kolleg:innen beobachten die | |
Bedrohung durch [1][Desinformation] im Kontext der EU-Wahl. Gerade erst | |
flog eine großangelegte Aktion prorussischer Akteure gegen westliche | |
Faktenchecker:innen auf. Was hat es damit auf sich? | |
Saman Nazari: Kolleg:innen konnten zeigen, dass prorussische Akteure | |
zwischen August 2023 und Mai 2024 über 800 Faktenchecker:innen und | |
Nachrichtenredaktionen in westlichen Ländern wie Deutschland und Frankreich | |
mit massenhaft gefälschten Anfragen geflutet haben. Dabei wurden auf | |
[2][Plattformen wie Telegram] und X zuerst hunderte gefälschte Videos, | |
Fotos und Artikel verbreitet. Die wurden an die Faktenchecker:innen | |
geschickt, verbunden mit der Aufforderung, die Inhalte zu überprüfen. Das | |
Ziel war, diese Organisationen lahmzulegen. So etwas haben wir noch nie | |
gesehen. | |
Es gibt Millionen von Social-Media-Kanälen – wie lassen sich solche | |
Desinformationskampagnen überhaupt identifizieren? | |
Wir haben uns als Netzwerk aus 30 Organisationen zusammengeschlossen, um | |
gemeinsam gegen die [3][Bedrohung durch Desinformation zu kämpfen]. Dazu | |
setzen wir im Wesentlichen auf Software zur Überwachung von sozialen | |
Medien. Solche Tools werden normalerweise von Unternehmen genutzt, um zu | |
verfolgen, wie über ihre Marke gesprochen wird. Wir nutzen Kombinationen | |
aus Suchwörtern, um Social-Media-Posts zu analysieren, die wir für relevant | |
halten. | |
Welche sind das zum Beispiel? | |
Beispielsweise Posts, die mit der EU-Klimapolitik zu tun haben. Da suchen | |
wir nach Begriffen wie „EU Green Deal“ oder „CO2-Steuer“, in Verbindung… | |
negativ aufgeladenen Worten, die man nicht in normalen Publikationen finden | |
würde – beispielsweise „dumm“, „fanatisch“, „ideologisch“, „Sc… | |
„gefährlich“. Und da findet sich einiges. Die Herausforderung ist, | |
herauszufinden, welche Posts manipuliert sind und welche nicht. | |
Gibt es auch Themenfelder außerhalb der Klimapolitik? | |
Die Ukraine, Gaza/Israel und natürlich die Immigration. Diese Themen waren | |
schon immer da. Das Besondere ist, wie mit ihnen heute umgegangen wird. | |
Was ist denn daran das Neue? | |
Es gibt neue Strategien der Manipulation. Beispielsweise versteckte | |
politische Werbung. Grundsätzlich ist es legal und legitim, auf | |
Social-Media-Plattformen politische Werbung zu schalten. Dafür gelten aber | |
bestimmte Regeln: Sie muss unter anderem als solche gekennzeichnet und der | |
Urheber muss klar erkennbar sein. Wird beides verschleiert, betrachten wir | |
dies als manipulativ. Meta und die anderen Plattformen haben sich selbst | |
verpflichtet, die politische Werbung zu regulieren. Es gibt aber Massen an | |
politischen Werbeanzeigen, die eben nicht als solche erkennbar sind. | |
Wie muss man sich das genau vorstellen? | |
Ein Beispiel sind von uns analysierte prorussische Facebook-Seiten, die | |
Anzeigen mit manipulativen Inhalten und gefälschte Videos verbreiten. Darin | |
wird beispielsweise behauptet, die Ukraine stecke hinter dem [4][Anschlag | |
des islamistischen IS in Russland Ende März]. Eine Facebook-Seite konnte im | |
Mai 400.000 Nutzer mit ihren Anzeigen erreichen. Sie wird von Konten im | |
westafrikanischen Benin kontrolliert und die Facebook-Gebühren werden in | |
kanadischen Dollar bezahlt. Sie zielt vor allem auf Frankreich und macht | |
Werbung für das Rassemblement National. | |
Das ist doch von der Redefreiheit gedeckt. | |
Natürlich. Wir sagen nicht, dass das nicht gesagt werden darf, auch wenn | |
wir damit nicht übereinstimmen. Uns geht es um den manipulativen Charakter. | |
Die Inhalte werden nicht als politische Werbung deklariert, es werden mit | |
Absicht bestimmte technische Elemente versteckt, um der automatisierten | |
Moderation durch Facebook zu entgehen. | |
Gibt es auch Akteure, die offen auftreten und trotzdem manipulativ sind? | |
Es gibt beispielsweise Medien, die wegen der Nähe zum russischen Staat mit | |
Sanktionen belegt werden, also etwa Russia Today und Sputnik sowie | |
Journalist:innen dieser Sender. Deren Inhalte sind teils weiter auf | |
Tiktok und Twitter verfügbar. Dabei hat die EU-Kommission klar entschieden, | |
dass diese Medien in der EU nicht weiter verfügbar sein dürfen. Die | |
Plattformen setzen die Sanktionen nicht um. | |
Es klingt, als sei das Ganze vor allem ein Russland-Problem. | |
Nein, nicht nur. Inländische Akteure sind ein großer Teil des Problems. | |
Die rechtsextreme Schwedendemokraten-Partei etwa bezahlt Influencer dafür, | |
dass sie ihre Talking points verbreiten und Feindseligkeit gegen | |
Migrant:innen schüren – auch hier, ohne das zu kennzeichnen. | |
Viele hoffen darauf, dass der kürzlich in Kraft getretene [5][Digital | |
Services Act der EU] das Problem der Desinformation eindämmt. Hierbei | |
werden die großen Plattformen zum eigenständigen sogenannten | |
Risikomanagement verpflichtet. Hat die Neuregelung etwas gebracht? | |
Sicher ist jedenfalls, dass das Gesetz die Plattformen verpflichtet hat, | |
Forscher:innen umfassende Analysemöglichkeiten einzuräumen. Das hat uns | |
ganz neue Möglichkeiten gegeben, die Dynamiken von Desinformation zu | |
beobachten und zu verstehen, und das ist eine Voraussetzung, um überhaupt | |
über Gegenstrategien nachdenken zu können. | |
Welche Gegenstrategien fallen Ihnen ein? | |
Vielleicht kann man von dem Blick lernen, den wir als Forscher:innen | |
einnehmen. Wir beschäftigen uns stärker mit den Methoden von Desinformation | |
statt mit den Inhalten. Dieser Ansatz könnte auch für die Aufklärung | |
helfen. Wenn man den Leuten sagen kann: „Schaut her, hier ist ein anonymer | |
Account aus Benin, der mit kanadischem Geld bezahlt wird und versucht, sich | |
in die Debatte in Frankreich einzumischen – da stimmt doch was nicht“, dann | |
ist das etwas völlig anderes als zu sagen, Macron oder die Ukraine zu | |
attackieren sei falsch. Manipulatives Verhalten offenzulegen und auf | |
Quellentransparenz zu drängen ist etwas, das auch Regierungen tun sollten. | |
Wie soll diese Quellentransparenz praktisch aussehen? | |
Ich arbeite beispielsweise an einer Datenbank von Social-Media-Kanälen, die | |
mit autoritären Staaten wie China verbunden sind, aber vorgeben, | |
unabhängige Medien zu sein. Die Identifizierung jedes einzelnen Kanals | |
kostet mich viele Stunden, wenn nicht sogar Tage Arbeit. Für den normalen | |
Nachrichtenkonsumenten ist das unmöglich zu schaffen. In diesem | |
schnelllebigen Informationsumfeld holen sie sich ihre Informationen einfach | |
von dort und verinnerlichen, was gesagt wird. Man kann das alles nicht in | |
den Griff bekommen, wenn man einfach sagt, dies und das sei nicht wahr. | |
Wenn Menschen Konten folgen, die an autoritäre Staaten gebunden sind, muss | |
man ihnen sagen: „Was ihr hier lest, kommt von einer ausländischen | |
Regierung.“ Man muss ihnen die Möglichkeit geben, sich selbst eine Meinung | |
zu bilden, wenn sie weiterlesen wollen. | |
Es kommt aber nicht alles von ausländischen Regierungen, es gibt auch | |
inländische Akteure, die destabilisierende, manipulative Informationen | |
verbreiten, weil es ihrer eigenen Agenda nützt. | |
In der Tat. Und in der Summe sind die ein größeres Phänomen als jene, die | |
etwa von Russland oder China gesteuert sind. Aber auch hier muss man | |
versuchen, Transparenz herzustellen: Wer kommuniziert hier? | |
Was ist mit Menschen, die sich bewusst dafür entscheiden, sich von | |
rechtsextremen Medien oder Parteien informieren zu lassen? | |
Ein Ansatz ist das sogenannte „Pre-Bunking“ – das gezielte Aufzeigen | |
anderer Perspektiven und faktenbasierter Informationen. Dabei geht es | |
darum, proaktiv zu sein, anstatt nur zu reagieren. Also nicht nur zu | |
versuchen, Desinformationen im Nachhinein zu widerlegen. Dies kann | |
besonders in Krisenzeiten und bei Wahlen wichtig sein. | |
7 Jun 2024 | |
## LINKS | |
[1] /Desinformation/!t5593248 | |
[2] /Desinformation-auf-Messengerdienst/!6001327 | |
[3] /Russische-Desinformation/!6000119 | |
[4] /Terroranschlag-in-Russland/!6000816 | |
[5] /Digital-Markets-und-Digital-Services-Act/!5992274 | |
## AUTOREN | |
Christian Jakob | |
## TAGS | |
Schwerpunkt Europawahl | |
Desinformation | |
Schwerpunkt Facebook | |
wochentaz | |
Zukunft | |
GNS | |
Wladimir Putin | |
Kolumne Der rechte Rand | |
Russland | |
## ARTIKEL ZUM THEMA | |
Putin vor ausländischen Journalisten: Inszenierung als Friedensengel | |
Russlands Präsident Wladimir Putin droht dem Westen mit „asymmetrischer“ | |
Kriegführung. In Deutschland vertrete einzig die AfD vernünftige | |
Positionen. | |
Online-Magazin hofiert Krah und Bystron: Die Dreckschleuder der Geschassten | |
Das Online-Magazin „Deutschland Kurier“ bietet den verbrannten | |
AfD-Kandidaten Maximilian Krah und Petr Bystron weiter eine Plattform für | |
EU-Wahlkampf. | |
Medienfreiheit in Russland: Dekodieren nicht mehr erwünscht | |
Russland stuft die deutschsprachige Medienplattform „dekoder“ als | |
„unerwünschte Organisation“ ein. Die will weitermachen, aber es wird | |
schwerer. |