| # taz.de -- Analyst über prorussische Desinformation: „Sowas haben wir noch … | |
| > Vor den EU-Wahlen haben Forscher:innen neue Methoden von | |
| > Desinformation dokumentiert. Der Analyst Saman Nazari erklärt, was man | |
| > dagegen tun kann. | |
| Bild: Wie kann man Menschen, die unabhängige Medien für ein Problem halten, �… | |
| wochentaz: Herr Nazari, Sie und Ihre Kolleg:innen beobachten die | |
| Bedrohung durch [1][Desinformation] im Kontext der EU-Wahl. Gerade erst | |
| flog eine großangelegte Aktion prorussischer Akteure gegen westliche | |
| Faktenchecker:innen auf. Was hat es damit auf sich? | |
| Saman Nazari: Kolleg:innen konnten zeigen, dass prorussische Akteure | |
| zwischen August 2023 und Mai 2024 über 800 Faktenchecker:innen und | |
| Nachrichtenredaktionen in westlichen Ländern wie Deutschland und Frankreich | |
| mit massenhaft gefälschten Anfragen geflutet haben. Dabei wurden auf | |
| [2][Plattformen wie Telegram] und X zuerst hunderte gefälschte Videos, | |
| Fotos und Artikel verbreitet. Die wurden an die Faktenchecker:innen | |
| geschickt, verbunden mit der Aufforderung, die Inhalte zu überprüfen. Das | |
| Ziel war, diese Organisationen lahmzulegen. So etwas haben wir noch nie | |
| gesehen. | |
| Es gibt Millionen von Social-Media-Kanälen – wie lassen sich solche | |
| Desinformationskampagnen überhaupt identifizieren? | |
| Wir haben uns als Netzwerk aus 30 Organisationen zusammengeschlossen, um | |
| gemeinsam gegen die [3][Bedrohung durch Desinformation zu kämpfen]. Dazu | |
| setzen wir im Wesentlichen auf Software zur Überwachung von sozialen | |
| Medien. Solche Tools werden normalerweise von Unternehmen genutzt, um zu | |
| verfolgen, wie über ihre Marke gesprochen wird. Wir nutzen Kombinationen | |
| aus Suchwörtern, um Social-Media-Posts zu analysieren, die wir für relevant | |
| halten. | |
| Welche sind das zum Beispiel? | |
| Beispielsweise Posts, die mit der EU-Klimapolitik zu tun haben. Da suchen | |
| wir nach Begriffen wie „EU Green Deal“ oder „CO2-Steuer“, in Verbindung… | |
| negativ aufgeladenen Worten, die man nicht in normalen Publikationen finden | |
| würde – beispielsweise „dumm“, „fanatisch“, „ideologisch“, „Sc… | |
| „gefährlich“. Und da findet sich einiges. Die Herausforderung ist, | |
| herauszufinden, welche Posts manipuliert sind und welche nicht. | |
| Gibt es auch Themenfelder außerhalb der Klimapolitik? | |
| Die Ukraine, Gaza/Israel und natürlich die Immigration. Diese Themen waren | |
| schon immer da. Das Besondere ist, wie mit ihnen heute umgegangen wird. | |
| Was ist denn daran das Neue? | |
| Es gibt neue Strategien der Manipulation. Beispielsweise versteckte | |
| politische Werbung. Grundsätzlich ist es legal und legitim, auf | |
| Social-Media-Plattformen politische Werbung zu schalten. Dafür gelten aber | |
| bestimmte Regeln: Sie muss unter anderem als solche gekennzeichnet und der | |
| Urheber muss klar erkennbar sein. Wird beides verschleiert, betrachten wir | |
| dies als manipulativ. Meta und die anderen Plattformen haben sich selbst | |
| verpflichtet, die politische Werbung zu regulieren. Es gibt aber Massen an | |
| politischen Werbeanzeigen, die eben nicht als solche erkennbar sind. | |
| Wie muss man sich das genau vorstellen? | |
| Ein Beispiel sind von uns analysierte prorussische Facebook-Seiten, die | |
| Anzeigen mit manipulativen Inhalten und gefälschte Videos verbreiten. Darin | |
| wird beispielsweise behauptet, die Ukraine stecke hinter dem [4][Anschlag | |
| des islamistischen IS in Russland Ende März]. Eine Facebook-Seite konnte im | |
| Mai 400.000 Nutzer mit ihren Anzeigen erreichen. Sie wird von Konten im | |
| westafrikanischen Benin kontrolliert und die Facebook-Gebühren werden in | |
| kanadischen Dollar bezahlt. Sie zielt vor allem auf Frankreich und macht | |
| Werbung für das Rassemblement National. | |
| Das ist doch von der Redefreiheit gedeckt. | |
| Natürlich. Wir sagen nicht, dass das nicht gesagt werden darf, auch wenn | |
| wir damit nicht übereinstimmen. Uns geht es um den manipulativen Charakter. | |
| Die Inhalte werden nicht als politische Werbung deklariert, es werden mit | |
| Absicht bestimmte technische Elemente versteckt, um der automatisierten | |
| Moderation durch Facebook zu entgehen. | |
| Gibt es auch Akteure, die offen auftreten und trotzdem manipulativ sind? | |
| Es gibt beispielsweise Medien, die wegen der Nähe zum russischen Staat mit | |
| Sanktionen belegt werden, also etwa Russia Today und Sputnik sowie | |
| Journalist:innen dieser Sender. Deren Inhalte sind teils weiter auf | |
| Tiktok und Twitter verfügbar. Dabei hat die EU-Kommission klar entschieden, | |
| dass diese Medien in der EU nicht weiter verfügbar sein dürfen. Die | |
| Plattformen setzen die Sanktionen nicht um. | |
| Es klingt, als sei das Ganze vor allem ein Russland-Problem. | |
| Nein, nicht nur. Inländische Akteure sind ein großer Teil des Problems. | |
| Die rechtsextreme Schwedendemokraten-Partei etwa bezahlt Influencer dafür, | |
| dass sie ihre Talking points verbreiten und Feindseligkeit gegen | |
| Migrant:innen schüren – auch hier, ohne das zu kennzeichnen. | |
| Viele hoffen darauf, dass der kürzlich in Kraft getretene [5][Digital | |
| Services Act der EU] das Problem der Desinformation eindämmt. Hierbei | |
| werden die großen Plattformen zum eigenständigen sogenannten | |
| Risikomanagement verpflichtet. Hat die Neuregelung etwas gebracht? | |
| Sicher ist jedenfalls, dass das Gesetz die Plattformen verpflichtet hat, | |
| Forscher:innen umfassende Analysemöglichkeiten einzuräumen. Das hat uns | |
| ganz neue Möglichkeiten gegeben, die Dynamiken von Desinformation zu | |
| beobachten und zu verstehen, und das ist eine Voraussetzung, um überhaupt | |
| über Gegenstrategien nachdenken zu können. | |
| Welche Gegenstrategien fallen Ihnen ein? | |
| Vielleicht kann man von dem Blick lernen, den wir als Forscher:innen | |
| einnehmen. Wir beschäftigen uns stärker mit den Methoden von Desinformation | |
| statt mit den Inhalten. Dieser Ansatz könnte auch für die Aufklärung | |
| helfen. Wenn man den Leuten sagen kann: „Schaut her, hier ist ein anonymer | |
| Account aus Benin, der mit kanadischem Geld bezahlt wird und versucht, sich | |
| in die Debatte in Frankreich einzumischen – da stimmt doch was nicht“, dann | |
| ist das etwas völlig anderes als zu sagen, Macron oder die Ukraine zu | |
| attackieren sei falsch. Manipulatives Verhalten offenzulegen und auf | |
| Quellentransparenz zu drängen ist etwas, das auch Regierungen tun sollten. | |
| Wie soll diese Quellentransparenz praktisch aussehen? | |
| Ich arbeite beispielsweise an einer Datenbank von Social-Media-Kanälen, die | |
| mit autoritären Staaten wie China verbunden sind, aber vorgeben, | |
| unabhängige Medien zu sein. Die Identifizierung jedes einzelnen Kanals | |
| kostet mich viele Stunden, wenn nicht sogar Tage Arbeit. Für den normalen | |
| Nachrichtenkonsumenten ist das unmöglich zu schaffen. In diesem | |
| schnelllebigen Informationsumfeld holen sie sich ihre Informationen einfach | |
| von dort und verinnerlichen, was gesagt wird. Man kann das alles nicht in | |
| den Griff bekommen, wenn man einfach sagt, dies und das sei nicht wahr. | |
| Wenn Menschen Konten folgen, die an autoritäre Staaten gebunden sind, muss | |
| man ihnen sagen: „Was ihr hier lest, kommt von einer ausländischen | |
| Regierung.“ Man muss ihnen die Möglichkeit geben, sich selbst eine Meinung | |
| zu bilden, wenn sie weiterlesen wollen. | |
| Es kommt aber nicht alles von ausländischen Regierungen, es gibt auch | |
| inländische Akteure, die destabilisierende, manipulative Informationen | |
| verbreiten, weil es ihrer eigenen Agenda nützt. | |
| In der Tat. Und in der Summe sind die ein größeres Phänomen als jene, die | |
| etwa von Russland oder China gesteuert sind. Aber auch hier muss man | |
| versuchen, Transparenz herzustellen: Wer kommuniziert hier? | |
| Was ist mit Menschen, die sich bewusst dafür entscheiden, sich von | |
| rechtsextremen Medien oder Parteien informieren zu lassen? | |
| Ein Ansatz ist das sogenannte „Pre-Bunking“ – das gezielte Aufzeigen | |
| anderer Perspektiven und faktenbasierter Informationen. Dabei geht es | |
| darum, proaktiv zu sein, anstatt nur zu reagieren. Also nicht nur zu | |
| versuchen, Desinformationen im Nachhinein zu widerlegen. Dies kann | |
| besonders in Krisenzeiten und bei Wahlen wichtig sein. | |
| 7 Jun 2024 | |
| ## LINKS | |
| [1] /Desinformation/!t5593248 | |
| [2] /Desinformation-auf-Messengerdienst/!6001327 | |
| [3] /Russische-Desinformation/!6000119 | |
| [4] /Terroranschlag-in-Russland/!6000816 | |
| [5] /Digital-Markets-und-Digital-Services-Act/!5992274 | |
| ## AUTOREN | |
| Christian Jakob | |
| ## TAGS | |
| Schwerpunkt Europawahl | |
| Desinformation | |
| Schwerpunkt Meta | |
| wochentaz | |
| Zukunft | |
| GNS | |
| Wladimir Putin | |
| Kolumne Der rechte Rand | |
| Russland | |
| ## ARTIKEL ZUM THEMA | |
| Putin vor ausländischen Journalisten: Inszenierung als Friedensengel | |
| Russlands Präsident Wladimir Putin droht dem Westen mit „asymmetrischer“ | |
| Kriegführung. In Deutschland vertrete einzig die AfD vernünftige | |
| Positionen. | |
| Online-Magazin hofiert Krah und Bystron: Die Dreckschleuder der Geschassten | |
| Das Online-Magazin „Deutschland Kurier“ bietet den verbrannten | |
| AfD-Kandidaten Maximilian Krah und Petr Bystron weiter eine Plattform für | |
| EU-Wahlkampf. | |
| Medienfreiheit in Russland: Dekodieren nicht mehr erwünscht | |
| Russland stuft die deutschsprachige Medienplattform „dekoder“ als | |
| „unerwünschte Organisation“ ein. Die will weitermachen, aber es wird | |
| schwerer. |