Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Extremistische Gruppen auf Facebook: Wenn der Nazi moderiert
> Facebookgruppen, die mehrfach gegen die Regeln verstoßen, sollen von
> Freiwilligen betreut werden. Der Konzern wälzt seine Verantwortung ab.
Bild: Facebook bekommt seine Probleme mit Hassreden und Falschinformationen nic…
„Stop the Steal“, „Trump is our President“, „Stop the leftist insanit…
Bereits eine kurze Suche auf Facebook zeigt, dass radikalisierte Gruppen
für das Unternehmen immer noch ein großes Problem sind. Zwar geht Facebook
seit ein paar Monaten konsequenter gegen gegen [1][Fake News und Hassrede
auf seiner Plattform vor], besonders in Bezug auf die US-Wahl. Doch es
bekommt das Problem offenbar nicht in den Griff.
Nachdem der Tech-Konzern bereits im August sämtliche Gruppen [2][der
Verschwörungsideologie QAnon] gelöscht hat, geht das Unternehmen nun einen
Schritt weiter, [3][wie die Washington Post berichtet]. Künftig sollen
Gruppen, die innerhalb eines bestimmten Zeitraums mehrfach gegen die
Gemeinschaftsstandards von Facebook verstoßen – dazu zählen etwa Hassrede
oder gezielte Falschinformationen zur [4][US-Wahl] oder [5][Covid-19] –,
auf „Bewährung“ gesetzt werden.
2019 hat Facebook eigenen Angaben zufolge 13,5 Millionen Beiträge gelöscht,
die entweder Hassrede oder organisierte Hetze enthielten. Rund 87 Prozent
der Hassrede seien dem Unternehmen zufolge „proaktiv“ entfernt worden, also
bevor User*innen sie überhaupt sehen konnten. Dafür nutzt der Konzern
[6][eine Kombination von automatisierten Tools und rund 35.000 bezahlten
Mitarbeiter*innen, auch über Drittfirmen, weltweit], die sich um jene
Beiträge kümmern, die durch das KI-Netz rutschen.
Während Postings in offenen und geschlossenen Gruppen bislang direkt
veröffentlicht werden, sollen Moderator*innen künftig alle Beiträge erst
lesen und dann freischalten oder ablehnen. Diese Beobachtung gelte laut
Facebook für einen Zeitraum von zwei Monaten. Stellen die Moderator*innen
in dieser Zeit zu viele Verstöße fest, soll die Gruppe gelöscht werden.
Innerhalb der nächsten Wochen will Facebook einzelnen Mitgliedern in den
beobachteten Gruppen Adminrechte geben, die sich dann um die Postings
kümmern sollen. Erst mal sollen nur US-Gruppen untersucht werden.
## Facebook wälzt seine Verantwortung ab
Auf den ersten Blick wirkt Facebooks Idee vernünftig. Denn das soziale
Netzwerk steckt in einem Dilemma. Einerseits steht es seit der
US-Präsidentschaftswahl von 2016 unter massivem öffentlichen Druck, gegen
Fake News vorzugehen. Deshalb hat das Unternehmen [7][bei Gruppen wie QAnon
im August so hart durchgegriffen].
Auf der anderen Seite betont Facebookgründer Mark Zuckerberg immer wieder
aufs Neue die Meinungsfreiheit. So sind Gruppen eines der Kernelemente des
sozialen Netzwerks. Für Zuckerberg erscheint es daher logisch, kein
Overblocking zu betreiben und Gruppen lieber die Möglichkeit zur
„Besserung“ zu geben.
Doch das ist naiv und auf mehreren Ebenen problematisch. Wie sollen sich
verschwörungsideologische Gruppen selbst moderieren? Und wie sollen meist
ungeschulte und unbezahlte Moderator*innen die Flut von Beiträgen lesen?
Sie sollen nun darüber entscheiden, wann die Meinungsfreiheit endet und ab
wann Inhalte anstößig sind.
Es geht um ein Feld, in dem sich selbst Jurist*innen häufig uneinig sind
und für das Facebook extra ein mehrköpfiges Gremium zusammengestellt hat.
Schon in der Vergangenheit [8][berichteten freiwillige Moderator*innen von
Burnout-Erscheinungen]. Facebook darf seine Verantwortung nicht abwälzen
und muss mehr bezahlte Moderator*innen einstellen, die unabhängig sind und
kritisch einordnen.
## Verschwörungsideologische Codes
Denn verschwörungsideologische Akteure begreifen schnell, [9][wie sie
Regeln umgehen und Codes verwenden], die Algorithmen und Moderator*innen
nicht erkennen. Zwar könnten Postings nun nicht mehr kurz gepostet und dann
wieder zurückgenommen werden, um so trotzdem viele Leute zu erreichen. Aber
ungeschulte Moderator*innen könnten auf rechte Ideolog*innen hereinfallen
und im schlimmsten Fall sogar mit ihnen zusammenarbeiten.
Auch das befürchtete Overblocking passiert bereits. So wurde etwa eine
Gruppe aus Aberdeen im US-Staat Washington mit völlig normalen Inhalten auf
Moderation gesetzt. Die Moderator*innen überlegen aus Zeitmangel, die
Gruppe zu schließen. Eine Gruppe, die in der Nachbarschaftshilfe betrieben
wird und in der sich normale Leute miteinander austauschen. Facebook
torpediert hier eines seiner Kernfeatures: Leute zusammenzubringen.
In der Gruppe „Stop the Steal“ drohen User*innen wegen angeblicher „Zensu…
indes damit, sich von Facebook zurückzuziehen und ihre Aktivitäten auf das
2018 gegründete und von vielen rechten Ideolog*innen genutzte [10][Netzwerk
„Parler“ zu wechseln]. Das liegt auch an der konsequenteren Durchsetzung
von Facebooks Hausrecht. Dafür muss das Unternehmen allerdings in Kauf
nehmen, Nutzer*innen zu verlieren.
13 Nov 2020
## LINKS
[1] /Populisten-Hochburg-Facebook/!5719912/
[2] /Antisemitismusbeauftragter-ueber-Corona-Leugner/!5712778/
[3] https://www.washingtonpost.com/technology/2020/11/07/facebook-groups-electi…
[4] /Schwerpunkt-US-Praesidentschaftswahl-2020/!t5575916/
[5] /Schwerpunkt-Coronavirus/!t5660746/
[6] https://about.fb.com/news/2020/08/how-we-review-content/
[7] https://about.fb.com/news/2020/08/addressing-movements-and-organizations-ti…
[8] https://www.washingtonpost.com/technology/2020/08/25/volunteer-moderators-2…
[9] /Facebook-verbannt-QAnon-Gruppen/!5716259/
[10] /Digitales-US-Netzwerk-Parler/!5723963&s=denis+giessler/
## AUTOREN
Denis Giessler
## TAGS
Schwerpunkt Meta
Fake News
QAnon
Rechtsextremismus
Schwerpunkt Meta
China
Schwerpunkt Meta
Lesestück Recherche und Reportage
Schwerpunkt Meta
## ARTIKEL ZUM THEMA
Europäischer Aktionsplan für Demokratie: Werbung via Desinformation
Die EU-Kommission will mit einem Aktionsplan gegen Desinformation auf
Tech-Plattformen vorgehen. Besser wäre ein neues Geschäftsmodell.
Nach Kritik an Regierung: Salomonen wollen Facebook verbieten
Im Südpazifikstaat will sich die Regierung Kritik entziehen. Die hat
zugenommen, seit die Staatsführung diplomatisch von Taiwan zu China
gewechselt ist.
Digitales US-Netzwerk „Parler“: Hetzer suchen neues Zuhause
Das digitale Netzwerk Parler präsentiert sich als Alternative zu Twitter.
Vertreten sind dort vor allem rechte Verschwörungsideolog*innen.
Populisten-Hochburg Facebook: Teile und herrsche
Facebook behauptet, die Welt näher zusammenzubringen. Doch immer mehr zeigt
sich, wie das Netzwerk Menschen auseinandertreibt – und Populisten stärkt.
Facebook verbannt QAnon-Gruppen: Das Hausrecht zu spät genutzt
Facebook will in Zukunft stärker gegen Anhänger*innen der
QAnon-Verschwörungsbewegung vorgehen. Das wird nicht ausreichen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.