# taz.de -- Extremistische Gruppen auf Facebook: Wenn der Nazi moderiert | |
> Facebookgruppen, die mehrfach gegen die Regeln verstoßen, sollen von | |
> Freiwilligen betreut werden. Der Konzern wälzt seine Verantwortung ab. | |
Bild: Facebook bekommt seine Probleme mit Hassreden und Falschinformationen nic… | |
„Stop the Steal“, „Trump is our President“, „Stop the leftist insanit… | |
Bereits eine kurze Suche auf Facebook zeigt, dass radikalisierte Gruppen | |
für das Unternehmen immer noch ein großes Problem sind. Zwar geht Facebook | |
seit ein paar Monaten konsequenter gegen gegen [1][Fake News und Hassrede | |
auf seiner Plattform vor], besonders in Bezug auf die US-Wahl. Doch es | |
bekommt das Problem offenbar nicht in den Griff. | |
Nachdem der Tech-Konzern bereits im August sämtliche Gruppen [2][der | |
Verschwörungsideologie QAnon] gelöscht hat, geht das Unternehmen nun einen | |
Schritt weiter, [3][wie die Washington Post berichtet]. Künftig sollen | |
Gruppen, die innerhalb eines bestimmten Zeitraums mehrfach gegen die | |
Gemeinschaftsstandards von Facebook verstoßen – dazu zählen etwa Hassrede | |
oder gezielte Falschinformationen zur [4][US-Wahl] oder [5][Covid-19] –, | |
auf „Bewährung“ gesetzt werden. | |
2019 hat Facebook eigenen Angaben zufolge 13,5 Millionen Beiträge gelöscht, | |
die entweder Hassrede oder organisierte Hetze enthielten. Rund 87 Prozent | |
der Hassrede seien dem Unternehmen zufolge „proaktiv“ entfernt worden, also | |
bevor User*innen sie überhaupt sehen konnten. Dafür nutzt der Konzern | |
[6][eine Kombination von automatisierten Tools und rund 35.000 bezahlten | |
Mitarbeiter*innen, auch über Drittfirmen, weltweit], die sich um jene | |
Beiträge kümmern, die durch das KI-Netz rutschen. | |
Während Postings in offenen und geschlossenen Gruppen bislang direkt | |
veröffentlicht werden, sollen Moderator*innen künftig alle Beiträge erst | |
lesen und dann freischalten oder ablehnen. Diese Beobachtung gelte laut | |
Facebook für einen Zeitraum von zwei Monaten. Stellen die Moderator*innen | |
in dieser Zeit zu viele Verstöße fest, soll die Gruppe gelöscht werden. | |
Innerhalb der nächsten Wochen will Facebook einzelnen Mitgliedern in den | |
beobachteten Gruppen Adminrechte geben, die sich dann um die Postings | |
kümmern sollen. Erst mal sollen nur US-Gruppen untersucht werden. | |
## Facebook wälzt seine Verantwortung ab | |
Auf den ersten Blick wirkt Facebooks Idee vernünftig. Denn das soziale | |
Netzwerk steckt in einem Dilemma. Einerseits steht es seit der | |
US-Präsidentschaftswahl von 2016 unter massivem öffentlichen Druck, gegen | |
Fake News vorzugehen. Deshalb hat das Unternehmen [7][bei Gruppen wie QAnon | |
im August so hart durchgegriffen]. | |
Auf der anderen Seite betont Facebookgründer Mark Zuckerberg immer wieder | |
aufs Neue die Meinungsfreiheit. So sind Gruppen eines der Kernelemente des | |
sozialen Netzwerks. Für Zuckerberg erscheint es daher logisch, kein | |
Overblocking zu betreiben und Gruppen lieber die Möglichkeit zur | |
„Besserung“ zu geben. | |
Doch das ist naiv und auf mehreren Ebenen problematisch. Wie sollen sich | |
verschwörungsideologische Gruppen selbst moderieren? Und wie sollen meist | |
ungeschulte und unbezahlte Moderator*innen die Flut von Beiträgen lesen? | |
Sie sollen nun darüber entscheiden, wann die Meinungsfreiheit endet und ab | |
wann Inhalte anstößig sind. | |
Es geht um ein Feld, in dem sich selbst Jurist*innen häufig uneinig sind | |
und für das Facebook extra ein mehrköpfiges Gremium zusammengestellt hat. | |
Schon in der Vergangenheit [8][berichteten freiwillige Moderator*innen von | |
Burnout-Erscheinungen]. Facebook darf seine Verantwortung nicht abwälzen | |
und muss mehr bezahlte Moderator*innen einstellen, die unabhängig sind und | |
kritisch einordnen. | |
## Verschwörungsideologische Codes | |
Denn verschwörungsideologische Akteure begreifen schnell, [9][wie sie | |
Regeln umgehen und Codes verwenden], die Algorithmen und Moderator*innen | |
nicht erkennen. Zwar könnten Postings nun nicht mehr kurz gepostet und dann | |
wieder zurückgenommen werden, um so trotzdem viele Leute zu erreichen. Aber | |
ungeschulte Moderator*innen könnten auf rechte Ideolog*innen hereinfallen | |
und im schlimmsten Fall sogar mit ihnen zusammenarbeiten. | |
Auch das befürchtete Overblocking passiert bereits. So wurde etwa eine | |
Gruppe aus Aberdeen im US-Staat Washington mit völlig normalen Inhalten auf | |
Moderation gesetzt. Die Moderator*innen überlegen aus Zeitmangel, die | |
Gruppe zu schließen. Eine Gruppe, die in der Nachbarschaftshilfe betrieben | |
wird und in der sich normale Leute miteinander austauschen. Facebook | |
torpediert hier eines seiner Kernfeatures: Leute zusammenzubringen. | |
In der Gruppe „Stop the Steal“ drohen User*innen wegen angeblicher „Zensu… | |
indes damit, sich von Facebook zurückzuziehen und ihre Aktivitäten auf das | |
2018 gegründete und von vielen rechten Ideolog*innen genutzte [10][Netzwerk | |
„Parler“ zu wechseln]. Das liegt auch an der konsequenteren Durchsetzung | |
von Facebooks Hausrecht. Dafür muss das Unternehmen allerdings in Kauf | |
nehmen, Nutzer*innen zu verlieren. | |
13 Nov 2020 | |
## LINKS | |
[1] /Populisten-Hochburg-Facebook/!5719912/ | |
[2] /Antisemitismusbeauftragter-ueber-Corona-Leugner/!5712778/ | |
[3] https://www.washingtonpost.com/technology/2020/11/07/facebook-groups-electi… | |
[4] /Schwerpunkt-US-Praesidentschaftswahl-2020/!t5575916/ | |
[5] /Schwerpunkt-Coronavirus/!t5660746/ | |
[6] https://about.fb.com/news/2020/08/how-we-review-content/ | |
[7] https://about.fb.com/news/2020/08/addressing-movements-and-organizations-ti… | |
[8] https://www.washingtonpost.com/technology/2020/08/25/volunteer-moderators-2… | |
[9] /Facebook-verbannt-QAnon-Gruppen/!5716259/ | |
[10] /Digitales-US-Netzwerk-Parler/!5723963&s=denis+giessler/ | |
## AUTOREN | |
Denis Giessler | |
## TAGS | |
Schwerpunkt Facebook | |
Fake News | |
QAnon | |
Rechtsextremismus | |
Schwerpunkt Facebook | |
China | |
Schwerpunkt Facebook | |
Lesestück Recherche und Reportage | |
Schwerpunkt Facebook | |
## ARTIKEL ZUM THEMA | |
Europäischer Aktionsplan für Demokratie: Werbung via Desinformation | |
Die EU-Kommission will mit einem Aktionsplan gegen Desinformation auf | |
Tech-Plattformen vorgehen. Besser wäre ein neues Geschäftsmodell. | |
Nach Kritik an Regierung: Salomonen wollen Facebook verbieten | |
Im Südpazifikstaat will sich die Regierung Kritik entziehen. Die hat | |
zugenommen, seit die Staatsführung diplomatisch von Taiwan zu China | |
gewechselt ist. | |
Digitales US-Netzwerk „Parler“: Hetzer suchen neues Zuhause | |
Das digitale Netzwerk Parler präsentiert sich als Alternative zu Twitter. | |
Vertreten sind dort vor allem rechte Verschwörungsideolog*innen. | |
Populisten-Hochburg Facebook: Teile und herrsche | |
Facebook behauptet, die Welt näher zusammenzubringen. Doch immer mehr zeigt | |
sich, wie das Netzwerk Menschen auseinandertreibt – und Populisten stärkt. | |
Facebook verbannt QAnon-Gruppen: Das Hausrecht zu spät genutzt | |
Facebook will in Zukunft stärker gegen Anhänger*innen der | |
QAnon-Verschwörungsbewegung vorgehen. Das wird nicht ausreichen. |