# taz.de -- Regeln für Facebook-Beiträge: Hätte, hätte, Nettiquette | |
> Nach welchen Kriterien Zuckerbergs Netzwerk Beiträge löscht, war bisher | |
> unklar. Einen Eindruck liefern jetzt interne Schulungsdokumente. | |
Bild: Besser mal wegradieren? Facebook schult seine Mitarbeiter im Löschen | |
Tipps geben, wie man Frauen das Genick bricht: Kein Problem! Jedenfalls | |
wenn es um keine konkrete Frau aus Politik und Medien geht. So | |
unterscheidet Facebook zwischen Beiträgen, die gelöscht werden müssen, und | |
solchen, die stehen bleiben dürfen – glaubt man internen | |
Schulungsunterlagen des Social-Media-Konzerns, die [1][der britische | |
Guardian veröffentlicht hat]. | |
Facebook hat in den letzten Jahren dem Druck aus Politik und Gesellschaft | |
nachgegeben und zumindest versprochen, Hass und verbale Gewalt schneller | |
und gründlicher zu entfernen. Bisher war allerdings nicht klar, nach | |
welchen Richtlinien Facebook Hassposts oder Gewaltaufrufe entfernt. | |
Bei den geleakten Dokumenten handelt es sich um [2][Schulungsunterlagen], | |
mit denen Facebook seinen ModeratorInnen beibringt, welche Beiträge zu | |
entfernen und welche zu ignorieren sind. Der Konzern unterscheidet dabei | |
offenkundig zwischen Äußerungen, die „zu Schaden in der realen Welt“ | |
führen, und solchen, die das aus Sicht von Facebook nicht tun. | |
So sollen ModeratorInnen etwa Gewaltandrohungen stehen lassen, die | |
unrealistisch sind oder sich gegen abstrakte Gruppen richten – es sei denn, | |
diese Gruppen seien besonders „vulnerabel“. Als solche Gruppen definiert | |
Facebook etwa „Zionisten“ und, bezogen auf die Philippinen, Drogendealer. | |
Gewaltaufrufe gegen Personen des öffentlichen Lebens wiederum sollen | |
entfernt werden, weil in diesem Fall die Wahrscheinlichkeit höher sei, dass | |
diese tatsächlich umgesetzt werden. | |
## Diskurs der Gewalt vs. Meinungsfreiheit | |
Konkret heißt das: Ein Post, der beschreibt, wie man am besten „einer | |
Schlampe das Genick bricht“, kann stehen bleiben, weil der Gewaltaufruf | |
einerseits zu abstrakt ist und sich andererseits an eine nicht als | |
„vulnerabel“ definierte Gruppe richtet. Dasselbe gilt laut Schulungsfolien | |
für Gewaltaufrufe gegen Rothaarige oder dicke Kinder. | |
Wer allerdings zum Töten von Donald Trump oder Hillary Clinton aufruft, | |
dessen Post wird entfernt und das Profil unter Umständen gesperrt. Dasselbe | |
gilt für Gewaltandrohungen, die sich gegen Privatpersonen richten und | |
realistisch und konkret formuliert sind. Heißt: Der Wunsch, jemand möge | |
sterben, geht durch. Ist allerdings von einer konkreten Tatwaffe die Rede, | |
wird der Post gelöscht. | |
Auch zum Umgang mit der Darstellung von [3][Kindesmisshandlung] gibt | |
Facebook Richtlinien vor: Bilder, in denen Kinder misshandelt werden, | |
bleiben erhalten, um zu ermöglichen, dass das Kind „identifiziert und | |
gerettet“ werden könne – das gilt jedoch nicht, wenn das Bild in einer | |
Weise kommentiert wird, die die Misshandlung rechtfertigt oder | |
glorifiziert. | |
Die Richtlinien unterscheiden also zwischen Äußerungen, von denen Facebook | |
annimmt, dass sie unmittelbar zu Gewalt im echten Leben führen. Äußerungen, | |
die eher mittelbar zu einem Diskurs der Gewalt gegen bestimmte Gruppen | |
beitragen, fallen für Facebook unter die Meinungsfreiheit. | |
## Intransparent und undemokratisch | |
Das zeigt, dass es dem Konzern vor allem darum geht zu verhindern, dass | |
Gewaltverbrechen passieren, die sich klar mit Inhalten auf Facebook in | |
Verbindung bringen lassen. Ein Mord etwa, zu dem kurz zuvor auf Facebook | |
aufgerufen wurde, könnte dem Netzwerk einen erheblichen Imageschaden | |
einbringen. | |
Zum anderen zeigen die Richtlinien, dass Facebook als Richterinstanz über | |
freie Meinung einerseits und gefährliche Hasskommentare andererseits | |
überfordert ist. Was etwa eine „vulnerable Gruppe“ ist oder welche Form der | |
Mordandrohung realistisch ist, variiert je nachdem, wo sich die VerfasserIn | |
befindet und wo der Post gelesen wird. | |
Facebook definiert einen kleinsten gemeinsamen Nenner aus dem, was global | |
unter „Hate Speech“ verstanden wird, und versucht daraus allgemeine Regeln | |
abzuleiten. Dieser Prozess ist intransparent und undemokratisch. Dazu | |
kommt: In all den Fällen, die nicht zufällig in den Schulungsunterlagen | |
stehen, müssen die ModeratorInnen offenbar selbst entscheiden – und damit | |
liegt die Verantwortung bei den Falschen. | |
22 May 2017 | |
## LINKS | |
[1] https://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rul… | |
[2] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-cr… | |
[3] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-internal-man… | |
## AUTOREN | |
Peter Weissenburger | |
## TAGS | |
Schwerpunkt Meta | |
Hate Speech | |
Zensur | |
Identitäre | |
Schwerpunkt Meta | |
China | |
Der Zuckerberg | |
Schwerpunkt Rassismus | |
Internet | |
Schwerpunkt Überwachung | |
Schwerpunkt Meta | |
Hasskommentare | |
Fake News | |
Sascha Lobo | |
Tschechien | |
taz.gazete | |
## ARTIKEL ZUM THEMA | |
Klage gegen Sperrung von Aktivistin: Facebooks Problem mit „Vollpfosten“ | |
Eine Aktivistin setzte auf Facebook Identitäre und „Vollpfosten“ in | |
Zusammenhang und wurde für 30 Tage gesperrt. Nun klagt sie dagegen. | |
Kerem Schamberger und Facebook: Das Rätsel um die verlorenen Follower | |
Facebook erklärt den mysteriösen Followerschwund auf der Seite des linken | |
Aktivisten mit deaktivierten Accounts. Das wirft neue Fragen auf. | |
China zensiert Pu den Bären: Ein Bärendienst | |
Der chinesische Zensurapparat findet Pu den Bären nicht so niedlich. In den | |
sozialen Medien wird er als gefährlicher Inhalt eingestuft. | |
taz-Serie Der Zuckerberg | Teil 3: Liebe und Hass | |
So wie die Fifa das Fairplay versucht bei Facebook immer wieder der | |
Humorlose den Humor zu erklären. Das ist die Beerdigung des Witzes. | |
taz-Serie Der Zuckerberg | Teil 2: „Freunde“ von „Freunden“ | |
Alte „Ausländer raus“-Lieder in frischer Tonart. Braune Worthülsen | |
everywhere. Was geht denn in der Facebook-Gemeinde unseres Autors ab? | |
Kolumne Lügenleser: „Slow Food“-Menü für den Alltag | |
Der neueste Trend? Entschleunigung. Unser Kolumnist hat ihn getestet. Das | |
Internet ist an ihm vorübergerauscht und er hat nichts verpasst. | |
Gesetz gegen Hate Speech im Netz: Ein Minister macht sich Feinde | |
Facebook, Journalisten und Netzaktivisten vereinen sich zum Widerstand | |
gegen Heiko Maas. Dem könnte diese Melange zum Verhängnis werden. | |
Kommentar Hetze in sozialen Medien: Eine Welt ohne Facebook ist möglich | |
Ein Milliardenkonzern wie Facebook schafft es nicht, die Inhalte im | |
Netzwerk vernünftig zu moderieren. Wie wäre es mit ein bisschen weniger | |
Gewinn? | |
Streit um Hass-Kommentare bei Facebook: „Ich war's nicht“ | |
Unter dem Facebook-Profil von Eduard S. wurde ein Mord gebilligt. Die taz | |
berichtete, S. klagte. Ein neues Gesetz soll Hass im Netz eindämmen. | |
„Fake News“ und Bundestagswahlkampf: Löschen, auflisten, checken | |
Netzwerkdurchsetzungsgesetz, „East StratCom“, „Faktenfinder“, „ZDFche… | |
Politik und Medien sind im Anti-Fake-News-Rausch. | |
Sascha Lobo zu Netzdurchsetzungsgesetz: „Ich suche die echte Debatte“ | |
Am Freitag debattiert der Bundestag über einen Gesetzentwurf von Heiko | |
Maas. Netzwerke sollen Hetze schneller löschen. Sascha Lobo will mehr | |
Dialog. | |
Korruption und Medien in Tschechien: Maulkorb für die Presse | |
Medien sollen Informationen über einen Korruptionsfall aus dem Netz nehmen. | |
In den Artikeln geht es um Fördergeld im tschechischen Sport. | |
Karikaturzeitschriften in der Türkei: Lachen im Ausnahmezustand | |
Satire ist in der Türkei eine beliebte Form, Politik indirekt zu | |
kritisieren. Doch Karikaturist*innen kämpfen mit Repressionen und sinkenden | |
Auflagen. |