Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Regeln für Facebook-Beiträge: Hätte, hätte, Nettiquette
> Nach welchen Kriterien Zuckerbergs Netzwerk Beiträge löscht, war bisher
> unklar. Einen Eindruck liefern jetzt interne Schulungsdokumente.
Bild: Besser mal wegradieren? Facebook schult seine Mitarbeiter im Löschen
Tipps geben, wie man Frauen das Genick bricht: Kein Problem! Jedenfalls
wenn es um keine konkrete Frau aus Politik und Medien geht. So
unterscheidet Facebook zwischen Beiträgen, die gelöscht werden müssen, und
solchen, die stehen bleiben dürfen – glaubt man internen
Schulungsunterlagen des Social-Media-Konzerns, die [1][der britische
Guardian veröffentlicht hat].
Facebook hat in den letzten Jahren dem Druck aus Politik und Gesellschaft
nachgegeben und zumindest versprochen, Hass und verbale Gewalt schneller
und gründlicher zu entfernen. Bisher war allerdings nicht klar, nach
welchen Richtlinien Facebook Hassposts oder Gewaltaufrufe entfernt.
Bei den geleakten Dokumenten handelt es sich um [2][Schulungsunterlagen],
mit denen Facebook seinen ModeratorInnen beibringt, welche Beiträge zu
entfernen und welche zu ignorieren sind. Der Konzern unterscheidet dabei
offenkundig zwischen Äußerungen, die „zu Schaden in der realen Welt“
führen, und solchen, die das aus Sicht von Facebook nicht tun.
So sollen ModeratorInnen etwa Gewaltandrohungen stehen lassen, die
unrealistisch sind oder sich gegen abstrakte Gruppen richten – es sei denn,
diese Gruppen seien besonders „vulnerabel“. Als solche Gruppen definiert
Facebook etwa „Zionisten“ und, bezogen auf die Philippinen, Drogendealer.
Gewaltaufrufe gegen Personen des öffentlichen Lebens wiederum sollen
entfernt werden, weil in diesem Fall die Wahrscheinlichkeit höher sei, dass
diese tatsächlich umgesetzt werden.
## Diskurs der Gewalt vs. Meinungsfreiheit
Konkret heißt das: Ein Post, der beschreibt, wie man am besten „einer
Schlampe das Genick bricht“, kann stehen bleiben, weil der Gewaltaufruf
einerseits zu abstrakt ist und sich andererseits an eine nicht als
„vulnerabel“ definierte Gruppe richtet. Dasselbe gilt laut Schulungsfolien
für Gewaltaufrufe gegen Rothaarige oder dicke Kinder.
Wer allerdings zum Töten von Donald Trump oder Hillary Clinton aufruft,
dessen Post wird entfernt und das Profil unter Umständen gesperrt. Dasselbe
gilt für Gewaltandrohungen, die sich gegen Privatpersonen richten und
realistisch und konkret formuliert sind. Heißt: Der Wunsch, jemand möge
sterben, geht durch. Ist allerdings von einer konkreten Tatwaffe die Rede,
wird der Post gelöscht.
Auch zum Umgang mit der Darstellung von [3][Kindesmisshandlung] gibt
Facebook Richtlinien vor: Bilder, in denen Kinder misshandelt werden,
bleiben erhalten, um zu ermöglichen, dass das Kind „identifiziert und
gerettet“ werden könne – das gilt jedoch nicht, wenn das Bild in einer
Weise kommentiert wird, die die Misshandlung rechtfertigt oder
glorifiziert.
Die Richtlinien unterscheiden also zwischen Äußerungen, von denen Facebook
annimmt, dass sie unmittelbar zu Gewalt im echten Leben führen. Äußerungen,
die eher mittelbar zu einem Diskurs der Gewalt gegen bestimmte Gruppen
beitragen, fallen für Facebook unter die Meinungsfreiheit.
## Intransparent und undemokratisch
Das zeigt, dass es dem Konzern vor allem darum geht zu verhindern, dass
Gewaltverbrechen passieren, die sich klar mit Inhalten auf Facebook in
Verbindung bringen lassen. Ein Mord etwa, zu dem kurz zuvor auf Facebook
aufgerufen wurde, könnte dem Netzwerk einen erheblichen Imageschaden
einbringen.
Zum anderen zeigen die Richtlinien, dass Facebook als Richterinstanz über
freie Meinung einerseits und gefährliche Hasskommentare andererseits
überfordert ist. Was etwa eine „vulnerable Gruppe“ ist oder welche Form der
Mordandrohung realistisch ist, variiert je nachdem, wo sich die VerfasserIn
befindet und wo der Post gelesen wird.
Facebook definiert einen kleinsten gemeinsamen Nenner aus dem, was global
unter „Hate Speech“ verstanden wird, und versucht daraus allgemeine Regeln
abzuleiten. Dieser Prozess ist intransparent und undemokratisch. Dazu
kommt: In all den Fällen, die nicht zufällig in den Schulungsunterlagen
stehen, müssen die ModeratorInnen offenbar selbst entscheiden – und damit
liegt die Verantwortung bei den Falschen.
22 May 2017
## LINKS
[1] https://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rul…
[2] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-cr…
[3] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-internal-man…
## AUTOREN
Peter Weissenburger
## TAGS
Schwerpunkt Meta
Hate Speech
Zensur
Identitäre
Schwerpunkt Meta
China
Der Zuckerberg
Schwerpunkt Rassismus
Internet
Schwerpunkt Überwachung
Schwerpunkt Meta
Hasskommentare
Fake News
Sascha Lobo
Tschechien
taz.gazete
## ARTIKEL ZUM THEMA
Klage gegen Sperrung von Aktivistin: Facebooks Problem mit „Vollpfosten“
Eine Aktivistin setzte auf Facebook Identitäre und „Vollpfosten“ in
Zusammenhang und wurde für 30 Tage gesperrt. Nun klagt sie dagegen.
Kerem Schamberger und Facebook: Das Rätsel um die verlorenen Follower
Facebook erklärt den mysteriösen Followerschwund auf der Seite des linken
Aktivisten mit deaktivierten Accounts. Das wirft neue Fragen auf.
China zensiert Pu den Bären: Ein Bärendienst
Der chinesische Zensurapparat findet Pu den Bären nicht so niedlich. In den
sozialen Medien wird er als gefährlicher Inhalt eingestuft.
taz-Serie Der Zuckerberg | Teil 3: Liebe und Hass
So wie die Fifa das Fairplay versucht bei Facebook immer wieder der
Humorlose den Humor zu erklären. Das ist die Beerdigung des Witzes.
taz-Serie Der Zuckerberg | Teil 2: „Freunde“ von „Freunden“
Alte „Ausländer raus“-Lieder in frischer Tonart. Braune Worthülsen
everywhere. Was geht denn in der Facebook-Gemeinde unseres Autors ab?
Kolumne Lügenleser: „Slow Food“-Menü für den Alltag
Der neueste Trend? Entschleunigung. Unser Kolumnist hat ihn getestet. Das
Internet ist an ihm vorübergerauscht und er hat nichts verpasst.
Gesetz gegen Hate Speech im Netz: Ein Minister macht sich Feinde
Facebook, Journalisten und Netzaktivisten vereinen sich zum Widerstand
gegen Heiko Maas. Dem könnte diese Melange zum Verhängnis werden.
Kommentar Hetze in sozialen Medien: Eine Welt ohne Facebook ist möglich
Ein Milliardenkonzern wie Facebook schafft es nicht, die Inhalte im
Netzwerk vernünftig zu moderieren. Wie wäre es mit ein bisschen weniger
Gewinn?
Streit um Hass-Kommentare bei Facebook: „Ich war's nicht“
Unter dem Facebook-Profil von Eduard S. wurde ein Mord gebilligt. Die taz
berichtete, S. klagte. Ein neues Gesetz soll Hass im Netz eindämmen.
„Fake News“ und Bundestagswahlkampf: Löschen, auflisten, checken
Netzwerkdurchsetzungsgesetz, „East StratCom“, „Faktenfinder“, „ZDFche…
Politik und Medien sind im Anti-Fake-News-Rausch.
Sascha Lobo zu Netzdurchsetzungsgesetz: „Ich suche die echte Debatte“
Am Freitag debattiert der Bundestag über einen Gesetzentwurf von Heiko
Maas. Netzwerke sollen Hetze schneller löschen. Sascha Lobo will mehr
Dialog.
Korruption und Medien in Tschechien: Maulkorb für die Presse
Medien sollen Informationen über einen Korruptionsfall aus dem Netz nehmen.
In den Artikeln geht es um Fördergeld im tschechischen Sport.
Karikaturzeitschriften in der Türkei: Lachen im Ausnahmezustand
Satire ist in der Türkei eine beliebte Form, Politik indirekt zu
kritisieren. Doch Karikaturist*innen kämpfen mit Repressionen und sinkenden
Auflagen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.