| # taz.de -- Regeln für Facebook-Beiträge: Hätte, hätte, Nettiquette | |
| > Nach welchen Kriterien Zuckerbergs Netzwerk Beiträge löscht, war bisher | |
| > unklar. Einen Eindruck liefern jetzt interne Schulungsdokumente. | |
| Bild: Besser mal wegradieren? Facebook schult seine Mitarbeiter im Löschen | |
| Tipps geben, wie man Frauen das Genick bricht: Kein Problem! Jedenfalls | |
| wenn es um keine konkrete Frau aus Politik und Medien geht. So | |
| unterscheidet Facebook zwischen Beiträgen, die gelöscht werden müssen, und | |
| solchen, die stehen bleiben dürfen – glaubt man internen | |
| Schulungsunterlagen des Social-Media-Konzerns, die [1][der britische | |
| Guardian veröffentlicht hat]. | |
| Facebook hat in den letzten Jahren dem Druck aus Politik und Gesellschaft | |
| nachgegeben und zumindest versprochen, Hass und verbale Gewalt schneller | |
| und gründlicher zu entfernen. Bisher war allerdings nicht klar, nach | |
| welchen Richtlinien Facebook Hassposts oder Gewaltaufrufe entfernt. | |
| Bei den geleakten Dokumenten handelt es sich um [2][Schulungsunterlagen], | |
| mit denen Facebook seinen ModeratorInnen beibringt, welche Beiträge zu | |
| entfernen und welche zu ignorieren sind. Der Konzern unterscheidet dabei | |
| offenkundig zwischen Äußerungen, die „zu Schaden in der realen Welt“ | |
| führen, und solchen, die das aus Sicht von Facebook nicht tun. | |
| So sollen ModeratorInnen etwa Gewaltandrohungen stehen lassen, die | |
| unrealistisch sind oder sich gegen abstrakte Gruppen richten – es sei denn, | |
| diese Gruppen seien besonders „vulnerabel“. Als solche Gruppen definiert | |
| Facebook etwa „Zionisten“ und, bezogen auf die Philippinen, Drogendealer. | |
| Gewaltaufrufe gegen Personen des öffentlichen Lebens wiederum sollen | |
| entfernt werden, weil in diesem Fall die Wahrscheinlichkeit höher sei, dass | |
| diese tatsächlich umgesetzt werden. | |
| ## Diskurs der Gewalt vs. Meinungsfreiheit | |
| Konkret heißt das: Ein Post, der beschreibt, wie man am besten „einer | |
| Schlampe das Genick bricht“, kann stehen bleiben, weil der Gewaltaufruf | |
| einerseits zu abstrakt ist und sich andererseits an eine nicht als | |
| „vulnerabel“ definierte Gruppe richtet. Dasselbe gilt laut Schulungsfolien | |
| für Gewaltaufrufe gegen Rothaarige oder dicke Kinder. | |
| Wer allerdings zum Töten von Donald Trump oder Hillary Clinton aufruft, | |
| dessen Post wird entfernt und das Profil unter Umständen gesperrt. Dasselbe | |
| gilt für Gewaltandrohungen, die sich gegen Privatpersonen richten und | |
| realistisch und konkret formuliert sind. Heißt: Der Wunsch, jemand möge | |
| sterben, geht durch. Ist allerdings von einer konkreten Tatwaffe die Rede, | |
| wird der Post gelöscht. | |
| Auch zum Umgang mit der Darstellung von [3][Kindesmisshandlung] gibt | |
| Facebook Richtlinien vor: Bilder, in denen Kinder misshandelt werden, | |
| bleiben erhalten, um zu ermöglichen, dass das Kind „identifiziert und | |
| gerettet“ werden könne – das gilt jedoch nicht, wenn das Bild in einer | |
| Weise kommentiert wird, die die Misshandlung rechtfertigt oder | |
| glorifiziert. | |
| Die Richtlinien unterscheiden also zwischen Äußerungen, von denen Facebook | |
| annimmt, dass sie unmittelbar zu Gewalt im echten Leben führen. Äußerungen, | |
| die eher mittelbar zu einem Diskurs der Gewalt gegen bestimmte Gruppen | |
| beitragen, fallen für Facebook unter die Meinungsfreiheit. | |
| ## Intransparent und undemokratisch | |
| Das zeigt, dass es dem Konzern vor allem darum geht zu verhindern, dass | |
| Gewaltverbrechen passieren, die sich klar mit Inhalten auf Facebook in | |
| Verbindung bringen lassen. Ein Mord etwa, zu dem kurz zuvor auf Facebook | |
| aufgerufen wurde, könnte dem Netzwerk einen erheblichen Imageschaden | |
| einbringen. | |
| Zum anderen zeigen die Richtlinien, dass Facebook als Richterinstanz über | |
| freie Meinung einerseits und gefährliche Hasskommentare andererseits | |
| überfordert ist. Was etwa eine „vulnerable Gruppe“ ist oder welche Form der | |
| Mordandrohung realistisch ist, variiert je nachdem, wo sich die VerfasserIn | |
| befindet und wo der Post gelesen wird. | |
| Facebook definiert einen kleinsten gemeinsamen Nenner aus dem, was global | |
| unter „Hate Speech“ verstanden wird, und versucht daraus allgemeine Regeln | |
| abzuleiten. Dieser Prozess ist intransparent und undemokratisch. Dazu | |
| kommt: In all den Fällen, die nicht zufällig in den Schulungsunterlagen | |
| stehen, müssen die ModeratorInnen offenbar selbst entscheiden – und damit | |
| liegt die Verantwortung bei den Falschen. | |
| 22 May 2017 | |
| ## LINKS | |
| [1] https://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rul… | |
| [2] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-cr… | |
| [3] https://www.theguardian.com/news/gallery/2017/may/21/facebooks-internal-man… | |
| ## AUTOREN | |
| Peter Weissenburger | |
| ## TAGS | |
| Schwerpunkt Meta | |
| Hate Speech | |
| Zensur | |
| Identitäre | |
| Schwerpunkt Meta | |
| China | |
| Der Zuckerberg | |
| Schwerpunkt Rassismus | |
| Internet | |
| Schwerpunkt Überwachung | |
| Schwerpunkt Meta | |
| Hasskommentare | |
| Fake News | |
| Sascha Lobo | |
| Tschechien | |
| taz.gazete | |
| ## ARTIKEL ZUM THEMA | |
| Klage gegen Sperrung von Aktivistin: Facebooks Problem mit „Vollpfosten“ | |
| Eine Aktivistin setzte auf Facebook Identitäre und „Vollpfosten“ in | |
| Zusammenhang und wurde für 30 Tage gesperrt. Nun klagt sie dagegen. | |
| Kerem Schamberger und Facebook: Das Rätsel um die verlorenen Follower | |
| Facebook erklärt den mysteriösen Followerschwund auf der Seite des linken | |
| Aktivisten mit deaktivierten Accounts. Das wirft neue Fragen auf. | |
| China zensiert Pu den Bären: Ein Bärendienst | |
| Der chinesische Zensurapparat findet Pu den Bären nicht so niedlich. In den | |
| sozialen Medien wird er als gefährlicher Inhalt eingestuft. | |
| taz-Serie Der Zuckerberg | Teil 3: Liebe und Hass | |
| So wie die Fifa das Fairplay versucht bei Facebook immer wieder der | |
| Humorlose den Humor zu erklären. Das ist die Beerdigung des Witzes. | |
| taz-Serie Der Zuckerberg | Teil 2: „Freunde“ von „Freunden“ | |
| Alte „Ausländer raus“-Lieder in frischer Tonart. Braune Worthülsen | |
| everywhere. Was geht denn in der Facebook-Gemeinde unseres Autors ab? | |
| Kolumne Lügenleser: „Slow Food“-Menü für den Alltag | |
| Der neueste Trend? Entschleunigung. Unser Kolumnist hat ihn getestet. Das | |
| Internet ist an ihm vorübergerauscht und er hat nichts verpasst. | |
| Gesetz gegen Hate Speech im Netz: Ein Minister macht sich Feinde | |
| Facebook, Journalisten und Netzaktivisten vereinen sich zum Widerstand | |
| gegen Heiko Maas. Dem könnte diese Melange zum Verhängnis werden. | |
| Kommentar Hetze in sozialen Medien: Eine Welt ohne Facebook ist möglich | |
| Ein Milliardenkonzern wie Facebook schafft es nicht, die Inhalte im | |
| Netzwerk vernünftig zu moderieren. Wie wäre es mit ein bisschen weniger | |
| Gewinn? | |
| Streit um Hass-Kommentare bei Facebook: „Ich war's nicht“ | |
| Unter dem Facebook-Profil von Eduard S. wurde ein Mord gebilligt. Die taz | |
| berichtete, S. klagte. Ein neues Gesetz soll Hass im Netz eindämmen. | |
| „Fake News“ und Bundestagswahlkampf: Löschen, auflisten, checken | |
| Netzwerkdurchsetzungsgesetz, „East StratCom“, „Faktenfinder“, „ZDFche… | |
| Politik und Medien sind im Anti-Fake-News-Rausch. | |
| Sascha Lobo zu Netzdurchsetzungsgesetz: „Ich suche die echte Debatte“ | |
| Am Freitag debattiert der Bundestag über einen Gesetzentwurf von Heiko | |
| Maas. Netzwerke sollen Hetze schneller löschen. Sascha Lobo will mehr | |
| Dialog. | |
| Korruption und Medien in Tschechien: Maulkorb für die Presse | |
| Medien sollen Informationen über einen Korruptionsfall aus dem Netz nehmen. | |
| In den Artikeln geht es um Fördergeld im tschechischen Sport. | |
| Karikaturzeitschriften in der Türkei: Lachen im Ausnahmezustand | |
| Satire ist in der Türkei eine beliebte Form, Politik indirekt zu | |
| kritisieren. Doch Karikaturist*innen kämpfen mit Repressionen und sinkenden | |
| Auflagen. |