# taz.de -- Community-Management: Für Respekt in der Kommentar-Spalte | |
> Community-Manager*innen sollen Kommentare auf den Seiten der | |
> Öffentlich-Rechtlichen regulieren. Doch der raue Ton geht vielen an die | |
> Substanz. | |
Bild: Wie Community-Manager*innen täglich mit Hatespeech umzugehen kann auf di… | |
Islamistengesocks, unzivilisierte Halbwilde“, schreibt der User, dessen | |
Profilbild einen Mann mit adrettem Haarschnitt und Anzug zeigt. Doch das | |
ist nicht er selbst – sondern der Bösewicht aus einer TV-Serie. Das Profil | |
ist Fake, der Nutzer ein Troll, der vorsätzlich im Internet Unruhe stiftet. | |
Im Jahr 2022 erhielt [1][allein das ZDF] nach eigenen Angaben über 12 | |
Millionen Kommentare auf seinen Social-Media-Kanälen. Die meisten sind | |
harmlos. Einige wie der obige, enthalten Hass, Beleidigungen und Drohungen. | |
Um einen respektvollen Austausch zu ermöglichen, beschäftigen viele | |
Rundfunkanstalten daher Community-Manager*innen wie Melissa. | |
Melissa arbeitet beim Deutschlandfunk (DLF) und heißt eigentlich anders. | |
Ihren echten Namen möchte sie lieber nicht in der Zeitung lesen, auch weil | |
sie befürchtet, dass User*innen sie kontaktieren könnten. Melissa | |
[2][löscht Hasskommentare auf Facebook,] leitet Diskussionen auf Instagram | |
und Twitter, beantwortet Fragen in den Foren des Senders. Im Fachjargon | |
nennt sich das Moderation. Zu dieser ist der ÖRR laut einem Urteil des | |
Bundesverwaltungsgerichts vom November 2022 nicht nur berechtigt, sondern | |
teilweise sogar verpflichtet, um EU-Wettbewerbsrichtlinien zu erfüllen. Die | |
Menschen, die sich darum kümmern, brauchen starke Nerven. | |
„Ich lese ungefähr 1.000 Kommentare am Tag, davon sind etwa 10 Prozent | |
problematisch und noch mal 20 Prozent Spam, viele Sex-Bots und | |
Finanz-Coaches“, erzählt Melissa. „Mit das Übelste, was ich bisher gelesen | |
habe, war eine sehr plastische Beschreibung davon, wie jemand einen | |
Klima-Kleber töten wollte.“ | |
## Wenig sichtbar | |
Community-Management ist ein wenig sichtbares Arbeitsfeld in Deutschland, | |
obwohl es inzwischen in fast jedem größeren Unternehmen zu finden ist, | |
besonders in der Medienbranche. Wie viele Community-Manager*innen es | |
genau in Deutschland gibt ist schwer zu sagen. Das Berufsbild ist nicht | |
geschützt und eine Erfassung daher schwer möglich. Mit 38 Jahren gehört | |
Melissa zu den Älteren in der Branche. Viele der Community-Manager*innen, | |
mit denen die taz für diesen Text sprach, studieren noch, verdienen sich | |
mit dem Job etwas dazu. Für Melissa aber ist es ihre Haupttätigkeit. | |
Ein Ziel der Moderation ist, dass die Community die sogenannte | |
[3][Netiquette einhält]. Diese hauseigenen Verhaltensregeln gehen bei den | |
Formaten des ÖRR meist über die Guidelines von Facebook & Co hinaus. So | |
kann die Netiquette z. B. vorschreiben, dass Kommentare sachbezogen, | |
konstruktiv und respektvoll sein sollen. Leider gelingt das nicht immer. | |
„Moderation hat definitiv einen Effekt. Aus Studien wissen wir, dass allein | |
die Präsenz von Moderation dazu führt, dass Nutzer*innen lieber an | |
Diskussionen teilnehmen“, sagt die Kommunikationswissenschaftlerin | |
Dominique Heinbach. Sie forscht an der Uni Mainz zu Moderation und | |
Community-Management und hat mit Prof. Dr. Marc Ziegele (Uni Düsseldorf) in | |
Kooperation mit der Landesanstalt für Medien NRW das sogenannte | |
Kasi-Prinzip entwickelt. Dieses enthält verschiedene Moderationsstile, den | |
kognitiven (K), affektiven (A) und den sozial-integrativen Stil (SI). Sie | |
konzertieren sich auf die Bestärkung positiver, konstruktiver und | |
bereichernder Kommentare. Dabei soll auf Gefühle der Menschen eingegangen, | |
positive Rückfragen gestellt und die Interaktion untereinander gefördert | |
werden. | |
„Häufig liegt in der öffentlichen Debatte und in Redaktionen ein großer | |
Fokus auf dem Eindämmen von Hatespeech und Inzivilität, also von | |
unerwünschten Beiträgen. Wir haben versucht, das Ganze andersrum | |
anzugehen.“ Eine große Studie mit Praxispartnern zeigte, dass die | |
Kasi-Methoden zu einem besseren Klima führten. Sie nahmen aber auch mehr | |
Zeit in Anspruch als das bloße Löschen von Hasskommentaren. „Natürlich | |
braucht man genug Personal dafür“, sagt Heinbach. | |
## Es fehlt an Kapazitäten | |
Tom Klein koordiniert das Community-Management beim Hessischen Rundfunk und | |
bestätigt die Wirksamkeit von Heinbachs Methoden: „Wir haben Testungen | |
durchgeführt und nicht nur gemerkt, dass die Diskussionen besser geworden | |
sind, sondern auch, dass die Arbeit für unsere Community-Manager*innen | |
viel befriedigender geworden ist.“ Leider fehlten im eng getakteten | |
Arbeitsalltag oft die Kapazitäten. „In der Coronazeit hatten wir manchmal | |
Postings mit 10.000 und mehr Kommentaren. Da kann man nur noch das | |
Schlimmste verhindern, aber keinen sachgerechten Diskurs mehr führen.“ | |
Rechtlich ist es aber nicht ganz einfach, Kommentare zu löschen oder | |
Nutzer*innen zu blockieren. Schnell hagelt es Vorwürfe: Der ÖRR betreibe | |
„Propaganda“, erhebe „Zwangsgebühren“ und betreibe Zensur. Auch dem be… | |
erwähnten Urteil des Bundesverwaltungsgerichts ging die Klage eines Nutzers | |
voraus. Das Gericht urteilte, dass die Löschung von Kommentaren auf der | |
Facebookseite des MDR zwar weitgehend rechtens war, gab dem User aber in | |
einem Fall recht. Ein Eintrag hätte nicht gelöscht werden dürfen. | |
Der Kläger hatte zu einem Beitrag über eine Razzia bei der verbotenen | |
rechten Vereinigung „Blood & Honour“ gefragt, „ob man dabei den Attentät… | |
von Straßburg finden wird“. Der MDR löschte, weil der Anschlag islamistisch | |
motiviert war, die Razzia aber Neonazis traf. Hier sah das Gericht die | |
fehlende Themenbezogenheit zu eng gefasst. | |
„Meinungsfreiheit heißt nicht, dass jeder alles überall sagen kann“, sagt | |
Tom Klein. „Wir haben als Redaktionen ein Hausrecht.“ Der ÖRR kann davon | |
Gebrauch machen, wenn Kommentare vom Thema abweichen. Private Medienhäuser | |
haben beim Löschen recht freie Hand, doch der ÖRR muss ein breites | |
Meinungsspektrum akzeptieren. Bei Beleidigungen, strafrechtlich relevanten | |
Äußerungen, Gewaltandrohungen oder Volksverhetzung ist aber Schluss. | |
## Es schlägt auf die Psyche | |
Täglich mit Hatespeech umzugehen kann auf die Psyche schlagen. Auch Melissa | |
war wegen ihres Jobs bereits in therapeutischer Behandlung. Bei ihrem | |
vorherigen Arbeitgeber war sie während Corona mehrere Wochen | |
krankgeschrieben, weil der Druck zu groß wurde. | |
„Community-Manager*innen fragen sich häufig, wer hinter dem Hass | |
steckt, in welche Richtung der Diskurs geht. Sie fragen sich: Ist das | |
wirklich das Abbild unserer Gesellschaft?“ sagt Judith Strieder, | |
Psychologin bei HateAid, einer Organisation, die sich für Betroffene von | |
digitaler Gewalt einsetzt und für Community-Manager*innen. Einige ihrer | |
Klient*innen entwickelten psychische Leiden aufgrund ihrer Arbeit, wie | |
Konzentrationsschwierigkeiten, Schlafstörungen oder depressive | |
Verstimmungen. „Das ist eine Arbeit, bei der man gut auf sich aufpassen | |
muss“, sagt Strieder. | |
Besonders schwierig seien Themen, von denen Moderator*innen selbst | |
betroffen sind, etwa geschlechtsspezifische Gewalt oder Rassismus. Vor | |
allem Täter*innen aus dem rechten Spektrum nutzten das Internet | |
strategisch, um politische Gegner*innen mundtot zu machen. So waren laut | |
Bundeskriminalamt im Jahr 2019 ganze 73 Prozent aller strafbaren | |
Hasspostings rechts motiviert. „Es ist wichtig, die Menschen darüber | |
aufzuklären, dass Menschen, die digitale Gewalt verbreiten, nur eine | |
kleine, aber sehr laute Minderheit sind“, sagt Strieder. | |
## KI könnte helfen | |
Tatsächlich beteiligen sich nur wenige Menschen aktiv an | |
Onlinediskussionen, während viele unbeteiligt mitlesen. Laut einer Studie | |
von ARD und ZDF schrieben 2020 lediglich 10 Prozent der User*innen | |
gelegentlich Kommentare auf Facebook und Instagram. Die Zahl der | |
sogenannten „Heavy User“ ist noch deutlich geringer. | |
Um den Moderator*innen ihre Arbeit zu erleichtern, sieht Dominique | |
Heinbach in der Zukunft Potenzial bei automatisierten KI-gestützten | |
Modellen, die etwa Kommentare anhand von Reizwörtern und Sprachmustern | |
filtern. Diese würden immer besser und seien zumindest bei eindeutigen | |
Verstößen eine willkommene Unterstützung. Bis die KI jedoch wirklich | |
zuverlässig funktioniere, werde es noch dauern. Bis dahin sei es wichtig, | |
dass Community-Management auch in den Redaktionen weiter als | |
journalistische Arbeit anerkannt und im redaktionellen Prozess mitgedacht | |
wird, sagt Heinbach. Das sieht auch Melissa so: „Viele Institutionen geben | |
das CM an unterbezahlte Studis oder Praktikant*innen weiter, die dann | |
mit Anfang 20 Burnout haben.“ Das müsse sich ändern. „Es muss als richtig… | |
Beruf wahrgenommen werden und dafür muss man auch Geld in die Hand nehmen.“ | |
7 Oct 2023 | |
## LINKS | |
[1] /60-Jahre-ZDF/!5922942 | |
[2] /Doku-ueber-Social-Media/!5528146 | |
[3] /LeserInnen-Kommentare/!118006/ | |
## AUTOREN | |
Fabian Schroer | |
## TAGS | |
Hass | |
Hate Speech | |
ZDF | |
Deutschlandradio | |
IG | |
Netzkultur | |
Social Media | |
Donald Trump | |
## ARTIKEL ZUM THEMA | |
„Hass im Netz“: Tödliche Wirkung des Internets | |
Seit dem Tod der Ärztin Lisa-Maria Kellermayr wird über „Hass im Netz“ | |
diskutiert. Dabei ist Hass nicht nur digital. Er hat immer auch analoge | |
Folgen. | |
Doku über Social Media: Löschen. Ignorieren. Löschen | |
„Im Schatten der Netzwelt – The Cleaners“ zeigt jene Menschen, die von | |
Manila aus die sozialen Medien für uns aufräumen. | |
Netiquette und Nachrichtenwert: Zu groß, um gelöscht zu werden | |
Wer auf Twitter droht, hetzt oder zu Gewalt aufruft, muss mit Konsequenzen | |
rechnen. Nicht so Donald Trump. Ist das gerecht? |