Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Community-Management: Für Respekt in der Kommentar-Spalte
> Community-Manager*innen sollen Kommentare auf den Seiten der
> Öffentlich-Rechtlichen regulieren. Doch der raue Ton geht vielen an die
> Substanz.
Bild: Wie Community-Manager*innen täglich mit Hatespeech umzugehen kann auf di…
Islamistengesocks, unzivilisierte Halbwilde“, schreibt der User, dessen
Profilbild einen Mann mit adrettem Haarschnitt und Anzug zeigt. Doch das
ist nicht er selbst – sondern der Bösewicht aus einer TV-Serie. Das Profil
ist Fake, der Nutzer ein Troll, der vorsätzlich im Internet Unruhe stiftet.
Im Jahr 2022 erhielt [1][allein das ZDF] nach eigenen Angaben über 12
Millionen Kommentare auf seinen Social-Media-Kanälen. Die meisten sind
harmlos. Einige wie der obige, enthalten Hass, Beleidigungen und Drohungen.
Um einen respektvollen Austausch zu ermöglichen, beschäftigen viele
Rundfunkanstalten daher Community-Manager*innen wie Melissa.
Melissa arbeitet beim Deutschlandfunk (DLF) und heißt eigentlich anders.
Ihren echten Namen möchte sie lieber nicht in der Zeitung lesen, auch weil
sie befürchtet, dass User*innen sie kontaktieren könnten. Melissa
[2][löscht Hasskommentare auf Facebook,] leitet Diskussionen auf Instagram
und Twitter, beantwortet Fragen in den Foren des Senders. Im Fachjargon
nennt sich das Moderation. Zu dieser ist der ÖRR laut einem Urteil des
Bundesverwaltungsgerichts vom November 2022 nicht nur berechtigt, sondern
teilweise sogar verpflichtet, um EU-Wettbewerbsrichtlinien zu erfüllen. Die
Menschen, die sich darum kümmern, brauchen starke Nerven.
„Ich lese ungefähr 1.000 Kommentare am Tag, davon sind etwa 10 Prozent
problematisch und noch mal 20 Prozent Spam, viele Sex-Bots und
Finanz-Coaches“, erzählt Melissa. „Mit das Übelste, was ich bisher gelesen
habe, war eine sehr plastische Beschreibung davon, wie jemand einen
Klima-Kleber töten wollte.“
## Wenig sichtbar
Community-Management ist ein wenig sichtbares Arbeitsfeld in Deutschland,
obwohl es inzwischen in fast jedem größeren Unternehmen zu finden ist,
besonders in der Medienbranche. Wie viele Community-Manager*innen es
genau in Deutschland gibt ist schwer zu sagen. Das Berufsbild ist nicht
geschützt und eine Erfassung daher schwer möglich. Mit 38 Jahren gehört
Melissa zu den Älteren in der Branche. Viele der Community-Manager*innen,
mit denen die taz für diesen Text sprach, studieren noch, verdienen sich
mit dem Job etwas dazu. Für Melissa aber ist es ihre Haupttätigkeit.
Ein Ziel der Moderation ist, dass die Community die sogenannte
[3][Netiquette einhält]. Diese hauseigenen Verhaltensregeln gehen bei den
Formaten des ÖRR meist über die Guidelines von Facebook & Co hinaus. So
kann die Netiquette z. B. vorschreiben, dass Kommentare sachbezogen,
konstruktiv und respektvoll sein sollen. Leider gelingt das nicht immer.
„Moderation hat definitiv einen Effekt. Aus Studien wissen wir, dass allein
die Präsenz von Moderation dazu führt, dass Nutzer*innen lieber an
Diskussionen teilnehmen“, sagt die Kommunikationswissenschaftlerin
Dominique Heinbach. Sie forscht an der Uni Mainz zu Moderation und
Community-Management und hat mit Prof. Dr. Marc Ziegele (Uni Düsseldorf) in
Kooperation mit der Landesanstalt für Medien NRW das sogenannte
Kasi-Prinzip entwickelt. Dieses enthält verschiedene Moderationsstile, den
kognitiven (K), affektiven (A) und den sozial-integrativen Stil (SI). Sie
konzertieren sich auf die Bestärkung positiver, konstruktiver und
bereichernder Kommentare. Dabei soll auf Gefühle der Menschen eingegangen,
positive Rückfragen gestellt und die Interaktion untereinander gefördert
werden.
„Häufig liegt in der öffentlichen Debatte und in Redaktionen ein großer
Fokus auf dem Eindämmen von Hatespeech und Inzivilität, also von
unerwünschten Beiträgen. Wir haben versucht, das Ganze andersrum
anzugehen.“ Eine große Studie mit Praxispartnern zeigte, dass die
Kasi-Methoden zu einem besseren Klima führten. Sie nahmen aber auch mehr
Zeit in Anspruch als das bloße Löschen von Hasskommentaren. „Natürlich
braucht man genug Personal dafür“, sagt Heinbach.
## Es fehlt an Kapazitäten
Tom Klein koordiniert das Community-Management beim Hessischen Rundfunk und
bestätigt die Wirksamkeit von Heinbachs Methoden: „Wir haben Testungen
durchgeführt und nicht nur gemerkt, dass die Diskussionen besser geworden
sind, sondern auch, dass die Arbeit für unsere Community-Manager*innen
viel befriedigender geworden ist.“ Leider fehlten im eng getakteten
Arbeitsalltag oft die Kapazitäten. „In der Coronazeit hatten wir manchmal
Postings mit 10.000 und mehr Kommentaren. Da kann man nur noch das
Schlimmste verhindern, aber keinen sachgerechten Diskurs mehr führen.“
Rechtlich ist es aber nicht ganz einfach, Kommentare zu löschen oder
Nutzer*innen zu blockieren. Schnell hagelt es Vorwürfe: Der ÖRR betreibe
„Propaganda“, erhebe „Zwangsgebühren“ und betreibe Zensur. Auch dem be…
erwähnten Urteil des Bundesverwaltungsgerichts ging die Klage eines Nutzers
voraus. Das Gericht urteilte, dass die Löschung von Kommentaren auf der
Facebookseite des MDR zwar weitgehend rechtens war, gab dem User aber in
einem Fall recht. Ein Eintrag hätte nicht gelöscht werden dürfen.
Der Kläger hatte zu einem Beitrag über eine Razzia bei der verbotenen
rechten Vereinigung „Blood & Honour“ gefragt, „ob man dabei den Attentät…
von Straßburg finden wird“. Der MDR löschte, weil der Anschlag islamistisch
motiviert war, die Razzia aber Neonazis traf. Hier sah das Gericht die
fehlende Themenbezogenheit zu eng gefasst.
„Meinungsfreiheit heißt nicht, dass jeder alles überall sagen kann“, sagt
Tom Klein. „Wir haben als Redaktionen ein Hausrecht.“ Der ÖRR kann davon
Gebrauch machen, wenn Kommentare vom Thema abweichen. Private Medienhäuser
haben beim Löschen recht freie Hand, doch der ÖRR muss ein breites
Meinungsspektrum akzeptieren. Bei Beleidigungen, strafrechtlich relevanten
Äußerungen, Gewaltandrohungen oder Volksverhetzung ist aber Schluss.
## Es schlägt auf die Psyche
Täglich mit Hatespeech umzugehen kann auf die Psyche schlagen. Auch Melissa
war wegen ihres Jobs bereits in therapeutischer Behandlung. Bei ihrem
vorherigen Arbeitgeber war sie während Corona mehrere Wochen
krankgeschrieben, weil der Druck zu groß wurde.
„Community-Manager*innen fragen sich häufig, wer hinter dem Hass
steckt, in welche Richtung der Diskurs geht. Sie fragen sich: Ist das
wirklich das Abbild unserer Gesellschaft?“ sagt Judith Strieder,
Psychologin bei HateAid, einer Organisation, die sich für Betroffene von
digitaler Gewalt einsetzt und für Community-Manager*innen. Einige ihrer
Klient*innen entwickelten psychische Leiden aufgrund ihrer Arbeit, wie
Konzentrationsschwierigkeiten, Schlafstörungen oder depressive
Verstimmungen. „Das ist eine Arbeit, bei der man gut auf sich aufpassen
muss“, sagt Strieder.
Besonders schwierig seien Themen, von denen Moderator*innen selbst
betroffen sind, etwa geschlechtsspezifische Gewalt oder Rassismus. Vor
allem Täter*innen aus dem rechten Spektrum nutzten das Internet
strategisch, um politische Gegner*innen mundtot zu machen. So waren laut
Bundeskriminalamt im Jahr 2019 ganze 73 Prozent aller strafbaren
Hasspostings rechts motiviert. „Es ist wichtig, die Menschen darüber
aufzuklären, dass Menschen, die digitale Gewalt verbreiten, nur eine
kleine, aber sehr laute Minderheit sind“, sagt Strieder.
## KI könnte helfen
Tatsächlich beteiligen sich nur wenige Menschen aktiv an
Onlinediskussionen, während viele unbeteiligt mitlesen. Laut einer Studie
von ARD und ZDF schrieben 2020 lediglich 10 Prozent der User*innen
gelegentlich Kommentare auf Facebook und Instagram. Die Zahl der
sogenannten „Heavy User“ ist noch deutlich geringer.
Um den Moderator*innen ihre Arbeit zu erleichtern, sieht Dominique
Heinbach in der Zukunft Potenzial bei automatisierten KI-gestützten
Modellen, die etwa Kommentare anhand von Reizwörtern und Sprachmustern
filtern. Diese würden immer besser und seien zumindest bei eindeutigen
Verstößen eine willkommene Unterstützung. Bis die KI jedoch wirklich
zuverlässig funktioniere, werde es noch dauern. Bis dahin sei es wichtig,
dass Community-Management auch in den Redaktionen weiter als
journalistische Arbeit anerkannt und im redaktionellen Prozess mitgedacht
wird, sagt Heinbach. Das sieht auch Melissa so: „Viele Institutionen geben
das CM an unterbezahlte Studis oder Praktikant*innen weiter, die dann
mit Anfang 20 Burnout haben.“ Das müsse sich ändern. „Es muss als richtig…
Beruf wahrgenommen werden und dafür muss man auch Geld in die Hand nehmen.“
7 Oct 2023
## LINKS
[1] /60-Jahre-ZDF/!5922942
[2] /Doku-ueber-Social-Media/!5528146
[3] /LeserInnen-Kommentare/!118006/
## AUTOREN
Fabian Schroer
## TAGS
Hass
Hate Speech
ZDF
Deutschlandradio
IG
Netzkultur
Social Media
Donald Trump
## ARTIKEL ZUM THEMA
„Hass im Netz“: Tödliche Wirkung des Internets
Seit dem Tod der Ärztin Lisa-Maria Kellermayr wird über „Hass im Netz“
diskutiert. Dabei ist Hass nicht nur digital. Er hat immer auch analoge
Folgen.
Doku über Social Media: Löschen. Ignorieren. Löschen
„Im Schatten der Netzwelt – The Cleaners“ zeigt jene Menschen, die von
Manila aus die sozialen Medien für uns aufräumen.
Netiquette und Nachrichtenwert: Zu groß, um gelöscht zu werden
Wer auf Twitter droht, hetzt oder zu Gewalt aufruft, muss mit Konsequenzen
rechnen. Nicht so Donald Trump. Ist das gerecht?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.