Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Hate Speech im Netz: Wenn Maschinen moderieren
> Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden
> ist oft frustrierend – denn hinter den Entscheidungen stecken
> Algorithmen.
Bild: Facebook-Rechenzentrum in Luleå in Schweden
[1][Beleidigungen und Schmähungen im Internet] sind ein wachsendes Problem.
Mit 94 Prozent gab 2020 die überwältigende Mehrheit der Nutzer*innen im
Alter von 14 bis 24 Jahren an, bereits Hass im Netz erlebt zu haben. Wie
die Forsa-Umfrage zu Hassrede im Netz ebenfalls herausfand, melden immer
mehr Menschen entsprechende Kommentare: Waren es 2015 nur 34 Prozent der
Befragten, so stieg die Zahl 2020 mit 67 beinahe auf das Doppelte an.
Doch was danach passiert, ist für viele Nutzer*innen der großen sozialen
Plattformen wie Facebook und Twitter oft ärgerlich: Während oft eigentlich
unbedenkliche Inhalte aufgrund von bestimmten Schlagwörtern gelöscht
werden, können tatsächliche Beschimpfungen eine solche umgehen,
insbesondere wenn sie subtiler ausfallen.
Ein Grund dafür ist, dass die Moderation von Beiträgen und Kommentaren
gerade bei besonders mitgliederstarken Netzwerken oft nicht mehr von
Menschen, [2][sondern Künstlicher Intelligenz übernommen wird]. „KI ist
schwach darin, sinnerfassend Texte zu verstehen. Subtilen Humor, Slang oder
selbstermächtigte Sprache kann sie nicht begreifen. Sie erkennt den
Beschimpfungskontext nicht“, erklärt Matthias C. Kettemann.
Er ist Forschungsprogrammleiter des internationalen Projektes „Ethik der
Digitalisierung – Von Prinzipien zu Praktiken“ unter der Schirmherrschaft
von Bundespräsident Frank-Walter Steinmeier, das vom Alexander von Humboldt
Institut für Internet und Gesellschaft (HIIG) initiiert wurde. An der
Forschung beteiligt sind außerdem das Berkman Klein Center an der Harvard
University, der Digital Asia Hub und das Leibniz-Institut für
Medienforschung.
## Künstliche Intelligenz ermittelt Straftatbestand
Um der Flut an Hetze etwas entgegenzusetzen, ist erst im April ein
Gesetzespaket gegen Hasskriminalität in Kraft getreten, das härtere Strafen
für Beleidigungen im Internet (bis zu zwei Jahre Haft) sowie bei Mord- und
Vergewaltigungsdrohungen (bis zu drei Jahre Haft) vorsieht. Darüber hinaus
sind die sozialen Plattformen dazu verpflichtet worden, volksverhetzende
Äußerungen und andere strafbare Inhalte künftig nicht nur zu löschen,
sondern außerdem zu melden. Beim Bundeskriminalamt soll dafür eigens eine
Zentralstelle eingerichtet werden.
Auch wegen dieser Verpflichtung ist die Notwendigkeit zum Einsatz von
Künstlicher Intelligenz, die strafrechtlich relevante Fälle von Hassrede
erkennt, deutlicher geworden. Kettemann sieht diese Entwicklung allerdings
skeptisch: „Es ist sehr schwierig, Inhalte einem bestimmten Straftatbestand
zuzuordnen. Selbst Juristinnen und Juristen müssen jahrelang studieren,
damit sie in der Lage sind, das zu tun. Eine Künstliche Intelligenz kann
das nur sehr unscharf. Eine solche Verpflichtung zur Meldung ist
problematisch, weil es sehr viel Beifang geben wird.“
Bereits während der Pandemie, als ein Großteil der Belegschaft ins
Homeoffice geschickt werden musste, haben die großen Plattformen damit
begonnen, den Einsatz von Algorithmen bei der Moderation von Beiträgen und
Kommentaren drastisch zu erhöhen – und damit verdoppelte sich etwa bei
Facebook in der zweiten Jahreshälfte 2020 tatsächlich auch die Menge des
entfernten Materials.
Während die Algorithmen insgesamt wesentlich großzügiger aussortierten,
nahm die Zahl der gelöschten Inhalte jedoch ausgerechnet in besonders
sensiblen Bereichen – wie Nacktheit und Missbrauch von Kindern – wiederum
stark ab, wie aus dem Transparenzbericht des Konzerns hervorgeht.
Ein Hauptproblem in der Moderationspraxis sieht Kettemann darin, dass die
Plattformen weiterhin nicht offenlegen, nach welchen Kriterien Löschungen
vorgenommen werden oder über die genauen Funktionsweisen der Algorithmen
aufklären: „Die Autonomie und Würde des Einzelnen muss im Fokus stehen.
Menschen dürfen nicht einfach Entscheidungen unterworfen werden, die sie
nicht verstehen. Das führt zu diffusen Gefühlen der Ohnmacht, die zu ebenso
diffusen Ausbrüchen gegen „die Medien“ oder „die Politik“ führen. Wir
plädieren deswegen beispielsweise für Infoboxen, die die Nutzerinnen und
Nutzer darüber aufklären, wie die Algorithmen funktionieren.“
Die im Juni in Kraft getretene Reform des Netzwerkdurchsetzungsgesetzes
(„NetzDG“), wonach zumindest Forscher*innen von den
Plattform-Betreiber*innen nun im öffentlichen Interesse Auskünfte über
Einsatz und Wirkweise von Verfahren zur automatisierten Erkennung von
Inhalten, die entfernt oder gesperrt werden sollen, einholen können, könnte
ein erster Schritt zu mehr Transparenz sein.
## Neues Tool „Decoding Antisemitism“
Immerhin ist auch ein sogenanntes Gegenvorstellungsverfahren vorgesehen,
in dem Nutzer*innen die Überprüfung von Moderationsentscheidungen
einfordern können. Die Betreiber*innen müssen dann eine Begründung für
ihr Urteil liefern. Eine Offenlegung der genauen Funktionsweisen der
Künstlichen Intelligenz ist nicht vorgesehen.
Erhebliche Missstände beim Einsatz von automatisierter Moderation auf den
sozialen Plattformen sieht auch Matthias J. Becker, der Transparenz als
eine zentrale Priorität des von ihm geleiteten Projektes „Decoding
Antisemitism“ betrachtet. Das von der Alfred Landecker Foundation, dem
Zentrum für Antisemitismusforschung der Technischen Universität Berlin und
dem King’s College London entwickelte Forschungsvorhaben soll der
Unfähigkeit der bislang verwendeten Algorithmen zur Erkennung von Hassrede
ein wirksames, smarteres Moderationstool entgegensetzen:
„Die Suche der verwendeten Algorithmen nach verbalem Antisemitismus
funktioniert schon fast nach einem schablonenhaften Muster, das stets mit
dem Ausdruck von Emotionen verbunden ist. Dabei weiß jeder, der in der
Antisemitismusforschung tätig ist, dass die Reproduktion von Stereotypen
auch ohne Gefühlsausdrücke auskommt. Jemand kann ein bestimmtes Vorurteil
gegenüber jüdischen Personen vorbringen, ohne die zugrundeliegende
Vorstellung in explizite Worte zu gießen oder dabei Hass, Argwohn oder Ekel
zum Ausdruck zu bringen.“
Derzeit untersuchen Forscher*innen in Deutschland, Frankreich und
Großbritannien, wie judenfeindliche Stereotype versprachlicht werden. Das
geplante Tool soll später in der Lage sein, besonders impliziten
Antisemitismus zu erkennen. Wichtig ist Becker dabei vor allem, dass der
Algorithmus ausführlich getestet und von Menschen trainiert wird.
## Wie verändern sich Ressentiments mit der Zeit?
Auch die Entscheidungsgrundlagen der Anwendung sollen vollkommen
offengelegt werden. Die Künstliche Intelligenz soll dabei später nicht nur
definieren können, dass es sich um Antisemitismus handelt – sondern auch
feststellen können, welche Stereotype und Sprachmuster bedient werden. Das
soll wiederum nicht nur zu einem weniger hasserfüllten Klima im Netz
beitragen, sondern spätere Beobachtungen dazu ermöglichen, wie sich
antisemitische Ressentiments und ihre Artikulation im Laufe der Zeit
verändern.
Am Ende soll das Tool in den Kommentarspalten von News-Websites zum Einsatz
kommen und auch bei Facebook, Twitter und Instagram ein Umdenken anregen –
vielleicht sogar direkt dort eingesetzt werden. Das ist wichtig, weil
Sprache Denkmuster schafft und so wiederum ein bestimmtes Handeln
hervorrufen kann, betont Becker.
Ambitionierte Projekte wie „Decoding Antisemitism“, die sich gleich David
gegen Goliath in den Ring wagen, um die großen Konzerne zum Nachjustieren
zu zwingen, machen Hoffnung auf Veränderung. Dass die Moderation auf
sozialen Plattformen jemals ganz in die Hände von Maschinen gelegt werden
kann, hält aber zumindest Kettemann für unwahrscheinlich: „Der Mensch ist
ein kommunikatives Wesen, wir entwickeln das Bild unseres Selbst erst in
den Augen der anderen. Solange die Menschen reden, werden sie also kreativ
sein – und solange sie kreativ sind, haben die Algorithmen ein Problem.“
21 Jul 2021
## LINKS
[1] /Hate-Speech/!t5221773
[2] /Kuenstliche-Intelligenz/!5720691
## AUTOREN
Arabella Wintermayr
## TAGS
Soziale Medien
Schwerpunkt Meta
GNS
Hate Speech
Schwerpunkt Künstliche Intelligenz
Algorithmus
IG
Kommunalpolitik
Soziale Medien
Hasskriminalität
Soziale Netzwerke
Diversität
Ausstellung
Schwerpunkt Rassismus
Realität
TikTok
Schwerpunkt Meta
Hate Speech
## ARTIKEL ZUM THEMA
Instagram will unpolitisch werden: Subtile Botschaften
Der Meta-Konzern kündigt an, politische Inhalte auf seinen Plattformen
einzuschränken. Das wird zu einer noch subtileren politischen Kommunikation
führen.
Gewalt gegen Landtagsabgeordneten: Grünen zu Boden gerungen
Beschimpfungen ist der niedersächsische Landtagsabgeordnete Christian
Schroeder gewohnt, nun wurde er zum ersten Mal körperlich attackiert.
Medienforschung am Hans-Bredow-Institut: Interdisziplinäres Schritt halten
Das Hamburger Hans-Bredow-Institut erforscht, wie sich Medien über die Zeit
verändern und was das für Gesellschaft, Politik und Wirtschaft bedeutet.
Hass im Netz: Müder Kampf gegen Hasskriminalität
Nach einer Medienrecherche räumen Polizeibehörden Versäumnisse ein.
Forderungen nach besserer Ausstattung der Dienststellen werden laut.
Schätzung des Bundeskriminalamts: 150.000 Verfahren pro Jahr
Das BKA geht wegen des neuen Gesetzes gegen Hass im Netz von jährlich
150.000 Strafverfahren aus. Die neue Meldestelle geht im Februar an den
Start.
Twitter-KI diverser machen: Suche nach dem Superprogrammierer
Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber
reicht das am Ende, um die Diskriminierung zu stoppen?
KI-Ausstellung in München: Mensch trifft Maschine
Das Verhältnis des Menschen zum technischen Diener bleibt ambivalent. Eine
KI-Ausstellung in der Münchner Pinakothek der Moderne erörtert das.
Antisemitismus in Deutschland: Das Schweigen brechen
Der Hass gegen Jüdinnen:Juden in Deutschland lebt. Er zieht seine Fäden
durch die gesamte Gesellschaft – mal verhalten, mal ganz offen.
Sky-Serie „Ich und die Anderen“: Die Hölle, das sind die anderen
Die experimentelle Serie „Ich und die Anderen“ ergründet
existenzialistische Fragen. Die sechs Folgen feuern ein wahres
Dialogfeuerwerk ab.
Frauenhass auf TikTok: Ohne Respekt, ohne Kultur
Junge Frauen erleben besonders viel Hass in sozialen Netzwerken wie TikTok.
Antifeministen beleidigen systematisch alle, die ihr Weltbild bedrohen.
Klarnamenpflicht auf Plattformen: Wenn Dieter auf Facebook hetzt
Das Netzwerk Facebook darf Nutzer:innen Pseudonyme verbieten, urteilt ein
Gericht. Doch hält eine Klarnamenpflicht von Hasspostings ab?
Gesetze gegen Hate Speech: Digitale Internationale
Wer gegen illegale Inhalte in sozialen Medien vorgehen möchte, muss
international agieren. Das funktioniert bisher noch nicht einmal in Europa.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.