# taz.de -- Hate Speech im Netz: Wenn Maschinen moderieren | |
> Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden | |
> ist oft frustrierend – denn hinter den Entscheidungen stecken | |
> Algorithmen. | |
Bild: Facebook-Rechenzentrum in Luleå in Schweden | |
[1][Beleidigungen und Schmähungen im Internet] sind ein wachsendes Problem. | |
Mit 94 Prozent gab 2020 die überwältigende Mehrheit der Nutzer*innen im | |
Alter von 14 bis 24 Jahren an, bereits Hass im Netz erlebt zu haben. Wie | |
die Forsa-Umfrage zu Hassrede im Netz ebenfalls herausfand, melden immer | |
mehr Menschen entsprechende Kommentare: Waren es 2015 nur 34 Prozent der | |
Befragten, so stieg die Zahl 2020 mit 67 beinahe auf das Doppelte an. | |
Doch was danach passiert, ist für viele Nutzer*innen der großen sozialen | |
Plattformen wie Facebook und Twitter oft ärgerlich: Während oft eigentlich | |
unbedenkliche Inhalte aufgrund von bestimmten Schlagwörtern gelöscht | |
werden, können tatsächliche Beschimpfungen eine solche umgehen, | |
insbesondere wenn sie subtiler ausfallen. | |
Ein Grund dafür ist, dass die Moderation von Beiträgen und Kommentaren | |
gerade bei besonders mitgliederstarken Netzwerken oft nicht mehr von | |
Menschen, [2][sondern Künstlicher Intelligenz übernommen wird]. „KI ist | |
schwach darin, sinnerfassend Texte zu verstehen. Subtilen Humor, Slang oder | |
selbstermächtigte Sprache kann sie nicht begreifen. Sie erkennt den | |
Beschimpfungskontext nicht“, erklärt Matthias C. Kettemann. | |
Er ist Forschungsprogrammleiter des internationalen Projektes „Ethik der | |
Digitalisierung – Von Prinzipien zu Praktiken“ unter der Schirmherrschaft | |
von Bundespräsident Frank-Walter Steinmeier, das vom Alexander von Humboldt | |
Institut für Internet und Gesellschaft (HIIG) initiiert wurde. An der | |
Forschung beteiligt sind außerdem das Berkman Klein Center an der Harvard | |
University, der Digital Asia Hub und das Leibniz-Institut für | |
Medienforschung. | |
## Künstliche Intelligenz ermittelt Straftatbestand | |
Um der Flut an Hetze etwas entgegenzusetzen, ist erst im April ein | |
Gesetzespaket gegen Hasskriminalität in Kraft getreten, das härtere Strafen | |
für Beleidigungen im Internet (bis zu zwei Jahre Haft) sowie bei Mord- und | |
Vergewaltigungsdrohungen (bis zu drei Jahre Haft) vorsieht. Darüber hinaus | |
sind die sozialen Plattformen dazu verpflichtet worden, volksverhetzende | |
Äußerungen und andere strafbare Inhalte künftig nicht nur zu löschen, | |
sondern außerdem zu melden. Beim Bundeskriminalamt soll dafür eigens eine | |
Zentralstelle eingerichtet werden. | |
Auch wegen dieser Verpflichtung ist die Notwendigkeit zum Einsatz von | |
Künstlicher Intelligenz, die strafrechtlich relevante Fälle von Hassrede | |
erkennt, deutlicher geworden. Kettemann sieht diese Entwicklung allerdings | |
skeptisch: „Es ist sehr schwierig, Inhalte einem bestimmten Straftatbestand | |
zuzuordnen. Selbst Juristinnen und Juristen müssen jahrelang studieren, | |
damit sie in der Lage sind, das zu tun. Eine Künstliche Intelligenz kann | |
das nur sehr unscharf. Eine solche Verpflichtung zur Meldung ist | |
problematisch, weil es sehr viel Beifang geben wird.“ | |
Bereits während der Pandemie, als ein Großteil der Belegschaft ins | |
Homeoffice geschickt werden musste, haben die großen Plattformen damit | |
begonnen, den Einsatz von Algorithmen bei der Moderation von Beiträgen und | |
Kommentaren drastisch zu erhöhen – und damit verdoppelte sich etwa bei | |
Facebook in der zweiten Jahreshälfte 2020 tatsächlich auch die Menge des | |
entfernten Materials. | |
Während die Algorithmen insgesamt wesentlich großzügiger aussortierten, | |
nahm die Zahl der gelöschten Inhalte jedoch ausgerechnet in besonders | |
sensiblen Bereichen – wie Nacktheit und Missbrauch von Kindern – wiederum | |
stark ab, wie aus dem Transparenzbericht des Konzerns hervorgeht. | |
Ein Hauptproblem in der Moderationspraxis sieht Kettemann darin, dass die | |
Plattformen weiterhin nicht offenlegen, nach welchen Kriterien Löschungen | |
vorgenommen werden oder über die genauen Funktionsweisen der Algorithmen | |
aufklären: „Die Autonomie und Würde des Einzelnen muss im Fokus stehen. | |
Menschen dürfen nicht einfach Entscheidungen unterworfen werden, die sie | |
nicht verstehen. Das führt zu diffusen Gefühlen der Ohnmacht, die zu ebenso | |
diffusen Ausbrüchen gegen „die Medien“ oder „die Politik“ führen. Wir | |
plädieren deswegen beispielsweise für Infoboxen, die die Nutzerinnen und | |
Nutzer darüber aufklären, wie die Algorithmen funktionieren.“ | |
Die im Juni in Kraft getretene Reform des Netzwerkdurchsetzungsgesetzes | |
(„NetzDG“), wonach zumindest Forscher*innen von den | |
Plattform-Betreiber*innen nun im öffentlichen Interesse Auskünfte über | |
Einsatz und Wirkweise von Verfahren zur automatisierten Erkennung von | |
Inhalten, die entfernt oder gesperrt werden sollen, einholen können, könnte | |
ein erster Schritt zu mehr Transparenz sein. | |
## Neues Tool „Decoding Antisemitism“ | |
Immerhin ist auch ein sogenanntes Gegenvorstellungsverfahren vorgesehen, | |
in dem Nutzer*innen die Überprüfung von Moderationsentscheidungen | |
einfordern können. Die Betreiber*innen müssen dann eine Begründung für | |
ihr Urteil liefern. Eine Offenlegung der genauen Funktionsweisen der | |
Künstlichen Intelligenz ist nicht vorgesehen. | |
Erhebliche Missstände beim Einsatz von automatisierter Moderation auf den | |
sozialen Plattformen sieht auch Matthias J. Becker, der Transparenz als | |
eine zentrale Priorität des von ihm geleiteten Projektes „Decoding | |
Antisemitism“ betrachtet. Das von der Alfred Landecker Foundation, dem | |
Zentrum für Antisemitismusforschung der Technischen Universität Berlin und | |
dem King’s College London entwickelte Forschungsvorhaben soll der | |
Unfähigkeit der bislang verwendeten Algorithmen zur Erkennung von Hassrede | |
ein wirksames, smarteres Moderationstool entgegensetzen: | |
„Die Suche der verwendeten Algorithmen nach verbalem Antisemitismus | |
funktioniert schon fast nach einem schablonenhaften Muster, das stets mit | |
dem Ausdruck von Emotionen verbunden ist. Dabei weiß jeder, der in der | |
Antisemitismusforschung tätig ist, dass die Reproduktion von Stereotypen | |
auch ohne Gefühlsausdrücke auskommt. Jemand kann ein bestimmtes Vorurteil | |
gegenüber jüdischen Personen vorbringen, ohne die zugrundeliegende | |
Vorstellung in explizite Worte zu gießen oder dabei Hass, Argwohn oder Ekel | |
zum Ausdruck zu bringen.“ | |
Derzeit untersuchen Forscher*innen in Deutschland, Frankreich und | |
Großbritannien, wie judenfeindliche Stereotype versprachlicht werden. Das | |
geplante Tool soll später in der Lage sein, besonders impliziten | |
Antisemitismus zu erkennen. Wichtig ist Becker dabei vor allem, dass der | |
Algorithmus ausführlich getestet und von Menschen trainiert wird. | |
## Wie verändern sich Ressentiments mit der Zeit? | |
Auch die Entscheidungsgrundlagen der Anwendung sollen vollkommen | |
offengelegt werden. Die Künstliche Intelligenz soll dabei später nicht nur | |
definieren können, dass es sich um Antisemitismus handelt – sondern auch | |
feststellen können, welche Stereotype und Sprachmuster bedient werden. Das | |
soll wiederum nicht nur zu einem weniger hasserfüllten Klima im Netz | |
beitragen, sondern spätere Beobachtungen dazu ermöglichen, wie sich | |
antisemitische Ressentiments und ihre Artikulation im Laufe der Zeit | |
verändern. | |
Am Ende soll das Tool in den Kommentarspalten von News-Websites zum Einsatz | |
kommen und auch bei Facebook, Twitter und Instagram ein Umdenken anregen – | |
vielleicht sogar direkt dort eingesetzt werden. Das ist wichtig, weil | |
Sprache Denkmuster schafft und so wiederum ein bestimmtes Handeln | |
hervorrufen kann, betont Becker. | |
Ambitionierte Projekte wie „Decoding Antisemitism“, die sich gleich David | |
gegen Goliath in den Ring wagen, um die großen Konzerne zum Nachjustieren | |
zu zwingen, machen Hoffnung auf Veränderung. Dass die Moderation auf | |
sozialen Plattformen jemals ganz in die Hände von Maschinen gelegt werden | |
kann, hält aber zumindest Kettemann für unwahrscheinlich: „Der Mensch ist | |
ein kommunikatives Wesen, wir entwickeln das Bild unseres Selbst erst in | |
den Augen der anderen. Solange die Menschen reden, werden sie also kreativ | |
sein – und solange sie kreativ sind, haben die Algorithmen ein Problem.“ | |
21 Jul 2021 | |
## LINKS | |
[1] /Hate-Speech/!t5221773 | |
[2] /Kuenstliche-Intelligenz/!5720691 | |
## AUTOREN | |
Arabella Wintermayr | |
## TAGS | |
Schwerpunkt Facebook | |
Hate Speech | |
Soziale Medien | |
künstliche Intelligenz | |
Algorithmus | |
GNS | |
Kommunalpolitik | |
Soziale Medien | |
Hasskriminalität | |
Soziale Netzwerke | |
künstliche Intelligenz | |
Schwerpunkt Rassismus | |
Realität | |
TikTok | |
Schwerpunkt Facebook | |
Hate Speech | |
## ARTIKEL ZUM THEMA | |
Instagram will unpolitisch werden: Subtile Botschaften | |
Der Meta-Konzern kündigt an, politische Inhalte auf seinen Plattformen | |
einzuschränken. Das wird zu einer noch subtileren politischen Kommunikation | |
führen. | |
Gewalt gegen Landtagsabgeordneten: Grünen zu Boden gerungen | |
Beschimpfungen ist der niedersächsische Landtagsabgeordnete Christian | |
Schroeder gewohnt, nun wurde er zum ersten Mal körperlich attackiert. | |
Medienforschung am Hans-Bredow-Institut: Interdisziplinäres Schritt halten | |
Das Hamburger Hans-Bredow-Institut erforscht, wie sich Medien über die Zeit | |
verändern und was das für Gesellschaft, Politik und Wirtschaft bedeutet. | |
Hass im Netz: Müder Kampf gegen Hasskriminalität | |
Nach einer Medienrecherche räumen Polizeibehörden Versäumnisse ein. | |
Forderungen nach besserer Ausstattung der Dienststellen werden laut. | |
Schätzung des Bundeskriminalamts: 150.000 Verfahren pro Jahr | |
Das BKA geht wegen des neuen Gesetzes gegen Hass im Netz von jährlich | |
150.000 Strafverfahren aus. Die neue Meldestelle geht im Februar an den | |
Start. | |
Twitter-KI diverser machen: Suche nach dem Superprogrammierer | |
Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber | |
reicht das am Ende, um die Diskriminierung zu stoppen? | |
KI-Ausstellung in München: Mensch trifft Maschine | |
Das Verhältnis des Menschen zum technischen Diener bleibt ambivalent. Eine | |
KI-Ausstellung in der Münchner Pinakothek der Moderne erörtert das. | |
Antisemitismus in Deutschland: Das Schweigen brechen | |
Der Hass gegen Jüdinnen:Juden in Deutschland lebt. Er zieht seine Fäden | |
durch die gesamte Gesellschaft – mal verhalten, mal ganz offen. | |
Sky-Serie „Ich und die Anderen“: Die Hölle, das sind die anderen | |
Die experimentelle Serie „Ich und die Anderen“ ergründet | |
existenzialistische Fragen. Die sechs Folgen feuern ein wahres | |
Dialogfeuerwerk ab. | |
Frauenhass auf TikTok: Ohne Respekt, ohne Kultur | |
Junge Frauen erleben besonders viel Hass in sozialen Netzwerken wie TikTok. | |
Antifeministen beleidigen systematisch alle, die ihr Weltbild bedrohen. | |
Klarnamenpflicht auf Plattformen: Wenn Dieter auf Facebook hetzt | |
Das Netzwerk Facebook darf Nutzer:innen Pseudonyme verbieten, urteilt ein | |
Gericht. Doch hält eine Klarnamenpflicht von Hasspostings ab? | |
Gesetze gegen Hate Speech: Digitale Internationale | |
Wer gegen illegale Inhalte in sozialen Medien vorgehen möchte, muss | |
international agieren. Das funktioniert bisher noch nicht einmal in Europa. |