| # taz.de -- Hate Speech im Netz: Wenn Maschinen moderieren | |
| > Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden | |
| > ist oft frustrierend – denn hinter den Entscheidungen stecken | |
| > Algorithmen. | |
| Bild: Facebook-Rechenzentrum in Luleå in Schweden | |
| [1][Beleidigungen und Schmähungen im Internet] sind ein wachsendes Problem. | |
| Mit 94 Prozent gab 2020 die überwältigende Mehrheit der Nutzer*innen im | |
| Alter von 14 bis 24 Jahren an, bereits Hass im Netz erlebt zu haben. Wie | |
| die Forsa-Umfrage zu Hassrede im Netz ebenfalls herausfand, melden immer | |
| mehr Menschen entsprechende Kommentare: Waren es 2015 nur 34 Prozent der | |
| Befragten, so stieg die Zahl 2020 mit 67 beinahe auf das Doppelte an. | |
| Doch was danach passiert, ist für viele Nutzer*innen der großen sozialen | |
| Plattformen wie Facebook und Twitter oft ärgerlich: Während oft eigentlich | |
| unbedenkliche Inhalte aufgrund von bestimmten Schlagwörtern gelöscht | |
| werden, können tatsächliche Beschimpfungen eine solche umgehen, | |
| insbesondere wenn sie subtiler ausfallen. | |
| Ein Grund dafür ist, dass die Moderation von Beiträgen und Kommentaren | |
| gerade bei besonders mitgliederstarken Netzwerken oft nicht mehr von | |
| Menschen, [2][sondern Künstlicher Intelligenz übernommen wird]. „KI ist | |
| schwach darin, sinnerfassend Texte zu verstehen. Subtilen Humor, Slang oder | |
| selbstermächtigte Sprache kann sie nicht begreifen. Sie erkennt den | |
| Beschimpfungskontext nicht“, erklärt Matthias C. Kettemann. | |
| Er ist Forschungsprogrammleiter des internationalen Projektes „Ethik der | |
| Digitalisierung – Von Prinzipien zu Praktiken“ unter der Schirmherrschaft | |
| von Bundespräsident Frank-Walter Steinmeier, das vom Alexander von Humboldt | |
| Institut für Internet und Gesellschaft (HIIG) initiiert wurde. An der | |
| Forschung beteiligt sind außerdem das Berkman Klein Center an der Harvard | |
| University, der Digital Asia Hub und das Leibniz-Institut für | |
| Medienforschung. | |
| ## Künstliche Intelligenz ermittelt Straftatbestand | |
| Um der Flut an Hetze etwas entgegenzusetzen, ist erst im April ein | |
| Gesetzespaket gegen Hasskriminalität in Kraft getreten, das härtere Strafen | |
| für Beleidigungen im Internet (bis zu zwei Jahre Haft) sowie bei Mord- und | |
| Vergewaltigungsdrohungen (bis zu drei Jahre Haft) vorsieht. Darüber hinaus | |
| sind die sozialen Plattformen dazu verpflichtet worden, volksverhetzende | |
| Äußerungen und andere strafbare Inhalte künftig nicht nur zu löschen, | |
| sondern außerdem zu melden. Beim Bundeskriminalamt soll dafür eigens eine | |
| Zentralstelle eingerichtet werden. | |
| Auch wegen dieser Verpflichtung ist die Notwendigkeit zum Einsatz von | |
| Künstlicher Intelligenz, die strafrechtlich relevante Fälle von Hassrede | |
| erkennt, deutlicher geworden. Kettemann sieht diese Entwicklung allerdings | |
| skeptisch: „Es ist sehr schwierig, Inhalte einem bestimmten Straftatbestand | |
| zuzuordnen. Selbst Juristinnen und Juristen müssen jahrelang studieren, | |
| damit sie in der Lage sind, das zu tun. Eine Künstliche Intelligenz kann | |
| das nur sehr unscharf. Eine solche Verpflichtung zur Meldung ist | |
| problematisch, weil es sehr viel Beifang geben wird.“ | |
| Bereits während der Pandemie, als ein Großteil der Belegschaft ins | |
| Homeoffice geschickt werden musste, haben die großen Plattformen damit | |
| begonnen, den Einsatz von Algorithmen bei der Moderation von Beiträgen und | |
| Kommentaren drastisch zu erhöhen – und damit verdoppelte sich etwa bei | |
| Facebook in der zweiten Jahreshälfte 2020 tatsächlich auch die Menge des | |
| entfernten Materials. | |
| Während die Algorithmen insgesamt wesentlich großzügiger aussortierten, | |
| nahm die Zahl der gelöschten Inhalte jedoch ausgerechnet in besonders | |
| sensiblen Bereichen – wie Nacktheit und Missbrauch von Kindern – wiederum | |
| stark ab, wie aus dem Transparenzbericht des Konzerns hervorgeht. | |
| Ein Hauptproblem in der Moderationspraxis sieht Kettemann darin, dass die | |
| Plattformen weiterhin nicht offenlegen, nach welchen Kriterien Löschungen | |
| vorgenommen werden oder über die genauen Funktionsweisen der Algorithmen | |
| aufklären: „Die Autonomie und Würde des Einzelnen muss im Fokus stehen. | |
| Menschen dürfen nicht einfach Entscheidungen unterworfen werden, die sie | |
| nicht verstehen. Das führt zu diffusen Gefühlen der Ohnmacht, die zu ebenso | |
| diffusen Ausbrüchen gegen „die Medien“ oder „die Politik“ führen. Wir | |
| plädieren deswegen beispielsweise für Infoboxen, die die Nutzerinnen und | |
| Nutzer darüber aufklären, wie die Algorithmen funktionieren.“ | |
| Die im Juni in Kraft getretene Reform des Netzwerkdurchsetzungsgesetzes | |
| („NetzDG“), wonach zumindest Forscher*innen von den | |
| Plattform-Betreiber*innen nun im öffentlichen Interesse Auskünfte über | |
| Einsatz und Wirkweise von Verfahren zur automatisierten Erkennung von | |
| Inhalten, die entfernt oder gesperrt werden sollen, einholen können, könnte | |
| ein erster Schritt zu mehr Transparenz sein. | |
| ## Neues Tool „Decoding Antisemitism“ | |
| Immerhin ist auch ein sogenanntes Gegenvorstellungsverfahren vorgesehen, | |
| in dem Nutzer*innen die Überprüfung von Moderationsentscheidungen | |
| einfordern können. Die Betreiber*innen müssen dann eine Begründung für | |
| ihr Urteil liefern. Eine Offenlegung der genauen Funktionsweisen der | |
| Künstlichen Intelligenz ist nicht vorgesehen. | |
| Erhebliche Missstände beim Einsatz von automatisierter Moderation auf den | |
| sozialen Plattformen sieht auch Matthias J. Becker, der Transparenz als | |
| eine zentrale Priorität des von ihm geleiteten Projektes „Decoding | |
| Antisemitism“ betrachtet. Das von der Alfred Landecker Foundation, dem | |
| Zentrum für Antisemitismusforschung der Technischen Universität Berlin und | |
| dem King’s College London entwickelte Forschungsvorhaben soll der | |
| Unfähigkeit der bislang verwendeten Algorithmen zur Erkennung von Hassrede | |
| ein wirksames, smarteres Moderationstool entgegensetzen: | |
| „Die Suche der verwendeten Algorithmen nach verbalem Antisemitismus | |
| funktioniert schon fast nach einem schablonenhaften Muster, das stets mit | |
| dem Ausdruck von Emotionen verbunden ist. Dabei weiß jeder, der in der | |
| Antisemitismusforschung tätig ist, dass die Reproduktion von Stereotypen | |
| auch ohne Gefühlsausdrücke auskommt. Jemand kann ein bestimmtes Vorurteil | |
| gegenüber jüdischen Personen vorbringen, ohne die zugrundeliegende | |
| Vorstellung in explizite Worte zu gießen oder dabei Hass, Argwohn oder Ekel | |
| zum Ausdruck zu bringen.“ | |
| Derzeit untersuchen Forscher*innen in Deutschland, Frankreich und | |
| Großbritannien, wie judenfeindliche Stereotype versprachlicht werden. Das | |
| geplante Tool soll später in der Lage sein, besonders impliziten | |
| Antisemitismus zu erkennen. Wichtig ist Becker dabei vor allem, dass der | |
| Algorithmus ausführlich getestet und von Menschen trainiert wird. | |
| ## Wie verändern sich Ressentiments mit der Zeit? | |
| Auch die Entscheidungsgrundlagen der Anwendung sollen vollkommen | |
| offengelegt werden. Die Künstliche Intelligenz soll dabei später nicht nur | |
| definieren können, dass es sich um Antisemitismus handelt – sondern auch | |
| feststellen können, welche Stereotype und Sprachmuster bedient werden. Das | |
| soll wiederum nicht nur zu einem weniger hasserfüllten Klima im Netz | |
| beitragen, sondern spätere Beobachtungen dazu ermöglichen, wie sich | |
| antisemitische Ressentiments und ihre Artikulation im Laufe der Zeit | |
| verändern. | |
| Am Ende soll das Tool in den Kommentarspalten von News-Websites zum Einsatz | |
| kommen und auch bei Facebook, Twitter und Instagram ein Umdenken anregen – | |
| vielleicht sogar direkt dort eingesetzt werden. Das ist wichtig, weil | |
| Sprache Denkmuster schafft und so wiederum ein bestimmtes Handeln | |
| hervorrufen kann, betont Becker. | |
| Ambitionierte Projekte wie „Decoding Antisemitism“, die sich gleich David | |
| gegen Goliath in den Ring wagen, um die großen Konzerne zum Nachjustieren | |
| zu zwingen, machen Hoffnung auf Veränderung. Dass die Moderation auf | |
| sozialen Plattformen jemals ganz in die Hände von Maschinen gelegt werden | |
| kann, hält aber zumindest Kettemann für unwahrscheinlich: „Der Mensch ist | |
| ein kommunikatives Wesen, wir entwickeln das Bild unseres Selbst erst in | |
| den Augen der anderen. Solange die Menschen reden, werden sie also kreativ | |
| sein – und solange sie kreativ sind, haben die Algorithmen ein Problem.“ | |
| 21 Jul 2021 | |
| ## LINKS | |
| [1] /Hate-Speech/!t5221773 | |
| [2] /Kuenstliche-Intelligenz/!5720691 | |
| ## AUTOREN | |
| Arabella Wintermayr | |
| ## TAGS | |
| Soziale Medien | |
| Schwerpunkt Meta | |
| GNS | |
| Hate Speech | |
| Schwerpunkt Künstliche Intelligenz | |
| Algorithmus | |
| IG | |
| Gewalt | |
| Soziale Medien | |
| Hasskriminalität | |
| Soziale Netzwerke | |
| Diversität | |
| Ausstellung | |
| Schwerpunkt Rassismus | |
| Realität | |
| TikTok | |
| Schwerpunkt Meta | |
| Hate Speech | |
| ## ARTIKEL ZUM THEMA | |
| Instagram will unpolitisch werden: Subtile Botschaften | |
| Der Meta-Konzern kündigt an, politische Inhalte auf seinen Plattformen | |
| einzuschränken. Das wird zu einer noch subtileren politischen Kommunikation | |
| führen. | |
| Gewalt gegen Landtagsabgeordneten: Grünen zu Boden gerungen | |
| Beschimpfungen ist der niedersächsische Landtagsabgeordnete Christian | |
| Schroeder gewohnt, nun wurde er zum ersten Mal körperlich attackiert. | |
| Medienforschung am Hans-Bredow-Institut: Interdisziplinäres Schritt halten | |
| Das Hamburger Hans-Bredow-Institut erforscht, wie sich Medien über die Zeit | |
| verändern und was das für Gesellschaft, Politik und Wirtschaft bedeutet. | |
| Hass im Netz: Müder Kampf gegen Hasskriminalität | |
| Nach einer Medienrecherche räumen Polizeibehörden Versäumnisse ein. | |
| Forderungen nach besserer Ausstattung der Dienststellen werden laut. | |
| Schätzung des Bundeskriminalamts: 150.000 Verfahren pro Jahr | |
| Das BKA geht wegen des neuen Gesetzes gegen Hass im Netz von jährlich | |
| 150.000 Strafverfahren aus. Die neue Meldestelle geht im Februar an den | |
| Start. | |
| Twitter-KI diverser machen: Suche nach dem Superprogrammierer | |
| Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber | |
| reicht das am Ende, um die Diskriminierung zu stoppen? | |
| KI-Ausstellung in München: Mensch trifft Maschine | |
| Das Verhältnis des Menschen zum technischen Diener bleibt ambivalent. Eine | |
| KI-Ausstellung in der Münchner Pinakothek der Moderne erörtert das. | |
| Antisemitismus in Deutschland: Das Schweigen brechen | |
| Der Hass gegen Jüdinnen:Juden in Deutschland lebt. Er zieht seine Fäden | |
| durch die gesamte Gesellschaft – mal verhalten, mal ganz offen. | |
| Sky-Serie „Ich und die Anderen“: Die Hölle, das sind die anderen | |
| Die experimentelle Serie „Ich und die Anderen“ ergründet | |
| existenzialistische Fragen. Die sechs Folgen feuern ein wahres | |
| Dialogfeuerwerk ab. | |
| Frauenhass auf TikTok: Ohne Respekt, ohne Kultur | |
| Junge Frauen erleben besonders viel Hass in sozialen Netzwerken wie TikTok. | |
| Antifeministen beleidigen systematisch alle, die ihr Weltbild bedrohen. | |
| Klarnamenpflicht auf Plattformen: Wenn Dieter auf Facebook hetzt | |
| Das Netzwerk Facebook darf Nutzer:innen Pseudonyme verbieten, urteilt ein | |
| Gericht. Doch hält eine Klarnamenpflicht von Hasspostings ab? | |
| Gesetze gegen Hate Speech: Digitale Internationale | |
| Wer gegen illegale Inhalte in sozialen Medien vorgehen möchte, muss | |
| international agieren. Das funktioniert bisher noch nicht einmal in Europa. |