Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Verschwörungstheorien auf YouTube: Mit jedem Klick weiter nach rec…
> Vielen Forschern gilt YouTube als Radikalisierer, der Nutzer auf kurzen
> Wegen zu Rassismus und Verschwörungstheorien lenkt. Stimmt das?
Bild: Über YouTube radikalisiert? Rechte Demonstranten in Chemnitz
Gerade einmal zwei Klicks brauchte es, um auf YouTube knietief irgendwo
zwischen AfD und rechten Verschwörungstheorien zu landen. Wenige Tage nach
[1][den Hetzjagden von Chemnitz] war es, als Ray Serrato das herausfand. Er
sei von diesem Ergebnis seiner Datenanalyse schon „etwas schockiert“
gewesen, sagt er.
Der in Berlin lebende Datenanalyst war über den Onkel seiner Frau auf ein
YouTube-Video gestoßen, in dem zwei Männer so ziemlich jede
Falschinformation austauschen, die rund um den Tod von Daniel H. damals
kursierten. Binnen weniger Tage kam das Video auf über eine halbe Million
Klicks – das sind ungewöhnlich viele für einen Clip des Leipziger
YouTube-Kanals NuoViso. Ähnlich erfolgreich laufen dort nur Videos darüber,
wie Stanley Kubrick die Mondlandung fingierte oder was mit den Türmen des
World Trade Centers tatsächlich geschah.
Serratos Analysen sagen, dass die meisten YouTube-Videos zu Chemnitz, die
in den Tagen nach den Ausschreitungen populär waren, stramm rechts waren.
Und dass in der Empfehlungsspalte, die auf YouTube rechts neben dem Video
auftaucht, auch dann schnell Verschwörungstheoretisches und Rechtsextremes
vorgeschlagen wurde, wenn man eigentlich nur nach Nachrichten zu Chemnitz
gesucht hat.
Überraschend kommt das nicht. Mehrere US-Forscher haben darauf hingewiesen,
dass YouTubes Empfehlungen seine Nutzer zu immer extremeren Inhalten
führen. Vor allem: politisch immer weiter nach rechts.
## Intime Beziehung
Die US-Techniksoziologin Zeynep Tufekci von der University of North
Carolina bemerkte, dass YouTube ihr nach Trump-Videos immer radikalere
Inhalte vorschlug. Videos von linken US-Politikern wie Sanders und Clinton
führten sie zu linken Verschwörungstheorien. Videos über Jogging zu
Ultra-Marathons.
Die drittpopulärste Seite der Welt, die seine Nutzer ständig in Extreme
führt. YouTube könne „eines der mächtigsten Radikalisierungswerkzeuge des
21. Jahrhunderts“ werden, analysierte Tufekci. Besonders gefährlich sei
das, weil viele junge Menschen dort nach Informationen suchten.
YouTube, das sind knapp 2 Milliarden Nutzer in mehr als 190 Ländern. Es
wächst doppelt so schnell wie Facebook und wird von der großen Mehrheit
junger Menschen in Deutschland mehrmals täglich genutzt. [2][YouTube-Stars
haben es perfektioniert, mit direkter Ansprache] eine scheinbar direkte,
intime Beziehung mit ihren ZuschauerInnen zu führen. Läuft es gut, folgen
ihnen ergebene Fans zu Tausenden, werden sie Wortführer in einem
Mikrokosmos, während die breite Öffentlichkeit nicht mal ihre Namen kennt
Viel Geld gibt es da zu verdienen, aber eben auch Einfluss – in einem
Universum, in dem jede Minute 400 Stunden Videomaterial hinzugefügt werden.
## Lügende Populisten
Fast jeder kennt doch den Sog, den YouTube entfalten kann: ein Video, noch
eins, noch eins. Und 90 Minuten später erwacht man wie aus einer Hypnose,
überrascht, wohin man nun schon wieder abgedriftet ist. YouTubes
Algorithmen machen das möglich, verführen uns mit Auto-Play und
Empfehlungen, so lange wie irgend möglich auf der Seite zu bleiben. Denn so
verdient YouTube Geld, indem es unsere Aufmerksamkeit verkauft. An
Werbekunden.
YouTube, das sind für viele noch immer Musikvideos, das ist Unterhaltung:
jungerwachsene Gamer und Schminkspezialistinnen. YouTube, das sind aber
auch Videos, in denen Populisten lügen, Hetzer schreien und Menschen
sterben. [3][Wird über Hass und Hetze und Falschinformationen im Netz
gesprochen,] geht es dennoch meist um Facebook.
Vielleicht noch um Twitter, weil Forscher deren Daten so schön auswerten
können. YouTube wird, wenn überhaupt, nur am Rande mitbesprochen.
Gigantisch und doch merkwürdig unterbelichtet. Ein Fehler?
Jonas Kaiser widerspricht Tufekcis Rede von YouTube als großem
Radikalisierer. „Für diese These gibt es keine belastbare Forschung“, sagt
er. „Meines Erachtens schießt sie über das Ziel hinaus.“ Auch er erforsch…
was YouTube seinen Nutzern empfiehlt – am von Google anschubfinanzierten
Humboldt Institut für Internet und Gesellschaft in Berlin und derzeit am
Berkman Center in Harvard.
## Rechte Filterblasen
Wie Tufekcis Experimente stützten sich auch viele andere Analysen auf
anekdotische Beweise, kritisiert er. „Es ist nicht verwunderlich, dass auf
YouTube viele rechte und verschwörungstheoretische Inhalte empfohlen werden
– weil es davon einfach besonders viel Content gibt“, sagt er.
Hinzu kommt: Wer Nazivideos anschaut, wird natürlich nicht automatisch
Nazi. Jonas Kaiser sagt, man müsse hinterfragen, wer diese Videos suche und
anschaue. Denn: Selbst wenn die Zahl der Aufrufe eines Videos hoch sei,
sage das doch wenig darüber aus, wie diese Videos wahrgenommen würden.
Extremisten würden die wenigsten, weil sie sich ein paar Videos auf YouTube
angesehen hätten. Das funktioniere eher über persönliche Kontakte, Chats.
Auch Kaisers gemeinsam mit einem Kollegen erarbeitete Analysen haben
ergeben, dass YouTube bei Suchen zu Politik rechte Kanäle bevorzugt
empfehle. Dass der [4][Weg etwa von AfD zu Identitären kurz sei,] Nutzer
schnell in rechte Filterblasen rutschten. „Wir wissen aber nicht, was ist
die Henne und was das Ei“, sagt er und meint damit: ob dieser Effekt auf
YouTubes Algorithmen zurückgeht oder auf die Klicks der Nutzer.
YouTubes Algorithmen analysieren, was in der Vergangenheit die Nutzer
möglichst lange auf den Seiten gehalten hat. Wer Eulen-Videos schaut,
klickt auch Igel-Content? Merken! [5][Verschwörungstheoretisches über den
11. September läuft gut?] Häufiger anbieten. Die Erklärung für den
Rechtsdrall in den Empfehlungen könnte also ganz einfach sein: YouTubes
lernende Maschinen bieten immer radikalere Videos feil, weil das bei diesem
Nutzer oder bei vielen anderen, ihm ähnlichen Nutzern zieht.
## Große Macht
Nur: Worauf genau YouTubes Algorithmen anspringen, was ihre Auswahl
beeinflusst, lässt das Unternehmen weitgehend im Unklaren. „Das Ziel
unserer Empfehlungen ist es, den Menschen Videos anzubieten, die sie mit
der Erfahrung auf YouTube zufrieden machen“, ist YouTubes
Standardreaktion auf Vorwürfe zu ihren Empfehlungsalgorithmen. „Milliarden
Signale“ würden eine Rolle dabei spielen, was einem Nutzer angeboten werde,
schreibt YouTube in einem Pressestatement weiter: Likes und Dislikes würden
eine Rolle spielen, das Teilen des Videos oder andere Interaktionen mit den
Inhalten.
Konkreter wird’s nicht, weil: Das Wirken ihrer Algorithmen ist, wie bei den
anderen Tech-Plattformen auch, Geschäftsgeheimnis. „Wir legen das aus einem
guten Grund nicht offen“, sagt der deutsche YouTube-Sprecher Henning
Dorstewitz. „Weil manche Leute sofort anfangen würden, das auszutricksen.“
Datenanalysten wie Ray Serrato probieren, Diensten wie YouTube trotzdem
unter die Motorhaube zu blicken. Für die Vereinten Nationen hat er
analysiert, wie Hassrede bei Facebook Völkermord und Vertreibung der
Rohingya in Myanmar befeuerte. „Auch wenn Facebook das nicht so designt
hat, ist es doch verantwortlich dafür, wie seine Plattform genutzt wurde.
Und bei YouTube ist es genauso: Auch hier gibt es eine Verantwortung dafür,
Leute in Richtung von extremistischem Content zu stupsen.“
Spätestens seit der US-Wahl 2016 wird über diese Verantwortung von
Social-Media-Plattformen gestritten. Was sie auffindbar machen, findet den
Weg zu Nutzern. Darin wohnt große Macht und damit große Verantwortung.
YouTube, Facebook und wie sie alle heißen, haben sich lange gesträubt,
diese anzunehmen. Öffentlicher Druck erzeugt jetzt zumindest minimale
Bewegungen.
## Nachrichten sortieren
„Heute geht es uns primär darum, die Qualität des Nutzerlebnisses zu
verbessern“, sagt YouTube-Sprecher Dorstewitz, „und nicht darum, immer noch
schockierendere Inhalte anzuzeigen.“ Doch ob ein Inhalt gemäßigt oder
extrem sei, das könne ein Algorithmus noch nicht erkennen.
Seit dem 11. September dieses Jahres hat YouTube auch in Deutschland zwei
Funktionen eingeführt, die die Empfehlungen bei Nachrichtenthemen
beeinflussen. „Breaking News“ soll dabei helfen, Falschmeldungen und
unseriöse Nachrichtenquellen bei aktuellen Großereignissen weniger
prominent anzuzeigen, „Top News“ sortieren nach der gleichen Logik
Nachrichten auch dann noch, wenn die Aktualität etwas abgeebbt ist.
In beiden Fällen gelten als seriöse Quellen, was auch bei Google News
gelistet ist – gehören doch YouTube und Google zum Alphabet-Konzern. Als
Nachrichtenereignis werden Themen laut Dorstewitz automatisch ausgewählt –
etwa, wenn auf Google News auffällig viele Texte in kurzer Zeit zum Thema
erscheinen. In den USA ist das Feature bereits seit Juli aktiv.
Sucht man heute auf YouTube nach Chemnitz, erscheinen Videos von Medien wie
Welt, Bild, „Tagesschau“ und MDR – und auch ein Klick weiter triggert kei…
Empfehlungen aus dem scharf rechten Spektrum.
## Nur Flickschusterei?
„Das ist ein großartiger Schritt von YouTube“, sagt Chemnitz-Datenanalyst
Serrato – wobei natürlich diskutiert werden wird, was eine seriöse Quelle
ist, Forscher und Gesellschaft die Veränderungen genau beobachten müssten.
Forscher Jonas Kaiser ist skeptischer. „Das ändert erst einmal nichts an
den rechten Blasen auf YouTube“, sagt er. Man müsse schauen, ob das
wirklich dazu führt, dass rechtsextreme und verschwörungstheoretische
Videos weniger geschaut werden.
Genügt dieser Eingriff von YouTube? Ist er mehr als Flickschusterei an
einem System aus Empfehlungsalgorithmen, das seinen riesigen Anforderungen
nicht mehr gewachsen ist?
Die neuen Features funktionieren bei Nachrichtenereignissen. Forscher
Kaiser weist allerdings auch darauf hin, dass die Abrufzahlen, auf die
Let’s-Play- oder Fitness-YouTuber kommen, die Abrufzahlen der meisten
Videos zu politischen Ereignissen deutlich in den Schatten stellen.
Nachrichten suchten gerade einmal 10 Prozent aller YouTube-Nutzer in
Deutschland, sagt Kaiser: „Da kann man schon darüber streiten, wie relevant
das tatsächlich ist.“
13 Oct 2018
## LINKS
[1] /Faktenlage-nach-Maassens-Behauptung/!5531208
[2] /Kampagne-gegen-Hate-Speech/!5506991
[3] /Dokumentation-ueber-Hater-und-Trolle/!5502269
[4] /Identitaeren-Kader-als-AfD-Mitarbeiter/!5498788
[5] /Essay-ueber-die-Folgen-von-9/11/!5532897
## AUTOREN
Meike Laaff
## TAGS
Youtube
Hassrede
Verschwörungsmythen und Corona
Filterblase
Algorithmus
Chemnitz
Internetnutzung
Computerspiel
Donald Trump
Social Media
Youtube
Lesestück Interview
Hate Speech
Hate Speech
## ARTIKEL ZUM THEMA
YouTube-Nutzung bei Jugendlichen: Erklär's mir auf YouTube
Die Hälfte der Jugendlichen nutzt die Videoplattform zum Lernen und
Recherchieren, ergibt eine Befragung. Schlimm ist das nur, wenn man's
ignoriert.
Sexismus bei Computerspielern: Rache des Gamer-Stars
Frauen zu diskriminieren ist in der Computerspielszene Alltag. Wer darauf
hinweist, wird schnell zum Ziel von Hasskampagnen.
Trump-Hetze gegen Medien: Immer häufiger wird zugeschlagen
US-Präsident Donald Trump attackiert bevorzugt Medien. Inzwischen bekommen
oft Lokaljournalisten die angefachte Wut zu spüren.
Nicht-lineare Shows für Streamingportale: Eventfernsehen auf Abruf
Auch auf Streamingportalen werden bald Show- und Entertainmentformate zu
sehen sein. Nähern sie sich immer mehr den klassischen Sendern an?
Löschvorgänge bei YouTube: Mit Filtern gegen Kinderpornos
Vor gut einem Jahr wurde das NetzDG eingeführt. Für Youtube hat sich wenig
geändert. Dort löscht man Videos vor allem aus einem Grund.
Fake-News-Kampagnen von Rechts: „Das sind gezielte Angriffe“
Extremismusforscherin Julia Ebner untersucht, wie Rechtsextreme
Falschinformationen im Netz verbreiten. Ein Gespräch über Chemnitz, Köthen
und #meTwo.
Dokumentation über Hater und Trolle: Hass im Netz ist militärisch organisiert
Trolle und rechte Hetzer sind im Netz gut aufgestellt. Eine neue Doku zeigt
militärische Strukturen und Böhmermann gründet eine Gegenoffensive.
Yahoo kämpft gegen Hate Speech: „… sie erschießen …“
Yahoo will Hasskommentare löschen, ohne dabei unverfängliche Posts zu
erwischen. Noch hat die Technik aber Grenzen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.