# taz.de -- Verschwörungstheorien auf YouTube: Mit jedem Klick weiter nach rec… | |
> Vielen Forschern gilt YouTube als Radikalisierer, der Nutzer auf kurzen | |
> Wegen zu Rassismus und Verschwörungstheorien lenkt. Stimmt das? | |
Bild: Über YouTube radikalisiert? Rechte Demonstranten in Chemnitz | |
Gerade einmal zwei Klicks brauchte es, um auf YouTube knietief irgendwo | |
zwischen AfD und rechten Verschwörungstheorien zu landen. Wenige Tage nach | |
[1][den Hetzjagden von Chemnitz] war es, als Ray Serrato das herausfand. Er | |
sei von diesem Ergebnis seiner Datenanalyse schon „etwas schockiert“ | |
gewesen, sagt er. | |
Der in Berlin lebende Datenanalyst war über den Onkel seiner Frau auf ein | |
YouTube-Video gestoßen, in dem zwei Männer so ziemlich jede | |
Falschinformation austauschen, die rund um den Tod von Daniel H. damals | |
kursierten. Binnen weniger Tage kam das Video auf über eine halbe Million | |
Klicks – das sind ungewöhnlich viele für einen Clip des Leipziger | |
YouTube-Kanals NuoViso. Ähnlich erfolgreich laufen dort nur Videos darüber, | |
wie Stanley Kubrick die Mondlandung fingierte oder was mit den Türmen des | |
World Trade Centers tatsächlich geschah. | |
Serratos Analysen sagen, dass die meisten YouTube-Videos zu Chemnitz, die | |
in den Tagen nach den Ausschreitungen populär waren, stramm rechts waren. | |
Und dass in der Empfehlungsspalte, die auf YouTube rechts neben dem Video | |
auftaucht, auch dann schnell Verschwörungstheoretisches und Rechtsextremes | |
vorgeschlagen wurde, wenn man eigentlich nur nach Nachrichten zu Chemnitz | |
gesucht hat. | |
Überraschend kommt das nicht. Mehrere US-Forscher haben darauf hingewiesen, | |
dass YouTubes Empfehlungen seine Nutzer zu immer extremeren Inhalten | |
führen. Vor allem: politisch immer weiter nach rechts. | |
## Intime Beziehung | |
Die US-Techniksoziologin Zeynep Tufekci von der University of North | |
Carolina bemerkte, dass YouTube ihr nach Trump-Videos immer radikalere | |
Inhalte vorschlug. Videos von linken US-Politikern wie Sanders und Clinton | |
führten sie zu linken Verschwörungstheorien. Videos über Jogging zu | |
Ultra-Marathons. | |
Die drittpopulärste Seite der Welt, die seine Nutzer ständig in Extreme | |
führt. YouTube könne „eines der mächtigsten Radikalisierungswerkzeuge des | |
21. Jahrhunderts“ werden, analysierte Tufekci. Besonders gefährlich sei | |
das, weil viele junge Menschen dort nach Informationen suchten. | |
YouTube, das sind knapp 2 Milliarden Nutzer in mehr als 190 Ländern. Es | |
wächst doppelt so schnell wie Facebook und wird von der großen Mehrheit | |
junger Menschen in Deutschland mehrmals täglich genutzt. [2][YouTube-Stars | |
haben es perfektioniert, mit direkter Ansprache] eine scheinbar direkte, | |
intime Beziehung mit ihren ZuschauerInnen zu führen. Läuft es gut, folgen | |
ihnen ergebene Fans zu Tausenden, werden sie Wortführer in einem | |
Mikrokosmos, während die breite Öffentlichkeit nicht mal ihre Namen kennt | |
Viel Geld gibt es da zu verdienen, aber eben auch Einfluss – in einem | |
Universum, in dem jede Minute 400 Stunden Videomaterial hinzugefügt werden. | |
## Lügende Populisten | |
Fast jeder kennt doch den Sog, den YouTube entfalten kann: ein Video, noch | |
eins, noch eins. Und 90 Minuten später erwacht man wie aus einer Hypnose, | |
überrascht, wohin man nun schon wieder abgedriftet ist. YouTubes | |
Algorithmen machen das möglich, verführen uns mit Auto-Play und | |
Empfehlungen, so lange wie irgend möglich auf der Seite zu bleiben. Denn so | |
verdient YouTube Geld, indem es unsere Aufmerksamkeit verkauft. An | |
Werbekunden. | |
YouTube, das sind für viele noch immer Musikvideos, das ist Unterhaltung: | |
jungerwachsene Gamer und Schminkspezialistinnen. YouTube, das sind aber | |
auch Videos, in denen Populisten lügen, Hetzer schreien und Menschen | |
sterben. [3][Wird über Hass und Hetze und Falschinformationen im Netz | |
gesprochen,] geht es dennoch meist um Facebook. | |
Vielleicht noch um Twitter, weil Forscher deren Daten so schön auswerten | |
können. YouTube wird, wenn überhaupt, nur am Rande mitbesprochen. | |
Gigantisch und doch merkwürdig unterbelichtet. Ein Fehler? | |
Jonas Kaiser widerspricht Tufekcis Rede von YouTube als großem | |
Radikalisierer. „Für diese These gibt es keine belastbare Forschung“, sagt | |
er. „Meines Erachtens schießt sie über das Ziel hinaus.“ Auch er erforsch… | |
was YouTube seinen Nutzern empfiehlt – am von Google anschubfinanzierten | |
Humboldt Institut für Internet und Gesellschaft in Berlin und derzeit am | |
Berkman Center in Harvard. | |
## Rechte Filterblasen | |
Wie Tufekcis Experimente stützten sich auch viele andere Analysen auf | |
anekdotische Beweise, kritisiert er. „Es ist nicht verwunderlich, dass auf | |
YouTube viele rechte und verschwörungstheoretische Inhalte empfohlen werden | |
– weil es davon einfach besonders viel Content gibt“, sagt er. | |
Hinzu kommt: Wer Nazivideos anschaut, wird natürlich nicht automatisch | |
Nazi. Jonas Kaiser sagt, man müsse hinterfragen, wer diese Videos suche und | |
anschaue. Denn: Selbst wenn die Zahl der Aufrufe eines Videos hoch sei, | |
sage das doch wenig darüber aus, wie diese Videos wahrgenommen würden. | |
Extremisten würden die wenigsten, weil sie sich ein paar Videos auf YouTube | |
angesehen hätten. Das funktioniere eher über persönliche Kontakte, Chats. | |
Auch Kaisers gemeinsam mit einem Kollegen erarbeitete Analysen haben | |
ergeben, dass YouTube bei Suchen zu Politik rechte Kanäle bevorzugt | |
empfehle. Dass der [4][Weg etwa von AfD zu Identitären kurz sei,] Nutzer | |
schnell in rechte Filterblasen rutschten. „Wir wissen aber nicht, was ist | |
die Henne und was das Ei“, sagt er und meint damit: ob dieser Effekt auf | |
YouTubes Algorithmen zurückgeht oder auf die Klicks der Nutzer. | |
YouTubes Algorithmen analysieren, was in der Vergangenheit die Nutzer | |
möglichst lange auf den Seiten gehalten hat. Wer Eulen-Videos schaut, | |
klickt auch Igel-Content? Merken! [5][Verschwörungstheoretisches über den | |
11. September läuft gut?] Häufiger anbieten. Die Erklärung für den | |
Rechtsdrall in den Empfehlungen könnte also ganz einfach sein: YouTubes | |
lernende Maschinen bieten immer radikalere Videos feil, weil das bei diesem | |
Nutzer oder bei vielen anderen, ihm ähnlichen Nutzern zieht. | |
## Große Macht | |
Nur: Worauf genau YouTubes Algorithmen anspringen, was ihre Auswahl | |
beeinflusst, lässt das Unternehmen weitgehend im Unklaren. „Das Ziel | |
unserer Empfehlungen ist es, den Menschen Videos anzubieten, die sie mit | |
der Erfahrung auf YouTube zufrieden machen“, ist YouTubes | |
Standardreaktion auf Vorwürfe zu ihren Empfehlungsalgorithmen. „Milliarden | |
Signale“ würden eine Rolle dabei spielen, was einem Nutzer angeboten werde, | |
schreibt YouTube in einem Pressestatement weiter: Likes und Dislikes würden | |
eine Rolle spielen, das Teilen des Videos oder andere Interaktionen mit den | |
Inhalten. | |
Konkreter wird’s nicht, weil: Das Wirken ihrer Algorithmen ist, wie bei den | |
anderen Tech-Plattformen auch, Geschäftsgeheimnis. „Wir legen das aus einem | |
guten Grund nicht offen“, sagt der deutsche YouTube-Sprecher Henning | |
Dorstewitz. „Weil manche Leute sofort anfangen würden, das auszutricksen.“ | |
Datenanalysten wie Ray Serrato probieren, Diensten wie YouTube trotzdem | |
unter die Motorhaube zu blicken. Für die Vereinten Nationen hat er | |
analysiert, wie Hassrede bei Facebook Völkermord und Vertreibung der | |
Rohingya in Myanmar befeuerte. „Auch wenn Facebook das nicht so designt | |
hat, ist es doch verantwortlich dafür, wie seine Plattform genutzt wurde. | |
Und bei YouTube ist es genauso: Auch hier gibt es eine Verantwortung dafür, | |
Leute in Richtung von extremistischem Content zu stupsen.“ | |
Spätestens seit der US-Wahl 2016 wird über diese Verantwortung von | |
Social-Media-Plattformen gestritten. Was sie auffindbar machen, findet den | |
Weg zu Nutzern. Darin wohnt große Macht und damit große Verantwortung. | |
YouTube, Facebook und wie sie alle heißen, haben sich lange gesträubt, | |
diese anzunehmen. Öffentlicher Druck erzeugt jetzt zumindest minimale | |
Bewegungen. | |
## Nachrichten sortieren | |
„Heute geht es uns primär darum, die Qualität des Nutzerlebnisses zu | |
verbessern“, sagt YouTube-Sprecher Dorstewitz, „und nicht darum, immer noch | |
schockierendere Inhalte anzuzeigen.“ Doch ob ein Inhalt gemäßigt oder | |
extrem sei, das könne ein Algorithmus noch nicht erkennen. | |
Seit dem 11. September dieses Jahres hat YouTube auch in Deutschland zwei | |
Funktionen eingeführt, die die Empfehlungen bei Nachrichtenthemen | |
beeinflussen. „Breaking News“ soll dabei helfen, Falschmeldungen und | |
unseriöse Nachrichtenquellen bei aktuellen Großereignissen weniger | |
prominent anzuzeigen, „Top News“ sortieren nach der gleichen Logik | |
Nachrichten auch dann noch, wenn die Aktualität etwas abgeebbt ist. | |
In beiden Fällen gelten als seriöse Quellen, was auch bei Google News | |
gelistet ist – gehören doch YouTube und Google zum Alphabet-Konzern. Als | |
Nachrichtenereignis werden Themen laut Dorstewitz automatisch ausgewählt – | |
etwa, wenn auf Google News auffällig viele Texte in kurzer Zeit zum Thema | |
erscheinen. In den USA ist das Feature bereits seit Juli aktiv. | |
Sucht man heute auf YouTube nach Chemnitz, erscheinen Videos von Medien wie | |
Welt, Bild, „Tagesschau“ und MDR – und auch ein Klick weiter triggert kei… | |
Empfehlungen aus dem scharf rechten Spektrum. | |
## Nur Flickschusterei? | |
„Das ist ein großartiger Schritt von YouTube“, sagt Chemnitz-Datenanalyst | |
Serrato – wobei natürlich diskutiert werden wird, was eine seriöse Quelle | |
ist, Forscher und Gesellschaft die Veränderungen genau beobachten müssten. | |
Forscher Jonas Kaiser ist skeptischer. „Das ändert erst einmal nichts an | |
den rechten Blasen auf YouTube“, sagt er. Man müsse schauen, ob das | |
wirklich dazu führt, dass rechtsextreme und verschwörungstheoretische | |
Videos weniger geschaut werden. | |
Genügt dieser Eingriff von YouTube? Ist er mehr als Flickschusterei an | |
einem System aus Empfehlungsalgorithmen, das seinen riesigen Anforderungen | |
nicht mehr gewachsen ist? | |
Die neuen Features funktionieren bei Nachrichtenereignissen. Forscher | |
Kaiser weist allerdings auch darauf hin, dass die Abrufzahlen, auf die | |
Let’s-Play- oder Fitness-YouTuber kommen, die Abrufzahlen der meisten | |
Videos zu politischen Ereignissen deutlich in den Schatten stellen. | |
Nachrichten suchten gerade einmal 10 Prozent aller YouTube-Nutzer in | |
Deutschland, sagt Kaiser: „Da kann man schon darüber streiten, wie relevant | |
das tatsächlich ist.“ | |
13 Oct 2018 | |
## LINKS | |
[1] /Faktenlage-nach-Maassens-Behauptung/!5531208 | |
[2] /Kampagne-gegen-Hate-Speech/!5506991 | |
[3] /Dokumentation-ueber-Hater-und-Trolle/!5502269 | |
[4] /Identitaeren-Kader-als-AfD-Mitarbeiter/!5498788 | |
[5] /Essay-ueber-die-Folgen-von-9/11/!5532897 | |
## AUTOREN | |
Meike Laaff | |
## TAGS | |
Youtube | |
Hassrede | |
Verschwörungsmythen und Corona | |
Filterblase | |
Algorithmus | |
Chemnitz | |
Internetnutzung | |
Computerspiel | |
Donald Trump | |
Social Media | |
Youtube | |
Lesestück Interview | |
Hate Speech | |
Hate Speech | |
## ARTIKEL ZUM THEMA | |
YouTube-Nutzung bei Jugendlichen: Erklär's mir auf YouTube | |
Die Hälfte der Jugendlichen nutzt die Videoplattform zum Lernen und | |
Recherchieren, ergibt eine Befragung. Schlimm ist das nur, wenn man's | |
ignoriert. | |
Sexismus bei Computerspielern: Rache des Gamer-Stars | |
Frauen zu diskriminieren ist in der Computerspielszene Alltag. Wer darauf | |
hinweist, wird schnell zum Ziel von Hasskampagnen. | |
Trump-Hetze gegen Medien: Immer häufiger wird zugeschlagen | |
US-Präsident Donald Trump attackiert bevorzugt Medien. Inzwischen bekommen | |
oft Lokaljournalisten die angefachte Wut zu spüren. | |
Nicht-lineare Shows für Streamingportale: Eventfernsehen auf Abruf | |
Auch auf Streamingportalen werden bald Show- und Entertainmentformate zu | |
sehen sein. Nähern sie sich immer mehr den klassischen Sendern an? | |
Löschvorgänge bei YouTube: Mit Filtern gegen Kinderpornos | |
Vor gut einem Jahr wurde das NetzDG eingeführt. Für Youtube hat sich wenig | |
geändert. Dort löscht man Videos vor allem aus einem Grund. | |
Fake-News-Kampagnen von Rechts: „Das sind gezielte Angriffe“ | |
Extremismusforscherin Julia Ebner untersucht, wie Rechtsextreme | |
Falschinformationen im Netz verbreiten. Ein Gespräch über Chemnitz, Köthen | |
und #meTwo. | |
Dokumentation über Hater und Trolle: Hass im Netz ist militärisch organisiert | |
Trolle und rechte Hetzer sind im Netz gut aufgestellt. Eine neue Doku zeigt | |
militärische Strukturen und Böhmermann gründet eine Gegenoffensive. | |
Yahoo kämpft gegen Hate Speech: „… sie erschießen …“ | |
Yahoo will Hasskommentare löschen, ohne dabei unverfängliche Posts zu | |
erwischen. Noch hat die Technik aber Grenzen. |