Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Video des Anschlags in Christchurch: Bild dir deinen Terror
> Der Attentäter hat den Anschlag medial erfolgreich verbreiten können.
> Dafür allein die sozialen Medien verantwortlich zu machen, greift zu
> kurz.
Bild: Trauer um die Opfer von Christchurch
Im Tarnanzug und mit einer Schrotflinte bewaffnet läuft Brenton Tarrant am
vergangenen Freitagnachmittag in neuseeländischen Christchurch auf die
Al-Noor-Moschee zu. Wenige Minuten später erschießt er 42 Muslim*innen, die
sich dort zum Freitagsgebet versammelt hatten. Kurz darauf tötet er in
einer zweiten Moschee acht weitere Gläubige. Der rassistische Terrorangriff
lässt sich in einem 17-minütigen Video Schritt für Schritt nachvollziehen.
Was sich nach einem fiktiven Computerspiel anhört, ist grausame Realität;
denn der Täter streamte den Angriff mit einer Helmkamera live bei Facebook.
Obwohl die Polizei sowie Neuseelands Premierministerin Jacinda Ardern dazu
aufgerufen hatten, das Video nicht zu teilen, verbreiteten Nutzer*innen es
vielfach bei Facebook, Reddit, Twitter und YouTube. Was daran problematisch
ist, wenn eine terroristische Tat massenmedial verbreitet wird, muss
eigentlich nicht erklärt werden. Wer das Video in Gänze oder in Teilen
zugänglich gemacht oder geteilt hat, folgt damit genau den Wünschen des
Terroristen, verschafft ihm Aufmerksamkeit und inspiriert Nachahmer.
Tage nach dem Attentat wird nun diskutiert, wieso die Plattformen noch
immer keinen Weg gefunden haben, solche Videos schneller zu löschen. So
ließ sich auch Stunden nach der Tat das Video noch über einfache
Schlagworte wie den Namen des Täters bei YouTube finden. Das Problem: Ein
Video, das sich schnell verbreitet, aus dem Internet verschwinden zu
lassen, ist nicht so einfach.
Mia Garlick, die neuseeländische Sprecherin von Facebook, [1][teilte am
Sonntag via Twitter mit], dass Facebook das Video und den Account des
Attentäters schnell gelöscht habe. Zusätzlich habe man innerhalb von 24
Stunden 1,5 Millionen Videos des Anschlags gelöscht, 1,2 Millionen wurden
schon während des Uploadversuchs entfernt. Dabei arbeitet Facebook mit
Algorithmen, die die Videos schon vor dem Hochladen als gewaltvoll
identifizieren und löschen.
## Wenn die Algorithmen nicht greifen
Eine internationale Datenbank, bei der nach Facebook-Angaben das
Ursprungsvideo hochgeladen wird, erkennt auch Kopien und löscht diese
automatisch. Sobald die Videos jedoch verändert, also beispielsweise
spiegelverkehrt oder von einem Bildschirm abgefilmt, hochgeladen werden,
greifen die Algorithmen nicht mehr. Dann sind sozialen Medien auf
menschlichen Sichter*innen angewiesen, die traumatisierende Bilder und
Videos sichten müssen, um diejenigen von der Plattform zu entfernen, die
gegen die Richtlinien verstoßen.
Den Plattformen deswegen komplett ihrer Verantwortung zu entziehen, ist
nicht der richtige Schluss. Wer Applikationen auf den Markt bringt, ist
dafür verantwortlich, wie sie genutzt werden. Doch sie tragen die
Verantwortung auch nicht alleine. Es geht ebenso um die Nutzer*innen und
Medien, die das Video verbreiten. So musste sich am Montag in Neuseeland
ein 18-Jähriger vor Gericht verantworten, weil er den Livestream des
Attentäters verbreitet hatte. Doch er ist nur einer von Millionen.
Noch vor 15 Jahren hätte ein Terrorist sein Videomaterial nur in der Welt
schicken können, wenn ein Medium dazu bereit gewesen wäre, es zu
veröffentlichen. Doch die Zeit, in der Medien diese Gatekeeper-Funktion
innehatten, [2][ist vorbei]. Augenzeugenvideos von Tatorten gehen schneller
online als Journalist*innen vor Ort sind. Milliarden Menschen können Fotos
und Videos in Echtzeit veröffentlichen – auch Täter*innen.
Medien tragen Verantwortung, wenn sie die Videos verbreiten. So hat sich
beispielsweise die Bild-Zeitung dazu entschieden, ausführliche Ausschnitte
des Videos zu teilen. Bild-Chef [3][Julian Reichelt erklärte], sie wollten
das Video einordnen. Da bei dem Artikel von einer Einordnung nicht die Rede
sein kann, liegt die Vermutung nahe, dass Reichelt die Klicks schlicht
nicht den sozialen Medien überlassen wollte.
Weder in meiner Facebook-Timeline noch in meinem Twitter-Feed ist seit
Freitag das Video oder das „Manifest“ des Täters aufgetaucht. Es gibt eben
sehr viele Nutzer*innen, die wissen, dass sie mit dem Teilen des Videos dem
Täter in die Hände spielen, der auf menschliche Abgründe und unfähige
beziehungsweise kommerziellen Zwecken dienende Technik setzt, um seinen
Rassismus zu verbreitet. Zum Glück gibt es eine Vielzahl von Nutzer*innen
die klüger sind als Algorithmen und Julian Reichelt.
18 Mar 2019
## LINKS
[1] https://twitter.com/fbnewsroom/status/1107117981358682112
[2] /Wahlkampf-in-der-Tuerkei/!5581124
[3] https://www.bild.de/politik/kolumnen/kolumne/kommentar-zu-christchurch-terr…
## AUTOREN
Carolina Schwarz
## TAGS
Lesestück Meinung und Analyse
Journalismus
Soziale Medien
Terror
Schwerpunkt Meta
Bild-Zeitung
Julian Reichelt
Schwerpunkt Rassismus
Türkei
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Rassistischer Anschlag in Christchurch: Das Übel beim Namen nennen
Die neuseeländische Regierungschefin Ardern will den Namen des Attentäters
von Christchurch nicht nennen. Sie sendet ein wichtiges Signal.
Rechter Terroranschlag in Neuseeland: Sie starben, weil sie Muslime waren
Wer waren die wahllos ermordeten Opfer in Christchurch? Sie waren zwischen
drei und 71 Jahre alt, gemeinsam war ihnen ihre Religion.
Wahlkampf in der Türkei: Erdoğan zeigt Christchurch-Video
Terror auf der Großleinwand: Um die Opposition vor der Wahl in der Türkei
zu diskreditieren, zeigt Erdoğan ein Video des Anschlags in Neuseeland.
Terroranschlag in Neuseeland: Waffengesetze werden verschärft
Als Konsequenz aus dem Terroranschlag will die Regierung in Neuseeland die
Waffengesetze verschärfen. Der rechtsextreme Täter kaufte zuvor legal
Waffen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.