Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Unfreiwillig intime Fotos im Netz: Wenn die Bilderlawine rollt
> Eine Frau entdeckt Nacktfotos von sich auf der Pornoplattform xHamster.
> Sie ist eine von vielen Betroffenen digitaler sexualisierter Gewalt.
Bild: Eine von 12 Personen ist in ihrem Leben einmal von digitaler sexualisiert…
Es ist März 2019, als Anna Nackt – die heute als Aktivistin unter diesem
Pseudonym tätig ist – intime Fotos von sich auf der Pornoplattform xHamster
entdeckt. Es sind Nacktbilder und Screenshots von ihrem Facebook-Account,
versehen mit ihrem Namen und ihrem Wohnort. Als sie davon erfährt, sind die
Bilder längst nicht mehr nur auf Deutschlands meistbesuchter Pornoseite,
sondern auch auf anderen Plattformen verbreitet.
Anna Nackt, die auch hier im Text unter ihrem Pseudonym spricht und
[1][eine gleichnamige Hilfeplattform] gegründet hat, ist nur eine von
vielen Betroffenen digitaler sexualisierter Gewalt – sie will dagegen
kämpfen. Doch die juristischen Möglichkeiten in Deutschland, dagegen
vorzugehen, sind gering. Eine von 12 Personen ist in ihrem Leben einmal von
dieser Gewaltform im Netz betroffen, es sind mehr Frauen als Männer. Der
Täter ist in den meisten Fällen männlich. Dies geht aus einer [2][Studie
der American Psychologial Assciation unter Facebook-User*innen von 2020
hervor]. Die Wege, wie Täter*innen an die Bilder kommen, sind
unterschiedlich.
Mal sind es Ex-Partner*innen, die die Bilder veröffentlichen, mal gelangen
sie durch Hacks in die Hände von Täter*innen, oder werden von privaten
Profilen heruntergeladen. Sogenannte Exposer Networks verbreiten dann die
intimen Bilder weiter, indem sie sie laufend von einer Plattform
herunterladen und auf einer neuen wieder hochladen. Dadurch entsteht eine
Bilderlawine, die kaum aufzuhalten ist. Etwas weniger als 24 Stunden
nachdem Anna Nackt sich bei xHamster meldet, sind ihre Fotos von der Seite
verschwunden, doch eine Antwort auf ihre Kontaktanfrage bekommt sie nie.
Die Löscharbeiten übernehmen zu diesem Zeitpunkt ehrenamtliche User*innen,
die die gemeldeten Fotos überprüfen. Unabhängig davon, ob es sich bei den
Dargestellten um Minderjährige, es sich um unerlaubte Fotos oder reale
Gewalt handelt. Mit Hilfe eines Handbuches sollen die User*innen
entscheiden können, ob es sich beispielsweise um „echte“ oder „gefakte“
Tränen handelt, die auf dem Bild zu sehen sind. Ob also reale oder
gespielte Gewalt stattgefunden hat. Das geht [3][aus einer
Investigativrecherche der Vice hervor], bei der zwei Journalist*innen in
solch einem Löschteam inkognito mitgearbeitet haben.
## Rechtlich ist das Vorgehen korrekt
Die Löscharbeiter*innen konnten bis kurz vor Weihnachten 2020 auch nicht
der Frage nachgehen, wer die Fotos hochgeladen hat, denn bis zu diesem
Zeitpunkt konnte man anonym Uploads auf xHamster durchführen. Einen Schritt
weiter ging Pornhub: Nachdem Visa und Mastercard [4][aufgrund einer
Recherche der New York Times ] die Zahlungsabwicklung mit der Plattform
einstellten, blockierte Pornhub Mitte Dezember alle Inhalte, die von
anonymen User*innen hochgeladen wurden.
Rechtlich gesehen ist das Vorgehen von xHamster, Inhalte erst zu löschen,
wenn sie überprüft wurden, korrekt. Plattformen können in Deutschland erst
dann für die Inhalte haftbar gemacht werden, wenn sie gemeldete Inhalte
nicht überprüfen und Illegales nicht löschen. Das Prinzip heißt „Notice a…
Takedown“. Für Betroffene bedeutet es, dass ihre Bilder nach dem Entdecken
noch solange online zugänglich sind, bis die Prüfung abgeschlossen ist.
## Sie startet die Petition #NotYourPorn
Anna Nackt sieht das Problem deswegen in der Gesetzgebung und fordert in
ihrer [5][im Oktober gestarteten Petition #NotYourPorn], dass Betroffene
besser geschützt werden müssten. Handlungsbedarf sieht sie im Strafrecht,
bei der Sensibilisierung von Polizei und Justiz und beim NetzDG.
2018 eingeführt, soll das NetzDG im Umgang mit Hasskriminalität und anderen
strafbaren Inhalten helfen. So müssen Plattformen alle drei Monate einen
Straftatenbericht einreichen und Ansprechpartner*innen sowohl für
Betroffene als für Ermittlungsbehörden anbieten. Doch das Problem ist:
Pornoplattformen fallen nicht unter das NetzDG. Denn das gilt erst für
Plattformen mit zwei Millionen registrierten User*innen in Deutschland, was
bislang keine Pornoplattform vorweisen kann.
## Das NetzDG hilft bei Pornos kaum
Zudem ist ein Grund, dass dort „spezifische“, also pornografische Inhalte
verbreitet werden. Nackt fordert, dass das NetzDG angepasst wird.
[6][Christin Laxa, Medienrechtsanwältin in der Kanzlei Buse Herz Grunst]
zweifelt, ob solch eine Änderungen umgesetzt wird. Vor allem, weil das
NetzDG für Straftaten geschaffen wurde, die auf Pornoplattformen kaum
vorkommen, wie Volksverhetzung, Bedrohungen und Vorbereitungen eines
Terroranschlags.
Ein anderer Weg wäre es, Pornoplattformen dazu zu verpflichten, Bilder und
Videos zu prüfen, bevor sie veröffentlicht werden. Das fordert nicht nur
Anna Nackt in ihrer Petition, die mittlerweile fast 65.000 Unterschriften
aufweist, sondern auch die [7][Beratungsstelle HateAid] und die
Macher*innen der [8][Gesichtserkennungssoftware Am I in Porn]. Da
Upload-Filter jedoch eine Overblocking-Gefahr bergen, scheint das auch
keine Lösung zu sein. Eine Datenbank könnte den Mittelweg darstellen.
## Gesetzliche Regelung unwahrscheinlich
In dieser könnten sogenannte Hashs von Bilder gesammelt werden, eine Art
digitaler Fingerabdruck. Neu hochgeladene Bilder und Videos – nicht jedoch
wie bei einem Upload-Filter Videos, die noch gar nicht online sind – können
so direkt nach der Veröffentlichung überprüft und gegebenenfalls wieder
gelöscht werden.
Schon seit mehreren Jahren werden diese Hash-Datenbanken von Plattformen
wie Facebook oder Youtube genutzt, um etwa terroristische Aufnahmen
schneller zu finden. Auch das Unternehmen MindGeek, zu dem große
Pornoplattformen wie Pornhub und YouPorn gehören, nutzt eine solche
Technologie, um zu verhindern, dass bereits entferntes Material wieder
hochgeladen wird. Doch dass hier eine gesetzliche Regelung in Kraft tritt,
hält Laxa für unwahrscheinlich.
## Der Facebook-Account als Seismograf
„Wenn eine Verletzung vorliegt, kann man es den Betroffenen aus Sicht des
Gesetzgebers zumuten, dass sie sich beim Plattformbetreiber melden“, sagt
sie der taz. Doch dafür müssen Betroffene erst mal von den Re-Uploads
erfahren. Anna Nackt nutzt deswegen ihren Facebook-Account als
Seismografen, der anhand von Dickpics, Beschimpfungen,
Vergewaltigungsfantasien ausschlägt, wenn ihre Bilder wieder mal
veröffentlicht wurden.
Die Bundesregierung weiß nicht viel mit dem Begriff „digitale Gewalt“
anzufangen: 2018 musste sie zugeben, dass sie noch keine Definition des
Begriffes hat. Taten wie die gegen Anna Nackt werden aktuell juristisch
anders behandelt als analoge Gewalttaten – obwohl auch sie weitreichende
Folgen für die Betroffenen haben. Wenn illegal intime Fotos von einer
Person hochgeladen werden, wie im Fall von Anna Nackt, ist das eine
Verletzung des „höchstpersönlichen Lebensbereichs“, doch es zählt nicht …
sexualisierte Gewalt, denn dafür muss laut Laxa „körperlich wirkender
Zwang“ vorliegen, oder wie Anna Nackt es sagt: „Erst, wenn man angefasst
wird, versteht das deutsche Recht etwas als Gewalt.“.
## Exposing wird als Privatklagedelikt angesehen
Zudem wird Exposing, also das Veröffentlichen intimer Bilder, als
sogenanntes Privatklagedelikt angesehen, ähnlich wie die Verletzung des
Briefgeheimnisses. Während in anderen Bereichen Ermittlungsbehörden aktiv
werden müssen, sobald sie einen Anfangsverdacht haben, beurteilt die
Staatsanwaltschaft bei Privatklagedelikten bei jedem Einzelfall erst mal,
ob ein „öffentliches Interesse“ vorliegt. Bei Exposing entscheidet sie sich
laut Laxa häufig dagegen. Exposing aus den Privatklagedelikten
herauszunehmen, hält Laxa für schwierig durchsetzbar.
Doch allein die Diskussion über Exposer Networks kann helfen, die
Gesellschaft zu sensibilisieren und Wissen über Digitale Gewalt zu
vermitteln. Denn an dem mangelt es – auch bei der Polizei. Bevor Anna Nackt
sich an xHamster zur Entfernung der Bilder wendete, rief sie bei der
Polizei an. Doch statt Hilfe kam dort nur Unverständnis für ihr Anliegen.
„Sind Sie sicher, dass Sie die Bilder nicht selbst hochgeladen haben?“ Auch
bei späteren Taten meldete sich Nackt bei der Polizei, schickte Links und
Screenshots – und bekam teilweise, sagt sie der taz, keine Antworten. „Es
war wie Arbeitsverweigerung.“
## Schulungen der Polizei könnten helfen
Was helfen könnte, wären Schulungen für Polizei und Justiz, damit sie
künftig sensibler mit den Betroffenen umgehen. Gerade wenn die Polizei der
Erstkontakt ist, ist das unabdingbar – auch um der Verstärkung psychischer
Folgeerscheinungen vorzubeugen. Dazu zählen: Vertrauensprobleme,
posttraumatische Belastungsstörungen, Angstzustände, Depressionen und
Suizidgedanken. Auch Anna Nackt ist in psychologischer Behandlung und sagt
heute, es gehe ihr „okay“. Doch besonders kurz nach der ersten Tat habe sie
auf der Straße Paranoia gehabt, habe gefürchtet, dass die Täter*innen
Nachrichten an ihr Umfeld schicken könnten.
Noch immer besteht die Gefahr, dass die Bilder von Anna Nackt wieder
hochgeladen werden. Indem sie mit ihrem Umfeld offen darüber spricht und
als Aktivistin die Situation auch für andere Betroffene verbessern will,
hat sie für sich einen Weg gefunden, um mit der digitalen Gewalt umzugehen.
Doch nicht jede Person hat die nötigen psychischen und finanziellen
Ressourcen, dagegen vorzugehen. Diese Aufgabe fällt auch der
Bundesregierung zu, die sich mit der Istanbul-Konvention verpflichtet hat,
sich gegen Gewalt gegen Frauen einzusetzen – auch gegen digitale. Passiert
ist in der Hinsicht bislang jedoch wenig.
6 Jan 2021
## LINKS
[1] https://annanackt.com/
[2] https://psycnet.apa.org/doiLanding?doi=10.1037%2Fvio0000233
[3] https://www.vice.com/de/article/akdzdp/inside-xhamster-undercover-im-loesch…
[4] https://www.nytimes.com/2020/12/04/opinion/sunday/pornhub-rape-trafficking.…
[5] https://www.change.org/p/notyourporn-missbrauch-auf-porno-plattformen-muss-…
[6] https://www.kanzlei-wirtschaftsrecht.berlin/
[7] https://hateaid.org/
[8] https://amiinporn.org/de
## AUTOREN
Johannes Drosdowski
## TAGS
Porno
Sexualisierte Gewalt
Netz
Sexismus
IG
Sexualisierte Gewalt
Zivilgesellschaft
Sexualisierte Gewalt
Rachepornos
Hasskriminalität
Kolumne Die Wahrheit
Netflix
Jugendschutz
## ARTIKEL ZUM THEMA
Nonconsensual Porn: Ohne Zustimmung
Bei bildbasierter sexueller Gewalt werden Bilder und Videos ohne
Einwilligung verbreitet. Betroffene werden rechtlich oft alleingelassen.
Initiative gegen Hatespeech: „Hassmelden“ braucht eine Pause
Seit 2019 hilft die Initiative Hassmelden Betroffenen von Hass im Netz
juristisch. Jetzt legt das Team seine Arbeit nieder – wegen Überlastung.
Sexualisierte Gewalt im Netz: Dutzende Frauen verklagen Pornhub
Viele Menschen sind von digitaler sexualisierter Gewalt betroffen. 34
Frauen wehren sich nun in den USA – und verklagen dafür eine
Pornoplattform.
Forderung der Justizminister:innen: Härtere Strafen für „Rache-Pornos“
Die Verbreitung sexueller Videos von Ex-Freund:innen ist schon strafbar.
Doch die Sanktionen sollen härter werden, plant die
Justizministerkonferenz.
Grüne klagt gegen Facebook: Künast geht gegen Falschzitat vor
Die Grünen-Politikerin hat eine Klage gegen Facebook eingereicht. Sie
möchte ein grundsätzliches Urteil zur Löschpflicht des Unternehmens
erwirken.
Die Wahrheit: Das gläserne Genital
Dickpics zu bekommen, ist auch für einen Mann nicht gerade die Erfüllung
aller Träume im weiten Reich der Sexualität.
Kritik an Netflixfilm „365 Tage“: Ein schlechter, ärgerlicher Film
Einem polnischen Film wird die Verherrlichung von Vergewaltigungen
vorgeworfen. Sicher ist: Er ist grotesk schlecht.
Porno im Netz und Jugendschutz: Cock-Block für Pornhub
Die Landesmedienanstalt NRW will Jugendschutz im Internet konsequenter
durchsetzen. Und zur Not Pornowebseiten sperren.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.