Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Content-Moderation bei Tiktok: Aubergine statt Penis
> Tiktok will die Berliner Content-Moderation durch eine KI ersetzen. Schon
> jetzt werden sexpositive und queere Inhalte willkürlich eingeschränkt.
Bild: Tiktok: sieht harmloser aus, als es ist
Berlin taz | Maximilian Krah (AfD) verkündet: „Du bist kein non-binäres
Einhorn. Du bist Deutscher. Mach was draus!“ In der „Mannosphäre“ kursie…
misogyne Gewaltfantasien und Missbrauchsanleitungen, halbnackte
[1][„Ostmullen“] tanzen in Reichskriegsflaggen durch ihre Kinderzimmer und
„Skinnytok“-Influencer*innen erklären: „Wenn dein Bauch grummelt, iss
nichts! Er applaudiert dir.“
All das ist auf Tiktok zu sehen. Immer weniger sichtbar: Aufklärung über
sexuelle Vielfalt, Verhütung, Missbrauchsfälle, Gewaltprävention sowie
empowerte Flinta*, die ihre Körper und sich feiern. Willkommen bei Tiktok:
Der Welt der willkürlichen Algorithmen.
„Es ist paradox“, sagt Vivian Pein, Botschafterin des Bundesverbands
Community Management. „Künstliche Intelligenz erkennt nur die Fläche der
Haut, aber nicht den Kontext. Bilder von schweren Verletzungen, die
traumatisieren können, bleiben sichtbar – während Beiträge zur sexuellen
Aufklärung gelöscht werden.“
Das Problem könnte sich in Zukunft verschärfen. Denn der chinesische
Social-Media-Konzern plant die Berliner Trust-and-Safety-Abteilung, in der
150 Contentmoderator*innen für den deutschsprachigen Raum beschäftigt
werden, aufzulösen. Ihre Arbeit soll von der KI übernommen und an externe
Dienstleister ausgelagert werden – die üblicherweise in Polen, Irland, der
Türkei und auf dem afrikanischen Kontinent sitzen. Der Grund:
Kosteneinsparungen. Dagegen demonstrierten Berliner Tiktok-Beschäftigte
Ende vergangener Woche.
## Demo gegen Streichungen
[2][Etwa 60 Mitarbeiter*innen schipperten mit einem Boot an der
Geschäftsführung im deutschen Headquarter an der Stralauer Allee vorbei und
protestierten]. Dass die Mitarbeiter*innen, die bislang die KI trainierten,
noch eine Zukunft haben, glauben sie nicht einmal selbst. Sie fordern
lediglich eine Verlängerung der Kündigungsfrist und eine Abfindung in Höhe
von drei Jahresgehältern. Der Konzern lehnte – wenig überraschend – jede
Verhandlung mit der Gewerkschaft Verdi ab.
Expert*innen warnen: Durch eine KI-basierte Content-Moderation droht
Tiktok noch anfälliger für Gewaltverherrlichung, Desinformation und
rechtsextreme Inhalte zu werden. Denn der KI fehle das notwendige
kulturelle und politische Verständnis, um problematische Inhalte
zuverlässig erkennen zu können. Auch Vivian Pein kritisiert: „KI-Systeme
sind dafür noch nicht ausreichend ausgereift.“ Gerade in der deutschen
Sprache fehle es an sprachlicher Sensibilität und Differenzierungsvermögen.
Ironie, Sarkasmus oder Kontexte könne sie kaum wie ein Mensch erfassen.
Bislang moderiert Tiktok Inhalte in einem zweistufigen Verfahren. Zunächst
filtert eine KI Beiträge, die gegen die offiziellen Richtlinien verstoßen,
etwa Gewalt, Hassrede, Desinformation oder sexualisierte Darstellungen und
sperrt sie.
Inhalte, die der Algorithmus als „unklar“ markiert, werden anschließend zur
manuellen Überprüfung an Content-Moderator*innen weitergeleitet. Die
Grundlage der Moderation ist jedoch intransparent: Die KI arbeitet mit
Schlagwortlisten, Bildanalysen und internen Blacklists, die nicht
öffentlich einsehbar sind. Auch die manuellen Prüfungen folgen internen
Zensur-Richtlinien, die deutlich restriktiver sein sollen als die
offiziellen Community-Richtlinien.
Tiktok betont, problematische Inhalte konsequent zu bekämpfen. Im ersten
Quartal 2025 seien laut eigenen Angaben über 87 Prozent der gelöschten
Videos mithilfe automatischer Systeme erkannt und über 99 Prozent noch vor
einer Nutzer*innenmeldung entfernt worden seien.
## Problem wird verschärft
Vivian Pein hingegen berichtet von einer anderen Realität: Über Monate
hinweg habe sie eine Vielzahl von jugendgefährdenden Inhalten gemeldet. In
der ersten KI-Moderationsinstanz sei kein einziges Video entfernt worden.
Sie kritisiert: „Dass gerade ein Tiktok, das sich in der Content-Moderation
ohnehin nicht mit Ruhm bekleckert hat, die menschliche Instanz rausnimmt,
um Geld zu sparen, ist absolut unverantwortlich.“ Das sei nicht nur ein
technisches, sondern auch ein demokratisches Problem.
Denn durch die KI-basierte Moderation werden Inhalte auch fälschlicherweise
als „problematisch“ eingestuft und zensiert. Expert*innen kritisieren
systematisches „Underblocking“ von Gewaltverherrlichung, Frauenhass oder
problematischen Trends sowie das „Overblocking“ von queeren,
feministischen, politischen und sexpositiven Inhalten, die nicht gegen
Richtlinien verstoßen.
## Doppelte Standards
Die doppelten Standards der Plattform kritisiert auch die
Kulturwissenschaftlerin Nike Wessel. „Aufklärende Inhalte verschwinden,
während sexualisierte Inhalte für Klicks und Kommerz durchgewunken und
transfeindliche Posts teilweise sogar vom Algorithmus gefördert werden.“
Mit ihrer Petition „Sexualaufklärung darf kein Tabu sein – Stoppt die
Zensur!“ setzt sich Wessel dafür ein, dass Wissen über Körper, Gesundheit
und sexuelle Rechte frei zugänglich bleibt – mittlerweile mit über 18.000
Unterstützer*innen.
Mit dabei: Sexpositive Berliner Unternehmen und Initiativen wie Safer Sex
Berlin, das sich für einen besseren Zugang zu sexueller
Gesundheitsversorgung für Flinta* einsetzt, der Lustshop [3][Amorelie]
sowie Einhorn, das mit nachhaltigen Kondomen und Periodenprodukten für mehr
Aufklärung sorgt. Sie alle wurden schon Opfer von Plattformzensur. Die
Begründung: Es handele sich um Pornografie.
Die Angst vor Zensur zwingt sie dazu in der Aufklärungsarbeit ihre Sprache
anzupassen. Begriffe, die der Algorithmus als „anstößig“ markiert, werden
umgangen. Anstatt „Penis“ zu schreiben, wird ein Auberginen-Emoji
verwendet, aus „Sexismus“ wird „S€xismus“ und aus „Misogynie“ „…
Oliver Marsh von der NGO Algorithmwatch warnt, dass durch die KI-generierte
Content-Moderation vermehrt Accounts aus nicht nachvollziehbaren Gründen
und zu Unrecht gesperrt werden könnten. Diese Tendenz ließ sich auch bei
anderen Plattformen beobachten, die ebenfalls aus Kostengründen vermehrt
auf automatisierte Moderation und externe Dienstleister setzten.
In den vergangenen Monaten häuften sich Berichte von
Instagram-Nutzer*innen, deren Accounts unbegründet und ohne Vorwarnung
gesperrt wurden – trotz der Versicherung, keine Community-Richtlinien
verletzt zu haben. Viele gaben an, erfolglos bei Meta Einspruch eingelegt
und gültige Ausweise hochgeladen zu haben – oft ohne Rückmeldung.
Betroffen ist auch der Instagram-Account des Lustshops „Liebelei“ mit
15.000 Followern. Der Content ist zärtlich, es wird sexpositiv aufgeklärt.
„Hater“ hatten gedroht, den Account so lang zu melden, bis Instagram ihn
sperrt – mit Erfolg.
## Achselhaare müssen weg
Zuletzt war das „Vergehen“ ein harmloses Tanzvideo der Gründerin Katharina
Bonk, in dem ihre Achselhaare zu sehen sind. Instagram erklärte dies
aufgrund der „sexuellen Anspielungen“ als Verstoß gegen die
Nutzungsbedingungen – ein Vorwurf, der so nicht in den offiziellen
Richtlinien auftaucht. Vier Mal wurde der Account inzwischen gesperrt und
immer wieder ohne Erklärung freigeschaltet. Bonk sagt: „Es demotiviert,
ermattet und ermüdet.“
Für viele Creator*innen und kleinere Unternehmen, die auf Sichtbarkeit
in sozialen Netzwerken angewiesen sind, können die unklaren
Moderationspraktiken existenzgefährdend sein. Nike Wessel fordert daher
klare und nachvollziehbare Richtlinien, die zwischen sexualisierter Gewalt
und sexualpädagogischer Aufklärung unterscheiden sowie, dass Plattformen
offenlegen müssen, wie ihre Algorithmen Inhalte moderieren. Zudem sollen in
der Erarbeitung und Überprüfung von Plattformregeln Fachleute beteiligt
werden.
Das fordert auch Vivian Pein: „Content-Moderator*innen müssen im
Entscheidungsprozess involviert sein. Sie wissen, wie die Plattform
gestaltet sein muss, damit ein demokratischer Diskurs möglich ist.“ Für sie
steht fest: „An KI führt kein Weg vorbei. Bei eindeutigen Fällen kann sie
Inhalte moderieren. Doch in sensiblen Situationen braucht es menschliches
Feingefühl.“
28 Jul 2025
## LINKS
[1] /Rechtes-Internet-feiert-die-Ostmulle/!6080593
[2] /Streik-bei-TikTok-in-Berlin-Darum-legen-Content-Moderatoren-die-Arbeit-nie…
[3] /Gentrifizierung-in-Berlin/!5543376
## AUTOREN
Lilly Schröder
## TAGS
Berlin tokt
TikTok
Schwerpunkt Künstliche Intelligenz
Queer
TikTok
Berlin tokt
Berlin tokt
Schwerpunkt Künstliche Intelligenz
Algorithmus
## ARTIKEL ZUM THEMA
Schlimmste Orte Berlins: Angeschissen in der Tiktok-Hölle
„Ein Tag in Berlin für meinen Erzfeind“ heißt der neuste Trend auf Tiktok.
Die taz macht mit und spielt ironisch die schlimmsten Orte Berlins durch.
Streik bei Tiktok in Berlin: Alle Feeds stehen still
Künstliche Intelligenz ersetzt keine Arbeit, es lagert sie nur aus. Um dem
etwas entgegenzusetzen, braucht es mehr Arbeitskämpfe wie bei Tiktok in
Berlin.
Vom Netz auf die Straße: Berlin follows Tiktok
Immer größer wird der Einfluss von Tiktok darauf, wer Berlin wie wahrnimmt.
Das hat auch Auswirkungen auf das analoge Leben – und auf die Politik.
Streik bei Tiktok: Content-Moderator:innen im Straßenkampf
Weil sie durch KI ersetzt werden sollen, legen Tiktoks
Content-Moderator:innen in Berlin die Arbeit nieder. Der Streik könnte ein
weltweites Vorbild werden.
Algospeak auf TikTok und Instagram: Wtf heißt „slip n slide“?
Auf Tiktok entwickelt sich eine Art Geheimsprache, um Zensur durch den
Algorithmus zu umgehen. Was macht das mit dem offenen Diskurs?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.