Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Data-Worker und Drecksarbeit: Raus aus der Unsichtbarkeit
> Damit KI und Social Media nutzbar werden, blicken Data-Worker im
> Verborgenen in Abgründe. In Kenia regt sich nun aber Widerstand.
Bild: Die Contentmodera to r*in nen sorgen dafür, dass Gewaltdarstellungen nic…
Nairobi taz | Nach ihrem früheren Ich sucht Veronica Oduor an manchen Tagen
vergebens. Die Person, die immer jeden gegrüßt hat, ist verschwunden.
Stattdessen schiebt sich das Bedürfnis nach Rückzug in den Vordergrund.
Nach Zeit für sich selbst. Wenn andere sich im Alltag mit ihr unterhalten
wollten, spürt sie die Wut in sich aufsteigen. „Ich bin genervt ohne Grund,
werde wütend ohne Grund, manchmal wache ich schon wütend auf“, sagt Oduor.
Es liegt an ihrer Arbeit, meint sie. Dass sie immer seltener ihre
Freund*innen sieht. Dass sie deren Anrufe ignoriert, weil sie sich nicht
bereit fühlt ranzugehen und denkt: „Ich vermassle alles.“ Dass sie einfach
nur schlafen will und die Bilder vergessen, die sich in den Windungen ihres
Gehirns eingenistet haben.
Die Bilder, die sie an ihren Arbeitstagen sieht, sind so verstörend, dass
sie auf keinen Fall im Internet auf [1][Facebook, Instagram] oder
[2][Tiktok] erscheinen dürfen. Oduor aber muss sie sehen, damit sie sie im
Auftrag der Onlineplattformen aus dem Verkehr ziehen kann. Das ist ihr Job.
Den macht die junge Frau in ihren Zwanzigern seit mehreren Jahren. Und das
hat psychischen Folgen.
Social-Media-Netzwerke schreiben in ihren Richtlinien fest, welche Inhalte
nicht auf ihrer Plattform veröffentlicht werden dürfen. Gewaltdarstellungen
etwa oder Pornografie. Wenn eine Nutzerin einen Post online sieht, der doch
in diese Kategorien fällt, kann sie ihn melden. Die Inhalte, die so
markiert wurden, landen dann zur Überprüfung auf dem Bildschirm von
Contentmoderator*innen.
## Die Menschen im digitalen Maschinenraum
In Kenia überprüfen Hunderte solcher Moderator*innen für große
Tech-Konzerne gemeldete Beiträge aus verschiedenen afrikanischen
Sprachräumen etwa auf Swahili, Amharisch, Tigrinisch, Hausa oder Zulu.
Dafür rekrutieren sie Arbeiter*innen vom ganzen Kontinent in die
kenianische Hauptstadt Nairobi.
Diese Art von Jobs sind Teil der sogenannten Data-Work, Datenarbeit – einem
globalen, prekären Sektor. Denn auch hinter künstlicher Intelligenz (KI)
steckt im Verborgenen noch viel menschliches Tun. Geisterarbeit haben die
Anthropologin Mary L. Gray und der Informatiker Siddarth Suri das genannt.
Die Arbeiter markieren und generieren Daten, mit denen KI dann später
arbeiten kann. Es sind ihre unsichtbaren Eingriffe, die Inhalte in gut und
böse, sicher und gefährlich, einordnen und manche von ihnen imitieren auch
KIs in Bereichen, in denen sie noch gar nicht zum Einsatz kommen.
[3][Nach Schätzungen der Weltbank arbeiten zwischen 154 und 435 Millionen
Menschen], manche hauptberuflich, andere nur ab und zu als Data-Worker.
Insbesondere Kenia ist ein Hub auf dem afrikanischen Kontinent. Aber es ist
auch einer der Orte, an dem in den letzten Jahren die Stimmen der
Arbeiter*innen lauter werden, die versuchen, die Arbeitsbedingungen und
Branche zu verändern. Dafür legten sie sich auch schon mit Meta vor Gericht
an.
Veronica Oduor heißt eigentlich anders, aber ihr echter Name sowie ihr
Arbeitgeber sollen nicht in der Zeitung stehen, aus Angst vor rechtlichen
Folgen und Konsequenzen am Arbeitsplatz. Wenn sich Veronica Oduor zur
Morgenschicht in Nairobi an ihren Arbeitsplatz setzt, die Kopfhörer auf den
Ohren, ist sie allein mit den Inhalten, die von Nutzern gemeldet werden.
Nächstes Video, die ersten Sekunden laufen. Klick. In die Mitte der
Zeitleiste, das Video geht weiter. Klick. Die Entscheidung: Gefährlich oder
unbedenklich? Oft bleiben ihr nicht mehr als 50 Sekunden für den gesamten
Prozess, sie muss die Quote halten.
Nicht alle Inhalte sind bedenklich, aber immer wieder sieht Oduor „graphic
content“, wie sie ihn nennt. Damit meint sie explizite und verstörende
Inhalte: Pornografie, schwere Unfälle, Mord, brutalste Gewalt, Hetze und
Vergewaltigungen. All das, was gegen die Gemeinschaftsrichtlinien der
Social-Media-Plattformen verstößt.
## Die Quote halten
Zeit für Pausen oder zum Nachdenken gebe es nicht. „Stattdessen sagst du
dir: ‚Ich muss das schnell vergessen. Weitermachen. Die Arbeit beenden.‘ Du
siehst abgetrennte Gliedmaßen und vor dir die 180 Aufgaben, die
abzuarbeiten sind“, sagt Oduor. Als sie Anfang September davon erzählt,
sitzt sie in der Filiale einer großen Kaffeekette in Nairobi. Ihre Stimme
ist ruhig, fast monoton. Abgeklärt. Aber sie will sprechen, in der
Hoffnung, dass sich dadurch etwas ändert. „Vielleicht nicht für mich, aber
für die, die nachkommen.“
Veronica Oduor Arbeitgeber ist nicht direkt eine Social-Media-Plattform.
Die Konzerne sourcen Arbeitsprozesse wie die Moderation an andere
Unternehmen aus. Gleiches gilt für Arbeitsprozesse im KI-Bereich. Kenias
Regierung will das Land weltweit zur ersten Adresse für solche Firmen
machen.
In den vergangenen zehn Jahren ist der IT-Sektor des Landes um
durchschnittlich 10,8 Prozent pro Jahr gewachsen. Die Datenarbeit soll als
Lösung für die hohe Arbeitslosigkeit – besonders der Jugend – dienen.
Entsprechend setzt deshalb Präsident William Ruto darauf, die
Rahmenbedingungen anzupassen, um die Plattformen und ihre Subunternehmen
ins Land zu locken.
Das Internet hat Arbeit überall auf der Welt flexibilisiert. Die
entstandene Gig-Ökonomie ist bisher aber ein Sektor, der weitgehend
unreguliert ist, insbesondere in Ländern des Globalen Südens. Das und die
generell niedrigeren Lohnkosten nutzen die Tech-Riesen aus. Die Soziologin
und Informatikerin Milagros Miceli, die seit Jahren zu den Data-Workern
recherchiert, beschreibt immer wieder, wie vor allem die digitalen,
selbstständig Arbeitenden den Launen der Plattformen ausgeliefert sind. Sie
müssen sich überwachen lassen. Sie werden nur pro Aufgabe honoriert, egal
wie lange diese dauert. Sie bekommen ihren Lohn teilweise nicht ausbezahlt
oder verlieren Projekte von einem Tag auf den anderen.
## Die Bilder, die bleiben
Der hohe Leistungsdruck verschärft die Arbeitsbedingungen. Für Oduors
Arbeit kommen nach Steuern etwa 42.000 kenianische Schilling bei ihr im
Monat an, etwa 275 Euro. Bei einer Arbeitswoche von etwa 45 Stunden
entspricht das nicht mehr als 1,52 Euro pro Stunde. Mehr als Mindestlohn in
Kenia, aber immer noch sehr wenig für solch eine belastende Arbeit,
beklagen die Arbeiter*innen.
Wie wichtig Contentmoderation ist, machen die aktuellen Kriege und
Konflikte der Welt, durch die oft nur mehr brutale Bilder im Netz landen,
deutlich. Denn wenn weniger Menschen Gewalt- und Hasspostings sehen, nimmt
das den Inhalten etwas von ihrer Zerstörungskraft.
Oduor erinnert sich an eine Zeit vor wenigen Monaten, in der sie oft
weinte, ohne zu verstehen, warum. Sie hörte auf, sich um ihr Äußeres zu
kümmern, lag nachts wach. Dann sah sie das Bild wieder vor sich: Ein Kind,
das von dem älteren Mann vergewaltigt wird. Oder ein anderes, das einen
Mann zeigte: Im ersten Moment war er am Leben und blickte sie durch die
Kamera an, im nächsten lag er mit abgetrennten Gliedmaßen da. Oduor, die
gläubige Christin ist, weinte und betete: „Gott, ich bin am Ende. Wenn du
mich nicht wieder in Ordnung bringst, bin ich weg.“
Damals wollte sie kündigen, will es eigentlich immer noch, sagt sie. Aber
sie habe auch Angst davor. Mit psychischen Problemen sei es noch schwerer,
einen neuen Job zu finden.
Als Oduor all das in dem Café in Nairobi erzählt, sitzt ihre kranke Mutter
neben ihr. Seit einigen Monat sind die Mutter und Oduors Bruder bei ihr
eingezogen, eigentlich kommt die Familie aus einem anderen ostafrikanischen
Land. Zusammen kümmern die Geschwister sich um ihre Mutter. Weil es ihr
heute nicht gut geht, hat Veronica Oduor sie mitgebracht zum Gespräch.
Englisch versteht ihre Mutter nicht, sie denkt, ihre Tochter treffe eine
Bekannte. Dass es um die Arbeit geht und was diese genau ist, weiß sie
nicht. Genau wie Oduors Freund*innen, die nicht selbst in der Branche
arbeiten. Sie darf es ihnen auch gar nicht erzählen.
Wie alle der digitalen Arbeiter hat auch Veronica Oduor eine
Verschwiegenheitserklärung unterschrieben. „Aber auch wenn meine Verwandten
es wüssten, sie könnten es nicht verstehen“, sagt Oduor.
## Psychische Hilfe muss auch ankommen
Die Isolation hindert viele Data-Worker daran, sich psychische Hilfe zu
holen. Aber das will Kauna Malgwi jetzt ändern. Die Nigerianerin ist
klinische Psychologin und selbst ehemalige Contentmoderatorin bei Sama,
einer Outsourcingfirma, die eigentlich einen Fokus auf [4][KI] hat, aber
bis 2023 auch Aufträge für Facebook übernahm.
Seit Kurzem arbeitet Malgwi nun in einem Forschungsprojekt, das sich der
Gesundheit der digitalen Arbeitnehmer*innen widmet. Sie will
insbesondere erforschen, wie die Einbeziehung der Familie in der Behandlung
helfen kann. Zum einen sei die Familie ein Faktor, der viele zurückhalte zu
kündigen. Malgwi erklärt das so: „Für sie hatte man einen guten Job,
schließlich war er in einem Büro. Und du kannst ihnen wegen der
Verschwiegenheitserklärung nicht sagen, dass der Job schrecklich ist.“
Durch das Forschungsprojekt erhält sie auch selbst mehr Ressourcen, um
Therapien anzubieten. Bisher hat sie unentgeltlich Betroffenen in
Krisensituationen geholfen, oft eher eine Erste-Hilfe-Maßnahme als eine
richtige Therapie. „Manchmal ist das einzige, was ich tun kann, der Person
Geld zu geben, damit sie beim Arzt Medikamente bekommt.“
Malgwi kennt die Belastung aus eigener Erfahrung. Eine Zeit lang litt sie
selbst unter Panikattacken, war depressiv, nur helfen konnte ihr niemand so
richtig. Auch ihre Ärzt*innen nicht – aus Angst, ihre
Verschwiegenheitserklärung zu verletzen, erzählte sie nicht von ihrer
Arbeit.
## Traumata können vermieden werden
Dabei ist es nicht so, als wäre für die großen Outsourcingunternehmen
mentale Gesundheit ein ganz neues Thema. Es gibt sogenanntes
Wellnesspersonal, mit denen die Contentmoderator*innen wöchentlich
sprechen könnten, nur sind diese nicht unbedingt geschult etwa im Umgang
mit Traumata. Kauna Malgwi konnte ihnen nicht vertrauen, nachdem sie ihr
manchmal sagten, was Kolleg*innen vor ihr erzählt hätten. Auch Veronica
Oduor geht nicht mehr zu den Stunden, sie würden ihr nicht helfen.
Besserungen zur mentalen Gesundheit sind eine zentrale [5][Forderung der
globalen Gruppe aus Gewerkschaften für Contentmoderator*innen], die
sich unter dem Dach der UNI Global Gewerkschaft vereinigt haben. Neben
existenzsichernden Löhnen und langfristigen Arbeitsverträgen fordern sie
Zugang zu geschulten und in Bezug auf Traumata ausgebildeten
Psycholog*innen, sowie Traumaschulungen für die Moderator*innen und
ihre Vorgesetzten. Es dürfe keine unrealistischen Quoten und
Produktivitätsziele beim Umgang mit den Materialien geben. Außerdem dürften
Arbeitgeber*innen die gewerkschaftliche Organisierung nicht behindern.
Christy Hoffman, Generalsekretärin der Gewerkschaft UNI Global sagt: „Die
Konfrontation mit belastenden Inhalten mag zum Moderieren dazugehören, aber
Traumata müssen nicht sein.“ Andere Branchen, wie Rettungssanitäter,
Polizeibeamte und Kriegsreporter hätten „seit Langem bewährte Maßnahmen zum
Schutz der psychischen Gesundheit eingeführt. Es gibt keinen Grund, warum
Technologieunternehmen ihre Mitarbeiter in ihren Lieferketten nicht in
ähnlicher Weise schützen sollten.“
## Kann das nicht die KI?
Wenn das alles so schlimm ist, könnte die Arbeit dann nicht bald eine KI
übernehmen? Teilweise wird sie schon eingesetzt, aber bisher ist sie
schlicht nicht gut genug. Expert*innen gehen außerdem davon aus, dass
sie den menschlichen Blick nie ganz ersetzen kann. Weil Inhalte zu subtil
sind, sich gesellschaftliche Standards ändern und vielleicht auch weil
Kreativität, auch die der menschlichen Grausamkeit, unermesslich ist.
Algorithmen werden nicht immer sicher Folter oder Missbrauch erkennen. Ein
weiteres Problem ist bisher, dass es zu wenig KI-Systeme gibt, die
kulturell und linguistisch differenzieren können.
Und auch das Training der KI hat eigene Tücken. Veronica Oduor hat in einem
solchen Projekt gearbeitet und Tickets mit Inhalten bekommen, vor allem
viele Fakeprofile. Doch auch dort gab es ab und zu verstörende Inhalte.
Aber statt nur schnell die Aufnahmen zu markieren, musste sie der KI genau
erklären, was auf welche Weise gegen die Richtlinien verstößt.
Diese tiefe Auseinandersetzung mit Daten und Bildern sei einer der
grundsätzlichen Unterschiede zwischen den Data-Labelern, also Menschen, die
Daten für KI markieren oder beschreiben, und den
Contentmoderator*innen der sozialen Netzwerke, erklärt Joan Kinyua.
Sie ist Präsidentin der seit diesem Jahr eingetragenen
Data-Labeler-Vereinigung.
Zwar hätten die Moderator*innen meist in dichterer Zahl mit
[6][verstörenden Inhalten zu tun, aber auch Data-Labeler,] die sonst zum
Beispiel Luftaufnahmen für Drohnentransporte analysieren und kennzeichnen,
könnten damit in einem Projekt zu tun haben. „Manche von uns haben bei
pathologischen Projekten zum Beispiel tödliche Wunden nachzeichnen müssen,
andere haben sich monatelang Pornos angeschaut und analysiert, um
Kategorien für einen verbesserten Suchalgorithmus zu vergeben“, erzählt
sie.
Die Vereinigung habe Kinyua mit zehn anderen Data-Labelern gegründet, sie
kannten sich aus Projekten, an denen sie gemeinsam gearbeitet hatten. Die
meisten Data-Labeler arbeiten selbstständig und meist isoliert von zu
Hause. Am Anfang der Initiative stand ein Aha-Moment bei einem
Forschungsprojekt einer wissenschaftlichen Mitarbeiterin der Universität
Stanford. Immer wieder, wenn die Data-Labeler von ihren alltäglichen
Aufgaben erzählten, sagte die Forscherin: „Aber das ist illegal.“ Erst in
diesem systematischen Abfragen wurde Kinyua klar, dass die Probleme und
Herausforderungen, die sie und die anderen Labeler erleben, systemisch
sind.
## Gemeinschaft und neue Wege, sich zu organisieren
Das Projekt Kinyuas versucht vor allem, direkt die Leben der
Arbeiter*innen zu verbessern. Viele kämen aus den Slums, sagt sie.
Unternehmen wie Sama betonen, sie wollten Menschen aus der informellen
Arbeit holen und eine Chance auf einen festen Job geben. Aber durch die
fehlenden Schutzmaßnahmen bleibt die Arbeit prekär.
Daher ist es gar nicht so einfach die Mitglieder zu organisieren, denn
viele hätten Angst, öffentlich sichtbar zu sein – auch aufgrund der
Verschwiegenheitserklärungen. „Das ist einer der wichtigsten Gründe, warum
wir uns noch nicht wohlfühlen, einer Gewerkschaft beizutreten, dann würden
wir die Leute exponieren“, sagt Joan Kinyua. Also versuchen sie vorsichtig,
eine Gemeinschaft aufzubauen und die Leute aus der Isolation zu holen. Noch
in diesem Jahr wollten sie ein gemeinsames Treffen vor Ort abhalten.
Zugleich wollen sie aufklären über all die Dinge, die sie selbst Stück für
Stück gelernt haben. Sie arbeiten an einem [7][Code of Conduct]. Eine
Verpflichtung für Unternehmen, die sie freiwillig unterschreiben können. Es
ist ein erster Schritt, solange die Gesetze noch nicht so weit sind. „Ich
habe [8][nicht das Gefühl, dass unsere Regierung für uns Menschen da ist],
sondern sich mehr um die großen Firmen kümmert. Also müssen wir selbst für
uns einstehen“, sagt Kinyua.
Manchmal fühle es sich so an, als würde die Regierung glauben, dass wir
gegen sie kämpfen würden oder die Arbeitsplätze hier nicht haben wollten.
„Aber das ist nicht der Fall. Die Frage ist vielmehr, welche
Schutzmaßnahmen diesen Menschen zustehen. Warum schaffen wir nicht zuerst
Richtlinien und Vorschriften und holen dann die Jobs ins Land?“
Damit zielt sie auch auf ein neues Gesetz ab, dass die Grundlage für
Geschäfte in Kenia modernisieren soll und gezielt Regelungen für
Subunternehmen der Tech-Firmen umfasst. Bei einer Pressekonferenz im August
warfen sie und andere Gig-Arbeits-Organisationen im Land der Regierung vor,
sie hätte sich nicht an den Gesetzgebungsprozess gehalten und das Gesetz
ohne Aussprache mit der Öffentlichkeit im Senat durchgebracht.
Sie sorgen sich, dass durch das Gesetz die Tech-Giganten in Kenia nicht
mehr zu Verantwortung gezogen werden könnten, sondern nur noch die
Outsourcingunternehmen. Deshalb hat [9][Joan Kinyua zusammen mit 35
weiteren Petentinnen nun Verfassungsbeschwerde eingereicht].
## Vor Gericht gegen die Geister, die sie riefen
Das neue Gesetz berührt zudem einen Fall, der aktuell noch gerichtlich
verhandelt wird und zu einem Präzedenzfall im Umgang mit der Gig-Economy
und der Frage zu werden droht: Können internationale Plattformen
verantwortlich gemacht werden?
Die Klage hat Kauna Malgwis ehemaliger Kollege, der Südafrikaner Daniel
Motaung, ins Rollen gebracht. Im Rahmen einer [10][Recherche des
US-Magazins Time hat er 2022 das Schweigen der Data-Worker gebrochen]. In
dem Artikel und später auch in einer Klage prangerte Motaung die Konzerne
Sama und Meta wegen der niedrigen Löhne, undurchsichtiger
Einstellungspraktiken und seiner posttraumatischen Belastungsstörung, die
sich aus der Arbeit entwickelt habe, an. Außerdem wirft er dem Unternehmen
vor, seine Kündigung sei durch seinen Versuch ausgelöst worden, eine
Gewerkschaft zu bilden. [11][Sama widerspricht diesen Vorwürfen].
Motaungs Fall brachte die Selbstorganisation und die Gründungen von
Gewerkschaften ins Rollen. Schließlich hatte sich jemand getraut, offen
über die Arbeit zu sprechen, trotz der Verschwiegenheitserklärung. Für
Kauna Malgwi hieß das: Sie könnten es auch tun. Sie und über 150
Data-Worker gründeten 2023 auf ihren Bereich spezialisierte Gewerkschaften:
die African Content Moderators und Tech Worker Union. Sama beendete 2023
den Vertrag mit dem Auftraggeber Meta, Malgwi und etwa 260 Kolleg*innen
wurden entlassen. Das Unternehmen sagt, dass die Entscheidung nichts mit
den Whistleblowern zu tun gehabt habe, sondern rein geschäftlich war.
Meta hat sich in Reaktion auf die Klage darauf berufen, gar nicht selbst in
Kenia zu operieren und mit dem Argument die Klage gegen sich angefochten.
Das Netzwerk beauftrage lediglich Sama, für die Arbeitsbedingungen seien
sie nicht verantwortlich. Das kenianische Arbeits- wie auch
Berufungsgericht erteilten dem Argument jedoch eine Absage. Auch Metas
Versuch, die Arbeit in Kenia mit einem anderen Subunternehmen fortzusetzen,
scheiterte. Zunächst müsse der eine Fall geklärt werden, bevor Meta bei
jemand anderen das Geschäft weiterführen könne, argumentierte das Gericht.
In der Folge stellte Meta sich in Westafrika, in Ghana, mit einem neuen
Subunternehmen neu auf. Auch dort, hieß es im April im [12][Guardian,]
würden die Anwält*innen einer britischen juristischen NGO eine Klage
vorbereiten, wieder geht es um Bezahlung und [13][psychische Gesundheit].
Aus diesem Grund will sich die Data-Labeler-Vereinigung genauso wie die
internationale Gewerkschaftsbewegung über Ländergrenzen hinweg
organisieren. Vereins-Sekretär Michael Geoffrey Abuyabo Asia sagt: „Man
kann als Unternehmen nicht hierherkommen, die Rechte der Menschen hier in
Kenia verletzen und wenn man darüber spricht, nach Ghana flüchten. Das
bedeutet, man weiß, dass man etwas Falsches tut.“ Wenn Meta sein Geschäft
in andere afrikanische Länder verlagere, dann käme die Gewerkschaft dort
eben auch hin. Bis 2028 will sie Zweigstellen in allen 54 Ländern Afrikas
haben.
Die Ansätze zur Vernetzung haben schon jetzt reale Folgen. Veronica Oduors
Unternehmen habe zum Beispiel den Beitrag, den die Krankenversicherung
deckt, erhöht. „Gewerkschaften könnten, wenn sie stark würden, wirklich
durchkommen“, sagt sie. „Unser Druck kann etwas bewirken.“ Zuletzt wurden
auch die Pausenzeiten verlängert. Oduor hat nun täglich fast eine Stunde
mehr, um woanders hinzuschauen als auf die Bilder, die sie so schwer
vergessen kann.
28 Sep 2025
## LINKS
[1] https://transparency.meta.com/de-de/policies/community-standards/
[2] https://www.tiktok.com/community-guidelines/de/safety-civility
[3] https://openknowledge.worldbank.org/entities/publication/ebc4a7e2-85c6-467b…
[4] https://www.sama.com/blog/building-an-ethical-supply-chain
[5] https://uniglobalunion.org/news/moderation-alliance/?utm_source=chatgpt.com
[6] https://time.com/6247678/openai-chatgpt-kenya-workers/
[7] https://www.youtube.com/watch?v=gZHfA2Ufr6M
[8] https://time.com/7201516/kenya-president-meta-lawsuits/
[9] https://drive.google.com/file/d/1HrJdd4gCrNmu8Rf0OuoAf41hw6_6EM_3/view
[10] https://time.com/6147458/facebook-africa-content-moderation-employee-treat…
[11] https://www.sama.com/blog/ethical-and-sustainable-sourcing
[12] https://www.theguardian.com/technology/2025/apr/27/meta-faces-ghana-lawsui…
[13] https://www.thebureauinvestigates.com/stories/2025-04-27/suicide-attempts-…
## AUTOREN
Adefunmi Olanigan
## TAGS
wochentaz
Zukunft
Schwerpunkt Künstliche Intelligenz
Arbeitskampf
Plattformökonomie
psychische Gesundheit
Lesestück Recherche und Reportage
Arbeitsbedingungen
GNS
Reden wir darüber
EU-Kommission
Fake News
Arbeitskampf
Schwerpunkt Künstliche Intelligenz
Digitalisierung
## ARTIKEL ZUM THEMA
Neue KI-Strategie: EU will bei Künstlicher Intelligenz aufs Tempo drücken
Mehr KI und vor allem mehr europäische KI will die EU-Kommission in
Unternehmen sehen. Der Branchenverband begrüßt das, erwartet aber mehr als
Worte.
Social-Media-App Sora: OpenAI startet einen KI-Fake-Feed
OpenAI, das Unternehmen hinter ChatGPT, startet eine neue Social-Media-App.
Dort können User*innen ausschließlich KI-Videos posten.
Arbeitskampf in der Games-Branche: Welcome to the Bossfight
Die Bedingungen in der Gaming-Branche sind unterirdisch, lange gab es kaum
Widerstand. Nun vernetzt sich eine neue Generation von
Spieleentwickler:innen.
Ausbeutung im Tech-Sektor: Die KI-Revolution frisst ihre Gig-Worker
Große Firmen lagern das Training künstlicher Intelligenz an Subunternehmen
aus. Für die arbeiten weltweit echte Menschen – zu miserablen Bedingungen.
Meta-Mitarbeitende in Kenia wehren sich: „Ohnmacht, Erbrechen und Schreien“
Sie moderieren Kommentare auf Plattformen wie Facebook – und werden dabei
übel ausgebeutet. Dagegen klagen nun 140 Mitarbeitende des Meta-Konzerns.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.