Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Ausbeutung im Tech-Sektor: Die KI-Revolution frisst ihre Gig-Worker
> Große Firmen lagern das Training künstlicher Intelligenz an
> Subunternehmen aus. Für die arbeiten weltweit echte Menschen – zu
> miserablen Bedingungen.
Bild: Ein soziales Tauschgeschäft: mehr Flexibilität, weniger Sicherheit
Es war im Dezember 2024, als John einen Nebenjob suchte, um seine Promotion
in Literaturwissenschaft zu finanzieren. Da fiel dem Anfang 30-Jährigen aus
dem britischen Brighton eine Anzeige von Outlier auf, einem Unternehmen für
künstliche Intelligenz, das Menschen suchte, die am Training von
sogenannten Large Language Models oder kurz LLMs mitarbeiten.
Outlier, eine US-amerikanische Firma, ist einer der ganz großen Player am
KI-Markt. Hauptfinanzier von Outliers Dachgesellschaft Scale AI ist Peter
Thiel, der umstrittene ehemalige CEO von PayPal und einst der erste externe
Investor bei Facebook.
KI-Systeme sind so gut in der Datenverarbeitung, im Programmieren oder beim
Imitieren von Gesprächen, weil Menschen die Modelle zuvor angeleitet haben.
Johns Aufgabe würde es sein, Aufträge – sogenannte Prompts – für die
KI-Systeme zu formulieren und dann zu bewerten, wie korrekt, prägnant und
angemessen die Antworten des Modells waren. Dieser Prozess wird KI-Training
genannt und dient dazu, die Ergebnisse der Systeme zu verbessern.
Das KI-Training ist eine florierende Branche. John bekam den Job, der wegen
des Homeoffice ziemlich angenehm schien. Doch das Einstiegsgehalt für eine
so zukunftsweisende Branche war überraschend niedrig: etwa 14,30 Euro pro
Stunde, was zum damaligen Zeitpunkt nur ein paar Cent über dem britischen
Mindestlohn lag.
Outlier bezahlte John nicht in der Anlernzeit. Nach drei Monaten hatte John
36 Stunden bezahlt gearbeitet und zwölf Stunden mit Schulungen verbracht.
Ein Viertel seiner Arbeitszeit blieb also unbezahlt. Damit lag sein
Verdienst sogar noch unter dem Mindestlohn. Wenn er mehr Stunden als
vorgegeben arbeitete, wurden die Überstunden zu einem geringeren Satz
vergütet. Genauso war es, wenn er zusätzliche Arbeit übernahm. Er ließ sich
wiederholt für ein Projekt unbezahlt anlernen, nur um dann zu erfahren,
dass es nicht zustande kam. John war frustriert: „Aufgewandte Zeit sollte
immer angemessen bezahlt werden, egal ob es eine Schulung ist oder nicht.“
Neue Aufgaben bekam er insgesamt nur wenige, mit langen Pausen dazwischen,
Unterstützung gab es kaum. „Ich bin immer noch in ihrem System, aber
ehrlich gesagt können die mich mal.“
## Hunderte Millionen Menschen arbeiten als Gig-Worker
Nicht nur John ging es so. Sehr viele Gig-Worker, die in Europa und den USA
am Training großer Sprachmodelle für generative KI arbeiten, werden für
Schulungen, Sitzungen, Toilettenpausen, Gespräche mit Vorgesetzten und
Urlaub nicht bezahlt. Überstunden werden nicht voll bezahlt. Die Bezahlung
auf ein Minimum zu drücken, ist überall in der sogenannten Gig-Economy
üblich, in der Selbstständige und Minijobber über eine Onlineplattform
kurzfristig kleine Aufträge erhalten.
Online-Gig-Work hat sich in der Weltwirtschaft schnell etabliert. Einem
[1][Bericht der Weltbank von 2023] zufolge macht Gig-Work mittlerweile
zwischen 4,4 und 12,5 Prozent der weltweiten Erwerbstätigkeit aus.
Insgesamt gibt es 154 bis 435 Millionen Gig-Worker.
Für diese Recherche haben wir mehr als 200 Gig-Worker auf vier Kontinenten
kontaktiert und mehr als 50 ausführliche Interviews mit Menschen geführt,
die für Outlier und ähnliche Unternehmen arbeiten. Fast alle, mit denen wir
gesprochen haben, waren am Training von KI-Modellen beteiligt, etwa indem
sie selbst Prompts schrieben oder die Ergebnisse nach Prompts von anderen
auswerteten. Für solche Aufgaben können Spezialkenntnisse nötig sein.
Weitere Aufgaben der Gig-Worker bestehen darin, „unangemessene“ Antworten
zu identifizieren, zum Beispiel Aufrufe zu Gewalt oder andere sensible
Inhalte, sachliche oder grammatikalische Fehler oder Verstöße gegen
Gesundheits- und Sicherheitsvorschriften.
Outlier-Gig-Worker aus Portugal, den USA, dem Vereinigten Königreich,
Argentinien und Deutschland berichten, dass Schulungen und Besprechungen
meist nicht bezahlt werden. „Ich verdiene in etwa den Mindestlohn“, sagt
ein portugiesischer Sprachspezialist, „aber das variiert von Projekt zu
Projekt.“ Wenn er alle Besprechungen sowie Verwaltungs- und
Schulungsarbeiten einbeziehe, liege der Verdienst „mit Sicherheit“ unter
dem portugiesischen Mindestlohn. Außerdem gebe es keine Sozialleistungen.
Andere Outlier-Gig-Worker schätzen ebenfalls, dass ihre Honorare unter dem
Mindestlohn liegen: bei etwa 3,50 Euro pro Stunde in Portugal, bei weniger
als 4,50 Euro in den USA und bei 6 Euro in Deutschland.
Im Vereinigten Königreich steht in einigen Stellenanzeigen von Outlier
sogar offen, dass das KI-Training mit weniger als dem Mindestlohn von 12,21
Pfund, etwa 14 Euro, bezahlt wird. Das Unternehmen erklärt zwar, dass für
die Einarbeitung oder Überstunden niedrigere Sätze gelten können, lässt
aber unter den Tisch fallen, dass diese niedrigeren Sätze im Einzelfall
gegen null tendieren können.
## Lohndiebstahl, seit Jahren
Die Soziologin und Informatikerin Milagros Miceli leitet eine
Forschungsgruppe am Weizenbaum-Institut in Berlin, das auf Digitalisierung
spezialisiert ist. Miceli hat beobachtet, dass Outsourcingunternehmen schon
immer so taten, als ob Schulungen eine Form der beruflichen Qualifikation
seien, weshalb Gig-Worker sie als Bonus betrachten sollten, für den sie
nicht noch extra bezahlt werden müssten. In etwa wie bei einem unbezahlten
Praktikum. Der Unterschied: Die bei den Schulungen erworbenen Fähigkeiten
seien außerhalb der jeweiligen Projekte meist nutzlos und könnten nicht auf
andere Projekte übertragen werden. „Da Gig-Worker für diesen Teil ihrer
Arbeit nicht bezahlt werden, werden sie von den Unternehmen ausgebeutet“,
sagt Miceli.
Antonio Casilli, Soziologieprofessor am Institut polytechnique de Paris und
Autor des Buchs „Waiting for Robots. The Hired Hands of Automation“,
spricht in diesem Zusammenhang von Lohndiebstahl, den die Unternehmen und
Plattformen seit Jahren begehen.
Für eine [2][Studie haben Forscher*innen des Oxford Internet Institute
2022 Gig-Worker im Globalen Süden interviewt]. Die Befragten arbeiteten im
Durchschnitt 22,7 Stunden pro Woche auf den Plattformen, von denen 7,8
Stunden unbezahlt waren, also etwa ein Drittel. Ein Outlier-Gig-Worker in
Indien, den wir interviewten, arbeitete drei Tage lang fünf Stunden pro
Tag: „Ich musste zwei Antworten von zwei verschiedenen KI-Modellen
analysieren, validieren und vergleichen, die sie auf einen bestimmten
Prompt ausgegeben hatten. Als ich ungefähr 5 Dollar verdient hatte, war das
Geld nach einer Woche noch nicht bei mir angekommen. Trotzdem habe ich
weitergearbeitet, bis ein Honorar von 20 bis 30 Dollar fällig war. Ich
wartete auf die Überweisung, bekam aber eine E-Mail, in der ich beschuldigt
wurde, gegen die Richtlinien verstoßen zu haben, weshalb mein Konto
gesperrt werde. Als ich dagegen protestierte, bekam ich keine richtige
Antwort. Meine Arbeit wurde nicht bezahlt.“
Wir haben Outlier darum gebeten, zu den Lohndiebstahlvorwürfen Stellung zu
beziehen. Das Unternehmen hat auf unsere Anfrage zwar geantwortet, ist aber
nicht auf die von uns gestellten konkreten Fragen eingegangen.
Outliers Dachgesellschaft ist Scale AI. Sie wurde 2016 von Alexandr Wang,
der damals als amerikanisches Techwunderkind galt, gegründet, um
Arbeitskräfte zu vermitteln, die Daten kommentieren und annotieren.
Inzwischen ist der Unternehmensschwerpunkt aber das Training von großen
Sprachmodellen.
## Das Sytem schaut ständig über die Schulter
Ein wichtiger Investor von Scale AI ist Peter Thiel, dessen Founders Fund
im August 2019 100 Millionen Dollar in Scale AI steckte. Inzwischen sind
auch Mark Zuckerbergs [3][Meta] und Jeff Bezos’ Amazon als Investoren
eingestiegen. Das Unternehmen war 2024 bereits 14 Milliarden Dollar wert
und [4][strebte im März dieses Jahres eine Bewertung von 25 Milliarden
Dollar] an. Zu seinen Kunden gehören der europäische
Unternehmensberatungsriese Accenture, SAP und das britische Unternehmen
Deloitte. Wir haben alle drei Unternehmen um eine Stellungnahme zu ihrer
Beziehung zu Scale AI und Outlier gebeten. Keines hat geantwortet. Auch
OpenAI, Anthropic und Microsoft gehören zum Kundenkreis, daneben das
kanadische Unternehmen Cohere, das Weiße Haus und das US-Militär.
Outlier wurde 2023 gegründet und „widmet sich der Förderung generativer KI
durch spezialisiertes menschliches Fachwissen“, wie der Geschäftsführer
Xiaote Zhu sagt. Nach Angaben des Unternehmens biete es Gig-Workern
„flexible, unverbindliche Möglichkeiten zu einem zusätzlichen Einkommen“,
was ein Euphemismus für prekäre und ungeregelte Arbeit ist. Outlier
bezeichnet seine Gig-Worker sogar beschönigend als „Mitwirkende“.
[5][Allein im letzten Jahr hätten Zehntausende aus der ganzen Welt Hunderte
von Millionen Dollar bei Outlier verdient, sagt Zhu], was den Eindruck
erwecken soll, dass die Milliarden aus dem Unternehmensumsatz zu den
Gig-Workern durchgesickert seien. Im Jahr 2023 erklärte Scale AI gegenüber
dem [6][Forbes-Magazin] stolz, dass die Firma sich verpflichtet fühle,
ihnen „einen existenzsichernden Lohn“ zu zahlen. Auf den warten sie
allerdings noch immer.
Outlier schirmt seine Kund*innen von den Gig-Workern ab. Kund*innen und
Projekte verbergen sich hinter Codewörtern wie „Cabbage Patch“, „Jellyfi…
Rubrics“ oder „Laurelin Sun“. Meistens wissen die Gig-Worker nicht, wer d…
Kund*innen sind. Sie dürfen noch nicht einmal darüber spekulieren,
welches Unternehmen zu einem Projekt gehören könnte, wie ein in Westeuropa
ansässiger Sprachspezialist bei Outlier uns berichtet hat.
Outlier-Gig-Worker müssen Vertraulichkeitsvereinbarungen unterschreiben,
wie sie auch bei ähnlichen Unternehmen üblich sind. Und Outlier verbietet
den Gig-Workern, außerhalb ihrer Arbeitszeit über die Einzelheiten der
Projekte zu sprechen.
Wir konnten ein internes Dokument einsehen, in dem Google als Outlier-Kunde
aufgeführt ist, vermutlich für das Training des Gemini-Modells. Da die
Namen von Meta, OpenAI und Alphabet in einem kalifornischen
Gerichtsverfahren genannt werden, [7][scheinen sie allesamt ebenfalls
Kund*innen von Outlier] zu sein.
## Kein verlässlicher Arbeitgeber
Überstunden sind bei Outlier ganz zugunsten des Unternehmens geregelt. Ein
automatischer Timer von Hubstaff, einem Softwareunternehmen für mobiles
Arbeiten, überwacht die Gig-Worker und erfasst ihre Arbeitszeit. Sie müssen
den Timer anhalten, um Pausen zu machen. Selbst Toilettenpausen werden von
der Arbeitszeit abgezogen. Die Bezahlung entspricht zudem nicht der den
jeweiligen Aufgaben zugeordneten Zeit. Gig-Worker erzählen davon, dass
angeblich in einer Stunde zu bewältigende Aufgaben meistens länger dauern,
sodass das Honorar dafür verhältnismäßig niedriger ausfällt.
Wenn Gig-Worker mehr Zeit benötigen, können sie entweder die Aufgabe
abgeben und werden nicht mehr bezahlt, oder sie arbeiten zu einem
reduzierten Satz weiter daran. Viele verfahren dann nach dem Motto „Besser
weniger als nichts“ und machen weiter.
Falls die Aufgabe nach einer bestimmten Frist immer noch nicht
abgeschlossen ist, werden die Gig-Worker überhaupt nicht bezahlt, wie
Mitarbeitende aus verschiedenen Kontinenten berichten. Das sei allerdings
nicht bei allen Projekten so. Ein promovierter Lehrer aus den USA beschrieb
eine solche Situation so: „Ich hatte zwei Stunden damit verbracht, ein
Dokument zu überarbeiten. Das System zeigte mir zwei Fehler an, die ich
beheben musste, bevor die Zeit ablief. Einen konnte ich entdecken, den
anderen aber nicht. Da war nichts zu machen. Die Zeit lief ab, und ich
bekam für diese Aufgabe kein Geld.“
Milagros Miceli zufolge ist die Praxis „sehr verbreitet“, angeblich nicht
erledigte Aufgaben nicht zu bezahlen. Gig-Worker seien so sehr daran
gewöhnt, dass sie es inzwischen nicht einmal mehr als Lohndiebstahl
wahrnähmen und sich sagten, dass das in der Gig Economy nun einmal so sei.
Ein weiteres großes Problem von Gig-Workern ist der Mangel an verlässlichem
Einkommen. Durch ihre steigende Zahl seien Aufträge schwerer zu bekommen.
Ein Interviewpartner berichtet: „Manche bleiben die ganze Nacht auf, um
sich Aufträge zu schnappen. Manchmal kommt gegen 1 Uhr nachts eine E-Mail
rein, in der steht, dass Aufträge verfügbar sind. Aber wenn ich morgens
aufwache, sind sie schon weg. Es fühlt sich oft wie ein Wettrennen an.“ Es
ist die virtuelle Form des allmorgendlichen Gangs von Tagelöhner*innen
zum Werkstor: Wer zu spät kommt, wird ausgesperrt.
## Der Widerstand wächst
Alle Gig-Worker haben damit zu kämpfen, wenn keine Arbeit verfügbar ist.
Einer der Interviewten arbeitet für das in Zypern ansässige malaysische
Unternehmen Mindy Support am Training generativer KI-Systeme und berichtet:
„Die Honorare sind höher als der Mindestlohn in meinem Land, aber das
Auftragsvolumen ist so klein, dass ich davon nicht leben kann.“ Andere
Mindy-Support-Gig-Worker kennen das: „Ich liebe es, Daten zu annotieren.
Aber manchmal ist einen ganzen Monat lang kein Projekt verfügbar. Ich muss
mir wohl bald einen anderen Job suchen.“ Auch Outlier-Gig-Worker in
Deutschland beklagen Mangel an Arbeit. Sie müssten lange ohne neue Aufträge
oder irgendeine Rückmeldung auskommen, was frustrierend sei.
Mira Wallis erforscht die Erfahrungen von Gig-Workern am Berliner Institut
für Migrationsforschung. „Wenn die KI-Firma sie nicht mehr braucht, kann
das Arbeitsverhältnis von heute auf morgen zu Ende sein“, sagt Wallis.
Manche Gig-Worker hätten ihr aber auch gesagt: „Dieser Job gibt mir
Sicherheit. Wenn die Wirtschaft in der Krise ist, kann ich immer online
arbeiten.“
Fragwürdige Beschäftigungspraktiken sind in der KI-Branche weitverbreitet.
Zwei Unternehmen müssen sich gerade in drei großen kalifornischen
Gerichtsverfahren verantworten.
Im Dezember 2024 hat der frühere Outlier-Gig-Worker [8][Steve McKinney vor
dem San Francisco County Superior Court wegen Lohndiebstahls und
Irreführung Klage gegen Scale AI eingereicht]. Der Kläger sagt, das
Unternehmen beschäftige ein Heer von unangemessen entlohnten und faktisch
selbstständigen Auftragnehmer*innen, die mit ihrer Arbeit den Boom
generativer KI möglich machen würden. Die in der Klage formulierten
Vorwürfe decken sich mit den Angaben der Gig-Worker, die wir interviewt
haben: Steve McKinney berichtet von unbezahlten Schulungen, zu knapp
bemessener Arbeitszeit und unbezahlten Überstunden.
Außerdem wird Scale AI einer „Lockvogeltaktik“ im Einstellungsprozess
beschuldigt. Steve McKinney sei ein Lohn von 25 US-Dollar pro Stunde
versprochen worden, aber davon habe er nur einen Teil erhalten. Scale AI
habe deshalb nicht den Mindestlohn nach kalifornischem Recht gezahlt.
## Ein „soziales Tauschgeschäft“
Eine weitere [9][Klage wurde im Januar 2025 eingereicht, ebenfalls in
Kalifornien]. In der Klageschrift heißt es, Scale AI habe dem Kläger aus
San Diego, der 2024 für Scale AI Daten annotierte, die nach kalifornischem
Recht fälligen Überstundenzuschläge und bezahlten Ruhezeiten vorsätzlich
nicht gezahlt. Schon im Oktober 2024 hatten frühere Gig-Worker Scale AI,
Outlier und HireArt verklagt. Sie hätten gegen Bundes- und Landesgesetze
verstoßen, als sie mehr als 500 Gig-Worker ohne die vorgeschriebene Frist
von 60 Tagen entließen. Der Fall wurde vor das zuständige US-Bezirksgericht
gebracht.
In den Outlier-Nutzungsbedingungen steht, dass das Unternehmen den
Gig-Workern kein verbindliches Arbeitsvolumen verspreche. Sie übernehmen
nach ihrem eigenen Ermessen Aufträge, die sie mit eigenen Geräten
erledigen. Die Gig-Worker haben so die volle Flexibilität, und das
Unternehmen hat keine Verpflichtungen: Es gibt keinen bezahlten Urlaub und
keine Elternzeit, keinen Überstundenausgleich und keine der anderen Rechte,
für die Gewerkschaften in den letzten 150 Jahren gekämpft haben.
Von daher ist es kaum verwunderlich, dass keine*r der Gig-Worker, mit
denen wir sprachen, diese Arbeit als Karrierechance betrachtet. „Es ist
eine Verzweiflungstat, um während der Arbeitslosigkeit etwas Geld zu
verdienen“, sagt eine Outlier-Sprachspezialistin von der iberischen
Halbinsel. Besonders alleinerziehende Frauen oder solche, die Verwandte
pflegen, lassen sich darauf ein, da sie diese Arbeit besser mit ihren
familiären Verpflichtungen vereinbaren können.
Mira Wallis sagt: „Diese Flexibilität kann prinzipiell als neues soziales
Tauschgeschäft funktionieren, zu dem die Menschen bereit sind.“ Mehr
Flexibilität und Freiheit gegen weniger Sicherheit. „Gig-Worker müssen aber
alle negativen Folgen der Plattformarbeit in Kauf nehmen, um sich diese
Flexibilität zu bewahren.“ Viele hätten trotzdem Probleme damit, Pflege
oder Kinderbetreuung mit der Plattformlohnarbeit in Einklang zu bringen.
„Das Homeoffice macht es nicht einfacher. Eine Frau erzählte mir einmal
ihre ganzen Probleme bei der Plattformarbeit, nur um am Ende zu betonen,
wie frei sie doch sei.“ Der Mangel an ausreichenden öffentlichen
Sozialleistungen für alleinerziehende Mütter sei einer der Gründe, die
Gig-Work-Anbietern wie Outlier in die Karten spielten. „Für manche
Gig-Worker ist es die beste von ausnahmslos schlechten Alternativen“, sagt
Wallis.
## Weltweite Entfremdung
Wenn ein Unternehmen wie Outlier eine Plattform in den USA betreibt,
während die Gig-Worker über die ganze Welt verteilt sind, fehlt eine
Anlaufstelle, um sich zu versammeln, zu organisieren oder Sammelbeschwerden
auf den Weg zu bringen. „Selbst Uber-Fahrer*innen oder
Essensausliefer*innen treffen sich auf der Straße“, sagt Milagros
Miceli. „Gig-Worker kennen sich nicht, außer vielleicht, wenn sie sich in
Facebook-Gruppen austauschen. So können keine Tarifverhandlungen
stattfinden.“
Die wahren Nutznießer dieses Modells sind die Techkonzerne, denn sie
entziehen sich dadurch der Verantwortung, die sie als Endnutzer der Arbeit
der Gig-Worker eigentlich übernehmen sollten. Das Outsourcingunternehmen
Samasource wurde von Facebook beauftragt, die Analyse sensibler
Onlineinhalte durchzuführen, wozu Bilder von Gewalt gehören. Samasource
heuerte Menschen in Kenia an, [10][die seither an posttraumatischen
Belastungsstörungen leiden] und die Facebook-Muttergesellschaft Meta
verklagten.
Die [11][EU-Lieferkettenrichtlinie] verpflichtet Unternehmen, notwendige
Maßnahmen zu ergreifen, um in ihren Wertschöpfungsketten schwerwiegende
Verletzungen der sozialen Grundrechte zu verhindern. Auch ausgebeutete
Gig-Worker könnten dieses Rechtsmittel nutzen. In Deutschland müssen alle
Unternehmen mit mehr als 1.000 Beschäftigten bestimmte
Menschenrechtsstandards in ihrer gesamten Lieferkette sicherstellen. Wenn
ein großes deutsches Unternehmen also ein in San Francisco ansässiges
Unternehmen für die Datenannotierung oder den KI-Support anheuert, müssen
die Rechte der Vertragsarbeiter*innen des Unternehmens in San
Francisco gewährleistet sein. Noch. Denn CDU und CSU wollen das
Lieferkettengesetz verwässern. Und auch die EU-Kommission, einige
EU-Mitgliedstaaten und Parlamentarier*innen [12][sind momentan dabei,
Kernelemente aus der Richtlinie herauszuoperieren].
Generative künstliche Intelligenz wird als Motor für globales Lohnwachstum
und Produktivität verkauft. Der KI-Guru Marc Andreessen meint, dass „KI die
Welt retten wird“. Die Produktivität der Weltwirtschaft werde explodieren
und für Wachstum, neue Branchen, neue Jobs und steigende Löhne sorgen.
Mit der Realität von KI-Gig-Workern hat das wenig zu tun. Der Soziologe
Antonio Casilli sagt, dass die ganze Debatte über KI und Arbeit von einer
falschen Vorstellung ausgehe: „Die Gefahr besteht nicht darin, dass Roboter
den Menschen die Arbeit wegnehmen, sondern darin, dass die Menschen für
Roboter arbeiten müssen.“
John aus Großbritannien hat inzwischen seine Doktorarbeit über
Superschurken in der Literatur begonnen, womit er gut vorankommt. „Für
Outlier habe ich nicht noch mal gearbeitet“, sagt er.
9 Aug 2025
## LINKS
[1] https://openknowledge.worldbank.org/entities/publication/ebc4a7e2-85c6-467b…
[2] https://onlinelibrary.wiley.com/doi/10.1111/glob.12407
[3] https://www.cnbc.com/2024/05/21/amazon-meta-back-scale-ai-in-1-billion-fund…
[4] https://www.cnbc.com/2024/05/21/amazon-meta-back-scale-ai-in-1-billion-fund…
[5] https://scale.com/blog/new-era-outlier
[6] https://www.forbesmiddleeast.com/innovation/artificial-intelligence-machine…
[7] https://webapps.sftc.org/ci/CaseInfo.dll?CaseNum=CGC24620481&SessionID=…
[8] https://www.sfgate.com/tech/article/sf-tech-startup-scale-ai-sued-wage-thef…
[9] https://techcrunch.com/2025/01/09/scale-ai-hit-by-its-second-employee-wage-…
[10] https://www.theguardian.com/world/2024/dec/18/why-former-facebook-moderato…
[11] https://commission.europa.eu/business-economy-euro/doing-business-eu/susta…
[12] /Pflichten-fuer-Unternehmen/!6092983
## AUTOREN
Michael Bird
Nathan Schepers
## TAGS
Schwerpunkt Künstliche Intelligenz
Arbeitskampf
Ausbeutung
Lesestück Recherche und Reportage
GNS
Reden wir darüber
Arbeitskampf
Kolumne Änder Studies
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Arbeitskampf in der Games-Branche: Welcome to the Bossfight
Die Bedingungen in der Gaming-Branche sind unterirdisch, lange gab es kaum
Widerstand. Nun vernetzt sich eine neue Generation von
Spieleentwickler:innen.
Fähigkeiten von KI: Warum ich keine Angst mehr vor künstlicher Intelligenz ha…
Künstliche Intelligenz würde unser aller Leben komplett verändern, heißt
es. Von der KI-Revolution ist allerdings noch nicht so viel zu spüren.
Ausbeutung in der Tech-Branche: Giga-Geschäft außer Kontrolle
Unternehmen wie Google brauchen billige Arbeitskräfte, die ihre
KI-Programme trainieren. Im Netz hat sich dafür ein riesiger Schwarzmarkt
gebildet.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.