# taz.de -- Facebooks Algorithmen werden geprüft: Diskriminierung im System | |
> Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen | |
> rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun. | |
Bild: Eine Gesellschaft wird immer die Algorithmen bekommen, die sie verdient | |
Die Erkenntnis, dass Algorithmen diskriminieren, ist nicht neu oder | |
überraschend. Schließlich sind lernende Maschinen [1][vollständig abhängig | |
von menschlichem Input] und der ist ganz offensichtlich nicht | |
vorurteilsfrei. | |
Eine Gesellschaft, geprägt von Ungleichheit und den darauf basierenden | |
vielfältigen Formen der Benachteiligung, wird bei ungesteuerter Beobachtung | |
und der Verarbeitung der so gewonnenen Daten in kalten Rechenoperationen | |
immer die Algorithmen bekommen, die sie verdient. Die werden dann in | |
Suchmaschinen, sozialen Medien, bei der Schufa oder [2][polizeilicher | |
Gesichtserkennung] ohne permanente Korrekturen vorhandene Stereotype und | |
Vorurteile perpetuieren und verstärken. | |
Dass Facebook nun laut einem [3][Bericht des Wall Street Journal] eine | |
Taskforce einrichtet, die untersuchen soll, ob es überhaupt einen racial | |
bias in den eigenen Algorithmen gibt, kann da nur verwundern. Interessant | |
wäre doch lediglich die Frage, wie genau die selbstlernende Werbemaschine | |
des Konzerns beispielsweise Rassismus trainiert und welche Gegenstrategien | |
möglich sind. Vor allem, wie die dann nicht zu sehr mit dem | |
[4][Geschäftszweck der Plattform] kollidieren. Der besteht schließlich | |
darin, Menschen zu kategorisieren und zu hierarchisieren, um zielgenau | |
Werbung platzieren zu können, die dann wiederum jede nur denkbare | |
Stereotypisierung reproduziert. | |
Glaubt man bei Facebook tatsächlich die eigene Propagandalüge von der | |
vorurteils- und diskriminierungsfreien Plattform, dann können rassistisch | |
operierende Algorithmen natürlich nur ein zufälliger Fehler sein. Das wird | |
eine schöne Überraschung, wenn diese Fehler auch nach erfolgter | |
Untersuchung wieder und wieder auftreten. Und das werden sie ganz sicher. | |
23 Jul 2020 | |
## LINKS | |
[1] /Einfluss-auf-den-Algorithmus/!5687891 | |
[2] /Rassismus-in-Algorithmen/!5693454 | |
[3] https://www.wsj.com/articles/facebook-creates-teams-to-study-racial-bias-on… | |
[4] /Buch-ueber-digitalen-Kapitalismus/!5682942 | |
## AUTOREN | |
Daniél Kretschmar | |
## TAGS | |
Schwerpunkt Rassismus | |
Diskriminierung | |
Schwerpunkt Meta | |
Algorithmen | |
Schwerpunkt Rassismus | |
USA | |
Schwerpunkt Rassismus | |
Schwerpunkt Rassismus | |
Buch | |
Algorithmus | |
## ARTIKEL ZUM THEMA | |
Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen | |
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von | |
männlicher Norm. Sie reproduzieren real existierende Zuschreibungen. | |
US-Regierung gegen Google: Um die Nutzer geht es wohl kaum | |
Das US-Justizministerium verklagt Google. Der Suchmaschinenbetreiber steht | |
im Verdacht, seine marktbeherrschende Stellung zu missbrauchen. | |
Rassismus auf Facebook: „Zwarte Piet“ abschalten | |
Facebook kündigt an, härter gegen Antisemitismus und Blackfacing | |
vorzugehen. Das trifft auch eine umstrittene niederländische | |
Traditionsfigur. | |
Rassismus in Algorithmen: Gesichtserkennung für die Tonne | |
In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen | |
Dieb. Der aber sieht nicht annähernd wie der Täter aus. | |
Technologieexperte über Diskriminierung: „Effizienz ist längst nicht alles�… | |
Auch auf den ersten Blick wertfreie Technologie kann diskriminieren. Ein | |
Interview mit Ben Green, der glaubt, Städte sollten nicht zu smart werden. | |
Einfluss auf den Algorithmus: Das System spinnt | |
Menschen und Algorithmen beeinflussen sich gegenseitig. Ausnahmesituationen | |
wie die Coronapandemie bringen die Systeme an ihre Grenzen. |