Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Filter bei Facebook und Microsoft: Beim Livetest versagt
> Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
> zeigen zwei im „Guardian“ dokumentierte Fälle.
Bild: Mehrfach gelöschtes Foto: Aborigines im australischen Roebourne Gaol um …
Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch
unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer
Netzkonzerne offenzulegen.
Ein Bericht auf der australischen Seite des Guardian befasste sich mit der
Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am
australischen Premier Scott Morrison mit einem historischen Foto von
Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass
es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit
unter schwersten Bedingungen verursachte diese Aussage heftige Debatten.
Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden
anderer Nutzer*innen als unangemessen eingestuft worden: Die
Analysesoftware von Facebook hatte die Abbildung der lediglich [1][mit
Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert] und
automatisch gesperrt.
Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und
entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus
der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen
entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild
war wiederum das historische Bild der angeketteten Aborigines. Mit
derselben Illustration [2][berichtet der Guardian weiter über den Fall] und
unterzieht so die Resilienz des Facebook-Content-Filters einer
Livetestreihe.
## Redaktion gefeuert
Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den
Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt.
So [3][berichtete der Guardian Ende Mai], dass das Webportal Microsoft News
(MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen
Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung
relevanter Nachrichten verschiedener Medien für die Nutzer*innen des
Portals sei in der Entwicklung so weit fortgeschritten, dass auf
menschliche Mitarbeit verzichtet werden könne.
Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen
Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer
Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung
mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN:
„Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei
Women of Color nicht auseinanderhalten könnt.“
Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der
vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite
Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus
diesen prominent platzierte. [4][Nach Information des Guardian sollten nun
die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen
den Beitrag entfernen], der dann wiederholt vom Algorithmus nach oben
gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN
aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine
nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus
schlicht nicht.
Offenbart werden in diesen Fällen die Schwächen automatischer
Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen
algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision
menschlicher Wahrnehmung und Bewertung. Auch die unzähligen
Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen
müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass
Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben.
Schwerere [5][Aufgaben wie Gesichtserkennung] werden dabei besonders oft
falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung
bestehender und zumeist [6][unbedacht in die Algorithmen programmierter
menschlicher Vorurteile] zusätzlich ins Gewicht, weshalb Frauen und
nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die
Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des
Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran,
das gesichtete Material zu kontextualisieren.
15 Jun 2020
## LINKS
[1] https://www.theguardian.com/technology/2020/jun/13/facebook-incorrectly-rem…
[2] https://www.theguardian.com/technology/2020/jun/15/facebook-blocks-bans-use…
[3] https://www.theguardian.com/technology/2020/may/30/microsoft-sacks-journali…
[4] https://www.theguardian.com/technology/2020/jun/09/microsofts-robot-journal…
[5] /Gesichtserkennung-im-Netz/!5655672
[6] /Gesichtserkennung-in-der-Kritik/!5547535
## AUTOREN
Daniél Kretschmar
## TAGS
Schwerpunkt Meta
Microsoft
Algorithmen
Medienkrise
Schwerpunkt Rassismus
Algorithmus
Digitale Wirtschaft
Internet
## ARTIKEL ZUM THEMA
Rassismus in Algorithmen: Gesichtserkennung für die Tonne
In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen
Dieb. Der aber sieht nicht annähernd wie der Täter aus.
Einfluss auf den Algorithmus: Das System spinnt
Menschen und Algorithmen beeinflussen sich gegenseitig. Ausnahmesituationen
wie die Coronapandemie bringen die Systeme an ihre Grenzen.
Buch über digitalen Kapitalismus: In Zeiten des Überflusses
Neue Märkte, neue Unternehmen, neue Menschen? Philipp Staab geht den
Veränderungen durch die digitale Ökonomie auf den Grund.
Erinnerung und Vergessen im Netz: Ausgrabungen im digitalen Raum
Unmengen an Daten werden produziert, gespeichert – und vergessen. Wird das
alles archiviert? Ein Blick auf künftige Archäologie.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.