# taz.de -- Filter bei Facebook und Microsoft: Beim Livetest versagt | |
> Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – | |
> zeigen zwei im „Guardian“ dokumentierte Fälle. | |
Bild: Mehrfach gelöschtes Foto: Aborigines im australischen Roebourne Gaol um … | |
Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch | |
unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer | |
Netzkonzerne offenzulegen. | |
Ein Bericht auf der australischen Seite des Guardian befasste sich mit der | |
Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am | |
australischen Premier Scott Morrison mit einem historischen Foto von | |
Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass | |
es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit | |
unter schwersten Bedingungen verursachte diese Aussage heftige Debatten. | |
Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden | |
anderer Nutzer*innen als unangemessen eingestuft worden: Die | |
Analysesoftware von Facebook hatte die Abbildung der lediglich [1][mit | |
Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert] und | |
automatisch gesperrt. | |
Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und | |
entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus | |
der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen | |
entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild | |
war wiederum das historische Bild der angeketteten Aborigines. Mit | |
derselben Illustration [2][berichtet der Guardian weiter über den Fall] und | |
unterzieht so die Resilienz des Facebook-Content-Filters einer | |
Livetestreihe. | |
## Redaktion gefeuert | |
Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den | |
Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt. | |
So [3][berichtete der Guardian Ende Mai], dass das Webportal Microsoft News | |
(MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen | |
Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung | |
relevanter Nachrichten verschiedener Medien für die Nutzer*innen des | |
Portals sei in der Entwicklung so weit fortgeschritten, dass auf | |
menschliche Mitarbeit verzichtet werden könne. | |
Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen | |
Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer | |
Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung | |
mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN: | |
„Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei | |
Women of Color nicht auseinanderhalten könnt.“ | |
Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der | |
vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite | |
Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus | |
diesen prominent platzierte. [4][Nach Information des Guardian sollten nun | |
die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen | |
den Beitrag entfernen], der dann wiederholt vom Algorithmus nach oben | |
gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN | |
aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine | |
nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus | |
schlicht nicht. | |
Offenbart werden in diesen Fällen die Schwächen automatischer | |
Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen | |
algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision | |
menschlicher Wahrnehmung und Bewertung. Auch die unzähligen | |
Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen | |
müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass | |
Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben. | |
Schwerere [5][Aufgaben wie Gesichtserkennung] werden dabei besonders oft | |
falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung | |
bestehender und zumeist [6][unbedacht in die Algorithmen programmierter | |
menschlicher Vorurteile] zusätzlich ins Gewicht, weshalb Frauen und | |
nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die | |
Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des | |
Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran, | |
das gesichtete Material zu kontextualisieren. | |
15 Jun 2020 | |
## LINKS | |
[1] https://www.theguardian.com/technology/2020/jun/13/facebook-incorrectly-rem… | |
[2] https://www.theguardian.com/technology/2020/jun/15/facebook-blocks-bans-use… | |
[3] https://www.theguardian.com/technology/2020/may/30/microsoft-sacks-journali… | |
[4] https://www.theguardian.com/technology/2020/jun/09/microsofts-robot-journal… | |
[5] /Gesichtserkennung-im-Netz/!5655672 | |
[6] /Gesichtserkennung-in-der-Kritik/!5547535 | |
## AUTOREN | |
Daniél Kretschmar | |
## TAGS | |
Schwerpunkt Meta | |
Microsoft | |
Algorithmen | |
Medienkrise | |
Schwerpunkt Rassismus | |
Algorithmus | |
Digitale Wirtschaft | |
Internet | |
## ARTIKEL ZUM THEMA | |
Rassismus in Algorithmen: Gesichtserkennung für die Tonne | |
In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen | |
Dieb. Der aber sieht nicht annähernd wie der Täter aus. | |
Einfluss auf den Algorithmus: Das System spinnt | |
Menschen und Algorithmen beeinflussen sich gegenseitig. Ausnahmesituationen | |
wie die Coronapandemie bringen die Systeme an ihre Grenzen. | |
Buch über digitalen Kapitalismus: In Zeiten des Überflusses | |
Neue Märkte, neue Unternehmen, neue Menschen? Philipp Staab geht den | |
Veränderungen durch die digitale Ökonomie auf den Grund. | |
Erinnerung und Vergessen im Netz: Ausgrabungen im digitalen Raum | |
Unmengen an Daten werden produziert, gespeichert – und vergessen. Wird das | |
alles archiviert? Ein Blick auf künftige Archäologie. |