| # taz.de -- Filter bei Facebook und Microsoft: Beim Livetest versagt | |
| > Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – | |
| > zeigen zwei im „Guardian“ dokumentierte Fälle. | |
| Bild: Mehrfach gelöschtes Foto: Aborigines im australischen Roebourne Gaol um … | |
| Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch | |
| unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer | |
| Netzkonzerne offenzulegen. | |
| Ein Bericht auf der australischen Seite des Guardian befasste sich mit der | |
| Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am | |
| australischen Premier Scott Morrison mit einem historischen Foto von | |
| Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass | |
| es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit | |
| unter schwersten Bedingungen verursachte diese Aussage heftige Debatten. | |
| Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden | |
| anderer Nutzer*innen als unangemessen eingestuft worden: Die | |
| Analysesoftware von Facebook hatte die Abbildung der lediglich [1][mit | |
| Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert] und | |
| automatisch gesperrt. | |
| Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und | |
| entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus | |
| der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen | |
| entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild | |
| war wiederum das historische Bild der angeketteten Aborigines. Mit | |
| derselben Illustration [2][berichtet der Guardian weiter über den Fall] und | |
| unterzieht so die Resilienz des Facebook-Content-Filters einer | |
| Livetestreihe. | |
| ## Redaktion gefeuert | |
| Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den | |
| Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt. | |
| So [3][berichtete der Guardian Ende Mai], dass das Webportal Microsoft News | |
| (MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen | |
| Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung | |
| relevanter Nachrichten verschiedener Medien für die Nutzer*innen des | |
| Portals sei in der Entwicklung so weit fortgeschritten, dass auf | |
| menschliche Mitarbeit verzichtet werden könne. | |
| Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen | |
| Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer | |
| Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung | |
| mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN: | |
| „Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei | |
| Women of Color nicht auseinanderhalten könnt.“ | |
| Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der | |
| vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite | |
| Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus | |
| diesen prominent platzierte. [4][Nach Information des Guardian sollten nun | |
| die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen | |
| den Beitrag entfernen], der dann wiederholt vom Algorithmus nach oben | |
| gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN | |
| aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine | |
| nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus | |
| schlicht nicht. | |
| Offenbart werden in diesen Fällen die Schwächen automatischer | |
| Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen | |
| algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision | |
| menschlicher Wahrnehmung und Bewertung. Auch die unzähligen | |
| Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen | |
| müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass | |
| Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben. | |
| Schwerere [5][Aufgaben wie Gesichtserkennung] werden dabei besonders oft | |
| falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung | |
| bestehender und zumeist [6][unbedacht in die Algorithmen programmierter | |
| menschlicher Vorurteile] zusätzlich ins Gewicht, weshalb Frauen und | |
| nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die | |
| Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des | |
| Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran, | |
| das gesichtete Material zu kontextualisieren. | |
| 15 Jun 2020 | |
| ## LINKS | |
| [1] https://www.theguardian.com/technology/2020/jun/13/facebook-incorrectly-rem… | |
| [2] https://www.theguardian.com/technology/2020/jun/15/facebook-blocks-bans-use… | |
| [3] https://www.theguardian.com/technology/2020/may/30/microsoft-sacks-journali… | |
| [4] https://www.theguardian.com/technology/2020/jun/09/microsofts-robot-journal… | |
| [5] /Gesichtserkennung-im-Netz/!5655672 | |
| [6] /Gesichtserkennung-in-der-Kritik/!5547535 | |
| ## AUTOREN | |
| Daniél Kretschmar | |
| ## TAGS | |
| Schwerpunkt Meta | |
| Microsoft | |
| Algorithmen | |
| Medienkrise | |
| Schwerpunkt Rassismus | |
| Algorithmus | |
| Digitale Wirtschaft | |
| Internet | |
| ## ARTIKEL ZUM THEMA | |
| Rassismus in Algorithmen: Gesichtserkennung für die Tonne | |
| In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen | |
| Dieb. Der aber sieht nicht annähernd wie der Täter aus. | |
| Einfluss auf den Algorithmus: Das System spinnt | |
| Menschen und Algorithmen beeinflussen sich gegenseitig. Ausnahmesituationen | |
| wie die Coronapandemie bringen die Systeme an ihre Grenzen. | |
| Buch über digitalen Kapitalismus: In Zeiten des Überflusses | |
| Neue Märkte, neue Unternehmen, neue Menschen? Philipp Staab geht den | |
| Veränderungen durch die digitale Ökonomie auf den Grund. | |
| Erinnerung und Vergessen im Netz: Ausgrabungen im digitalen Raum | |
| Unmengen an Daten werden produziert, gespeichert – und vergessen. Wird das | |
| alles archiviert? Ein Blick auf künftige Archäologie. |