| # taz.de -- Gesichtserkennung in der Kritik: Diskriminierende Algorithmen | |
| > KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel | |
| > wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen. | |
| Bild: Für Gesichtserkennung wird das System mit einer großen Menge an Bildern… | |
| Je nach Perspektive ordnet mich das Gesichtserkennungs-Programm im | |
| [1][Fraunhofer Heinrich-Hertz-Institut HHI in Berlin] als Frau oder als | |
| Mann ein, manchmal ist es sich unsicher. In den meisten Fällen liegt es | |
| aber richtig. Richtig, wenn man eine Binarität der Geschlechter voraussetzt | |
| und innerhalb dieser Binarität anerkennt, dass ich mich als Frau | |
| inszeniere. | |
| Mein Alter wird zwischen „young teenager“ und „young adult“ geschätzt.… | |
| entspricht nicht meinen 28 Lebensjahren, aber da mein Alter gewöhnlich zu | |
| jung geschätzt wird, ist auch diese Ausgabe des Systems realistisch. | |
| Das Programm ist eine Demoversion und wurde von Sebastian Lapuschkin | |
| mitentwickelt, der am Fraunhofer HHI forscht. Auf der letztjährigen CeBIT | |
| Hannover wurde sein Alter von eben diesem Programm hartnäckig zu hoch | |
| geschätzt. Warum? Er trug an diesem Tag ein Hemd und der Algorithmus hatte | |
| zuvor auf einem öffentlich verfügbaren Datensatz gelernt, dass Menschen, | |
| die Hemden tragen, tendenziell älter sind. Diesen Zusammenhang hat ihm | |
| niemand beigebracht, das Programm hat ihn von selbst hergestellt. | |
| Transparent zu machen, auf welchen Kriterien solche Fehlschlüsse der | |
| „künstlichen neuronalen Netze“ beruhen, ist eines der Forschungsziele von | |
| [2][Wojciech Samek], der die Forschungsgruppe zum maschinellen Lernen im | |
| Fraunhofer HHI in Berlin leitet. Er und sein Team haben zusammen mit | |
| Kolleg*innen von der TU Berlin eine Technik entwickelt, die den | |
| „Entscheidungsprozess“ eines Algorithmus zurückverfolgt und somit aufzeigt, | |
| anhand welcher Kriterien ein bestimmter Output zustande kommt. | |
| ## Ungeahnte Möglichkeiten | |
| Für die WissenschaftlerInnen am Fraunhofer HHI Berlin steht fest, dass KI | |
| in Zukunft immer mehr Anwendung finden wird. Wir kennen sie im Privatleben | |
| bereits als „Siri“, die unsere natürliche Sprache erkennt oder von | |
| individualisierter Werbung, die auf unser Online-Verhalten zugeschnitten | |
| ist. | |
| Auch im medizinischen Bereich scheint die Bandbreite an Möglichkeiten zur | |
| Einsetzung von KI noch ungeahnt. So können Algorithmen bereits Bilder von | |
| Zellen analysieren und wichtige Hinweise auf Erkrankungen geben. | |
| Wojciech Samek vom Fraunhofer HHI weist daraufhin, dass das ein großes | |
| Potential birgt: Die Programme könnten relevante, bisher unbekannte | |
| Korrelationen aufzeigen, denen tatsächlich eine kausale Beziehung zugrunde | |
| liegt. Auf diese Weise wäre KI in der Lage, Wissen zu generieren. | |
| Algorithmus mit Vorurteilen | |
| Erst [3][Ende Oktober bestätigte Amazon], dass es mit der US-Einwanderungs- | |
| und Zollbehörde (ICE) in Verhandlungen bezüglich einer Kooperation im | |
| Bereich der Live-Gesichtserkennung steht. Die von Amazon entwickelte | |
| Technologie „Rekognition“ kann in nur einer Sekunde ein Gesicht aus einer | |
| Menschenmenge (zum Beispiel in einer Überwachungskamera) mit einer | |
| Datenbank von 10 Millionen Gesichtern abgleichen. | |
| Doch die Technologie steht wegen Fehleranfälligkeit in der Kritik. Eine | |
| kürzlich durchgeführte [4][Studie der NGO American Civil Liberties Union | |
| (ACLU)] bestätigte das: Bilder von den 535 Mitgliedern des Amerikanischen | |
| Kongresses (SenatorInnen und Abgeordnete) wurden mit 25.000 | |
| veröffentlichten Täterfotos abgeglichen. | |
| Dabei zeigte „Rekognition“ insgesamt 28 falsche Übereinstimmungen. Bei 40% | |
| dieser 28 falschen Identifizierungen wurden People of Colour (PoC) | |
| fälschlicherweise als TäterInnen identifiziert. Der Gesamtanteil von PoC im | |
| Kongress beträgt allerdings nur etwa 20%. Der enorm leistungsstarke | |
| Algorithmus scheint vorurteilsbehaftet zu sein. | |
| Das Ausgangsmaterial ist entscheidend | |
| Um einen Algorithmus zu trainieren, muss er zunächst mit möglichst vielen | |
| Daten konfrontiert werden. Für die Gesichtserkennung wird das System daher | |
| mit einer großen Menge an Bildern von Gesichtern gefüttert, die zuvor | |
| gelabelt wurden. Ein mögliches Label ist die Kategorie „Geschlecht“. Der | |
| Algorithmus lernt schließlich, Verknüpfungen zwischen diesen Labeln und | |
| bestimmten visuellen Merkmalen – im Grunde Pixelanordnungen – auf den | |
| Bildern zu ziehen. | |
| Ein Beispiel: Das Vorkommen eines Bartes in einem Gesicht korreliert | |
| wahrscheinlich sehr häufig mit dem Label „Mann“. Erkennt das Programm dann | |
| ein Bild mit dem visuellen Eindruck eines Bartes, spuckt es wiederum das | |
| Label „Mann“ aus. | |
| Die möglichen Probleme sind offensichtlich: Fehlerhafte oder klischeehafte | |
| Label führen zu fehlerhaften oder klischeehaften Outputs. „Die Datensätze | |
| müssten eigentlich von Experten gelabelt werden“ meint Wojciech Samek vom | |
| Fraunhofer HHI. Tatsächlich werde diese mühevolle Arbeit oft ausgelagert | |
| und das mindere die Qualität der Datensätze. | |
| Repräsentation und Bildqualität | |
| Ein weiteres Problem ist laut Samek die Repräsentation von Personen in den | |
| Datensätzen. Wäre beispielsweise eine ethnische Gruppe in den Datensätzen | |
| unterrepräsentiert, werde der Algorithmus bei Konfrontation mit einer | |
| solchen Person ungenauer. So fiel es einem Programm besonders schwer, das | |
| Alter von asiatisch aussehenden Menschen zu bestimmen, einfach weil der | |
| Trainings-Datensatz weniger Bilder von asiatisch aussehenden Menschen | |
| enthielt. | |
| Auch die Bildqualität des Ausgangsmaterials ist relevant. Die | |
| Standardeinstellungen vieler [5][Kameras sind für die Belichtung | |
| hellhäutigerer Personen kalibriert]. Das führt dazu, dass die Bilder von | |
| Personen mit dunklerer Hautfarbe häufiger schlecht belichtet sind. Diese | |
| schlechtere Qualität des Bildes macht wiederum die Identifizierung häufiger | |
| fehlerhaft. „Es ist enorm wichtig, sichere Standards zu entwickeln, die | |
| bestimmte Normen und Qualitätskriterien einhalten.“ betont Samek. | |
| Dieses Problem betrifft nicht nur den juristischen Bereich. Auch im | |
| Gesundheitssektor kann es entscheidend sein, dass der Algorithmus, der | |
| bestimmte Hautmerkmale auwerten soll, mit Bildern von diversen Hautfarben | |
| trainiert wurde. | |
| Einheitliche Qualitätsstandards | |
| Auf einer Konferenz im November zum Thema [6][„Künstliche Intelligenz in | |
| der Medizin“] soll genau darüber diskutiert werden. In Zusammenarbeit mit | |
| der WHO (World Health Organization) organisiert die ITU (International | |
| Telecommunication Union) dieses Zusammenkommen, um weltweite Standards zur | |
| Anwendung von KI in der Medizin zu entwickeln. | |
| Wojciech Samek wird auch daran teilnehmen, denn seine Forschung fokussiert | |
| sich darauf, Licht in die „Blackbox“ zu bringen: Er und sein Team verfolgen | |
| den „Entscheidungsprozess“ von Programmen zurück und machen so transparent, | |
| nach welchen Kriterien ein Algorithmus zu einem Ergebnis gekommen ist. | |
| Dadurch entlarven sie zufällige Korrelationen und verbessern die Performanz | |
| der Programme. | |
| Vor der Verwendung der Gesichtserkennungstechnologie von staatlichen | |
| Behörden, wie im Fall von Amazon warnt Samek: „Es ist natürlich | |
| hochproblematisch, wenn solche Systeme zum Beispiel in der | |
| Täteridentifizierung angewendet werden, ohne dass nachvollziehbar ist, nach | |
| welchen Kriterien sie jemanden erkennen“. Momentan wäre die Nutzung dieser | |
| Technologie höchstens als Ergänzung sinnvoll. „Die Algorithmen lernen | |
| Vorurteile mit, wenn diese in den Datensätzen schon drin stecken.“ | |
| Würde ein Programm mit Datensätzen trainiert, die prozentual mehr Menschen | |
| mit dunklerer Hautfarbe als Täter ausweisen, dann lernt der Algorithmus | |
| das. Bei einer Polizeikontrolle mit Live-Gesichtserkennung ist jede Person | |
| mit dunklerer Hautfarbe also verdächtiger für diesen Algorithmus. | |
| [7][Bedenken kommen auch von Amazon-MitarbeiterInnen]. In einem anonymen, | |
| offenen Brief fordern sie das Ende der Verhandlungen mit der US-Behörde | |
| ICE. Die Nutzung von „Rekognition“ durch den US-Staat wäre ein Schritt in | |
| Richtung Massenüberwachung und mögliche Konsequenzen seien nicht absehbar. | |
| Neben der Fehleranfälligkeit der Algorithmen hätte die Nutzung von | |
| „Rekognition“ durch die US-Regierung weitere problematische Implikationen: | |
| Wenn Kameras in der Nähe von Schulen, Krankenhäusern und Gebetshäusern | |
| hängen, würden Menschen ohne legalen Aufenthaltstatus davon abgehalten, | |
| diese teilweise lebensnotwendigen Einrichtungen aufzusuchen. | |
| Dieser Umstand verdeutlicht die Relevanz des interdisziplinären Teams im | |
| Fraunhofer HHI. Was Samek und seine MitarbeiterInnen fordern, entspricht so | |
| einer Grundlage moderner Moralphilosophien: Wer eine verantwortungsvolle | |
| und in diesem Sinne moralische Entscheidung treffen will, muss wissen, wie | |
| sie gerechtfertigt ist. Und Rechtfertigung bedeutet, gute Gründe für eine | |
| Entscheidung zu haben. Wenn KI in Zukunft an relevanten Stellen einer | |
| Gesellschaft eingesetzt wird, dann muss der Entscheidungsprozess der | |
| Programme also transparent und streng kontrolliert sein. | |
| 2 Nov 2018 | |
| ## LINKS | |
| [1] https://www.hhi.fraunhofer.de | |
| [2] http://iphome.hhi.de/samek/#Teaching | |
| [3] https://www.thedailybeast.com/amazon-pushes-ice-to-buy-its-face-recognition… | |
| [4] https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amaz… | |
| [5] http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf#cite.klare… | |
| [6] https://www.itu.int/en/ITU-T/focusgroups/ai4h/Pages/default.aspx | |
| [7] https://medium.com/s/powertrip/im-an-amazon-employee-my-company-shouldn-t-s… | |
| ## AUTOREN | |
| Julia Hummer | |
| ## TAGS | |
| Lesestück Recherche und Reportage | |
| Schwerpunkt Überwachung | |
| Überwachungstechnik | |
| Algorithmen | |
| Ethik | |
| Schwerpunkt Künstliche Intelligenz | |
| Gesichtserkennung | |
| Schwerpunkt Rassismus | |
| Schwerpunkt Überwachung | |
| USA | |
| Wahlmanipulation | |
| Publikationen | |
| Internet | |
| Datenschutz | |
| Gesundheit | |
| Schwerpunkt Meta | |
| ## ARTIKEL ZUM THEMA | |
| Künstliche Intelligenz: Der drohende Daten-Kolonialismus | |
| Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche | |
| Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten. | |
| Gesichtserkennung in England: Überall digitale Augen | |
| Seit 2016 testet die Londoner Polizei automatische Gesichtserkennung. Gegen | |
| die staatliche Überwachung regt sich nun Widerstand. | |
| Algorithmus bei der New Yorker Polizei: Software gleicht Verbrechen ab | |
| Die New Yorker Polizei baut auf einen Algorithmus für die Verbrechersuche. | |
| Mit „Patternizr“ können die Ermittler Verbrechen auf Muster abgleichen. | |
| Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“ | |
| Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien | |
| selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler | |
| darauf hinweisen. | |
| Studie über Publikationen: Länderranking in der KI-Foschung | |
| Die KI-Forschung boomt. Die Anzahl der Publikationen nimmt rasant zu, die | |
| meisten kommen aus Europa. Danach folgt China. | |
| Digitalstrategie der Bundesregierung: Gehemmte Intelligenz | |
| Mit drei Milliarden Euro glaubt die Bundesregierung zur digitalen Spitze | |
| aufschließen zu können. Hat sie die Bedeutung von KI verstanden? | |
| Test der Gesichtserkennung in Berlin: Polizei mit Überwachung zufrieden | |
| Die Bundespolizei hat in Berlin ein Pilotprojekt zur biometrischen | |
| Gesichtserkennung getestet. Datenschützer kritisieren die Verletzung von | |
| Persönlichkeitsrechten. | |
| Kommentar Digitale Gesundheitsakte: Keine Angst vor Algorithmen | |
| Digitale Angebote im Gesundheitswesen können Leben retten. Die Datenhoheit | |
| über die sensiblen Informationen muss aber bei den PatientInnen liegen. | |
| Datenskandal bei Facebbook: Awareness-Regeln für Algorithmen | |
| Politiker von SPD und Grünen fordern eine Agentur zur Kontrolle von | |
| Netzfirmen wie Facebook. Zuckerberg muss vorm US-Kongress aussagen. |