# taz.de -- Gesichtserkennung in der Kritik: Diskriminierende Algorithmen | |
> KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel | |
> wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen. | |
Bild: Für Gesichtserkennung wird das System mit einer großen Menge an Bildern… | |
Je nach Perspektive ordnet mich das Gesichtserkennungs-Programm im | |
[1][Fraunhofer Heinrich-Hertz-Institut HHI in Berlin] als Frau oder als | |
Mann ein, manchmal ist es sich unsicher. In den meisten Fällen liegt es | |
aber richtig. Richtig, wenn man eine Binarität der Geschlechter voraussetzt | |
und innerhalb dieser Binarität anerkennt, dass ich mich als Frau | |
inszeniere. | |
Mein Alter wird zwischen „young teenager“ und „young adult“ geschätzt.… | |
entspricht nicht meinen 28 Lebensjahren, aber da mein Alter gewöhnlich zu | |
jung geschätzt wird, ist auch diese Ausgabe des Systems realistisch. | |
Das Programm ist eine Demoversion und wurde von Sebastian Lapuschkin | |
mitentwickelt, der am Fraunhofer HHI forscht. Auf der letztjährigen CeBIT | |
Hannover wurde sein Alter von eben diesem Programm hartnäckig zu hoch | |
geschätzt. Warum? Er trug an diesem Tag ein Hemd und der Algorithmus hatte | |
zuvor auf einem öffentlich verfügbaren Datensatz gelernt, dass Menschen, | |
die Hemden tragen, tendenziell älter sind. Diesen Zusammenhang hat ihm | |
niemand beigebracht, das Programm hat ihn von selbst hergestellt. | |
Transparent zu machen, auf welchen Kriterien solche Fehlschlüsse der | |
„künstlichen neuronalen Netze“ beruhen, ist eines der Forschungsziele von | |
[2][Wojciech Samek], der die Forschungsgruppe zum maschinellen Lernen im | |
Fraunhofer HHI in Berlin leitet. Er und sein Team haben zusammen mit | |
Kolleg*innen von der TU Berlin eine Technik entwickelt, die den | |
„Entscheidungsprozess“ eines Algorithmus zurückverfolgt und somit aufzeigt, | |
anhand welcher Kriterien ein bestimmter Output zustande kommt. | |
## Ungeahnte Möglichkeiten | |
Für die WissenschaftlerInnen am Fraunhofer HHI Berlin steht fest, dass KI | |
in Zukunft immer mehr Anwendung finden wird. Wir kennen sie im Privatleben | |
bereits als „Siri“, die unsere natürliche Sprache erkennt oder von | |
individualisierter Werbung, die auf unser Online-Verhalten zugeschnitten | |
ist. | |
Auch im medizinischen Bereich scheint die Bandbreite an Möglichkeiten zur | |
Einsetzung von KI noch ungeahnt. So können Algorithmen bereits Bilder von | |
Zellen analysieren und wichtige Hinweise auf Erkrankungen geben. | |
Wojciech Samek vom Fraunhofer HHI weist daraufhin, dass das ein großes | |
Potential birgt: Die Programme könnten relevante, bisher unbekannte | |
Korrelationen aufzeigen, denen tatsächlich eine kausale Beziehung zugrunde | |
liegt. Auf diese Weise wäre KI in der Lage, Wissen zu generieren. | |
Algorithmus mit Vorurteilen | |
Erst [3][Ende Oktober bestätigte Amazon], dass es mit der US-Einwanderungs- | |
und Zollbehörde (ICE) in Verhandlungen bezüglich einer Kooperation im | |
Bereich der Live-Gesichtserkennung steht. Die von Amazon entwickelte | |
Technologie „Rekognition“ kann in nur einer Sekunde ein Gesicht aus einer | |
Menschenmenge (zum Beispiel in einer Überwachungskamera) mit einer | |
Datenbank von 10 Millionen Gesichtern abgleichen. | |
Doch die Technologie steht wegen Fehleranfälligkeit in der Kritik. Eine | |
kürzlich durchgeführte [4][Studie der NGO American Civil Liberties Union | |
(ACLU)] bestätigte das: Bilder von den 535 Mitgliedern des Amerikanischen | |
Kongresses (SenatorInnen und Abgeordnete) wurden mit 25.000 | |
veröffentlichten Täterfotos abgeglichen. | |
Dabei zeigte „Rekognition“ insgesamt 28 falsche Übereinstimmungen. Bei 40% | |
dieser 28 falschen Identifizierungen wurden People of Colour (PoC) | |
fälschlicherweise als TäterInnen identifiziert. Der Gesamtanteil von PoC im | |
Kongress beträgt allerdings nur etwa 20%. Der enorm leistungsstarke | |
Algorithmus scheint vorurteilsbehaftet zu sein. | |
Das Ausgangsmaterial ist entscheidend | |
Um einen Algorithmus zu trainieren, muss er zunächst mit möglichst vielen | |
Daten konfrontiert werden. Für die Gesichtserkennung wird das System daher | |
mit einer großen Menge an Bildern von Gesichtern gefüttert, die zuvor | |
gelabelt wurden. Ein mögliches Label ist die Kategorie „Geschlecht“. Der | |
Algorithmus lernt schließlich, Verknüpfungen zwischen diesen Labeln und | |
bestimmten visuellen Merkmalen – im Grunde Pixelanordnungen – auf den | |
Bildern zu ziehen. | |
Ein Beispiel: Das Vorkommen eines Bartes in einem Gesicht korreliert | |
wahrscheinlich sehr häufig mit dem Label „Mann“. Erkennt das Programm dann | |
ein Bild mit dem visuellen Eindruck eines Bartes, spuckt es wiederum das | |
Label „Mann“ aus. | |
Die möglichen Probleme sind offensichtlich: Fehlerhafte oder klischeehafte | |
Label führen zu fehlerhaften oder klischeehaften Outputs. „Die Datensätze | |
müssten eigentlich von Experten gelabelt werden“ meint Wojciech Samek vom | |
Fraunhofer HHI. Tatsächlich werde diese mühevolle Arbeit oft ausgelagert | |
und das mindere die Qualität der Datensätze. | |
Repräsentation und Bildqualität | |
Ein weiteres Problem ist laut Samek die Repräsentation von Personen in den | |
Datensätzen. Wäre beispielsweise eine ethnische Gruppe in den Datensätzen | |
unterrepräsentiert, werde der Algorithmus bei Konfrontation mit einer | |
solchen Person ungenauer. So fiel es einem Programm besonders schwer, das | |
Alter von asiatisch aussehenden Menschen zu bestimmen, einfach weil der | |
Trainings-Datensatz weniger Bilder von asiatisch aussehenden Menschen | |
enthielt. | |
Auch die Bildqualität des Ausgangsmaterials ist relevant. Die | |
Standardeinstellungen vieler [5][Kameras sind für die Belichtung | |
hellhäutigerer Personen kalibriert]. Das führt dazu, dass die Bilder von | |
Personen mit dunklerer Hautfarbe häufiger schlecht belichtet sind. Diese | |
schlechtere Qualität des Bildes macht wiederum die Identifizierung häufiger | |
fehlerhaft. „Es ist enorm wichtig, sichere Standards zu entwickeln, die | |
bestimmte Normen und Qualitätskriterien einhalten.“ betont Samek. | |
Dieses Problem betrifft nicht nur den juristischen Bereich. Auch im | |
Gesundheitssektor kann es entscheidend sein, dass der Algorithmus, der | |
bestimmte Hautmerkmale auwerten soll, mit Bildern von diversen Hautfarben | |
trainiert wurde. | |
Einheitliche Qualitätsstandards | |
Auf einer Konferenz im November zum Thema [6][„Künstliche Intelligenz in | |
der Medizin“] soll genau darüber diskutiert werden. In Zusammenarbeit mit | |
der WHO (World Health Organization) organisiert die ITU (International | |
Telecommunication Union) dieses Zusammenkommen, um weltweite Standards zur | |
Anwendung von KI in der Medizin zu entwickeln. | |
Wojciech Samek wird auch daran teilnehmen, denn seine Forschung fokussiert | |
sich darauf, Licht in die „Blackbox“ zu bringen: Er und sein Team verfolgen | |
den „Entscheidungsprozess“ von Programmen zurück und machen so transparent, | |
nach welchen Kriterien ein Algorithmus zu einem Ergebnis gekommen ist. | |
Dadurch entlarven sie zufällige Korrelationen und verbessern die Performanz | |
der Programme. | |
Vor der Verwendung der Gesichtserkennungstechnologie von staatlichen | |
Behörden, wie im Fall von Amazon warnt Samek: „Es ist natürlich | |
hochproblematisch, wenn solche Systeme zum Beispiel in der | |
Täteridentifizierung angewendet werden, ohne dass nachvollziehbar ist, nach | |
welchen Kriterien sie jemanden erkennen“. Momentan wäre die Nutzung dieser | |
Technologie höchstens als Ergänzung sinnvoll. „Die Algorithmen lernen | |
Vorurteile mit, wenn diese in den Datensätzen schon drin stecken.“ | |
Würde ein Programm mit Datensätzen trainiert, die prozentual mehr Menschen | |
mit dunklerer Hautfarbe als Täter ausweisen, dann lernt der Algorithmus | |
das. Bei einer Polizeikontrolle mit Live-Gesichtserkennung ist jede Person | |
mit dunklerer Hautfarbe also verdächtiger für diesen Algorithmus. | |
[7][Bedenken kommen auch von Amazon-MitarbeiterInnen]. In einem anonymen, | |
offenen Brief fordern sie das Ende der Verhandlungen mit der US-Behörde | |
ICE. Die Nutzung von „Rekognition“ durch den US-Staat wäre ein Schritt in | |
Richtung Massenüberwachung und mögliche Konsequenzen seien nicht absehbar. | |
Neben der Fehleranfälligkeit der Algorithmen hätte die Nutzung von | |
„Rekognition“ durch die US-Regierung weitere problematische Implikationen: | |
Wenn Kameras in der Nähe von Schulen, Krankenhäusern und Gebetshäusern | |
hängen, würden Menschen ohne legalen Aufenthaltstatus davon abgehalten, | |
diese teilweise lebensnotwendigen Einrichtungen aufzusuchen. | |
Dieser Umstand verdeutlicht die Relevanz des interdisziplinären Teams im | |
Fraunhofer HHI. Was Samek und seine MitarbeiterInnen fordern, entspricht so | |
einer Grundlage moderner Moralphilosophien: Wer eine verantwortungsvolle | |
und in diesem Sinne moralische Entscheidung treffen will, muss wissen, wie | |
sie gerechtfertigt ist. Und Rechtfertigung bedeutet, gute Gründe für eine | |
Entscheidung zu haben. Wenn KI in Zukunft an relevanten Stellen einer | |
Gesellschaft eingesetzt wird, dann muss der Entscheidungsprozess der | |
Programme also transparent und streng kontrolliert sein. | |
2 Nov 2018 | |
## LINKS | |
[1] https://www.hhi.fraunhofer.de | |
[2] http://iphome.hhi.de/samek/#Teaching | |
[3] https://www.thedailybeast.com/amazon-pushes-ice-to-buy-its-face-recognition… | |
[4] https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amaz… | |
[5] http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf#cite.klare… | |
[6] https://www.itu.int/en/ITU-T/focusgroups/ai4h/Pages/default.aspx | |
[7] https://medium.com/s/powertrip/im-an-amazon-employee-my-company-shouldn-t-s… | |
## AUTOREN | |
Julia Hummer | |
## TAGS | |
Lesestück Recherche und Reportage | |
Schwerpunkt Überwachung | |
Überwachungstechnik | |
Algorithmen | |
Ethik | |
Schwerpunkt Künstliche Intelligenz | |
Gesichtserkennung | |
Schwerpunkt Rassismus | |
Schwerpunkt Überwachung | |
USA | |
Wahlmanipulation | |
Publikationen | |
Internet | |
Datenschutz | |
Gesundheit | |
Schwerpunkt Meta | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz: Der drohende Daten-Kolonialismus | |
Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche | |
Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten. | |
Gesichtserkennung in England: Überall digitale Augen | |
Seit 2016 testet die Londoner Polizei automatische Gesichtserkennung. Gegen | |
die staatliche Überwachung regt sich nun Widerstand. | |
Algorithmus bei der New Yorker Polizei: Software gleicht Verbrechen ab | |
Die New Yorker Polizei baut auf einen Algorithmus für die Verbrechersuche. | |
Mit „Patternizr“ können die Ermittler Verbrechen auf Muster abgleichen. | |
Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“ | |
Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien | |
selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler | |
darauf hinweisen. | |
Studie über Publikationen: Länderranking in der KI-Foschung | |
Die KI-Forschung boomt. Die Anzahl der Publikationen nimmt rasant zu, die | |
meisten kommen aus Europa. Danach folgt China. | |
Digitalstrategie der Bundesregierung: Gehemmte Intelligenz | |
Mit drei Milliarden Euro glaubt die Bundesregierung zur digitalen Spitze | |
aufschließen zu können. Hat sie die Bedeutung von KI verstanden? | |
Test der Gesichtserkennung in Berlin: Polizei mit Überwachung zufrieden | |
Die Bundespolizei hat in Berlin ein Pilotprojekt zur biometrischen | |
Gesichtserkennung getestet. Datenschützer kritisieren die Verletzung von | |
Persönlichkeitsrechten. | |
Kommentar Digitale Gesundheitsakte: Keine Angst vor Algorithmen | |
Digitale Angebote im Gesundheitswesen können Leben retten. Die Datenhoheit | |
über die sensiblen Informationen muss aber bei den PatientInnen liegen. | |
Datenskandal bei Facebbook: Awareness-Regeln für Algorithmen | |
Politiker von SPD und Grünen fordern eine Agentur zur Kontrolle von | |
Netzfirmen wie Facebook. Zuckerberg muss vorm US-Kongress aussagen. |