Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Physiker über digitale Diskriminierung: „Die Algorithmen entsche…
> Viele Firmen nutzen automatisierte Verfahren, um Bewerber oder Kunden zu
> bestimmen. Das ist ungerecht, sagt Andreas Dewes – und fordert
> Kontrollen.
Bild: Aussieben. Algorithmen können das. Firmen wollen das. Aber dürfen sie a…
taz: Herr Dewes, Sie befassen sich wissenschaftlich mit Algorithmen,
genauer gesagt mit der Diskriminierung durch Algorithmen. Warum?
Andreas Dewes: Es ist heute so, dass Algorithmen immer mehr Aufgaben
übernehmen, die früher Menschen gemacht haben. Das heißt, dass Algorithmen
jetzt Entscheidungen treffen können – sie entscheiden beispielsweise
darüber, wer zum Bewerbungsgespräch eingeladen wird, wer in ein bestimmtes
Land einreisen darf und wer einen Kredit bekommt. Es werden also immer mehr
Bereiche in unserem Leben unter die Kontrolle von Algorithmen gestellt, es
wird aber wenig hinterfragt, wie diese funktionieren und ob sie wirklich
fair sind.
Also glauben Sie, dass Algorithmen keine fairen Entscheidungen treffen?
Algorithmen sind nichts anderes als eine Art Kochrezept. Sie sind eine
Handlungsanweisung für den Computer, der anhand von bestimmten Daten, die
man ihm zur Verfügung stellt, bestimmte Zielgrößen optimieren soll. So
sollen sie zum Beispiel bei Jobbewerbungen die Kandidaten herausfiltern,
die am besten passen. Bei Krediten sollen sie den Kunden heraussuchen, der
wohl am zuverlässigsten zahlt. In der Hinsicht sind Algorithmen erst mal
neutral und versuchen die Zielgröße, die man ihnen gibt, zu optimieren.
Doch es kann passieren, dass man dem Algorithmus, der eigentlich neutral
sein soll, unbewusst einen diskriminierenden Aspekt gibt.
Wie passiert das?
Um einen Algorithmus zu konzipieren, muss er am Anfang mit Trainingsdaten
sozusagen gefüttert werden. Es wird ihm also gezeigt, wonach man sucht und
wer der perfekte Kandidat wäre. Der Algorithmus versucht nun so viele Daten
wie möglich über den Bewerber herauszufinden. Er versucht die gleichen
Entscheidungen zu treffen, die der Mensch getroffen hätte.
Sind also Algorithmen so rassistisch und sexistisch wie der, der sie
programmiert?
Das kann man so sagen, aber man muss gar nicht so weit gehen. Ich würde
sagen, dass man genau darauf achten muss, welche Trainingsdaten man dem
Algorithmus zur Verfügung stellt. Außerdem sollte man ihm keine
Informationen geben, die potenziell Aufschluss über Eigenschaften geben,
die unter besonderem Schutz stehen.
Was meinen Sie damit?
Von Diskriminierung spricht man, wenn Menschen aufgrund der Hautfarbe, des
Alters oder des Geschlechts benachteiligt werden. Das bedeutet, die
Informationen dürfen, wenn der Algorithmus sie herausfindet, nicht
verwendet werden. Eigentlich ist es ganz einfach: Dann gibt man dem
Algorithmus diese Informationen einfach nicht. Doch das Problem ist, dass
man – Stichwort Big Data – so viele Informationen über den Menschen sammeln
kann. So ist es möglich, dass der Algorithmus diese sensiblen Informationen
herleiten kann, ohne dass man sie ihm explizit gibt.
Wie denn?
Es gibt viele Informationen, die nicht explizit Auskunft über Geschlecht
oder Herkunft geben, aber mit denen man diese Eigenschaften ziemlich gut
vorhersagen kann. Zum Beispiel: Die Seiten, die man besucht, können
ziemlich genau darüber Auskunft geben, ob man ein männlicher oder ein
weiblicher Nutzer ist. Da hat der Algorithmus also implizit noch zusätzlich
andere Informationen bekommen, als man ihm bewusst zur Verfügung gestellt
hat. Wenn man in der Zielgröße eine indirekte Diskriminierung gegen eine
Gruppe drin hat, dann kann der Algorithmus anhand der impliziten
Informationen diese Gruppe diskriminieren.
Woher weiß ein Algorithmus denn zum Beispiel, welches Geschlecht zu
bevorzugen ist?
Das weiß der Algorithmus natürlich nicht. Aber das ist indirekt in der
Zielgröße drin. Beim Bewerbungsprozess ist es so, dass der Algorithmus
versucht, die Entscheidungen, die der Mensch vorher gemacht hat,
nachzumachen. Das bedeutet, wenn es vorher eine Diskriminierung im Prozess
gab, also wenn beispielsweise bevorzugt Männer eingeladen worden sind, dann
versucht der Algorithmus, diese Entscheidungen zu reproduzieren, mit dem
Unterschied, dass ihm durch Big Data mehr Informationen zur Verfügung
stehen. Er weiß also nicht, dass er diskriminiert, aber gleichzeitig kann
er das besser als ein Mensch.
Zum Beispiel?
Sagen wir, wir haben 50 Prozent männliche Bewerber und 50 Prozent weibliche
Bewerber. Zum Einladungsgespräch wurden bisher – aus welchem Grund auch
immer – 30 Prozent der Männer und nur 15 Prozent der Frauen eingeladen. Der
Algorithmus, der die menschlichen Entscheidungen automatisieren will,
sieht, dass es bei Männern eine höhere Akzeptanz gibt, also wird er auch
häufiger Männer einladen, auch wenn man es nicht explizit programmiert. Er
automatisiert also die menschlichen Entscheidungen und versucht dazu alle
Informationen zu nutzen, die er finden kann.
Kann man nachweisen, ob bei dem Prozess eine Diskriminierung stattgefunden
hat?
Im Prinzip schon. Das Problem ist, dass viele Firmen diese Daten nicht
veröffentlichen. Auch wird der Algorithmus oft nicht getestet. Man
programmiert ihn und vertraut ihm, dass er die beste Entscheidung trifft
und blendet aus, dass es zu Problemen wie Diskriminierung kommen kann. Ohne
Prüfung kann man nicht gegensteuern. Der einfachste Test ist, das
Geschlecht der Bewerber zu erheben und dann im Nachhinein zu schauen, wie
die Verhältnisse sind. Das wird beispielsweise in den USA genutzt. Aber das
wird eben oft nicht gemacht.
Gibt es für die Entscheidungen durch Algorithmen auch positive Beispiele?
Natürlich. So können zum Beispiel Versicherungen viel passgenauer ihre
Angebote auf den Kunden ausrichten. Auch in der personalisierten Medizin
helfen Algorithmen, in dem man mit ihrer Hilfe versucht, Krankheiten anhand
von Patientendaten schneller und sicherer zu erkennen und bessere
Vorhersagen beispielsweise zur Wirksamkeit oder Verträglichkeit von
Medikamenten zu erhalten. Algorithmen sind, wie gesagt, erst einmal
neutral. Das Problem ist, dass wir dem Algorithmus viel zu viel Kontrolle
übergeben, ohne zu überprüfen, was da eigentlich passiert.
Was fordern Sie?
Was jetzt wichtig wird, ist, dass die Möglichkeit geschaffen wird,
Algorithmen von unabhängigen Gutachtern überprüft zu lassen – also eine Art
Algorithmen-TÜV. Wie man einen Datenschutzbeauftragten hat, bräuchte man
einen Algorithmusbeauftragten, der sich damit befasst. Wo das nicht möglich
ist, sollten sich Nutzer zusammenschließen und versuchen, sich
Informationen über den Algorithmus zu beschaffen. Das geht natürlich nur
eingeschränkt, aber ich glaube, es ist wichtig, die Entscheidungen eines
Algorithmus nicht als gegeben zu akzeptieren, sondern ständig zu
hinterfragen. Auch muss die Gesetzgebung mal festhalten, dass Daten nicht
unbegrenzt verarbeitet werden dürfen und dass auch eine Deanonymisierung
von Usern unter Strafe gestellt oder zumindest erschwert wird.
Es soll also möglich sein, dass man gegen die Erhebung von Daten rechtlich
vorgehen kann?
Das wäre das Beste. Personenbezogene Daten sind keine Schatzgruben, sondern
radioaktiver Müll, man muss viel vorsichtiger damit umgehen.
2 Apr 2016
## AUTOREN
Laila Oudray
## TAGS
Algorithmus
personenbezogene Daten
Diskriminierung
Kontrolle
Datenspeicherung
Schwerpunkt Rassismus
Google
## ARTIKEL ZUM THEMA
Debatte Daten und Öffentlichkeit: Willkommen bei Huxley
Daten sind die wichtigste Währung und manipulieren unser Kaufverhalten.
Aber auch über unser Weltbild haben sie immer mehr Macht.
Mensch und Maschine: Haben Sie Angst vor Algorithmen?
Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf
ihre Neutralität. Dabei entscheiden sie nicht immer fair.
Autonomes Fahren: Google-Auto verursacht Unfall
Die Software eines selbstfahrenden Fahrzeugs des Internetkonzerns ist
erstmals schuld an einer Kollision im Straßenverkehr.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.