| # taz.de -- Physiker über digitale Diskriminierung: „Die Algorithmen entsche… | |
| > Viele Firmen nutzen automatisierte Verfahren, um Bewerber oder Kunden zu | |
| > bestimmen. Das ist ungerecht, sagt Andreas Dewes – und fordert | |
| > Kontrollen. | |
| Bild: Aussieben. Algorithmen können das. Firmen wollen das. Aber dürfen sie a… | |
| taz: Herr Dewes, Sie befassen sich wissenschaftlich mit Algorithmen, | |
| genauer gesagt mit der Diskriminierung durch Algorithmen. Warum? | |
| Andreas Dewes: Es ist heute so, dass Algorithmen immer mehr Aufgaben | |
| übernehmen, die früher Menschen gemacht haben. Das heißt, dass Algorithmen | |
| jetzt Entscheidungen treffen können – sie entscheiden beispielsweise | |
| darüber, wer zum Bewerbungsgespräch eingeladen wird, wer in ein bestimmtes | |
| Land einreisen darf und wer einen Kredit bekommt. Es werden also immer mehr | |
| Bereiche in unserem Leben unter die Kontrolle von Algorithmen gestellt, es | |
| wird aber wenig hinterfragt, wie diese funktionieren und ob sie wirklich | |
| fair sind. | |
| Also glauben Sie, dass Algorithmen keine fairen Entscheidungen treffen? | |
| Algorithmen sind nichts anderes als eine Art Kochrezept. Sie sind eine | |
| Handlungsanweisung für den Computer, der anhand von bestimmten Daten, die | |
| man ihm zur Verfügung stellt, bestimmte Zielgrößen optimieren soll. So | |
| sollen sie zum Beispiel bei Jobbewerbungen die Kandidaten herausfiltern, | |
| die am besten passen. Bei Krediten sollen sie den Kunden heraussuchen, der | |
| wohl am zuverlässigsten zahlt. In der Hinsicht sind Algorithmen erst mal | |
| neutral und versuchen die Zielgröße, die man ihnen gibt, zu optimieren. | |
| Doch es kann passieren, dass man dem Algorithmus, der eigentlich neutral | |
| sein soll, unbewusst einen diskriminierenden Aspekt gibt. | |
| Wie passiert das? | |
| Um einen Algorithmus zu konzipieren, muss er am Anfang mit Trainingsdaten | |
| sozusagen gefüttert werden. Es wird ihm also gezeigt, wonach man sucht und | |
| wer der perfekte Kandidat wäre. Der Algorithmus versucht nun so viele Daten | |
| wie möglich über den Bewerber herauszufinden. Er versucht die gleichen | |
| Entscheidungen zu treffen, die der Mensch getroffen hätte. | |
| Sind also Algorithmen so rassistisch und sexistisch wie der, der sie | |
| programmiert? | |
| Das kann man so sagen, aber man muss gar nicht so weit gehen. Ich würde | |
| sagen, dass man genau darauf achten muss, welche Trainingsdaten man dem | |
| Algorithmus zur Verfügung stellt. Außerdem sollte man ihm keine | |
| Informationen geben, die potenziell Aufschluss über Eigenschaften geben, | |
| die unter besonderem Schutz stehen. | |
| Was meinen Sie damit? | |
| Von Diskriminierung spricht man, wenn Menschen aufgrund der Hautfarbe, des | |
| Alters oder des Geschlechts benachteiligt werden. Das bedeutet, die | |
| Informationen dürfen, wenn der Algorithmus sie herausfindet, nicht | |
| verwendet werden. Eigentlich ist es ganz einfach: Dann gibt man dem | |
| Algorithmus diese Informationen einfach nicht. Doch das Problem ist, dass | |
| man – Stichwort Big Data – so viele Informationen über den Menschen sammeln | |
| kann. So ist es möglich, dass der Algorithmus diese sensiblen Informationen | |
| herleiten kann, ohne dass man sie ihm explizit gibt. | |
| Wie denn? | |
| Es gibt viele Informationen, die nicht explizit Auskunft über Geschlecht | |
| oder Herkunft geben, aber mit denen man diese Eigenschaften ziemlich gut | |
| vorhersagen kann. Zum Beispiel: Die Seiten, die man besucht, können | |
| ziemlich genau darüber Auskunft geben, ob man ein männlicher oder ein | |
| weiblicher Nutzer ist. Da hat der Algorithmus also implizit noch zusätzlich | |
| andere Informationen bekommen, als man ihm bewusst zur Verfügung gestellt | |
| hat. Wenn man in der Zielgröße eine indirekte Diskriminierung gegen eine | |
| Gruppe drin hat, dann kann der Algorithmus anhand der impliziten | |
| Informationen diese Gruppe diskriminieren. | |
| Woher weiß ein Algorithmus denn zum Beispiel, welches Geschlecht zu | |
| bevorzugen ist? | |
| Das weiß der Algorithmus natürlich nicht. Aber das ist indirekt in der | |
| Zielgröße drin. Beim Bewerbungsprozess ist es so, dass der Algorithmus | |
| versucht, die Entscheidungen, die der Mensch vorher gemacht hat, | |
| nachzumachen. Das bedeutet, wenn es vorher eine Diskriminierung im Prozess | |
| gab, also wenn beispielsweise bevorzugt Männer eingeladen worden sind, dann | |
| versucht der Algorithmus, diese Entscheidungen zu reproduzieren, mit dem | |
| Unterschied, dass ihm durch Big Data mehr Informationen zur Verfügung | |
| stehen. Er weiß also nicht, dass er diskriminiert, aber gleichzeitig kann | |
| er das besser als ein Mensch. | |
| Zum Beispiel? | |
| Sagen wir, wir haben 50 Prozent männliche Bewerber und 50 Prozent weibliche | |
| Bewerber. Zum Einladungsgespräch wurden bisher – aus welchem Grund auch | |
| immer – 30 Prozent der Männer und nur 15 Prozent der Frauen eingeladen. Der | |
| Algorithmus, der die menschlichen Entscheidungen automatisieren will, | |
| sieht, dass es bei Männern eine höhere Akzeptanz gibt, also wird er auch | |
| häufiger Männer einladen, auch wenn man es nicht explizit programmiert. Er | |
| automatisiert also die menschlichen Entscheidungen und versucht dazu alle | |
| Informationen zu nutzen, die er finden kann. | |
| Kann man nachweisen, ob bei dem Prozess eine Diskriminierung stattgefunden | |
| hat? | |
| Im Prinzip schon. Das Problem ist, dass viele Firmen diese Daten nicht | |
| veröffentlichen. Auch wird der Algorithmus oft nicht getestet. Man | |
| programmiert ihn und vertraut ihm, dass er die beste Entscheidung trifft | |
| und blendet aus, dass es zu Problemen wie Diskriminierung kommen kann. Ohne | |
| Prüfung kann man nicht gegensteuern. Der einfachste Test ist, das | |
| Geschlecht der Bewerber zu erheben und dann im Nachhinein zu schauen, wie | |
| die Verhältnisse sind. Das wird beispielsweise in den USA genutzt. Aber das | |
| wird eben oft nicht gemacht. | |
| Gibt es für die Entscheidungen durch Algorithmen auch positive Beispiele? | |
| Natürlich. So können zum Beispiel Versicherungen viel passgenauer ihre | |
| Angebote auf den Kunden ausrichten. Auch in der personalisierten Medizin | |
| helfen Algorithmen, in dem man mit ihrer Hilfe versucht, Krankheiten anhand | |
| von Patientendaten schneller und sicherer zu erkennen und bessere | |
| Vorhersagen beispielsweise zur Wirksamkeit oder Verträglichkeit von | |
| Medikamenten zu erhalten. Algorithmen sind, wie gesagt, erst einmal | |
| neutral. Das Problem ist, dass wir dem Algorithmus viel zu viel Kontrolle | |
| übergeben, ohne zu überprüfen, was da eigentlich passiert. | |
| Was fordern Sie? | |
| Was jetzt wichtig wird, ist, dass die Möglichkeit geschaffen wird, | |
| Algorithmen von unabhängigen Gutachtern überprüft zu lassen – also eine Art | |
| Algorithmen-TÜV. Wie man einen Datenschutzbeauftragten hat, bräuchte man | |
| einen Algorithmusbeauftragten, der sich damit befasst. Wo das nicht möglich | |
| ist, sollten sich Nutzer zusammenschließen und versuchen, sich | |
| Informationen über den Algorithmus zu beschaffen. Das geht natürlich nur | |
| eingeschränkt, aber ich glaube, es ist wichtig, die Entscheidungen eines | |
| Algorithmus nicht als gegeben zu akzeptieren, sondern ständig zu | |
| hinterfragen. Auch muss die Gesetzgebung mal festhalten, dass Daten nicht | |
| unbegrenzt verarbeitet werden dürfen und dass auch eine Deanonymisierung | |
| von Usern unter Strafe gestellt oder zumindest erschwert wird. | |
| Es soll also möglich sein, dass man gegen die Erhebung von Daten rechtlich | |
| vorgehen kann? | |
| Das wäre das Beste. Personenbezogene Daten sind keine Schatzgruben, sondern | |
| radioaktiver Müll, man muss viel vorsichtiger damit umgehen. | |
| 2 Apr 2016 | |
| ## AUTOREN | |
| Laila Oudray | |
| ## TAGS | |
| Algorithmus | |
| personenbezogene Daten | |
| Diskriminierung | |
| Kontrolle | |
| Datenspeicherung | |
| Schwerpunkt Rassismus | |
| ## ARTIKEL ZUM THEMA | |
| Debatte Daten und Öffentlichkeit: Willkommen bei Huxley | |
| Daten sind die wichtigste Währung und manipulieren unser Kaufverhalten. | |
| Aber auch über unser Weltbild haben sie immer mehr Macht. | |
| Mensch und Maschine: Haben Sie Angst vor Algorithmen? | |
| Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf | |
| ihre Neutralität. Dabei entscheiden sie nicht immer fair. | |
| Autonomes Fahren: Google-Auto verursacht Unfall | |
| Die Software eines selbstfahrenden Fahrzeugs des Internetkonzerns ist | |
| erstmals schuld an einer Kollision im Straßenverkehr. |