| # taz.de -- Mensch und Maschine: Haben Sie Angst vor Algorithmen? | |
| > Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf | |
| > ihre Neutralität. Dabei entscheiden sie nicht immer fair. | |
| Bild: Manche behaupten, sie kenne uns besser als wir selbst: die Datenkrake | |
| Stellen Sie sich vor, Sie googlen sich selbst. Rechts neben den | |
| Suchtreffern zu Ihrem Namen poppt eine Werbespalte auf. „Miriam Meister“ – | |
| mal angenommen Sie heißen so – „im Gefängnis?“, steht da. Sie klicken a… | |
| die Werbung und landen auf einer Homepage, auf der man recherchieren kann, | |
| ob jemand vorbestraft ist, inklusive Gerichtsakten, Adressen und Alter. | |
| Irgendetwas hat Ihren Namen mit einer möglichen Haftstrafe in Verbindung | |
| gebracht. Ein Algorithmus. | |
| Es ist unwahrscheinlich, dass Ihnen, Miriam Meister, so etwas passiert. Sie | |
| leben in Deutschland, die Homepage ist amerikanisch. Latanya Sweeney aus | |
| Boston ging es aber so. | |
| Die Harvard-Professorin wollte verstehen, warum. Sie googelte weiter, | |
| suchte nach Namen, bei denen die gleiche Werbung geschaltet wird. Mit einer | |
| Studie, die diese Werbeeinblendungen analysiert, konnte die | |
| Computerwissenschaftlerin belegen: Personen, deren Name mit schwarzer | |
| Hautfarbe assoziiert wird, bekommen eine Werbung, die nahelegt, dass sie im | |
| Gefängnis sitzen, bis zu 25 Prozent häufiger angezeigt, als Menschen mit | |
| „weißem Namen“. | |
| Der Algorithmus rechnete also rassistisch. | |
| Ein weiteres Beispiel: Zwei US-Forscher wollten wissen, ob Algorithmen auch | |
| etwas damit zu tun haben könnten, dass Frauen seltener in | |
| Führungspositionen sind und oft schlechter bezahlt werden als männliche | |
| Kollegen. Sie entwickelten ein Programm, das automatisierte Werbeanzeigen | |
| im Internet analysiert. Das Ergebnis: Hoch dotierte Arbeitsangebote werden | |
| Männern fast sechs Mal so häufig angezeigt wie Frauen. | |
| Algorithmen sind nicht per se schlecht oder gefährlich. Sie sind aber auch | |
| nicht so objektiv, wie viele denken. Weil sie immer von Menschen entwickelt | |
| und mit Daten gefüttert werden. Fälle, in denen Algorithmen unfair | |
| entscheiden, finden sich also immer wieder. Und Algorithmen entscheiden | |
| über sehr vieles: Kreditvergabe, Versicherungstarife, Terrorlisten und mit | |
| darüber, wer einen Job kriegt und wer nicht. | |
| Sie rechnen auf Basis vorhandener Datensätze. Vereinfacht sieht das so aus: | |
| Wenn in der Vergangenheit meist weiße Mittelschichtsmänner eingestellt | |
| wurden, dann lernt der Algorithmus aus diesen Daten und reproduziert die | |
| vorhandenen Entscheidungsmuster. Er wählt also auch weiterhin hauptsächlich | |
| weiße Männer aus der Mittelschicht aus. | |
| In der [1][taz.am wochenende vom 5./6. März 2016] geht unsere Autorin Meike | |
| Laaff der Frage nach, ob man Algorithmen dazu bringen kann, ethische | |
| Entscheidungen zu treffen. Sie erzählt unter anderem von einem | |
| Forschungsteam, das an einem Antidiskriminierungs-Algorithmus feilt und | |
| besucht Menschen, die daran arbeiten, die digitale Welt gerechter zu | |
| machen. Aber geht das überhaupt? | |
| Was meinen Sie? Müssen wir Angst vor Algorithmen haben? Sind wir machtlos | |
| und werden von Maschinen beherrscht? Oder ist das nur | |
| fortschrittsfeindliche Panik? Wem vertrauen Sie, Mensch oder Computer? | |
| Diskutieren Sie mit! | |
| Die ganze Geschichte „Kann ein Computer Ethik lernen?“ lesen Sie in der | |
| [2][taz.am wochenende vom 5./6. März 2016]. | |
| 4 Mar 2016 | |
| ## LINKS | |
| [1] /!p4662/ | |
| [2] /!p4662/ | |
| ## AUTOREN | |
| Philipp Saul | |
| Viktoria Morasch | |
| ## TAGS | |
| Schwerpunkt Rassismus | |
| Schwerpunkt Überwachung | |
| Ethik | |
| Algorithmus | |
| Internet | |
| Algorithmus | |
| Datenspeicherung | |
| Schwerpunkt Meta | |
| „Islamischer Staat“ (IS) | |
| Algorithmen | |
| Justiz | |
| künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| Digitalisierung in der Kirche: Ausflug ins Neuland | |
| Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der | |
| Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber | |
| beinahe. | |
| Physiker über digitale Diskriminierung: „Die Algorithmen entscheiden“ | |
| Viele Firmen nutzen automatisierte Verfahren, um Bewerber oder Kunden zu | |
| bestimmen. Das ist ungerecht, sagt Andreas Dewes – und fordert Kontrollen. | |
| Debatte Daten und Öffentlichkeit: Willkommen bei Huxley | |
| Daten sind die wichtigste Währung und manipulieren unser Kaufverhalten. | |
| Aber auch über unser Weltbild haben sie immer mehr Macht. | |
| Experiment Facebook-Sexualitätstausch: Klick und schwul | |
| Was macht Facebooks Algorithmus, wenn sich die Vorlieben ändern? Wer hetero | |
| war, wird homo. Und umgekehrt. | |
| Twitter schließt 125.000 Konten: Verdacht auf Terrorismus | |
| Twitter hat 125.000 Konten geschlossen, die IS-Unterstützern zugeschrieben | |
| werden. Außerdem werden zahlreiche ähnliche Konten weiter beobachtet. | |
| Berechnung des Alltags: Wir sind Algorithmen-Zombies | |
| Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass | |
| wir es merken, und machen uns so manipulierbar. | |
| Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ | |
| Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im | |
| Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
| Künstliche Intelligenz: Mensch, gib mir deine Daten | |
| Die Entwicklung künstlicher Intelligenz ist ein altes Militärprojekt. Nun | |
| sprechen Forscher von einer Revolution. Gefahr oder Chance? |