| # taz.de -- Algorithmen im Internet: „Die Maschinen entscheiden für uns“ | |
| > Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir | |
| > verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin | |
| > Zeynep Tufekci. | |
| Bild: Lebt nicht, handelt aber. | |
| taz: Frau Tufekci, nach den Unruhen von Ferguson waren Posts darüber auf | |
| Ihrer Facebook-Timeline lange nicht sichtbar. Was ist da passiert? | |
| Zeynep Tufekci: Facebook hat einen Algorithmus eingesetzt, und der | |
| bevorzugt Dinge, die gelikt werden. Dadurch werden negative Nachrichten als | |
| weniger wichtig behandelt. Facebook bietet keine Möglichkeit an, | |
| auszudrücken, dass man etwas wichtig findet oder etwas nicht mag. Dafür | |
| gibt es keinen Button. So hat Facebook Regeln aufgestellt. Und die | |
| diskriminieren eine bestimmte Art von Geschichten und pushen eine andere. | |
| Während der Ferguson-Proteste war das zum Beispiel die Icebucketchallenge – | |
| an sich nichts Schlechtes, aber sie begrub alle anderen Nachrichten. In den | |
| USA bekommen 30 Prozent der Menschen ihre Informationen über Facebook. Bei | |
| den Jungen sind es vielleicht noch mehr. Facebook hat eine neue | |
| publizistische Funktion. Sie stellen die Regeln auf, wie Inhalte kuratiert | |
| werden. | |
| Abstrakt gefragt: Kann Algorithmen eine Ethik innewohnen? | |
| Ja, und zwar insofern, als sie Konsequenzen für unser tägliches Leben haben | |
| – und diese Konsequenzen können wir als unethisch empfinden. Die Maschinen | |
| agieren selbstständig. Sie sind zwar nicht lebendig, aber sie sind | |
| handlungsmächtig. Das ist etwas Neues: Eine Maschine, die agiert, so als | |
| wäre sie eine Art Lebewesen. Es ist schwer, einen Begriff dafür zu finden. | |
| So etwas gab es in der Geschichte bislang noch nicht. | |
| Welche Konsequenzen hat das? | |
| Wir übertragen unsere Handlungsmacht auf Maschinen. In manchen Fällen kann | |
| das nützlich sein. Aber häufig gehören die Algorithmen großen Unternehmen �… | |
| und deren Ziel ist es nicht zwangsläufig, unser Leben einfacher oder besser | |
| zu machen. Meist wollen sie Profite erzielen oder Entscheidungshilfen für | |
| Regierungen bereitstellen. Darum stellt sich die Frage, wie wir Algorithmen | |
| für ethische Zwecke anwenden können. | |
| Hört sich an, als würden Sie Algorithmen generell kritisch gegenüberstehen. | |
| Es mag legitime Anwendungen geben. Selbst bei großen Unternehmen. Aber wenn | |
| wir so viel Handlungsmacht übertragen, müssen wir mal einen frischen Blick | |
| auf die Folgen werfen, gerade in Verbindung mit all den Daten, die über uns | |
| gesammelt werden. Diese Daten werden genutzt, um Entscheidungen über uns zu | |
| treffen, von denen wir vielleicht noch nicht einmal wissen. Und von denen | |
| wir nicht verstehen, warum sie getroffen werden. | |
| Noch mal zurück zu den Facebook-Nachrichten über Ferguson: Was hätte | |
| Facebook danach tun können? | |
| Sie hätten sich die Konsequenzen ansehen und Fragen stellen können. Wollen | |
| wir das? Wollen unsere Nutzer das? Auch könnte Facebook den Nutzern mehr | |
| Macht über ihren Newsfeed geben. Facebook gibt viel Geld aus, um neue | |
| Produkte zu entwickeln, besonders im Bereich Werbung. Es gibt viel, was man | |
| tun kann. Das ist eine Frage der Prioritätensetzung. Wenn Unternehmen nur | |
| einen Bruchteil ihrer Ressourcen, die sie dafür ausgeben, diese Systeme zu | |
| erschaffen, investieren, um zu hinterfragen, was diese Systeme tun, könnte | |
| man viel tun. | |
| Verstehen Programmierer heute noch, warum ihre Algorithmen auf eine | |
| bestimmte Weise reagieren? | |
| Nein. Besonders dann nicht, wenn es sich um maschinelles Lernen handelt. | |
| Man setzt den Algorithmus auf einen Datensatz an und befiehlt ihm, sich | |
| einen Reim darauf zu machen. Man sagt ihm nicht, wie genau er das tun soll, | |
| sondern gibt ihm einfach jede Menge Daten und verlangt einen Output. Den | |
| schaut man sich dann an – und gibt der Maschine dann Feedback, wo sie | |
| richtig gelegen hat. So trainiert man sie. Man kann vermuten, wie sie zu | |
| dem Ergebnis gekommen ist. Aber wenn das Problem komplex ist, weiß man das | |
| nicht genau. | |
| Wie können Algorithmen dann gezähmt werden? Muss die Politik eingreifen? | |
| Nicht unbedingt. Wir unterziehen Autos Sicherheitstests – da stecken wir | |
| auch Ressourcen rein. Die Frage ist, ob die Firmen das zu einer Priorität | |
| machen. Man sollte einfach mal anfangen und dann überlegen, wie man | |
| weitermacht, wenn man auf heikle Fragen stößt. | |
| Das Thema wird immer drängender. Schließlich spielen Algorithmen in immer | |
| mehr Lebensbereichen eine Rolle: bei der Polizei, manchmal sogar in | |
| Prozessen … | |
| … in der Personalpolitik, im Städtebau, bei der Suche nach Terroristen – | |
| all das überlassen wir mehr und mehr algorithmengestützten Systemen. Und | |
| das passiert sehr schnell. Aber es gibt sehr wenige Menschen, die das | |
| tatsächlich wahrnehmen. Das finde ich sehr verwunderlich, weil diese | |
| Systeme alles beeinflussen werden – von der Frage, wer einen Job bekommt, | |
| bis zu der, wer als Terrorist eingestuft wird. Facebook ist ein Beispiel | |
| dafür. Damit können die Menschen etwas anfangen. Aber das ist nur ein | |
| kleines System in einem riesigen Ökosystem von computergestützten | |
| Entscheidungsfindungsprozessen, die einen gigantischen Einfluss haben. Wo | |
| sind die Mechanismen, um Algorithmen zu überprüfen oder sie zu | |
| kontrollieren? Wo macht man sich Gedanken über die Auswirkungen, wenn | |
| Algorithmen Fehler machen? | |
| Wie lernen wir, mit Fehlern umzugehen, die Maschinen machen? | |
| Algorithmen liegen richtig und sie liegen falsch. Beides ist ein Problem. | |
| Wenn sie identifizieren, wer emotional verletzlich oder deprimiert ist, | |
| dann ist das ein Problem, zum Beispiel wenn Gesichtserkennung von Werbern | |
| dafür genutzt wird, uns mithilfe dieser Analyse Produkte zu verkaufen. | |
| Ebenso, wenn sie die sexuelle Orientierung berechnen oder die Tatsache, | |
| dass jemand schwanger sein könnte und man ihn deshalb besser nicht | |
| einstellt. Wenn die Maschinen das richtig erkennen, ist das ein Problem, | |
| weil sie einen dann auf dieser Basis diskriminieren können. Und wenn sie | |
| etwas falsch identifizieren, ist das auch ein Problem. Darum müssen wir | |
| überlegen, wie akkurat solche Prognosen sind. Entstehen Nachteile, wenn der | |
| Algorithmus korrekt identifiziert, dass jemand schwul ist? In vielen | |
| Ländern gibt es solche Nachteile. Man stelle sich nur mal vor, die | |
| Regierung von Uganda hätte die Analyse von Facebook vorliegen, wer schwul | |
| sein könnte. | |
| Nehmen wir doch mal das Beispiel von Marketing per algorithmengestützte | |
| Gesichtserkennung. Wie könnte man dagegen vorgehen? | |
| Die Leute in der Wissenschaftscommunity könnten sich weigern, daran zu | |
| arbeiten. Unternehmen können sich selbst regulieren und Verhaltenskodizes | |
| entwickeln, so wie im Bereich Nukleartechnologie. Regierungen können | |
| Gesetze erlassen, die besagen, dass man nichts verkauft bekommt, wenn | |
| automatische Erfassung stattfindet. Wenn wir den Maschinen Entscheidungen | |
| mit so weitreichenden Konsequenzen anvertrauen, dann brauchen wir | |
| irgendeine Form von Zugang, von Überprüfung und von Transparenz. Das sind | |
| schwierige Fragen. Aber so war das auch bei Nuklearwaffen. Und da haben wir | |
| auch nicht gesagt: Dann baut halt jeder eine Atombombe, und wir schauen, | |
| was passiert. | |
| Sollen wir komplett aufhören, Algorithmen zu nutzen? | |
| Die Katze ist aus dem Sack. Ich glaube nicht, dass man das aufhalten kann. | |
| Aber es gibt viele Möglichkeiten, wie sich das entwickeln kann. Und es gibt | |
| keinen Grund, warum Algorithmen nur für Anwendungen genutzt werden sollten, | |
| die uns stören oder schaden. | |
| Stehen wir mit all diesen Versuchen unter Zeitdruck? | |
| Ja. Das muss jetzt passieren. Und wir müssen sehr schnell sein, weil diese | |
| Technologien sehr schnell angewendet werden. Darum glaube ich, dass | |
| Industrie und Wissenschaft in der Community gerade in der besten Position | |
| sind, jetzt zu handeln. Denn die Politik wird noch eine Weile brauchen, um | |
| aufzuholen. | |
| 17 Apr 2015 | |
| ## AUTOREN | |
| Meike Laaff | |
| ## TAGS | |
| Schwerpunkt Meta | |
| Internet | |
| Algorithmen | |
| Gedöns | |
| Justiz | |
| Polizei | |
| Texas | |
| Internet | |
| Performance | |
| Digitalisierung | |
| Gesichtserkennung | |
| Polizei | |
| ## ARTIKEL ZUM THEMA | |
| Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ | |
| Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im | |
| Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
| Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit | |
| In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit | |
| könne man Leben retten, sagt ein Statistiker. | |
| Tierärztin tötet Katze: Pfeil im Kopf | |
| Eine Tierärztin aus Texas sorgt für Empörung. Mit Pfeil und Bogen tötete | |
| sie einen Kater und posierte mit dem Tier auf Facebook. Belangt wurde sie | |
| bislang nicht. | |
| Personalisierte Doku zum Tracking: Sie folgen dir fast überall | |
| Eine Webdoku von Arte und BR zeigt, wie Verhalten im Netz analysiert wird. | |
| Der Nutzer kann anhand seiner eigenen Daten sehen, wer ihn überwacht. | |
| Überwachungsexperiment in Berlin: Gemeine Verunsicherung | |
| Eine Schnitzeljagd zu den Mechanismen der Angst und Paranoia: Die | |
| "yoUturn"-Tour macht den Teilnehmer zum Überwachungsopfer. Und zuletzt | |
| gefügig. | |
| Schlagloch Automation: Selbstlenkende Gesellschaft | |
| Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich. | |
| Doch sie wird noch viel schneller kommen als wir es befürchten. | |
| Gesichtserkennung als Kunst: Sind das eigentlich noch wir? | |
| Der Künstler Sterling Crispin zeigt mit seinen „Data Masks“, wie wir für | |
| NSA, Facebook und Google aussehen. Nämlich wie digitale Geister. | |
| „Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster | |
| Seit Oktober testet die Polizei München eine Software, mit der sich | |
| angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv | |
| aus. |