# taz.de -- Algorithmen im Internet: „Die Maschinen entscheiden für uns“ | |
> Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir | |
> verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin | |
> Zeynep Tufekci. | |
Bild: Lebt nicht, handelt aber. | |
taz: Frau Tufekci, nach den Unruhen von Ferguson waren Posts darüber auf | |
Ihrer Facebook-Timeline lange nicht sichtbar. Was ist da passiert? | |
Zeynep Tufekci: Facebook hat einen Algorithmus eingesetzt, und der | |
bevorzugt Dinge, die gelikt werden. Dadurch werden negative Nachrichten als | |
weniger wichtig behandelt. Facebook bietet keine Möglichkeit an, | |
auszudrücken, dass man etwas wichtig findet oder etwas nicht mag. Dafür | |
gibt es keinen Button. So hat Facebook Regeln aufgestellt. Und die | |
diskriminieren eine bestimmte Art von Geschichten und pushen eine andere. | |
Während der Ferguson-Proteste war das zum Beispiel die Icebucketchallenge – | |
an sich nichts Schlechtes, aber sie begrub alle anderen Nachrichten. In den | |
USA bekommen 30 Prozent der Menschen ihre Informationen über Facebook. Bei | |
den Jungen sind es vielleicht noch mehr. Facebook hat eine neue | |
publizistische Funktion. Sie stellen die Regeln auf, wie Inhalte kuratiert | |
werden. | |
Abstrakt gefragt: Kann Algorithmen eine Ethik innewohnen? | |
Ja, und zwar insofern, als sie Konsequenzen für unser tägliches Leben haben | |
– und diese Konsequenzen können wir als unethisch empfinden. Die Maschinen | |
agieren selbstständig. Sie sind zwar nicht lebendig, aber sie sind | |
handlungsmächtig. Das ist etwas Neues: Eine Maschine, die agiert, so als | |
wäre sie eine Art Lebewesen. Es ist schwer, einen Begriff dafür zu finden. | |
So etwas gab es in der Geschichte bislang noch nicht. | |
Welche Konsequenzen hat das? | |
Wir übertragen unsere Handlungsmacht auf Maschinen. In manchen Fällen kann | |
das nützlich sein. Aber häufig gehören die Algorithmen großen Unternehmen �… | |
und deren Ziel ist es nicht zwangsläufig, unser Leben einfacher oder besser | |
zu machen. Meist wollen sie Profite erzielen oder Entscheidungshilfen für | |
Regierungen bereitstellen. Darum stellt sich die Frage, wie wir Algorithmen | |
für ethische Zwecke anwenden können. | |
Hört sich an, als würden Sie Algorithmen generell kritisch gegenüberstehen. | |
Es mag legitime Anwendungen geben. Selbst bei großen Unternehmen. Aber wenn | |
wir so viel Handlungsmacht übertragen, müssen wir mal einen frischen Blick | |
auf die Folgen werfen, gerade in Verbindung mit all den Daten, die über uns | |
gesammelt werden. Diese Daten werden genutzt, um Entscheidungen über uns zu | |
treffen, von denen wir vielleicht noch nicht einmal wissen. Und von denen | |
wir nicht verstehen, warum sie getroffen werden. | |
Noch mal zurück zu den Facebook-Nachrichten über Ferguson: Was hätte | |
Facebook danach tun können? | |
Sie hätten sich die Konsequenzen ansehen und Fragen stellen können. Wollen | |
wir das? Wollen unsere Nutzer das? Auch könnte Facebook den Nutzern mehr | |
Macht über ihren Newsfeed geben. Facebook gibt viel Geld aus, um neue | |
Produkte zu entwickeln, besonders im Bereich Werbung. Es gibt viel, was man | |
tun kann. Das ist eine Frage der Prioritätensetzung. Wenn Unternehmen nur | |
einen Bruchteil ihrer Ressourcen, die sie dafür ausgeben, diese Systeme zu | |
erschaffen, investieren, um zu hinterfragen, was diese Systeme tun, könnte | |
man viel tun. | |
Verstehen Programmierer heute noch, warum ihre Algorithmen auf eine | |
bestimmte Weise reagieren? | |
Nein. Besonders dann nicht, wenn es sich um maschinelles Lernen handelt. | |
Man setzt den Algorithmus auf einen Datensatz an und befiehlt ihm, sich | |
einen Reim darauf zu machen. Man sagt ihm nicht, wie genau er das tun soll, | |
sondern gibt ihm einfach jede Menge Daten und verlangt einen Output. Den | |
schaut man sich dann an – und gibt der Maschine dann Feedback, wo sie | |
richtig gelegen hat. So trainiert man sie. Man kann vermuten, wie sie zu | |
dem Ergebnis gekommen ist. Aber wenn das Problem komplex ist, weiß man das | |
nicht genau. | |
Wie können Algorithmen dann gezähmt werden? Muss die Politik eingreifen? | |
Nicht unbedingt. Wir unterziehen Autos Sicherheitstests – da stecken wir | |
auch Ressourcen rein. Die Frage ist, ob die Firmen das zu einer Priorität | |
machen. Man sollte einfach mal anfangen und dann überlegen, wie man | |
weitermacht, wenn man auf heikle Fragen stößt. | |
Das Thema wird immer drängender. Schließlich spielen Algorithmen in immer | |
mehr Lebensbereichen eine Rolle: bei der Polizei, manchmal sogar in | |
Prozessen … | |
… in der Personalpolitik, im Städtebau, bei der Suche nach Terroristen – | |
all das überlassen wir mehr und mehr algorithmengestützten Systemen. Und | |
das passiert sehr schnell. Aber es gibt sehr wenige Menschen, die das | |
tatsächlich wahrnehmen. Das finde ich sehr verwunderlich, weil diese | |
Systeme alles beeinflussen werden – von der Frage, wer einen Job bekommt, | |
bis zu der, wer als Terrorist eingestuft wird. Facebook ist ein Beispiel | |
dafür. Damit können die Menschen etwas anfangen. Aber das ist nur ein | |
kleines System in einem riesigen Ökosystem von computergestützten | |
Entscheidungsfindungsprozessen, die einen gigantischen Einfluss haben. Wo | |
sind die Mechanismen, um Algorithmen zu überprüfen oder sie zu | |
kontrollieren? Wo macht man sich Gedanken über die Auswirkungen, wenn | |
Algorithmen Fehler machen? | |
Wie lernen wir, mit Fehlern umzugehen, die Maschinen machen? | |
Algorithmen liegen richtig und sie liegen falsch. Beides ist ein Problem. | |
Wenn sie identifizieren, wer emotional verletzlich oder deprimiert ist, | |
dann ist das ein Problem, zum Beispiel wenn Gesichtserkennung von Werbern | |
dafür genutzt wird, uns mithilfe dieser Analyse Produkte zu verkaufen. | |
Ebenso, wenn sie die sexuelle Orientierung berechnen oder die Tatsache, | |
dass jemand schwanger sein könnte und man ihn deshalb besser nicht | |
einstellt. Wenn die Maschinen das richtig erkennen, ist das ein Problem, | |
weil sie einen dann auf dieser Basis diskriminieren können. Und wenn sie | |
etwas falsch identifizieren, ist das auch ein Problem. Darum müssen wir | |
überlegen, wie akkurat solche Prognosen sind. Entstehen Nachteile, wenn der | |
Algorithmus korrekt identifiziert, dass jemand schwul ist? In vielen | |
Ländern gibt es solche Nachteile. Man stelle sich nur mal vor, die | |
Regierung von Uganda hätte die Analyse von Facebook vorliegen, wer schwul | |
sein könnte. | |
Nehmen wir doch mal das Beispiel von Marketing per algorithmengestützte | |
Gesichtserkennung. Wie könnte man dagegen vorgehen? | |
Die Leute in der Wissenschaftscommunity könnten sich weigern, daran zu | |
arbeiten. Unternehmen können sich selbst regulieren und Verhaltenskodizes | |
entwickeln, so wie im Bereich Nukleartechnologie. Regierungen können | |
Gesetze erlassen, die besagen, dass man nichts verkauft bekommt, wenn | |
automatische Erfassung stattfindet. Wenn wir den Maschinen Entscheidungen | |
mit so weitreichenden Konsequenzen anvertrauen, dann brauchen wir | |
irgendeine Form von Zugang, von Überprüfung und von Transparenz. Das sind | |
schwierige Fragen. Aber so war das auch bei Nuklearwaffen. Und da haben wir | |
auch nicht gesagt: Dann baut halt jeder eine Atombombe, und wir schauen, | |
was passiert. | |
Sollen wir komplett aufhören, Algorithmen zu nutzen? | |
Die Katze ist aus dem Sack. Ich glaube nicht, dass man das aufhalten kann. | |
Aber es gibt viele Möglichkeiten, wie sich das entwickeln kann. Und es gibt | |
keinen Grund, warum Algorithmen nur für Anwendungen genutzt werden sollten, | |
die uns stören oder schaden. | |
Stehen wir mit all diesen Versuchen unter Zeitdruck? | |
Ja. Das muss jetzt passieren. Und wir müssen sehr schnell sein, weil diese | |
Technologien sehr schnell angewendet werden. Darum glaube ich, dass | |
Industrie und Wissenschaft in der Community gerade in der besten Position | |
sind, jetzt zu handeln. Denn die Politik wird noch eine Weile brauchen, um | |
aufzuholen. | |
17 Apr 2015 | |
## AUTOREN | |
Meike Laaff | |
## TAGS | |
Schwerpunkt Meta | |
Internet | |
Algorithmen | |
Gedöns | |
Justiz | |
Polizei | |
Texas | |
Internet | |
Performance | |
Digitalisierung | |
Gesichtserkennung | |
Polizei | |
## ARTIKEL ZUM THEMA | |
Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ | |
Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im | |
Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit | |
In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit | |
könne man Leben retten, sagt ein Statistiker. | |
Tierärztin tötet Katze: Pfeil im Kopf | |
Eine Tierärztin aus Texas sorgt für Empörung. Mit Pfeil und Bogen tötete | |
sie einen Kater und posierte mit dem Tier auf Facebook. Belangt wurde sie | |
bislang nicht. | |
Personalisierte Doku zum Tracking: Sie folgen dir fast überall | |
Eine Webdoku von Arte und BR zeigt, wie Verhalten im Netz analysiert wird. | |
Der Nutzer kann anhand seiner eigenen Daten sehen, wer ihn überwacht. | |
Überwachungsexperiment in Berlin: Gemeine Verunsicherung | |
Eine Schnitzeljagd zu den Mechanismen der Angst und Paranoia: Die | |
"yoUturn"-Tour macht den Teilnehmer zum Überwachungsopfer. Und zuletzt | |
gefügig. | |
Schlagloch Automation: Selbstlenkende Gesellschaft | |
Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich. | |
Doch sie wird noch viel schneller kommen als wir es befürchten. | |
Gesichtserkennung als Kunst: Sind das eigentlich noch wir? | |
Der Künstler Sterling Crispin zeigt mit seinen „Data Masks“, wie wir für | |
NSA, Facebook und Google aussehen. Nämlich wie digitale Geister. | |
„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster | |
Seit Oktober testet die Polizei München eine Software, mit der sich | |
angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv | |
aus. |