Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Algorithmen im Internet: „Die Maschinen entscheiden für uns“
> Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir
> verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin
> Zeynep Tufekci.
Bild: Lebt nicht, handelt aber.
taz: Frau Tufekci, nach den Unruhen von Ferguson waren Posts darüber auf
Ihrer Facebook-Timeline lange nicht sichtbar. Was ist da passiert?
Zeynep Tufekci: Facebook hat einen Algorithmus eingesetzt, und der
bevorzugt Dinge, die gelikt werden. Dadurch werden negative Nachrichten als
weniger wichtig behandelt. Facebook bietet keine Möglichkeit an,
auszudrücken, dass man etwas wichtig findet oder etwas nicht mag. Dafür
gibt es keinen Button. So hat Facebook Regeln aufgestellt. Und die
diskriminieren eine bestimmte Art von Geschichten und pushen eine andere.
Während der Ferguson-Proteste war das zum Beispiel die Icebucketchallenge –
an sich nichts Schlechtes, aber sie begrub alle anderen Nachrichten. In den
USA bekommen 30 Prozent der Menschen ihre Informationen über Facebook. Bei
den Jungen sind es vielleicht noch mehr. Facebook hat eine neue
publizistische Funktion. Sie stellen die Regeln auf, wie Inhalte kuratiert
werden.
Abstrakt gefragt: Kann Algorithmen eine Ethik innewohnen?
Ja, und zwar insofern, als sie Konsequenzen für unser tägliches Leben haben
– und diese Konsequenzen können wir als unethisch empfinden. Die Maschinen
agieren selbstständig. Sie sind zwar nicht lebendig, aber sie sind
handlungsmächtig. Das ist etwas Neues: Eine Maschine, die agiert, so als
wäre sie eine Art Lebewesen. Es ist schwer, einen Begriff dafür zu finden.
So etwas gab es in der Geschichte bislang noch nicht.
Welche Konsequenzen hat das?
Wir übertragen unsere Handlungsmacht auf Maschinen. In manchen Fällen kann
das nützlich sein. Aber häufig gehören die Algorithmen großen Unternehmen �…
und deren Ziel ist es nicht zwangsläufig, unser Leben einfacher oder besser
zu machen. Meist wollen sie Profite erzielen oder Entscheidungshilfen für
Regierungen bereitstellen. Darum stellt sich die Frage, wie wir Algorithmen
für ethische Zwecke anwenden können.
Hört sich an, als würden Sie Algorithmen generell kritisch gegenüberstehen.
Es mag legitime Anwendungen geben. Selbst bei großen Unternehmen. Aber wenn
wir so viel Handlungsmacht übertragen, müssen wir mal einen frischen Blick
auf die Folgen werfen, gerade in Verbindung mit all den Daten, die über uns
gesammelt werden. Diese Daten werden genutzt, um Entscheidungen über uns zu
treffen, von denen wir vielleicht noch nicht einmal wissen. Und von denen
wir nicht verstehen, warum sie getroffen werden.
Noch mal zurück zu den Facebook-Nachrichten über Ferguson: Was hätte
Facebook danach tun können?
Sie hätten sich die Konsequenzen ansehen und Fragen stellen können. Wollen
wir das? Wollen unsere Nutzer das? Auch könnte Facebook den Nutzern mehr
Macht über ihren Newsfeed geben. Facebook gibt viel Geld aus, um neue
Produkte zu entwickeln, besonders im Bereich Werbung. Es gibt viel, was man
tun kann. Das ist eine Frage der Prioritätensetzung. Wenn Unternehmen nur
einen Bruchteil ihrer Ressourcen, die sie dafür ausgeben, diese Systeme zu
erschaffen, investieren, um zu hinterfragen, was diese Systeme tun, könnte
man viel tun.
Verstehen Programmierer heute noch, warum ihre Algorithmen auf eine
bestimmte Weise reagieren?
Nein. Besonders dann nicht, wenn es sich um maschinelles Lernen handelt.
Man setzt den Algorithmus auf einen Datensatz an und befiehlt ihm, sich
einen Reim darauf zu machen. Man sagt ihm nicht, wie genau er das tun soll,
sondern gibt ihm einfach jede Menge Daten und verlangt einen Output. Den
schaut man sich dann an – und gibt der Maschine dann Feedback, wo sie
richtig gelegen hat. So trainiert man sie. Man kann vermuten, wie sie zu
dem Ergebnis gekommen ist. Aber wenn das Problem komplex ist, weiß man das
nicht genau.
Wie können Algorithmen dann gezähmt werden? Muss die Politik eingreifen?
Nicht unbedingt. Wir unterziehen Autos Sicherheitstests – da stecken wir
auch Ressourcen rein. Die Frage ist, ob die Firmen das zu einer Priorität
machen. Man sollte einfach mal anfangen und dann überlegen, wie man
weitermacht, wenn man auf heikle Fragen stößt.
Das Thema wird immer drängender. Schließlich spielen Algorithmen in immer
mehr Lebensbereichen eine Rolle: bei der Polizei, manchmal sogar in
Prozessen …
… in der Personalpolitik, im Städtebau, bei der Suche nach Terroristen –
all das überlassen wir mehr und mehr algorithmengestützten Systemen. Und
das passiert sehr schnell. Aber es gibt sehr wenige Menschen, die das
tatsächlich wahrnehmen. Das finde ich sehr verwunderlich, weil diese
Systeme alles beeinflussen werden – von der Frage, wer einen Job bekommt,
bis zu der, wer als Terrorist eingestuft wird. Facebook ist ein Beispiel
dafür. Damit können die Menschen etwas anfangen. Aber das ist nur ein
kleines System in einem riesigen Ökosystem von computergestützten
Entscheidungsfindungsprozessen, die einen gigantischen Einfluss haben. Wo
sind die Mechanismen, um Algorithmen zu überprüfen oder sie zu
kontrollieren? Wo macht man sich Gedanken über die Auswirkungen, wenn
Algorithmen Fehler machen?
Wie lernen wir, mit Fehlern umzugehen, die Maschinen machen?
Algorithmen liegen richtig und sie liegen falsch. Beides ist ein Problem.
Wenn sie identifizieren, wer emotional verletzlich oder deprimiert ist,
dann ist das ein Problem, zum Beispiel wenn Gesichtserkennung von Werbern
dafür genutzt wird, uns mithilfe dieser Analyse Produkte zu verkaufen.
Ebenso, wenn sie die sexuelle Orientierung berechnen oder die Tatsache,
dass jemand schwanger sein könnte und man ihn deshalb besser nicht
einstellt. Wenn die Maschinen das richtig erkennen, ist das ein Problem,
weil sie einen dann auf dieser Basis diskriminieren können. Und wenn sie
etwas falsch identifizieren, ist das auch ein Problem. Darum müssen wir
überlegen, wie akkurat solche Prognosen sind. Entstehen Nachteile, wenn der
Algorithmus korrekt identifiziert, dass jemand schwul ist? In vielen
Ländern gibt es solche Nachteile. Man stelle sich nur mal vor, die
Regierung von Uganda hätte die Analyse von Facebook vorliegen, wer schwul
sein könnte.
Nehmen wir doch mal das Beispiel von Marketing per algorithmengestützte
Gesichtserkennung. Wie könnte man dagegen vorgehen?
Die Leute in der Wissenschaftscommunity könnten sich weigern, daran zu
arbeiten. Unternehmen können sich selbst regulieren und Verhaltenskodizes
entwickeln, so wie im Bereich Nukleartechnologie. Regierungen können
Gesetze erlassen, die besagen, dass man nichts verkauft bekommt, wenn
automatische Erfassung stattfindet. Wenn wir den Maschinen Entscheidungen
mit so weitreichenden Konsequenzen anvertrauen, dann brauchen wir
irgendeine Form von Zugang, von Überprüfung und von Transparenz. Das sind
schwierige Fragen. Aber so war das auch bei Nuklearwaffen. Und da haben wir
auch nicht gesagt: Dann baut halt jeder eine Atombombe, und wir schauen,
was passiert.
Sollen wir komplett aufhören, Algorithmen zu nutzen?
Die Katze ist aus dem Sack. Ich glaube nicht, dass man das aufhalten kann.
Aber es gibt viele Möglichkeiten, wie sich das entwickeln kann. Und es gibt
keinen Grund, warum Algorithmen nur für Anwendungen genutzt werden sollten,
die uns stören oder schaden.
Stehen wir mit all diesen Versuchen unter Zeitdruck?
Ja. Das muss jetzt passieren. Und wir müssen sehr schnell sein, weil diese
Technologien sehr schnell angewendet werden. Darum glaube ich, dass
Industrie und Wissenschaft in der Community gerade in der besten Position
sind, jetzt zu handeln. Denn die Politik wird noch eine Weile brauchen, um
aufzuholen.
17 Apr 2015
## AUTOREN
Meike Laaff
## TAGS
Schwerpunkt Meta
Internet
Algorithmen
Gedöns
Justiz
Polizei
Texas
Internet
Performance
Digitalisierung
Gesichtserkennung
Polizei
## ARTIKEL ZUM THEMA
Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im
Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit
könne man Leben retten, sagt ein Statistiker.
Tierärztin tötet Katze: Pfeil im Kopf
Eine Tierärztin aus Texas sorgt für Empörung. Mit Pfeil und Bogen tötete
sie einen Kater und posierte mit dem Tier auf Facebook. Belangt wurde sie
bislang nicht.
Personalisierte Doku zum Tracking: Sie folgen dir fast überall
Eine Webdoku von Arte und BR zeigt, wie Verhalten im Netz analysiert wird.
Der Nutzer kann anhand seiner eigenen Daten sehen, wer ihn überwacht.
Überwachungsexperiment in Berlin: Gemeine Verunsicherung
Eine Schnitzeljagd zu den Mechanismen der Angst und Paranoia: Die
"yoUturn"-Tour macht den Teilnehmer zum Überwachungsopfer. Und zuletzt
gefügig.
Schlagloch Automation: Selbstlenkende Gesellschaft
Dobrindts Vision der schönen neuen Automatenwelt ist alt – und unheimlich.
Doch sie wird noch viel schneller kommen als wir es befürchten.
Gesichtserkennung als Kunst: Sind das eigentlich noch wir?
Der Künstler Sterling Crispin zeigt mit seinen „Data Masks“, wie wir für
NSA, Facebook und Google aussehen. Nämlich wie digitale Geister.
„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster
Seit Oktober testet die Polizei München eine Software, mit der sich
angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv
aus.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.