Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Sonntaz-Interview mit Eli Pariser: "Konzerne geben vor, was wir seh…
> Bestimmte Informationen werden im Netz weniger verteilt. Der Netzaktivist
> Eli Pariser über gefilterte Meinungen und die Strategie von Google und
> Facebook.
Bild: Google und Facebook: Sie bestärken Meinungen statt neue zu präsentieren.
sonntaz: Herr Pariser, Facebook und Google liefern uns Nachrichten oder
Freundesklatsch maßgeschneidert: Für jede genau das, was sie interessieren
dürfte. Sie sagen in Ihrem Buch "Filter Bubble", diese Personalisierung
gefährde unsere Demokratie. Wie das denn?
Eli Pariser: Es ist doch die Frage, wer die Kontrolle hat. Und das sind
Unternehmen wie Facebook oder Google, die sich in erster Linie ihren
Werbekunden verpflichtet fühlen. Statt die Menschen also zu ermächtigen,
sich ihren eigenen Nachrichtenmix zusammenzustellen, entscheiden sie für
diese Menschen, was die sehen können und was nicht.
Sie sprechen von einer "Filter Bubble", einer Filterblase, in der wir
gefangen sind.
Die "Filter Bubble" ist ein persönliches Informationsuniversum, in der wir
in unserem Onlineleben immer stärker hineingezogen werden. Aus den
Informationen über uns versuchen die Unternehmen zu schließen, was wir
sehen wollen. Das Hauptziel fast aller großen Onlinekonzerne ist es, so
viele Daten über uns zu sammeln wie möglich, um uns dann Werbebanner
vorzusetzen, auf die wir mit hoher Wahrscheinlichkeit klicken.
Im Deutschen sagen manche "Hallraum". So wie wir ins Netz rufen - so wie
wir suchen, posten, sammeln -, hallt es zurück. Nach dem Motto: Wer sich
für dieses Buch interessiert hat, der sollte sich das hier ansehen.
Genau. Das Problem aber ist, dass wir gar nicht wissen, wie diese Blase für
uns konstruiert wird. Wir wissen also nicht, was wir verpassen. Und
manchmal wissen wir noch nicht einmal, dass die Inhalte überhaupt so stark
ausgesiebt werden.
Wie funktioniert das?
Facebooks Newsfeed, die Nachrichten, die jeder über Freunde und die Welt
erhält, zeigt unterschiedlichen Menschen ganz unterschiedliche Dinge. Was
man angeboten bekommt, hängt davon ab, auf welche Inhalte man vorher
geklickt hat mit wem man befreundet ist, wie eng, und wie sich dieses
Verhalten auf Facebooks Gewinn auswirkt. Eine der verblüffendsten
Geschichten hat mir eine Führungskraft des Konzerns erzählt. Sie wissen bei
Facebook: Wenn du eine 30 Jahre alte Frau bist und deine Freunde Bilder von
sich veröffentlichen, ist die Wahrscheinlichkeit hoch, dass du das auch
tust. Wenn du das tust, werden deine männlichen Freunde diese Bilder
wahrscheinlich kommentieren. Und wenn sie das tun, steigt die
Wahrscheinlichkeit, dass sie Facebook in den kommenden Monaten treu
bleiben.
Und wie nutzt Facebook dieses Wissen?
Sie zäumen das Pferd von hinten auf und sagen: Eli nutzt Facebook noch ein
bisschen zu wenig. Lass uns doch ein paar Freundinnen von ihm finden, denen
Fotos von ihren Freundinnen zeigen, sodass Eli das kommentieren kann und
mehr Zeit auf Facebook verbringt.
Wissen die Programmierer so genau, was sie tun - bei mehr als 800 Millionen
Facebook-Nutzern und komplexesten Algorithmen?
Eines meiner verstörendsten Gespräche hatte ich mit einem
Google-Programmierer, der für solche Prozesse zuständig ist. Er gestand im
Grunde, dass er auch nicht immer genau weiß, warum Google einen bestimmten
Algorithmus in einem bestimmten Moment genau so ausrichtet. Die Codezeilen
sind viel zu lang, die Datenbanken zu riesig, sodass ein einzelner Mensch
das kaum fassen kann. Das wäre ja alles gar nicht so schlimm, wenn die
Entscheidungen, die sie treffen, nicht so extrem wichtig wären.
Das sind auch ethische Fragen. Denken die Programmierer darüber nach? Sie
haben ja für Ihr Buch mit einigen gesprochen.
Sie denken nicht genug über die ethischen Konsequenzen nach. Oft sind sie
sich ihrer Verantwortung gar nicht bewusst. Wir sind uns alle einig, dass
der Redakteur einer Zeitung ethische Verantwortung trägt für die
Geschichten, die auf seiner Seite oder auf dem Titel erscheinen. Google
betrachtet seine Suchfunktion nicht als eine ähnlich verantwortungsvolle
Aufgabe. Ich habe beispielsweise gefragt: Wenn ich ein
Verschwörungstheoretiker bin, der sich für 9/11 interessiert, was ist dann
euer Job? Besteht er darin, mir möglichst neue abstruse Informationen zu
diesen Theorien zu liefern? Oder wäre es besser, ich bekäme Material, das
meinen Ansichten widerspricht, mich aber aufklärt. Da fiel ihnen erst mal
gar nichts ein.
Die sehen Zahlen und keine Inhalte?
Google behauptet ja, den Leuten geben zu wollen, was die wollen. Das klingt
erst mal gut. Aber es ist viel komplizierter. Die Leute wollen Kuchen essen
und dünn bleiben. Zwei echte Bedürfnisse, die in entgegengesetzte
Richtungen weisen. Menschen wollen Sachen lesen, die sie in ihren Meinungen
bestärken. Gleichzeitig wollen sie etwas über die Welt erfahren. Google
konzentriert sich ein bisschen sehr auf das erste Bedürfnis: Es bestärkt
Meinungen, statt neue zu präsentieren.
Und manchmal weiß man selbst gar nicht, was man will.
Man weiß vor allem nicht, was einem vorenthalten wird, was man verpasst.
Wie könnte die "Filter Bubble" die Wahlen in den USA beeinflussen?
Ich stellte irgendwann fest, dass Facebook mir vor allem Beiträge von
Freunden zeigten, die politisch meiner Meinung waren. Facebook hatte
einfach gemerkt, dass ich mit meinen politischen Freunden mehr interagiere.
Die Beiträge der anderen tauchten kaum noch auf, obwohl ich gerade von
ihnen Neues erfahren wollte.
Wie verändert das eine Demokratie?
Eine Demokratie erfordert Organisation und dass man sich um eine gemeinsame
Sache versammelt. Aber auch die Fähigkeit, Differenzen zu überbrücken, um
Entscheidungen zu ringen. Mit dieser Personalisierung wird es wirklich
schwierig, andere Perspektiven einzunehmen, nicht nur im eigenen Saft zu
schmoren. Das ist gefährlich.
Bevorzugt das Barack Obama oder Mitt Romney?
Schwierige Frage. Nehmen Sie lieber den Klimawandel, eine unverrückbare
Tatsache. In einer durchpersonalisierten Filterblase wäre es aber einem
Großteil der Amerikaner möglich, nicht daran zu glauben, ihr Leben nicht zu
ändern, weil sie die Wahrheit gar nicht wahrnehmen.
Wenn Facebook wollte, könnte es den Newsfeed politisch manipulieren?
Ich denke nicht, dass Facebook das tut. Aber es könnte. In anderen Ländern
geschieht das. Es gibt ein Netzwerk in China, das ähnlich funktioniert wie
Facebook. Wenn man da bestimmte politische Begriffe eingibt, erscheinen nur
leere Boxen. Das zeigt, wie groß die öffentliche Verantwortung ist, die
solche Firmen tragen.
Was erwarten Sie von den Regierungen, etwa in den USA?
Die Gesetze zum Erfassen von personenbezogenen Daten sind in den USA
vierzig Jahre alt. Sie sind nicht gemacht für eine Welt, in der der Klick
auf eine Website das, was man später auf einer anderen Website sieht,
beeinflussen kann.
Für Facebook schlagen Sie einen "Important"-Button vor statt des
"Like"-Buttons. "Wichtig" statt "Gefällt mir".
Der "Like"-Button bestimmt die Art, wie Informationen weitergegeben werden.
Es ist einfach, auf die Nachricht "Habe gerade den Marathon geschafft" zu
klicken, aber nicht ganz so einfach, zu "Genozid in Darfur" "Like" zu
sagen. Bestimmte Informationen werden also seltener verteilt. Wenn man
statt "Gefällt mir" "Das ist wichtig" klicken könnte, würde sich die
Informationsverteilung ändern.
Kennen Sie die Studie des Wissenschaftlers Eytan Bakshy, der Ihnen
widerspricht?
Seine zentrale Erkenntnis ist ja richtig. Die Leute, die man weniger gut
kennt, bringen die neuen Informationen ins eigene Netzwerk. Facebooks
Algorithmus allerdings, der Newsfeed, konzentriert sich ja gerade darauf,
die Leute zu bevorzugen, die man extrem gut kennt. Insofern stützt die
Studie sogar meine These.
Facebook präsentiert die Studie trotzdem wie einen Gegenbeweis gegen die
"Filter Bubble". Das Gros der Informationen stamme von entfernten
Bekannten.
Ich lese mich da gerade noch durch. Aber es ist ja auch so: Facebook muss
für solche Forschung Zugang zu den Datenbanken genehmigen. Die werden das
nicht tun, wenn sie sich nicht ein vernünftiges Ergebnis erhoffen. Ich
fände es großartig, wenn Facebook seine Datenbanken auch den Leuten öffnen
würde, die sich kritisch mit Facebook auseinandersetzen. Das ist bisher
aber eher, als ob man im Irak als embedded journalist unterwegs ist. Die
dürfen auch keine negativen Bilder verbreiten. Das sind embedded
researchers. Kritische Wissenschaftler, die ich kenne, haben so einen
Zugang bisher nicht erhalten.
Haben Sie manchmal Verfolgungsangst, seit Sie durch Ihre Recherchen
erfahren haben, wo überall Daten abgesaugt werden?
In meinem Buch versuche ich, den Leuten das alles so zu erklären, dass sie
informierter surfen können. Ich nehme einfach mal einen anderen Browser und
schaue, ob sich die Ergebnisse der Suchen ändern. Man muss die Kontrolle
zurückgewinnen oder Dienste nutzen, die sie einem geben. Twitter etwa, ganz
anders als Facebook, sortiert keine Tweets aus. Man kann Google verwenden,
aber die Dinge noch mal gegenchecken, anderswo. Man kann bei Google auch
die personalisierte Suche ausstellen.
10 Feb 2012
## AUTOREN
Johannes Gernert
## TAGS
Schwerpunkt Klimawandel
## ARTIKEL ZUM THEMA
Debatte Klimawandel: Die Weltrettungsmaschine
Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus
Silicon Valley brauchen wir einen linken Optimismus der Technik.
Handbuch zu Facebook-Löschungen: Nippel nein, Fleischwunde ja!
Nazis und Sex auf Facebook? Wer das nicht will, klickt den "Melde"-Button.
Was dann passiert, zeigt ein Handbuch, das jetzt veröffentlicht wurde.
Alltäglicher Online-Strip: Wie nackt sind wir im Netz?
Mehr als 20 Millionen Deutsche haben ein Profil bei Facebook und fast jeder
nutzt die Dienste von Google. Wie verletzlich werden wir dadurch? Ein
Experiment.
ARD-Dokumentation über Facebook: Noch mal alles ordentlich erklärt
Eine ARD-Doku über Facebook liefert einen Grundkurs – und ein bisschen
mehr. Vor allem fürs Interview mit Zuckerberg könnte es "Gefällt
mir"-Klicks geben.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.