# taz.de -- Sonntaz-Interview mit Eli Pariser: "Konzerne geben vor, was wir seh… | |
> Bestimmte Informationen werden im Netz weniger verteilt. Der Netzaktivist | |
> Eli Pariser über gefilterte Meinungen und die Strategie von Google und | |
> Facebook. | |
Bild: Google und Facebook: Sie bestärken Meinungen statt neue zu präsentieren. | |
sonntaz: Herr Pariser, Facebook und Google liefern uns Nachrichten oder | |
Freundesklatsch maßgeschneidert: Für jede genau das, was sie interessieren | |
dürfte. Sie sagen in Ihrem Buch "Filter Bubble", diese Personalisierung | |
gefährde unsere Demokratie. Wie das denn? | |
Eli Pariser: Es ist doch die Frage, wer die Kontrolle hat. Und das sind | |
Unternehmen wie Facebook oder Google, die sich in erster Linie ihren | |
Werbekunden verpflichtet fühlen. Statt die Menschen also zu ermächtigen, | |
sich ihren eigenen Nachrichtenmix zusammenzustellen, entscheiden sie für | |
diese Menschen, was die sehen können und was nicht. | |
Sie sprechen von einer "Filter Bubble", einer Filterblase, in der wir | |
gefangen sind. | |
Die "Filter Bubble" ist ein persönliches Informationsuniversum, in der wir | |
in unserem Onlineleben immer stärker hineingezogen werden. Aus den | |
Informationen über uns versuchen die Unternehmen zu schließen, was wir | |
sehen wollen. Das Hauptziel fast aller großen Onlinekonzerne ist es, so | |
viele Daten über uns zu sammeln wie möglich, um uns dann Werbebanner | |
vorzusetzen, auf die wir mit hoher Wahrscheinlichkeit klicken. | |
Im Deutschen sagen manche "Hallraum". So wie wir ins Netz rufen - so wie | |
wir suchen, posten, sammeln -, hallt es zurück. Nach dem Motto: Wer sich | |
für dieses Buch interessiert hat, der sollte sich das hier ansehen. | |
Genau. Das Problem aber ist, dass wir gar nicht wissen, wie diese Blase für | |
uns konstruiert wird. Wir wissen also nicht, was wir verpassen. Und | |
manchmal wissen wir noch nicht einmal, dass die Inhalte überhaupt so stark | |
ausgesiebt werden. | |
Wie funktioniert das? | |
Facebooks Newsfeed, die Nachrichten, die jeder über Freunde und die Welt | |
erhält, zeigt unterschiedlichen Menschen ganz unterschiedliche Dinge. Was | |
man angeboten bekommt, hängt davon ab, auf welche Inhalte man vorher | |
geklickt hat mit wem man befreundet ist, wie eng, und wie sich dieses | |
Verhalten auf Facebooks Gewinn auswirkt. Eine der verblüffendsten | |
Geschichten hat mir eine Führungskraft des Konzerns erzählt. Sie wissen bei | |
Facebook: Wenn du eine 30 Jahre alte Frau bist und deine Freunde Bilder von | |
sich veröffentlichen, ist die Wahrscheinlichkeit hoch, dass du das auch | |
tust. Wenn du das tust, werden deine männlichen Freunde diese Bilder | |
wahrscheinlich kommentieren. Und wenn sie das tun, steigt die | |
Wahrscheinlichkeit, dass sie Facebook in den kommenden Monaten treu | |
bleiben. | |
Und wie nutzt Facebook dieses Wissen? | |
Sie zäumen das Pferd von hinten auf und sagen: Eli nutzt Facebook noch ein | |
bisschen zu wenig. Lass uns doch ein paar Freundinnen von ihm finden, denen | |
Fotos von ihren Freundinnen zeigen, sodass Eli das kommentieren kann und | |
mehr Zeit auf Facebook verbringt. | |
Wissen die Programmierer so genau, was sie tun - bei mehr als 800 Millionen | |
Facebook-Nutzern und komplexesten Algorithmen? | |
Eines meiner verstörendsten Gespräche hatte ich mit einem | |
Google-Programmierer, der für solche Prozesse zuständig ist. Er gestand im | |
Grunde, dass er auch nicht immer genau weiß, warum Google einen bestimmten | |
Algorithmus in einem bestimmten Moment genau so ausrichtet. Die Codezeilen | |
sind viel zu lang, die Datenbanken zu riesig, sodass ein einzelner Mensch | |
das kaum fassen kann. Das wäre ja alles gar nicht so schlimm, wenn die | |
Entscheidungen, die sie treffen, nicht so extrem wichtig wären. | |
Das sind auch ethische Fragen. Denken die Programmierer darüber nach? Sie | |
haben ja für Ihr Buch mit einigen gesprochen. | |
Sie denken nicht genug über die ethischen Konsequenzen nach. Oft sind sie | |
sich ihrer Verantwortung gar nicht bewusst. Wir sind uns alle einig, dass | |
der Redakteur einer Zeitung ethische Verantwortung trägt für die | |
Geschichten, die auf seiner Seite oder auf dem Titel erscheinen. Google | |
betrachtet seine Suchfunktion nicht als eine ähnlich verantwortungsvolle | |
Aufgabe. Ich habe beispielsweise gefragt: Wenn ich ein | |
Verschwörungstheoretiker bin, der sich für 9/11 interessiert, was ist dann | |
euer Job? Besteht er darin, mir möglichst neue abstruse Informationen zu | |
diesen Theorien zu liefern? Oder wäre es besser, ich bekäme Material, das | |
meinen Ansichten widerspricht, mich aber aufklärt. Da fiel ihnen erst mal | |
gar nichts ein. | |
Die sehen Zahlen und keine Inhalte? | |
Google behauptet ja, den Leuten geben zu wollen, was die wollen. Das klingt | |
erst mal gut. Aber es ist viel komplizierter. Die Leute wollen Kuchen essen | |
und dünn bleiben. Zwei echte Bedürfnisse, die in entgegengesetzte | |
Richtungen weisen. Menschen wollen Sachen lesen, die sie in ihren Meinungen | |
bestärken. Gleichzeitig wollen sie etwas über die Welt erfahren. Google | |
konzentriert sich ein bisschen sehr auf das erste Bedürfnis: Es bestärkt | |
Meinungen, statt neue zu präsentieren. | |
Und manchmal weiß man selbst gar nicht, was man will. | |
Man weiß vor allem nicht, was einem vorenthalten wird, was man verpasst. | |
Wie könnte die "Filter Bubble" die Wahlen in den USA beeinflussen? | |
Ich stellte irgendwann fest, dass Facebook mir vor allem Beiträge von | |
Freunden zeigten, die politisch meiner Meinung waren. Facebook hatte | |
einfach gemerkt, dass ich mit meinen politischen Freunden mehr interagiere. | |
Die Beiträge der anderen tauchten kaum noch auf, obwohl ich gerade von | |
ihnen Neues erfahren wollte. | |
Wie verändert das eine Demokratie? | |
Eine Demokratie erfordert Organisation und dass man sich um eine gemeinsame | |
Sache versammelt. Aber auch die Fähigkeit, Differenzen zu überbrücken, um | |
Entscheidungen zu ringen. Mit dieser Personalisierung wird es wirklich | |
schwierig, andere Perspektiven einzunehmen, nicht nur im eigenen Saft zu | |
schmoren. Das ist gefährlich. | |
Bevorzugt das Barack Obama oder Mitt Romney? | |
Schwierige Frage. Nehmen Sie lieber den Klimawandel, eine unverrückbare | |
Tatsache. In einer durchpersonalisierten Filterblase wäre es aber einem | |
Großteil der Amerikaner möglich, nicht daran zu glauben, ihr Leben nicht zu | |
ändern, weil sie die Wahrheit gar nicht wahrnehmen. | |
Wenn Facebook wollte, könnte es den Newsfeed politisch manipulieren? | |
Ich denke nicht, dass Facebook das tut. Aber es könnte. In anderen Ländern | |
geschieht das. Es gibt ein Netzwerk in China, das ähnlich funktioniert wie | |
Facebook. Wenn man da bestimmte politische Begriffe eingibt, erscheinen nur | |
leere Boxen. Das zeigt, wie groß die öffentliche Verantwortung ist, die | |
solche Firmen tragen. | |
Was erwarten Sie von den Regierungen, etwa in den USA? | |
Die Gesetze zum Erfassen von personenbezogenen Daten sind in den USA | |
vierzig Jahre alt. Sie sind nicht gemacht für eine Welt, in der der Klick | |
auf eine Website das, was man später auf einer anderen Website sieht, | |
beeinflussen kann. | |
Für Facebook schlagen Sie einen "Important"-Button vor statt des | |
"Like"-Buttons. "Wichtig" statt "Gefällt mir". | |
Der "Like"-Button bestimmt die Art, wie Informationen weitergegeben werden. | |
Es ist einfach, auf die Nachricht "Habe gerade den Marathon geschafft" zu | |
klicken, aber nicht ganz so einfach, zu "Genozid in Darfur" "Like" zu | |
sagen. Bestimmte Informationen werden also seltener verteilt. Wenn man | |
statt "Gefällt mir" "Das ist wichtig" klicken könnte, würde sich die | |
Informationsverteilung ändern. | |
Kennen Sie die Studie des Wissenschaftlers Eytan Bakshy, der Ihnen | |
widerspricht? | |
Seine zentrale Erkenntnis ist ja richtig. Die Leute, die man weniger gut | |
kennt, bringen die neuen Informationen ins eigene Netzwerk. Facebooks | |
Algorithmus allerdings, der Newsfeed, konzentriert sich ja gerade darauf, | |
die Leute zu bevorzugen, die man extrem gut kennt. Insofern stützt die | |
Studie sogar meine These. | |
Facebook präsentiert die Studie trotzdem wie einen Gegenbeweis gegen die | |
"Filter Bubble". Das Gros der Informationen stamme von entfernten | |
Bekannten. | |
Ich lese mich da gerade noch durch. Aber es ist ja auch so: Facebook muss | |
für solche Forschung Zugang zu den Datenbanken genehmigen. Die werden das | |
nicht tun, wenn sie sich nicht ein vernünftiges Ergebnis erhoffen. Ich | |
fände es großartig, wenn Facebook seine Datenbanken auch den Leuten öffnen | |
würde, die sich kritisch mit Facebook auseinandersetzen. Das ist bisher | |
aber eher, als ob man im Irak als embedded journalist unterwegs ist. Die | |
dürfen auch keine negativen Bilder verbreiten. Das sind embedded | |
researchers. Kritische Wissenschaftler, die ich kenne, haben so einen | |
Zugang bisher nicht erhalten. | |
Haben Sie manchmal Verfolgungsangst, seit Sie durch Ihre Recherchen | |
erfahren haben, wo überall Daten abgesaugt werden? | |
In meinem Buch versuche ich, den Leuten das alles so zu erklären, dass sie | |
informierter surfen können. Ich nehme einfach mal einen anderen Browser und | |
schaue, ob sich die Ergebnisse der Suchen ändern. Man muss die Kontrolle | |
zurückgewinnen oder Dienste nutzen, die sie einem geben. Twitter etwa, ganz | |
anders als Facebook, sortiert keine Tweets aus. Man kann Google verwenden, | |
aber die Dinge noch mal gegenchecken, anderswo. Man kann bei Google auch | |
die personalisierte Suche ausstellen. | |
10 Feb 2012 | |
## AUTOREN | |
Johannes Gernert | |
## TAGS | |
Schwerpunkt Klimawandel | |
## ARTIKEL ZUM THEMA | |
Debatte Klimawandel: Die Weltrettungsmaschine | |
Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus | |
Silicon Valley brauchen wir einen linken Optimismus der Technik. | |
Handbuch zu Facebook-Löschungen: Nippel nein, Fleischwunde ja! | |
Nazis und Sex auf Facebook? Wer das nicht will, klickt den "Melde"-Button. | |
Was dann passiert, zeigt ein Handbuch, das jetzt veröffentlicht wurde. | |
Alltäglicher Online-Strip: Wie nackt sind wir im Netz? | |
Mehr als 20 Millionen Deutsche haben ein Profil bei Facebook und fast jeder | |
nutzt die Dienste von Google. Wie verletzlich werden wir dadurch? Ein | |
Experiment. | |
ARD-Dokumentation über Facebook: Noch mal alles ordentlich erklärt | |
Eine ARD-Doku über Facebook liefert einen Grundkurs – und ein bisschen | |
mehr. Vor allem fürs Interview mit Zuckerberg könnte es "Gefällt | |
mir"-Klicks geben. |