| # taz.de -- Sonntaz-Interview mit Eli Pariser: "Konzerne geben vor, was wir seh… | |
| > Bestimmte Informationen werden im Netz weniger verteilt. Der Netzaktivist | |
| > Eli Pariser über gefilterte Meinungen und die Strategie von Google und | |
| > Facebook. | |
| Bild: Google und Facebook: Sie bestärken Meinungen statt neue zu präsentieren. | |
| sonntaz: Herr Pariser, Facebook und Google liefern uns Nachrichten oder | |
| Freundesklatsch maßgeschneidert: Für jede genau das, was sie interessieren | |
| dürfte. Sie sagen in Ihrem Buch "Filter Bubble", diese Personalisierung | |
| gefährde unsere Demokratie. Wie das denn? | |
| Eli Pariser: Es ist doch die Frage, wer die Kontrolle hat. Und das sind | |
| Unternehmen wie Facebook oder Google, die sich in erster Linie ihren | |
| Werbekunden verpflichtet fühlen. Statt die Menschen also zu ermächtigen, | |
| sich ihren eigenen Nachrichtenmix zusammenzustellen, entscheiden sie für | |
| diese Menschen, was die sehen können und was nicht. | |
| Sie sprechen von einer "Filter Bubble", einer Filterblase, in der wir | |
| gefangen sind. | |
| Die "Filter Bubble" ist ein persönliches Informationsuniversum, in der wir | |
| in unserem Onlineleben immer stärker hineingezogen werden. Aus den | |
| Informationen über uns versuchen die Unternehmen zu schließen, was wir | |
| sehen wollen. Das Hauptziel fast aller großen Onlinekonzerne ist es, so | |
| viele Daten über uns zu sammeln wie möglich, um uns dann Werbebanner | |
| vorzusetzen, auf die wir mit hoher Wahrscheinlichkeit klicken. | |
| Im Deutschen sagen manche "Hallraum". So wie wir ins Netz rufen - so wie | |
| wir suchen, posten, sammeln -, hallt es zurück. Nach dem Motto: Wer sich | |
| für dieses Buch interessiert hat, der sollte sich das hier ansehen. | |
| Genau. Das Problem aber ist, dass wir gar nicht wissen, wie diese Blase für | |
| uns konstruiert wird. Wir wissen also nicht, was wir verpassen. Und | |
| manchmal wissen wir noch nicht einmal, dass die Inhalte überhaupt so stark | |
| ausgesiebt werden. | |
| Wie funktioniert das? | |
| Facebooks Newsfeed, die Nachrichten, die jeder über Freunde und die Welt | |
| erhält, zeigt unterschiedlichen Menschen ganz unterschiedliche Dinge. Was | |
| man angeboten bekommt, hängt davon ab, auf welche Inhalte man vorher | |
| geklickt hat mit wem man befreundet ist, wie eng, und wie sich dieses | |
| Verhalten auf Facebooks Gewinn auswirkt. Eine der verblüffendsten | |
| Geschichten hat mir eine Führungskraft des Konzerns erzählt. Sie wissen bei | |
| Facebook: Wenn du eine 30 Jahre alte Frau bist und deine Freunde Bilder von | |
| sich veröffentlichen, ist die Wahrscheinlichkeit hoch, dass du das auch | |
| tust. Wenn du das tust, werden deine männlichen Freunde diese Bilder | |
| wahrscheinlich kommentieren. Und wenn sie das tun, steigt die | |
| Wahrscheinlichkeit, dass sie Facebook in den kommenden Monaten treu | |
| bleiben. | |
| Und wie nutzt Facebook dieses Wissen? | |
| Sie zäumen das Pferd von hinten auf und sagen: Eli nutzt Facebook noch ein | |
| bisschen zu wenig. Lass uns doch ein paar Freundinnen von ihm finden, denen | |
| Fotos von ihren Freundinnen zeigen, sodass Eli das kommentieren kann und | |
| mehr Zeit auf Facebook verbringt. | |
| Wissen die Programmierer so genau, was sie tun - bei mehr als 800 Millionen | |
| Facebook-Nutzern und komplexesten Algorithmen? | |
| Eines meiner verstörendsten Gespräche hatte ich mit einem | |
| Google-Programmierer, der für solche Prozesse zuständig ist. Er gestand im | |
| Grunde, dass er auch nicht immer genau weiß, warum Google einen bestimmten | |
| Algorithmus in einem bestimmten Moment genau so ausrichtet. Die Codezeilen | |
| sind viel zu lang, die Datenbanken zu riesig, sodass ein einzelner Mensch | |
| das kaum fassen kann. Das wäre ja alles gar nicht so schlimm, wenn die | |
| Entscheidungen, die sie treffen, nicht so extrem wichtig wären. | |
| Das sind auch ethische Fragen. Denken die Programmierer darüber nach? Sie | |
| haben ja für Ihr Buch mit einigen gesprochen. | |
| Sie denken nicht genug über die ethischen Konsequenzen nach. Oft sind sie | |
| sich ihrer Verantwortung gar nicht bewusst. Wir sind uns alle einig, dass | |
| der Redakteur einer Zeitung ethische Verantwortung trägt für die | |
| Geschichten, die auf seiner Seite oder auf dem Titel erscheinen. Google | |
| betrachtet seine Suchfunktion nicht als eine ähnlich verantwortungsvolle | |
| Aufgabe. Ich habe beispielsweise gefragt: Wenn ich ein | |
| Verschwörungstheoretiker bin, der sich für 9/11 interessiert, was ist dann | |
| euer Job? Besteht er darin, mir möglichst neue abstruse Informationen zu | |
| diesen Theorien zu liefern? Oder wäre es besser, ich bekäme Material, das | |
| meinen Ansichten widerspricht, mich aber aufklärt. Da fiel ihnen erst mal | |
| gar nichts ein. | |
| Die sehen Zahlen und keine Inhalte? | |
| Google behauptet ja, den Leuten geben zu wollen, was die wollen. Das klingt | |
| erst mal gut. Aber es ist viel komplizierter. Die Leute wollen Kuchen essen | |
| und dünn bleiben. Zwei echte Bedürfnisse, die in entgegengesetzte | |
| Richtungen weisen. Menschen wollen Sachen lesen, die sie in ihren Meinungen | |
| bestärken. Gleichzeitig wollen sie etwas über die Welt erfahren. Google | |
| konzentriert sich ein bisschen sehr auf das erste Bedürfnis: Es bestärkt | |
| Meinungen, statt neue zu präsentieren. | |
| Und manchmal weiß man selbst gar nicht, was man will. | |
| Man weiß vor allem nicht, was einem vorenthalten wird, was man verpasst. | |
| Wie könnte die "Filter Bubble" die Wahlen in den USA beeinflussen? | |
| Ich stellte irgendwann fest, dass Facebook mir vor allem Beiträge von | |
| Freunden zeigten, die politisch meiner Meinung waren. Facebook hatte | |
| einfach gemerkt, dass ich mit meinen politischen Freunden mehr interagiere. | |
| Die Beiträge der anderen tauchten kaum noch auf, obwohl ich gerade von | |
| ihnen Neues erfahren wollte. | |
| Wie verändert das eine Demokratie? | |
| Eine Demokratie erfordert Organisation und dass man sich um eine gemeinsame | |
| Sache versammelt. Aber auch die Fähigkeit, Differenzen zu überbrücken, um | |
| Entscheidungen zu ringen. Mit dieser Personalisierung wird es wirklich | |
| schwierig, andere Perspektiven einzunehmen, nicht nur im eigenen Saft zu | |
| schmoren. Das ist gefährlich. | |
| Bevorzugt das Barack Obama oder Mitt Romney? | |
| Schwierige Frage. Nehmen Sie lieber den Klimawandel, eine unverrückbare | |
| Tatsache. In einer durchpersonalisierten Filterblase wäre es aber einem | |
| Großteil der Amerikaner möglich, nicht daran zu glauben, ihr Leben nicht zu | |
| ändern, weil sie die Wahrheit gar nicht wahrnehmen. | |
| Wenn Facebook wollte, könnte es den Newsfeed politisch manipulieren? | |
| Ich denke nicht, dass Facebook das tut. Aber es könnte. In anderen Ländern | |
| geschieht das. Es gibt ein Netzwerk in China, das ähnlich funktioniert wie | |
| Facebook. Wenn man da bestimmte politische Begriffe eingibt, erscheinen nur | |
| leere Boxen. Das zeigt, wie groß die öffentliche Verantwortung ist, die | |
| solche Firmen tragen. | |
| Was erwarten Sie von den Regierungen, etwa in den USA? | |
| Die Gesetze zum Erfassen von personenbezogenen Daten sind in den USA | |
| vierzig Jahre alt. Sie sind nicht gemacht für eine Welt, in der der Klick | |
| auf eine Website das, was man später auf einer anderen Website sieht, | |
| beeinflussen kann. | |
| Für Facebook schlagen Sie einen "Important"-Button vor statt des | |
| "Like"-Buttons. "Wichtig" statt "Gefällt mir". | |
| Der "Like"-Button bestimmt die Art, wie Informationen weitergegeben werden. | |
| Es ist einfach, auf die Nachricht "Habe gerade den Marathon geschafft" zu | |
| klicken, aber nicht ganz so einfach, zu "Genozid in Darfur" "Like" zu | |
| sagen. Bestimmte Informationen werden also seltener verteilt. Wenn man | |
| statt "Gefällt mir" "Das ist wichtig" klicken könnte, würde sich die | |
| Informationsverteilung ändern. | |
| Kennen Sie die Studie des Wissenschaftlers Eytan Bakshy, der Ihnen | |
| widerspricht? | |
| Seine zentrale Erkenntnis ist ja richtig. Die Leute, die man weniger gut | |
| kennt, bringen die neuen Informationen ins eigene Netzwerk. Facebooks | |
| Algorithmus allerdings, der Newsfeed, konzentriert sich ja gerade darauf, | |
| die Leute zu bevorzugen, die man extrem gut kennt. Insofern stützt die | |
| Studie sogar meine These. | |
| Facebook präsentiert die Studie trotzdem wie einen Gegenbeweis gegen die | |
| "Filter Bubble". Das Gros der Informationen stamme von entfernten | |
| Bekannten. | |
| Ich lese mich da gerade noch durch. Aber es ist ja auch so: Facebook muss | |
| für solche Forschung Zugang zu den Datenbanken genehmigen. Die werden das | |
| nicht tun, wenn sie sich nicht ein vernünftiges Ergebnis erhoffen. Ich | |
| fände es großartig, wenn Facebook seine Datenbanken auch den Leuten öffnen | |
| würde, die sich kritisch mit Facebook auseinandersetzen. Das ist bisher | |
| aber eher, als ob man im Irak als embedded journalist unterwegs ist. Die | |
| dürfen auch keine negativen Bilder verbreiten. Das sind embedded | |
| researchers. Kritische Wissenschaftler, die ich kenne, haben so einen | |
| Zugang bisher nicht erhalten. | |
| Haben Sie manchmal Verfolgungsangst, seit Sie durch Ihre Recherchen | |
| erfahren haben, wo überall Daten abgesaugt werden? | |
| In meinem Buch versuche ich, den Leuten das alles so zu erklären, dass sie | |
| informierter surfen können. Ich nehme einfach mal einen anderen Browser und | |
| schaue, ob sich die Ergebnisse der Suchen ändern. Man muss die Kontrolle | |
| zurückgewinnen oder Dienste nutzen, die sie einem geben. Twitter etwa, ganz | |
| anders als Facebook, sortiert keine Tweets aus. Man kann Google verwenden, | |
| aber die Dinge noch mal gegenchecken, anderswo. Man kann bei Google auch | |
| die personalisierte Suche ausstellen. | |
| 10 Feb 2012 | |
| ## AUTOREN | |
| Johannes Gernert | |
| ## TAGS | |
| Schwerpunkt Klimawandel | |
| ## ARTIKEL ZUM THEMA | |
| Debatte Klimawandel: Die Weltrettungsmaschine | |
| Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus | |
| Silicon Valley brauchen wir einen linken Optimismus der Technik. | |
| Handbuch zu Facebook-Löschungen: Nippel nein, Fleischwunde ja! | |
| Nazis und Sex auf Facebook? Wer das nicht will, klickt den "Melde"-Button. | |
| Was dann passiert, zeigt ein Handbuch, das jetzt veröffentlicht wurde. | |
| Alltäglicher Online-Strip: Wie nackt sind wir im Netz? | |
| Mehr als 20 Millionen Deutsche haben ein Profil bei Facebook und fast jeder | |
| nutzt die Dienste von Google. Wie verletzlich werden wir dadurch? Ein | |
| Experiment. | |
| ARD-Dokumentation über Facebook: Noch mal alles ordentlich erklärt | |
| Eine ARD-Doku über Facebook liefert einen Grundkurs – und ein bisschen | |
| mehr. Vor allem fürs Interview mit Zuckerberg könnte es "Gefällt | |
| mir"-Klicks geben. |