# taz.de -- Psychologe Michal Kosinski: „Die Filterbubble ist ein Mythos“ | |
> Haben die Methoden von Michal Kosinski den Sieg Donald Trumps ermöglicht? | |
> Und was sagen Fritten über Intelligenz? Der Psychologe im Gespräch. | |
Bild: „Facebook ist nicht schuld an der Filterbubble, der Mensch ist es“, s… | |
taz.am wochenende: Herr Kosinski, sind Sie für Donald Trumps Wahlsieg | |
verantwortlich? | |
Michal Kosinski: Kommen Sie, Sie wissen, dass das eine lächerliche Frage | |
ist. Natürlich nicht. | |
Es gab hier in Deutschland eine Menge Diskussionen über einen Text, in dem | |
steht, eine Firma namens Cambridge Analytica habe daran, dass Trump | |
gewonnen hat, entscheidenden Anteil: und zwar weil sie Ihre Methode | |
benutzte, um Daten von Facebook-Nutzern auszuwerten und so Wähler gezielt | |
anzusprechen. | |
Nun, Journalisten übertreiben manchmal. Ich bin mir ziemlich sicher, dass | |
nicht Cambridge Analytica ihm den Sieg ermöglicht hat. Will man mit Daten | |
Wahlkämpfe gewinnen, ist das auch eine Geldfrage. Hillary Clinton hat weit | |
mehr Geld in diese Art des Wahlkampfs gesteckt als Trump, und sie hat viel | |
länger auf Big Data gesetzt. | |
Trump hat lange gesagt, er vertraue nicht auf Daten. Cambridge Analytica | |
wurde erst im Sommer 2016 engagiert. Aber vielleicht war Clintons Wahlkampf | |
weniger effektiv. | |
Wir wissen auch nicht, wie effektiv Cambridge Analytica wirklich war. | |
Natürlich wollen die den Eindruck erwecken, sie hätten diese Wahl gewonnen. | |
Aber wir wissen es nicht. | |
In vielen Artikeln über die Firma steht, dass sie ihre Daten nicht mit den | |
anderen an der Trump-Kampagne beteiligten Firmen teilen wollte. | |
Wie gesagt, wir wissen nicht, wie effektiv die arbeiten. Aber der wirklich | |
wichtige Aspekt ist ohnehin nicht Trump. | |
Originelle These. Was ist denn derzeit wichtiger als Trump? | |
Früher brauchte jemand, wenn er so detaillierte Informationen über Ihre | |
Persönlichkeit erhalten wollte, Ihre Zustimmung. Um etwas über Ihre | |
Persönlichkeit zu erfahren, musste ein Psychologe, ein geschulter Mensch | |
Sie interviewen. Das war sehr aufwendig. Meine Forschung zeigt, dass heute | |
sehr genaue Aussagen über Sie und Ihre Persönlichkeit getroffen werden | |
können, wenn man sich mithilfe von Algorithmen Ihre Datenspuren im Internet | |
ansieht. Unsere Untersuchungen haben gezeigt, dass schon wenige | |
Facebook-Likes ausreichen, um sehr konkrete Aussagen über fünf Aspekte | |
Ihrer Persönlichkeit zu treffen. So ab, sagen wir, 240 Likes vielleicht | |
sogar bessere als Ihre Freundin. | |
Sie selbst finden das, worüber Sie forschen, offenbar so gefährlich, dass | |
Sie einige Ihrer Arbeiten mit entsprechenden Warnungen versehen haben. | |
Warum erforschen Sie so etwas dann? | |
Ich habe diese Methoden ja nicht erfunden, ich gehe davon aus, dass Firmen | |
das schon länger machen. Wir brauchen eine Diskussion darüber, wie wir | |
damit umgehen. Dafür aber muss man wissen, wie diese Technologien | |
funktionieren. Und man kann damit sehr viel Gutes tun. | |
Was soll daran gut sein? | |
Firmen, Politiker, wer auch immer eine Botschaft vermitteln will, können | |
diese Botschaft in Zukunft nur denen zeigen, die sie auch angeht und die | |
sie interessiert. Das bedeutet schlicht: weniger Werbung. | |
Das klingt eher wie die Perfektionierung der Filterbubble. | |
Die Filterbubble ist ein Mythos, es gibt keinen wissenschaftlichen Beweis | |
dafür. | |
Welchen Beweis braucht es denn? Viele Menschen merken einfach, dass sie in | |
ihren Freundeslisten auf Facebook vor allem Menschen mit ähnlicher | |
Gesinnung begegnen. | |
Aber das hat mit dem Internet nichts zu tun. Menschen mögen Informationen, | |
die mit ihrem Weltbild übereinstimmen, die sie bestätigen. Menschen sind | |
dazu gemacht, in einer Filterbubble zu leben. De facto hatten wir nie | |
weniger Filterbubble als heute. Früher, als die meisten Menschen auf dem | |
Dorf oder in kleinen Städten lebten, haben wenige Männer das kontrolliert, | |
was an Informationen zugänglich war: der Lehrer, der Bibliothekar, der | |
Priester. Nein, der Mensch tendiert dazu, andere für etwas verantwortlich | |
zu machen, das er selbst tut. Menschen tendieren dazu, sich zu beschweren | |
und zu jammern. Facebook ist nicht schuld an der Filterbubble, der Mensch | |
ist es. Heute macht es das Internet überhaupt erst möglich, dass wir die | |
Informationen sehen und ertragen müssen, die wir früher nie gesehen hätten. | |
Seit Deutschland viele Flüchtlinge aufgenommen hat, werfen sich Rechte und | |
Linke gegenseitig vor, nur die Informationen zu konsumieren, die ins eigene | |
Weltbild passen. Die können doch mit ihrer Wahrnehmung nicht alle falsch | |
liegen. | |
Wie gesagt, Menschen neigen dazu, gerne nur das zu sehen, was ihre Meinung | |
bestätigt. Aber erst durch Facebook und das Internet überhaupt werden | |
Menschen förmlich gezwungen, zu sehen, dass es total andere Haltungen als | |
die ihre gibt. Das bewahrt sie nicht davor, sich menschlich zu verhalten, | |
viele versuchen immer noch ihre Weltsicht zu erhalten und auf andere | |
Informationen, die in diese Perspektive nicht hineinpassen, reagieren sie | |
entsprechend. In Filterbubbles zu leben, das ist unser natürlicher Zustand. | |
Aber das Internet bringt ihn in Gefahr, weil die andere Information immer | |
nur einen Klick entfernt ist, es gibt eine nie zuvor dagewesene Vermischung | |
von Ansichten, Ideologien und Perspektiven und deshalb fangen wir ans uns | |
zu beschweren. | |
Halten Sie die Polarisierung, die es auf Facebook gibt, nicht für ein | |
Problem? | |
Es gab einmal eine schöne Alternative. Die Sowjetunion. Da wurde im Prinzip | |
eine Wahrheit immer wieder kopiert. Das macht die Informationen nicht | |
wahrer, aber es macht eine Gesellschaft natürlich weit weniger | |
konfliktreich. So wie es jetzt ist, sind wir gezwungen aufeinander zu | |
treffen und uns irgendwie miteinander auseinander zu setzen. | |
Kommen wir mal zu Ihrer Forschung zurück. Warum soll ein Facebook-Like so | |
viel über mich aussagen? Ich spiele im Internet eine Rolle. Ich bin nicht | |
mein wahres „Ich“. | |
Sich anders zu verhalten, eine Rolle zu spielen, ist anstrengender, als die | |
meisten denken. Darum ist Schauspielerei ein Beruf, und auch den machen | |
viele nicht gut. Natürlich haben wir alle Masken auf, aber Menschen | |
verkleiden sich im realen Leben viel einfacher als im Internet. Sie ziehen | |
sich an, sie haben einen Bart oder nicht, schminken sich, tragen eine | |
Frisur. Vor dem Computer sind sie in gewisser Weise mit sich allein, es | |
gibt nicht viel, hinter dem sie sich verstecken können. Und dann versuchen | |
Sie mal über ein Jahr, fünf Jahre, zehn Jahre jemand anderes zu sein. | |
Tragen Sie dieselbe Maske über diese Zeit. Das ist mühsam, und diese Mühe | |
nehmen die meisten Menschen nicht auf sich. Über die Zeit wird der | |
Algorithmus zum Beispiel merken, dass sich ein bestimmtes Muster in ihrem | |
Verhalten immer wiederholt, wenn Sie traurig sind. | |
Das heißt, je länger jemand auf Facebook ist, desto präziser werden Ihre | |
Aussagen? | |
Ja, mehr Daten sind immer besser. Aber letztendlich reichen bei vielen | |
Menschen dann doch zehn Likes, um schon recht genaue Vorhersagen über den | |
Charakter zu treffen. | |
Sie haben einen Test auf Ihrer Website: Man kann sehen, was der Algorithmus | |
alles über einen weiß. Viele in Deutschland haben auf Facebook geschrieben, | |
es sei Unsinn dabei herausgekommen. Frauen waren Männer und umgekehrt, | |
heterosexuelle Männer wurden homosexuell. | |
Das Modell auf unserer Webseite zielt auf Menschen in den USA. Bestimmte | |
Symbole bedeuten hier und dort etwas ganz anderes. Ein fiktives Beispiel: | |
Ein Auto von BMW bedeutet in den USA vielleicht vor allem für junge | |
ungebildete Männer etwas, in Deutschland aber für ältere gesetzte Herren. | |
Sie haben in einem Interview mal gesagt, Menschen mit einem hohen IQ würden | |
öfter „Curly Fries“ liken, diese gekringelten Pommes. Warum ist das so? | |
Es könnte sein, und auch das denke ich mir aus, dass mal irgendwer an einer | |
Universität einen Witz über Curly Fries gemacht und der hat sich dann unter | |
Mathematikern verbreitet. Oder vielleicht war es ganz anders. Das ist eine | |
dieser Verbindungen, die nur der Algorithmus sieht, nicht der Mensch. | |
Bei mir hat Ihr Test dafür ziemlich gut funktioniert, dafür dass er nur 18 | |
Likes ausgewertet hat. Aber in meiner Auswertung steht, dass meine Likes | |
für den Sender CNN, den Schriftsteller Neil Gaiman und die Zeitung „New | |
York Times“ mich “liberal“ und „artistic“ erscheinen lassen und daneb… | |
steht, dass die Likes für CNN, „New York Times“ und Neil Gaiman mich | |
„competitive“ erscheinen lassen. Können die gleichen Likes unterschiedliche | |
Aussagen bedeuten? | |
Ja, natürlich. Ich könnte mir vorstellen, dass zum Beispiel Gaiman ein | |
ziemlicher „strong like“ ist, ein starker Like. Das ist ein Schriftsteller | |
mit einem recht speziellen Stil, das könnte zum Beispiel etwas über | |
Offenheit aussagen. New York Times und CNN sind möglicherweise eher | |
neutrale Likes, die bei der Bewertung im Verhältnis vielleicht weniger den | |
Ausschlag geben. Sowohl bei den Curly Fries als auch bei Ihren Likes geht | |
es aber immer nur um Bruchteile von Prozent, die in die Aussage über eine | |
Person einfließen. Für sich selbst genommen mögen manche Faktoren ganz | |
unbedeutend sein, erst in der Summe, indem der Algorithmus sie zusammen | |
analysiert, ergeben sie einen Sinn. | |
In einem Ihrer Aufsätze aus dem Januar 2015 schreiben Sie, die menschliche | |
Wahrnehmung habe den Vorteil, sehr flexibel zu sein und viele unbewusste | |
Signale wahrnehmen zu können. Deshalb, so schreiben Sie weiter, könnten | |
Menschen besser darin sein, Charakterzüge zu beschreiben, für die es der | |
Fähigkeit bedarf Subtiles wahrnehmen zu können. Da relativieren Sie Ihre | |
Forschung? | |
Meine Forschung ist nicht zu Ende, wir stehen noch am Anfang. Betonen Sie | |
bei der Aussage dort oben vor allem das „könnte“. Was wir bisher sehen ist, | |
dass Maschinen uns besser beurteilen als Menschen, aber ich sage trotzdem | |
nicht, dass ich Recht habe. Es kann auch noch andere Ergebnisse geben. | |
Blendet Ihre Konzentration auf Likes nicht viele andere wichtige Faktoren | |
aus? Ob jemand aus einem Arbeiterhaushalt kommt oder an eine bessere Schule | |
gegangen ist? | |
Im Gegenteil, die Likes sagen über unsere Herkunft, unsere Lebensumstände | |
sehr viel aus. Ich habe in meiner Jugend in Polen natürlich auch Beatles | |
gehört, das überschneidet sich sicherlich mit Menschen, die in einer fancy | |
Schule in L. A. waren. Aber ich habe auch vieles gehört, von dem hier | |
niemand etwas weiß. Und das spiegelt sich in den Likes wieder. | |
Und da macht es keinen Unterschied, ob ich etwas like, weil ich es | |
tatsächlich mag oder weil ich es einfach nur interessant finde? | |
Nein, entscheidend ist, dass Sie auf den Knopf drücken. Der Algorithmus | |
wird es dann mit Likes Ihrer Freunde vergleichen, mit dem, was Sie früher | |
geliked haben, und Schlüsse ziehen. | |
Der Psychologe David Funder von der Universität von Kalifornien sagt, er | |
sei durchaus beeindruckt von Ihrer Arbeit, aber um eine Person wirklich zu | |
verstehen, seien schon eher 100 Items notwendig und nicht fünf. | |
Ich schätze die Arbeit von David. Aber warum 100 Items? Warum nicht 1.000? | |
Oder 10.000? Das sind doch willkürliche Zahlen, aber klar, es gilt: Je mehr | |
Daten desto besser. Nur können Menschen diese 1.000 verschiedene | |
Informationen gar nicht verarbeiten und 10.000 schon gar nicht. Nicht die | |
Computer reduzieren uns auf weniger als 1.000 oder 100 Aspekte, das machen | |
wir selbst. Wir reduzieren uns, wenn wir uns ein Bild von unseren | |
Mitmenschen machen und von uns selbst übrigens auch. Wir produzieren | |
Vorurteile und Verallgemeinerungen und kategorisieren uns. Menschen sind | |
begrenzt darin, sich mehrdimensional zu sehen. Computer sind das nicht. | |
Computer sind also die besseren Menschen? | |
Wir sind sehr gut darin, Menschen zu sein. Computer haben weniger | |
Vorurteile. | |
Können vorurteilsbehaftete Menschen Algorithmen schreiben, die selbst keine | |
Vorurteile haben? | |
Eine philosophische Frage. Wenn Algorithmen nur von Menschen lernen, dann | |
werden sie wohl auch menschliche Einstellungen übernehmen. Wenn ich einen | |
Algorithmus programmiere, der mir den besten Investmentbanker suchen soll, | |
dann wird da nach Stand der Dinge wohl ein weißer Mann herauskommen. Eine | |
Methode wäre, zu versuchen, die Fragen an den Algorithmus weniger wertend | |
zu formulieren und stattdessen nach einem Paket eher messbarer Fragen zu | |
suchen. Zum Beispiel danach zu fragen, wer eine bestimmte Aufgabe am besten | |
meistert. Oder den Algorithmus von etwas lernen zu lassen, das nicht der | |
Mensch ist. Der Natur zum Beispiel. | |
Sie haben einmal gesagt, das gesamte Internet widerspreche mit seinen | |
vielen verfügbaren Informationen über Personen eigentlich dem deutschen | |
Datenschutz. Heißt das, im Umkehrschluss, dass solche Entwicklungen wie in | |
den USA hier nicht möglich sind? | |
Das Internet hat keine Grenzen. Und eigentlich haben wir, auch in den USA, | |
zumindest einige Regeln wie sensible Daten über unsere Persönlichkeit, | |
religiöse Vorlieben et cetera zu sammeln sind. Nur werden diese Regeln | |
durch die Entwicklungen, die ich beschreibe, ausgehebelt. | |
Die deutsche Algorithmusentwicklerin Yvonne Hofstetter sagt, das | |
Demokratien und Gesetze zu langsam sind für immer komplexere Vorgänge und | |
sie deswegen dysfunktional werden. | |
Sie hat Recht. | |
Aber wenn so viele Informationen über uns verfügbar sind – warum sind dann | |
die Ergebnisse so ungenau? Ständig erzählen sich Menschen, wie ungenau die | |
Algorithmen von Amazon wohl sein müssen, weil sie dauernd Dinge angeboten | |
bekommen, die sie nicht wollen. | |
Erstens erzählen Menschen eher von Dingen, die nicht funktionieren, als von | |
denen, die funktionieren. Gerade, wenn diese Dinge sonst ziemlich gut | |
funktionieren. Zweitens: Wer sagt, dass Werbung heute so gut funktioniert, | |
wie sie könnte? Ein Datingportal hat kein Interesse, dass der Algorithmus | |
so gut ist, dass wirklich alle einen Partner finden – weil dann das Portal | |
pleitegeht. Und die Werbung kann derzeit gar nicht das Ziel haben, alles | |
zielgerichtet zu verkaufen. Wo bliebe da die Nachfrage für neue Aufträge? | |
Andererseits gibt es die berühmte Geschichte einer schwangeren 16-Jährigen, | |
die nur aufgrund ihrer Datenspuren im Internet unverlangt | |
Schwangerschaftsprodukte zugesandt bekam. Ist das eine moderne Legende? Die | |
Legende des allwissenden Algorithmus? | |
Nein, dieses Beispiel gibt es, und es ist auch nicht nur eine Frau gewesen. | |
Aber das ist auch ein Beispiel dafür, warum Algorithmen heute nicht so gut | |
funktionieren, wie sie könnten. Natürlich finden die Leute es creepy, wenn | |
so etwas passiert. Also mischt man bei Schwangeren heute halt unter die | |
Babyprodukte auch mal etwas anderes. Und in der Kommunikation mit Kunden | |
oder nach außen verschleiern die entsprechenden Unternehmen dann eben ihre | |
Sprache. Dann heißt es nicht mehr, man würde Schwangerschaften voraussehen, | |
sondern sie ersetzen „Schwangerschaft“ durch „dimension alpha“ oder ein… | |
anderen Kunstbegriff für einen plötzlichen Wandel im Benehmen. Da sind die | |
Leute dann schon viel weniger besorgt. | |
17 Dec 2016 | |
## AUTOREN | |
Daniel Schulz | |
## TAGS | |
Schwerpunkt Meta | |
Donald Trump | |
Schwerpunkt USA unter Donald Trump | |
Schwerpunkt Meta | |
Datenschutz | |
Schwerpunkt taz.meinland | |
Schwerpunkt USA unter Donald Trump | |
Schwerpunkt USA unter Donald Trump | |
Fake News | |
Urteil | |
## ARTIKEL ZUM THEMA | |
Big Data und US-Präsidentschaftswahl: Facebook sperrt Datenanalysefirma | |
Präsident Donald Trump hatte die Dienste von Cambridge Analytica bei der | |
Wahl 2016 genutzt. Facebook sagt, die Firma hätte Auflagen des Netzwerks | |
verletzt. | |
Big Data in der Industrie: Alles ist durchleuchtet | |
Rückversicherer sammeln und analysieren massenhaft Daten aus der Industrie, | |
um ihr Risiko zu verringern. Das haben Datenschützer kaum im Blick. | |
Politische Haltung und Widersprüche: Links, cool, selbstbesoffen | |
In gebildeten linken Milieus scheint man von der unbedingten Richtigkeit | |
des eigenen Standpunkts überzeugt. Damit liegt man schon falsch. | |
US-Präsident formal bestätigt: Wahlleute stimmen für Trump | |
Trotz der Proteste: Donald Trump nimmt die letzte Hürde auf dem Weg zum | |
Weißen Haus: Die Wahlleute wählen ihn zum 45. Präsidenten der Vereinigten | |
Staaten. | |
Präsidentschaftswahl in den USA: Jetzt haben die Wahlleute das Wort | |
Am Montag werden die Wahlleute wohl mehrheitlich ihre Stimme für Trump | |
abgeben. Doch es hagelt Proteste und Aufrufe, das Votum zu blockieren. | |
Maßnahmen gegen Falschmeldungen: Facebook sagt Fake News Kampf an | |
Facebook hat einen Plan vorgelegt, wie es gegen Falschmeldungen vorgehen | |
will. Zunächst bleibt es bei einer Testphase in den USA. | |
Prozess am Bundesarbeitsgericht: Kein Facebook ohne den Betriebsrat | |
Wollen Firmen in Online-Netzwerken werben, müssen sie die | |
Mitarbeitervertretung fragen. Anlass für das Urteil ist ein Streit beim | |
Roten Kreuz. |