Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Psychologe Michal Kosinski: „Die Filterbubble ist ein Mythos“
> Haben die Methoden von Michal Kosinski den Sieg Donald Trumps ermöglicht?
> Und was sagen Fritten über Intelligenz? Der Psychologe im Gespräch.
Bild: „Facebook ist nicht schuld an der Filterbubble, der Mensch ist es“, s…
taz.am wochenende: Herr Kosinski, sind Sie für Donald Trumps Wahlsieg
verantwortlich?
Michal Kosinski: Kommen Sie, Sie wissen, dass das eine lächerliche Frage
ist. Natürlich nicht.
Es gab hier in Deutschland eine Menge Diskussionen über einen Text, in dem
steht, eine Firma namens Cambridge Analytica habe daran, dass Trump
gewonnen hat, entscheidenden Anteil: und zwar weil sie Ihre Methode
benutzte, um Daten von Facebook-Nutzern auszuwerten und so Wähler gezielt
anzusprechen.
Nun, Journalisten übertreiben manchmal. Ich bin mir ziemlich sicher, dass
nicht Cambridge Analytica ihm den Sieg ermöglicht hat. Will man mit Daten
Wahlkämpfe gewinnen, ist das auch eine Geldfrage. Hillary Clinton hat weit
mehr Geld in diese Art des Wahlkampfs gesteckt als Trump, und sie hat viel
länger auf Big Data gesetzt.
Trump hat lange gesagt, er vertraue nicht auf Daten. Cambridge Analytica
wurde erst im Sommer 2016 engagiert. Aber vielleicht war Clintons Wahlkampf
weniger effektiv.
Wir wissen auch nicht, wie effektiv Cambridge Analytica wirklich war.
Natürlich wollen die den Eindruck erwecken, sie hätten diese Wahl gewonnen.
Aber wir wissen es nicht.
In vielen Artikeln über die Firma steht, dass sie ihre Daten nicht mit den
anderen an der Trump-Kampagne beteiligten Firmen teilen wollte.
Wie gesagt, wir wissen nicht, wie effektiv die arbeiten. Aber der wirklich
wichtige Aspekt ist ohnehin nicht Trump.
Originelle These. Was ist denn derzeit wichtiger als Trump?
Früher brauchte jemand, wenn er so detaillierte Informationen über Ihre
Persönlichkeit erhalten wollte, Ihre Zustimmung. Um etwas über Ihre
Persönlichkeit zu erfahren, musste ein Psychologe, ein geschulter Mensch
Sie interviewen. Das war sehr aufwendig. Meine Forschung zeigt, dass heute
sehr genaue Aussagen über Sie und Ihre Persönlichkeit getroffen werden
können, wenn man sich mithilfe von Algorithmen Ihre Datenspuren im Internet
ansieht. Unsere Untersuchungen haben gezeigt, dass schon wenige
Facebook-Likes ausreichen, um sehr konkrete Aussagen über fünf Aspekte
Ihrer Persönlichkeit zu treffen. So ab, sagen wir, 240 Likes vielleicht
sogar bessere als Ihre Freundin.
Sie selbst finden das, worüber Sie forschen, offenbar so gefährlich, dass
Sie einige Ihrer Arbeiten mit entsprechenden Warnungen versehen haben.
Warum erforschen Sie so etwas dann?
Ich habe diese Methoden ja nicht erfunden, ich gehe davon aus, dass Firmen
das schon länger machen. Wir brauchen eine Diskussion darüber, wie wir
damit umgehen. Dafür aber muss man wissen, wie diese Technologien
funktionieren. Und man kann damit sehr viel Gutes tun.
Was soll daran gut sein?
Firmen, Politiker, wer auch immer eine Botschaft vermitteln will, können
diese Botschaft in Zukunft nur denen zeigen, die sie auch angeht und die
sie interessiert. Das bedeutet schlicht: weniger Werbung.
Das klingt eher wie die Perfektionierung der Filterbubble.
Die Filterbubble ist ein Mythos, es gibt keinen wissenschaftlichen Beweis
dafür.
Welchen Beweis braucht es denn? Viele Menschen merken einfach, dass sie in
ihren Freundeslisten auf Facebook vor allem Menschen mit ähnlicher
Gesinnung begegnen.
Aber das hat mit dem Internet nichts zu tun. Menschen mögen Informationen,
die mit ihrem Weltbild übereinstimmen, die sie bestätigen. Menschen sind
dazu gemacht, in einer Filterbubble zu leben. De facto hatten wir nie
weniger Filterbubble als heute. Früher, als die meisten Menschen auf dem
Dorf oder in kleinen Städten lebten, haben wenige Männer das kontrolliert,
was an Informationen zugänglich war: der Lehrer, der Bibliothekar, der
Priester. Nein, der Mensch tendiert dazu, andere für etwas verantwortlich
zu machen, das er selbst tut. Menschen tendieren dazu, sich zu beschweren
und zu jammern. Facebook ist nicht schuld an der Filterbubble, der Mensch
ist es. Heute macht es das Internet überhaupt erst möglich, dass wir die
Informationen sehen und ertragen müssen, die wir früher nie gesehen hätten.
Seit Deutschland viele Flüchtlinge aufgenommen hat, werfen sich Rechte und
Linke gegenseitig vor, nur die Informationen zu konsumieren, die ins eigene
Weltbild passen. Die können doch mit ihrer Wahrnehmung nicht alle falsch
liegen.
Wie gesagt, Menschen neigen dazu, gerne nur das zu sehen, was ihre Meinung
bestätigt. Aber erst durch Facebook und das Internet überhaupt werden
Menschen förmlich gezwungen, zu sehen, dass es total andere Haltungen als
die ihre gibt. Das bewahrt sie nicht davor, sich menschlich zu verhalten,
viele versuchen immer noch ihre Weltsicht zu erhalten und auf andere
Informationen, die in diese Perspektive nicht hineinpassen, reagieren sie
entsprechend. In Filterbubbles zu leben, das ist unser natürlicher Zustand.
Aber das Internet bringt ihn in Gefahr, weil die andere Information immer
nur einen Klick entfernt ist, es gibt eine nie zuvor dagewesene Vermischung
von Ansichten, Ideologien und Perspektiven und deshalb fangen wir ans uns
zu beschweren.
Halten Sie die Polarisierung, die es auf Facebook gibt, nicht für ein
Problem?
Es gab einmal eine schöne Alternative. Die Sowjetunion. Da wurde im Prinzip
eine Wahrheit immer wieder kopiert. Das macht die Informationen nicht
wahrer, aber es macht eine Gesellschaft natürlich weit weniger
konfliktreich. So wie es jetzt ist, sind wir gezwungen aufeinander zu
treffen und uns irgendwie miteinander auseinander zu setzen.
Kommen wir mal zu Ihrer Forschung zurück. Warum soll ein Facebook-Like so
viel über mich aussagen? Ich spiele im Internet eine Rolle. Ich bin nicht
mein wahres „Ich“.
Sich anders zu verhalten, eine Rolle zu spielen, ist anstrengender, als die
meisten denken. Darum ist Schauspielerei ein Beruf, und auch den machen
viele nicht gut. Natürlich haben wir alle Masken auf, aber Menschen
verkleiden sich im realen Leben viel einfacher als im Internet. Sie ziehen
sich an, sie haben einen Bart oder nicht, schminken sich, tragen eine
Frisur. Vor dem Computer sind sie in gewisser Weise mit sich allein, es
gibt nicht viel, hinter dem sie sich verstecken können. Und dann versuchen
Sie mal über ein Jahr, fünf Jahre, zehn Jahre jemand anderes zu sein.
Tragen Sie dieselbe Maske über diese Zeit. Das ist mühsam, und diese Mühe
nehmen die meisten Menschen nicht auf sich. Über die Zeit wird der
Algorithmus zum Beispiel merken, dass sich ein bestimmtes Muster in ihrem
Verhalten immer wiederholt, wenn Sie traurig sind.
Das heißt, je länger jemand auf Facebook ist, desto präziser werden Ihre
Aussagen?
Ja, mehr Daten sind immer besser. Aber letztendlich reichen bei vielen
Menschen dann doch zehn Likes, um schon recht genaue Vorhersagen über den
Charakter zu treffen.
Sie haben einen Test auf Ihrer Website: Man kann sehen, was der Algorithmus
alles über einen weiß. Viele in Deutschland haben auf Facebook geschrieben,
es sei Unsinn dabei herausgekommen. Frauen waren Männer und umgekehrt,
heterosexuelle Männer wurden homosexuell.
Das Modell auf unserer Webseite zielt auf Menschen in den USA. Bestimmte
Symbole bedeuten hier und dort etwas ganz anderes. Ein fiktives Beispiel:
Ein Auto von BMW bedeutet in den USA vielleicht vor allem für junge
ungebildete Männer etwas, in Deutschland aber für ältere gesetzte Herren.
Sie haben in einem Interview mal gesagt, Menschen mit einem hohen IQ würden
öfter „Curly Fries“ liken, diese gekringelten Pommes. Warum ist das so?
Es könnte sein, und auch das denke ich mir aus, dass mal irgendwer an einer
Universität einen Witz über Curly Fries gemacht und der hat sich dann unter
Mathematikern verbreitet. Oder vielleicht war es ganz anders. Das ist eine
dieser Verbindungen, die nur der Algorithmus sieht, nicht der Mensch.
Bei mir hat Ihr Test dafür ziemlich gut funktioniert, dafür dass er nur 18
Likes ausgewertet hat. Aber in meiner Auswertung steht, dass meine Likes
für den Sender CNN, den Schriftsteller Neil Gaiman und die Zeitung „New
York Times“ mich “liberal“ und „artistic“ erscheinen lassen und daneb…
steht, dass die Likes für CNN, „New York Times“ und Neil Gaiman mich
„competitive“ erscheinen lassen. Können die gleichen Likes unterschiedliche
Aussagen bedeuten?
Ja, natürlich. Ich könnte mir vorstellen, dass zum Beispiel Gaiman ein
ziemlicher „strong like“ ist, ein starker Like. Das ist ein Schriftsteller
mit einem recht speziellen Stil, das könnte zum Beispiel etwas über
Offenheit aussagen. New York Times und CNN sind möglicherweise eher
neutrale Likes, die bei der Bewertung im Verhältnis vielleicht weniger den
Ausschlag geben. Sowohl bei den Curly Fries als auch bei Ihren Likes geht
es aber immer nur um Bruchteile von Prozent, die in die Aussage über eine
Person einfließen. Für sich selbst genommen mögen manche Faktoren ganz
unbedeutend sein, erst in der Summe, indem der Algorithmus sie zusammen
analysiert, ergeben sie einen Sinn.
In einem Ihrer Aufsätze aus dem Januar 2015 schreiben Sie, die menschliche
Wahrnehmung habe den Vorteil, sehr flexibel zu sein und viele unbewusste
Signale wahrnehmen zu können. Deshalb, so schreiben Sie weiter, könnten
Menschen besser darin sein, Charakterzüge zu beschreiben, für die es der
Fähigkeit bedarf Subtiles wahrnehmen zu können. Da relativieren Sie Ihre
Forschung?
Meine Forschung ist nicht zu Ende, wir stehen noch am Anfang. Betonen Sie
bei der Aussage dort oben vor allem das „könnte“. Was wir bisher sehen ist,
dass Maschinen uns besser beurteilen als Menschen, aber ich sage trotzdem
nicht, dass ich Recht habe. Es kann auch noch andere Ergebnisse geben.
Blendet Ihre Konzentration auf Likes nicht viele andere wichtige Faktoren
aus? Ob jemand aus einem Arbeiterhaushalt kommt oder an eine bessere Schule
gegangen ist?
Im Gegenteil, die Likes sagen über unsere Herkunft, unsere Lebensumstände
sehr viel aus. Ich habe in meiner Jugend in Polen natürlich auch Beatles
gehört, das überschneidet sich sicherlich mit Menschen, die in einer fancy
Schule in L. A. waren. Aber ich habe auch vieles gehört, von dem hier
niemand etwas weiß. Und das spiegelt sich in den Likes wieder.
Und da macht es keinen Unterschied, ob ich etwas like, weil ich es
tatsächlich mag oder weil ich es einfach nur interessant finde?
Nein, entscheidend ist, dass Sie auf den Knopf drücken. Der Algorithmus
wird es dann mit Likes Ihrer Freunde vergleichen, mit dem, was Sie früher
geliked haben, und Schlüsse ziehen.
Der Psychologe David Funder von der Universität von Kalifornien sagt, er
sei durchaus beeindruckt von Ihrer Arbeit, aber um eine Person wirklich zu
verstehen, seien schon eher 100 Items notwendig und nicht fünf.
Ich schätze die Arbeit von David. Aber warum 100 Items? Warum nicht 1.000?
Oder 10.000? Das sind doch willkürliche Zahlen, aber klar, es gilt: Je mehr
Daten desto besser. Nur können Menschen diese 1.000 verschiedene
Informationen gar nicht verarbeiten und 10.000 schon gar nicht. Nicht die
Computer reduzieren uns auf weniger als 1.000 oder 100 Aspekte, das machen
wir selbst. Wir reduzieren uns, wenn wir uns ein Bild von unseren
Mitmenschen machen und von uns selbst übrigens auch. Wir produzieren
Vorurteile und Verallgemeinerungen und kategorisieren uns. Menschen sind
begrenzt darin, sich mehrdimensional zu sehen. Computer sind das nicht.
Computer sind also die besseren Menschen?
Wir sind sehr gut darin, Menschen zu sein. Computer haben weniger
Vorurteile.
Können vorurteilsbehaftete Menschen Algorithmen schreiben, die selbst keine
Vorurteile haben?
Eine philosophische Frage. Wenn Algorithmen nur von Menschen lernen, dann
werden sie wohl auch menschliche Einstellungen übernehmen. Wenn ich einen
Algorithmus programmiere, der mir den besten Investmentbanker suchen soll,
dann wird da nach Stand der Dinge wohl ein weißer Mann herauskommen. Eine
Methode wäre, zu versuchen, die Fragen an den Algorithmus weniger wertend
zu formulieren und stattdessen nach einem Paket eher messbarer Fragen zu
suchen. Zum Beispiel danach zu fragen, wer eine bestimmte Aufgabe am besten
meistert. Oder den Algorithmus von etwas lernen zu lassen, das nicht der
Mensch ist. Der Natur zum Beispiel.
Sie haben einmal gesagt, das gesamte Internet widerspreche mit seinen
vielen verfügbaren Informationen über Personen eigentlich dem deutschen
Datenschutz. Heißt das, im Umkehrschluss, dass solche Entwicklungen wie in
den USA hier nicht möglich sind?
Das Internet hat keine Grenzen. Und eigentlich haben wir, auch in den USA,
zumindest einige Regeln wie sensible Daten über unsere Persönlichkeit,
religiöse Vorlieben et cetera zu sammeln sind. Nur werden diese Regeln
durch die Entwicklungen, die ich beschreibe, ausgehebelt.
Die deutsche Algorithmusentwicklerin Yvonne Hofstetter sagt, das
Demokratien und Gesetze zu langsam sind für immer komplexere Vorgänge und
sie deswegen dysfunktional werden.
Sie hat Recht.
Aber wenn so viele Informationen über uns verfügbar sind – warum sind dann
die Ergebnisse so ungenau? Ständig erzählen sich Menschen, wie ungenau die
Algorithmen von Amazon wohl sein müssen, weil sie dauernd Dinge angeboten
bekommen, die sie nicht wollen.
Erstens erzählen Menschen eher von Dingen, die nicht funktionieren, als von
denen, die funktionieren. Gerade, wenn diese Dinge sonst ziemlich gut
funktionieren. Zweitens: Wer sagt, dass Werbung heute so gut funktioniert,
wie sie könnte? Ein Datingportal hat kein Interesse, dass der Algorithmus
so gut ist, dass wirklich alle einen Partner finden – weil dann das Portal
pleitegeht. Und die Werbung kann derzeit gar nicht das Ziel haben, alles
zielgerichtet zu verkaufen. Wo bliebe da die Nachfrage für neue Aufträge?
Andererseits gibt es die berühmte Geschichte einer schwangeren 16-Jährigen,
die nur aufgrund ihrer Datenspuren im Internet unverlangt
Schwangerschaftsprodukte zugesandt bekam. Ist das eine moderne Legende? Die
Legende des allwissenden Algorithmus?
Nein, dieses Beispiel gibt es, und es ist auch nicht nur eine Frau gewesen.
Aber das ist auch ein Beispiel dafür, warum Algorithmen heute nicht so gut
funktionieren, wie sie könnten. Natürlich finden die Leute es creepy, wenn
so etwas passiert. Also mischt man bei Schwangeren heute halt unter die
Babyprodukte auch mal etwas anderes. Und in der Kommunikation mit Kunden
oder nach außen verschleiern die entsprechenden Unternehmen dann eben ihre
Sprache. Dann heißt es nicht mehr, man würde Schwangerschaften voraussehen,
sondern sie ersetzen „Schwangerschaft“ durch „dimension alpha“ oder ein…
anderen Kunstbegriff für einen plötzlichen Wandel im Benehmen. Da sind die
Leute dann schon viel weniger besorgt.
17 Dec 2016
## AUTOREN
Daniel Schulz
## TAGS
Schwerpunkt Meta
Donald Trump
Schwerpunkt USA unter Donald Trump
Schwerpunkt Meta
Datenschutz
Schwerpunkt taz.meinland
Schwerpunkt USA unter Donald Trump
Schwerpunkt USA unter Donald Trump
Fake News
Urteil
## ARTIKEL ZUM THEMA
Big Data und US-Präsidentschaftswahl: Facebook sperrt Datenanalysefirma
Präsident Donald Trump hatte die Dienste von Cambridge Analytica bei der
Wahl 2016 genutzt. Facebook sagt, die Firma hätte Auflagen des Netzwerks
verletzt.
Big Data in der Industrie: Alles ist durchleuchtet
Rückversicherer sammeln und analysieren massenhaft Daten aus der Industrie,
um ihr Risiko zu verringern. Das haben Datenschützer kaum im Blick.
Politische Haltung und Widersprüche: Links, cool, selbstbesoffen
In gebildeten linken Milieus scheint man von der unbedingten Richtigkeit
des eigenen Standpunkts überzeugt. Damit liegt man schon falsch.
US-Präsident formal bestätigt: Wahlleute stimmen für Trump
Trotz der Proteste: Donald Trump nimmt die letzte Hürde auf dem Weg zum
Weißen Haus: Die Wahlleute wählen ihn zum 45. Präsidenten der Vereinigten
Staaten.
Präsidentschaftswahl in den USA: Jetzt haben die Wahlleute das Wort
Am Montag werden die Wahlleute wohl mehrheitlich ihre Stimme für Trump
abgeben. Doch es hagelt Proteste und Aufrufe, das Votum zu blockieren.
Maßnahmen gegen Falschmeldungen: Facebook sagt Fake News Kampf an
Facebook hat einen Plan vorgelegt, wie es gegen Falschmeldungen vorgehen
will. Zunächst bleibt es bei einer Testphase in den USA.
Prozess am Bundesarbeitsgericht: Kein Facebook ohne den Betriebsrat
Wollen Firmen in Online-Netzwerken werben, müssen sie die
Mitarbeitervertretung fragen. Anlass für das Urteil ist ein Streit beim
Roten Kreuz.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.