Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Midterms in den USA: Push the Button
> Am Dienstag wird in den USA gewählt. Facebook will die Leute zum Wählen
> animieren. Sind wir wirklich so leicht zu manipulieren?
Bild: WählerInnen in North Carolina warten auf ihre Stimmabgabe.
Knöpfe drücken, das ist eben Facebooks Ding. Die Like-Buttons sind längst
tief in die Popkultur eingesickert. Im Sommer wurden Psychoexperimente des
sozialen Netzwerks bekannt, in denen Facebook herauszufinden suchte, wie
Nutzer reagieren, wenn Algorithmen ihnen vor allem positive oder negative
Einträge ihrer Freunde anzeigen.
Damit ist vielen Nutzern einmal mehr klar geworden, dass ihr Newsfeed eben
nicht eins zu eins darstellt, was ihre Freunde tatsächlich posten – sondern
eben das, was Facebooks Algorithmus aus welchen Gründen auch immer für
besonders relevant erachtet. Oder eben für die eigenen Forschungszwecke.
Und am Dienstag, anlässlich der Midterm Elections in den USA, wird Facebook
auch einmal versuchen, ein paar Knöpfe bei seinen US-Nutzern zu drücken.
Knöpfe, die seine User zum Wählen motivieren sollen.
Bereits seit sechs Jahren werkelt Facebook daran herum, wie es seine Nutzer
wirksam dazu motiviert zu wählen. Mal mit Buttons mit banalen „Statements“
wie „Ich wähle“ oder „Ich bin Wähler“, mal, dass einigen Nutzern zune…
Nachrichtentexte in den Feed gespült wurden. Experimente, die wirken: Laut
einer Studie, die im Magazin Nature veröffentlicht wurde, motivierten die
Wahlbuttons 2010 immerhin zusätzlich 340.000 Menschen, zur Wahl zu gehen.
## Nutzer als Versuchskaninchen
Und das gezielte Hochspülen von geteilten Nachrichtentexten soll die
Wählerquote in dieser Gruppe sogar um drei Prozent gesteigert haben. Das
zumindest haben Recherchen des US-Magazins Mother Jones ergeben. Der
Artikel, der seither in den USA für Aufruhr sorgt: Muss Facebook
transparenter sein, wie es mit seinen Nutzern experimentiert? Und: Kann das
soziale Netzwerk Wahlen entscheiden? Facebook selbst gibt sich bislang
wenig auskunftsfreudig über dieses Experiment.
Ein Motiv, das wieder und wieder in der Science-Fiction bemüht worden ist:
Der Konzern drückt Knöpfe, die Nutzer reagieren. Der Algorithmus lenkt, die
Menschen folgen. Unbehaglich, wenn das nun, heute, im Big-Data-Zeitalter,
tatsächlich Realität wird. Die Nutzer als Versuchskaninchen. Der Lenkung
der mächtigen Konzerne ausgeliefert, die die Geschicke der Welt lenken. Es
wäre eine Antiaufklärung.
Doch nun einmal einen Schritt zurück. Wenn wir nicht über „die Nutzer“
sprechen, sondern von uns ganz persönlich: Funktionieren wir wirklich so
billig? Ein paar Knöpfe, ein paar Posts und Links mehr, die man zu einem
bestimmten Zeitpunkt in seinem Newsfeed sieht und schon ist man dem
unsichtbaren Willen eines bösen Konzerns unterworfen? Im Allgemeinen sind
die Leute vielleicht so blöd. Sich selbst nimmt man bei solchen Analysen ja
gerne aus.
Das unangenehme Ergebnis diverser Facebook-Studien ist: Ja, so einfach sind
wir manipulierbar. So banal und billig funktionieren wir. Manchmal. Wenn
man die richtigen Knöpfe drückt. Oder irgendwelche externen Faktoren uns
dazu gebracht haben, unser Verhalten zu ändern. 61 Millionen Nutzer waren
2010 Teil von Facebooks Wahlbutton-Experiment, 340.000 mehr gingen wählen.
Das sind 0,14 Prozent der Gesamtwählerschaft. Verhaltensänderungen in
homöopathischen Dosen. Aber doch Veränderungen – die unter bestimmten
Umständen auch einen Wahlausgang mitentscheiden könnten.
## Algorithmen liefern Informationen
Und doch bleibt der Kontrollverlust problematisch. Wer sich in Zeitung,
Fernsehen oder Radio zu stark im Sinne seiner eigenen Meinung informiert
fühlt, kann einfach umschalten oder ein anderes Blatt kaufen. Dass das
publizistische Produkt nicht neutral ist, ist transparent – anders als bei
Facebook.
Steckt uns Facebook unbemerkt in Filterblasen, während wir uns in unserer
Nachrichtenauswahl vom sozialen Empfehlungsstrom leiten lassen, nehmen wir
von bestimmten Nachrichten unter Umständen gar keine Notiz mehr. Und fühlen
uns zunehmend bestärkt in unserer eigenen Position – weil Facebooks
Algorithmus uns mehr und mehr entsprechende Informationen nach oben spült.
Werden wir dann auch noch Gegenstand eines Facebook-Experiments, ohne zu
wissen, wie unser Nachrichtenstrom frisiert wurde oder dass wir überhaupt
Teil dieses Experiments sind, ist es noch schwerer, sich zu widersetzen.
4 Nov 2014
## AUTOREN
Meike Laaff
## TAGS
Schwerpunkt Meta
USA
Schwerpunkt Meta
Schwerpunkt Meta
USA
Schwerpunkt Meta
Apple
Schwerpunkt Meta
## ARTIKEL ZUM THEMA
Midterm-Wahlen in den USA: Tindern für Wähler*innen
Zu wenig junge Menschen gehen in den USA wählen. Tech-Unternehmen wollen
das ändern – und starten Kampagnen zur Wahlregistrierung.
Illegale Einträge auf Facebook: Löschen auf Behördenwunsch
Die Anzahl der auf Behördenwunsch gelöschten Einträge auf Facebook ist in
Deutschland um mehr als das Dreifache gestiegen.
„Off-Year elections“ in den USA: Erfolge auf der rechten Seite
Der Swing-State Kentucky fällt an die Tea Party, in Houston scheitert ein
Anti-Diskriminierungserlass. Bessere Nachrichten gibt es aus Salt Lake
City.
Soziale Netzwerke und die Folgen: „Was macht Facebook mit uns?“
Lilian Masuhr hat mit bluestory.de eine Website ins Leben gerufen, auf der
Geschichten erzählt werden, die ohne das soziale Netzwerk nie passiert
wären.
Frauenförderung bei Facebook und Apple: Kinderkriegen wird aufgeschoben
Die beiden IT-Konzerne wollen, das mehr Frauen bei ihnen Karriere machen.
Deshalb zahlen sie Mitarbeiterinnen die Entnahme und das Einfrieren ihrer
Eizellen.
Sammelklage gegen Facebook: 75.000 mit Max Schrems
Seit Jahren kämpft Max Schrems gegen das Online-Netzwerk. Jetzt ist er
nicht mehr allein, Tausende schließen sich einer Sammelklage an.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.