Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Projekt „Datenspende“: Ganz schön aufgeblasene Blase
> ForscherInnen haben untersucht, wie stark sich Google-Suchergebnisse von
> Person zu Person unterscheiden. Das Ergebnis: weniger als gedacht.
Bild: Ist die Blase nur ein Märchen?
Zu Beginn dieses Jahrzehnts hat ein Netzaktivist die Welt verunsichert. Eli
Pariser, Präsident des linken Thinktanks [1][MoveOn.org], behauptete mit
seiner Theorie von der „Filterblase“: Was wir im Internet sehen, haben
Algorithmen für uns zusammengestellt – und zwar gemäß dem, was sie für
unsere Vorlieben halten. Die Konsequenz, so Pariser: Je mehr sich Menschen
über Google, Facebook und ähnliche Plattformen informieren, desto mehr
spaltet sich die Gesellschaft in isolierte Grüppchen mit homogenen
Meinungen.
Inzwischen ist die „Filterblase“ geflügeltes Wort, Ereignisse wie der
Brexit oder die Wahl Donald Trumps, die viele für undenkbar hielten,
verstärken den Eindruck einer virtuellen Sichtfeldbeschränkung. Dabei fehlt
bis heute eine solide Grundlage an Daten, die die Filterblasen-These
stützen könnten. Seit es den Begriff gibt, gibt es somit auch Kritik an
Pariser: Er habe das Problem aufgebauscht, anhand von Stichproben und
Spekulationen ein Bedrohungsszenario aufgebaut. Andere gaben der Theorie
einen Vertrauensvorschuss – weil sie plausibel klingt.
Mit dem Forschungsprojekt „Datenspende“ gibt es nun in Deutschland zum
ersten Mal eine belastbare, wenn auch [2][nicht repräsentative Erhebung zum
Thema]. Für die Untersuchung arbeiteten der Verein AlgorithmWatch, die TU
Kaiserslautern und sechs Landesmedienanstalten zusammen. 4.400 deutsche
InternetnutzerInnen „spendeten“ dem Projekt freiwillig ihre
Google-Suchergebnisse – das heißt konkret, dass sie sich fünf Wochen vor
der Bundestagswahl eine besondere Erweiterung für ihren Browser
installierten. Die gab automatisch alle vier Stunden eine Reihe von
Suchbegriffen bei Google ein – die Namen der wichtigsten Parteien und
PolitikerInnen – und zeichnete dann auf, welche Ergebnisse die Suche
anzeigte.
Die so erzeugten Daten verraten, wie sehr Suchergebnisse von Person zu
Person variieren. Antwort: Weniger als gedacht. Von den ersten 20
Suchergebnissen waren im Schnitt nur vier bis fünf unterschiedlich. Das
heißt, was die Testpersonen bei Google angezeigt bekamen, war zu über drei
Viertel identisch.
Für Katharina Zweig, Netzwerkforscherin an der TU Kaiserslautern und
Leiterin des Projekts, bedeutet dieses Ergebnis zwar nicht, dass die
Filterbubble-Theorie falsch ist. Aber: „Was Google in Deutschland angeht,
gibt es keine Datengrundlage für die Theorie.“
## Nicht repräsentativ
Das gilt allerdings nur eingeschränkt. Denn zum einen ist die Erhebung
nicht repräsentativ. Angenommen wurden Datenspenden von allen, die sich
dazu bereit erklärten, und nicht etwa proportional nach Alter, Geschlecht
oder – besonders wichtig – sozialem und politischem Milieu.
Zum anderen hat sich die Studie mit der wichtigsten Plattform noch gar
nicht beschäftigt: Facebook. Denn noch viel mehr als bei der Suchmaschine
Google spielt bei Facebook die Personalisierung eine zentrale Rolle. Also
dass Inhalte nach den Interessen und den sozialen Beziehungen der
NutzerInnen algorithmisch ausgewählt werden. Bei Facebook gehört es zum
Markenkern, dass man sich innerhalb vertrauter Netzwerke bewegt, die eigene
Interessen und Meinungen eher teilen. Trotzdem ist nach wie vor nicht klar,
wie der Facebook-Algorithmus Inhalte gewichtet – und welche er aussortiert.
Katharina Zweig sagt, dass es im Gegensatz zu Google bei Facebook aber
nicht so einfach möglich sei, Personalisierung zu erforschen. „Die
Testpersonen müssten dazu entweder gleich ihren Log-in zur Verfügung
stellen oder aber Screenshots von ihrer Timeline schicken“, erklärt die
Wissenschaftlerin. „Das wird niemand machen.“
Zweig und ihr Team haben es daher anders versucht: Über eine Reihe von
selbstgemachten Fake-Accounts wollten sie eine repräsentative Testgruppe
simulieren. Das wiederum scheiterte aber an der strikten
Identitätsüberprüfung von Facebook. „Die wollten dann gleich, dass wir die
Fake-Accounts mit Telefonnummern bestätigen.“
Und so ist Facebook, die wahrscheinlich wichtigste Plattform, wenn es um
Filterblasen geht, kaum zu erforschen. Natürlich hat der Konzern kein
Interesse daran, seinen Algorithmus preiszugeben. Aus unternehmerischer
Sicht wäre das so, als würde eine Sterneköchin ihre Rezepte an die
Konkurrenz verteilen.
Und es gibt noch einen weiteren Grund: Solange niemand weiß, wie der
Algorithmus genau arbeitet, ist es schwierig, Facebook zu regulieren.
Allerdings steht das Unternehmen immer mehr unter Druck. Es hat kein
Interesse daran, als Plattform für rechte Trolle und Populismus zu gelten –
oder als das Netzwerk, das den politischen Diskurs kaputtgemacht hat.
Deswegen verkündet Facebook auch immer mal wieder, dass es den Algorithmus
in dieser oder jener Weise anpassen will. Zuletzt hieß es aus Kalifornien,
[3][dass bald persönliche Empfehlungen von engen FreundInnen stärker
gewichtet würden als Posts von Nachrichtenseiten]. Wie das gegen
Filterblasen helfen soll, ist ungewiss – das Gegenteil müsste der Fall
sein.
## Vielfalt sicherstellen
Allerdings ist klar: Facebook will sich als transparent präsentieren, ohne
Betriebsgeheimnisse preiszugeben. Und genau dort sehen die deutschen
Landesmedienanstalten und die ForscherInnen beim Projekt „#Datenspende“
eine Chance.
Die Medienanstalten sind deshalb interessiert, weil sie dafür zuständig
sind, Medienvielfalt sicherzustellen. Früher ging das via Zuteilung von
TV-Sendeplätzen – heute spielen die sogenannten Intermediären eine große
Rolle: Google, Facebook, Instagram, YouTube – keine Medien, keine Quellen,
sondern Informationshändler mit großer Macht. Über die es aber zu wenig
Wissen gibt, sagt Anja Zimmer, Direktorin der Landesmedienanstalt
Berlin-Brandenburg (MABB). „Dieses Wissen liegt im Moment zu großen Teilen
bei den Intermediären. Das ist ein gravierendes Hindernis für die
Forschung, aber auch für die Regulierung.“
Die MABB berät daher seit Neuestem in ihrer „Data Access Initiative“
darüber, wie man die Intermediären davon überzeugt, sich anzapfen zu
lassen. „Wir fragen uns, wie eine Regulierung aussehen kann, die
gleichzeitig Transparenz und notwendigen Datenschutz gewährleistet“, sagt
Zimmer.
Netzwerkforscherin Zweig findet, dass das im Interesse von Facebook sein
müsse. „Das wäre ein Win-win für beide Seiten, denn dann müsste man nicht
mehr an ihr Geschäftsgeheimnis ran.“ Dazu müsste sich Facebook jetzt nur
noch bereit erklären. In der Zwischenzeit gilt immerhin schon mal die gute
Nachricht: Wer Google nutzt, ist weitgehend sicher davor, in eine
Diskursnische gesaugt zu werden. Was alle anderen Plattformen angeht, ist
gesunder Argwohn weiter angemessen.
8 Mar 2018
## LINKS
[1] https://front.moveon.org/
[2] https://www.blm.de/files/pdf1/1_zwischenbericht__final.pdf
[3] /Medienreaktion-auf-Update-von-Facebook/!5475507
## AUTOREN
Peter Weissenburger
## TAGS
Google
Schwerpunkt Meta
Filterblase
Schwerpunkt Meta
Schwerpunkt Brexit
Hate Speech
Maischberger
taz.gazete
## ARTIKEL ZUM THEMA
Manipulationen beim Sozialen Netzwerk: Facebook-Sicherheitschef muss gehen
Alex Stamos wollte mehr Transparenz zulassen. Jetzt soll er das Unternehmen
im Sommer verlassen. Derweil schmiert die Facebook-Aktie ab.
Facebook und der Datenschutz: Das große Leck
Ein Whistleblower verrät: Die Firma Cambridge Analytica hat für den
Trump-Wahlkampf 50 Millionen Facebook-Profile ausgespäht.
Debatte Hass im Netz: Die Sensationsschleuder
Solange der Algorithmus von Online-Netzwerken belohnt, was die
Nutzer-Aufmerksamkeit fesselt, regieren Hass und Provokation. Da helfen
keine Gesetze.
Talkshow über ARD und ZDF: Monologe bei Maischberger
Die Maischberger-Debatte über ARD und ZDF bildet gut ab, wie
widersprüchlich die Kritik am öffentlich-rechtlichen Rundfunk oft ist.
Homepage gegen Fakenews: Raus aus der Echokammer
Die Plattform teyit.org sucht in sozialen Medien nach Fakenews, um sie zu
enttarnen. Ein Gespräch mit den Machern der Seite
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.