Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Populisten-Hochburg Facebook: Teile und herrsche
> Facebook behauptet, die Welt näher zusammenzubringen. Doch immer mehr
> zeigt sich, wie das Netzwerk Menschen auseinandertreibt – und Populisten
> stärkt.
Bild: Fake-Zuckerbergs gegen Fake News: Protest in Washington D.C. 2018
Als Facebook 2012 an die Börse ging, erklärte Gründer Mark Zuckerberg in
einem Brief an Investoren die Philosophie seines Unternehmens. Die meisten
wachsenden Firmen bremsten zu sehr ab, weil sie mehr Angst vor Fehlern
hätten, als davor, Chancen durch zu viel Langsamkeit zu versäumen, schrieb
er. Facebook sei da anders. „Wir haben ein Sprichwort: ‚Move fast and break
things.‘ Die Idee ist, wenn du nie etwas kaputt machst, bist du
wahrscheinlich nicht schnell genug.“ Das Firmenmantra „Move fast and break
things“ stand groß auf den Wänden des Unternehmenssitzes 50 Kilometer vor
San Francisco.
Acht Jahre später lässt sich feststellen: Facebook war schnell und vieles
ist kaputtgegangen. Für den Konzern, zu dem inzwischen auch der
Messaging-Dienst Whatsapp und das Foto-Netzwerk Instagram gehört,
entwickelten sich die Dinge erfreulich. Er verfügt nun mit all seinen
Plattformen über mehr als drei Milliarden Nutzer, rund 40 Prozent der
Weltbevölkerung. Knapp jeder zweite erwachsene Internetnutzer in
Deutschland verwendet Facebook, mehr als zwei Drittel Whatsapp, jeder
Vierte Instagram. Diese Marktmacht hat zu einem gigantischen Börsenwert
geführt. Mit rund 650 Milliarden Euro Marktkapitalisierung steht Facebook
auf Platz fünf der wertvollsten börsennotierten Firmen der USA.
Doch auch auf der Welt hat sich seit dem Börsengang vieles verschoben.
Populistische Politiker sind in vielen Ländern an die Regierung oder ins
Parlament gelangt. Autoritäre Regierungsformen haben zugenommen.
Gesellschaften sind zutiefst gespalten. Verschwörungstheorien haben an
Popularität gewonnen. Antisemitismus ist erstarkt. Falschinformationen
können sich rasant verbreiten. Der Tonfall im Netz ist verroht und Empörung
zur Grundstimmung vieler politischer Debatten geworden. Und es mehren sich
die Anzeichen, dass der Facebook-Konzern zu dieser Verschiebung beigetragen
hat, weil ihm Schnelligkeit von jeher wichtiger ist als Sicherheit – und
Wachstum wichtiger als Verantwortung.
„Man muss davon ausgehen, dass Facebook einen Anteil an der Zunahme an
Polarisierung, Populismus und verschwörungstheoretischem Denken hat“, sagt
Ulrike Klinger, Professorin für digitale Demokratie an der
Europa-Universität in Frankfurt an der Oder. „Wir haben nicht die Daten, um
das zu quantifizieren, aber aufgrund der Studien, die es gibt, und was über
interne Studien von Facebook bekannt ist, gehe ich davon aus.“ Das
Unternehmen ergreife im Gegensatz zu anderen Netzwerken zwar relativ viele
Gegenmaßnahmen. „Aber Facebook unterschätzt noch immer sehr, wie disruptiv
es auf öffentliche Diskurse wirkt und wie tief das im Geschäftsmodell und
der prinzipiellen Funktionsweise dieser Plattform verankert ist.“
Ein Team im Facebook-Konzern kam zu einem ähnlichen Schluss. Bei interner
Forschung fand es 2018 heraus: Die Programmierung des Netzwerks treibt
Menschen teilweise auseinander. „Unsere Algorithmen nutzen aus, dass das
menschliche Gehirn sich von Spaltung angezogen fühlt“, hieß es in einer
Präsentation. Werde dem nicht nachgegangen, würde Facebook seine Nutzer
„mit immer mehr entzweienden Inhalten“ versorgen, „um ihre Aufmerksamkeit
zu gewinnen“ und ihre „Zeit auf der Plattform zu verlängern“.
Mitarbeiter erarbeiteten Vorschläge für Änderungen. Doch Zuckerberg und
andere leitende Angestellte blockten oder schwächten die Bemühungen ab –
und stellten die Forschung weitgehend zurück. Die Zeitung [1][Wall Street
Journal hatte dies im Mai dieses Jahres enthüllt]. Facebook verteidigte
sich, mehrere Faktoren, die zu Polarisierung beitragen können, bereits
angegangen zu sein.
Schon vor dieser Aufdeckung ging es mit Facebooks Ruf seit Jahren bergab,
weil die Verfehlungen des Konzerns immer neue globale Dimensionen erreicht
hatten. Besonders drei Fälle haben das Vertrauen der Öffentlichkeit
erschüttert.
2017 wurde bekannt, dass vor der US-Wahl 2016 eine koordinierte russische
Kampagne Millionen Bürger auf der Plattform erreichen konnte – und für den
späteren Präsidenten Donald Trump warb. Bald darauf stellte sich heraus,
dass das Militär im mehrheitlich buddhistischen Myanmar die Plattform
nutzen konnte, um systematisch zu Hass und Gewalt gegen die verfolgte
muslimische Rohingya-Minderheit anzustiften. 2018 wurde öffentlich, dass
die Politikberatungsfirma Cambridge Analytica an Daten von bis zu 87
Millionen Nutzern gelangen konnte.
Kaum ein Unternehmen übersteht drei solche Skandale innerhalb kurzer Zeit
wirtschaftlich unbeschadet. Facebook wuchs weiter.
Doch der Ton gegenüber dem Konzern änderte sich. Ehemalige führende
Mitarbeiter begannen, vor Facebook zu warnen, darunter Zuckerbergs
Co-Gründer Chris Hughes, Ex-Firmenpräsident Sean Parker,
Whatsapp-Co-Gründer Brian Acton und Zuckerbergs früherer externer Berater
Roger McNamee. Der Marketing-Professor und Big-Tech-Beobachter Scott
Galloway erklärte Zuckerberg zur „gefährlichsten Person der Welt“. [2][Das
Magazin New Yorker fragte]: „Kann Mark Zuckerberg Facebook reparieren,
bevor es die Demokratie kaputt macht?“
## Aufstand gegen Zuckerberg
Vor der Präsidentschaftswahl am 3. November sind in den USA solche Fragen
wieder häufiger zu hören. Das Netflix-Dokudrama „Das Dilemma mit den
sozialen Medien“ thematisiert aktuell, wie Nutzer von Plattformen
manipuliert und beeinflusst werden. Schon im Frühjahr hatte Zuckerberg
durch seinen Umgang mit einem Post Trumps einen Aufstand gegen sich
ausgelöst.
Nach dem gewaltsamen Tod des Schwarzen George Floyd durch einen Polizisten
hatte der Präsident Demonstranten auf Facebook mit Gewalt gedroht: „Wenn
die Plünderungen beginnen, wird geschossen“. Twitter ergänzte den gleichen
Beitrag Trumps mit dem Hinweis, er verstoße gegen die Regeln der Plattform
zur Gewaltverherrlichung und schränkte die Verbreitung ein.
Zuckerberg entschied persönlich, den Post unverändert zu lassen – und
brachte damit die Kritik an unzureichender Moderation von Inhalten auf
Facebook wieder in Gang. Aufgestauter Ärger entlud sich.
Bürgerrechtsgruppen riefen zu einem Anzeigenboykott unter dem Motto „Stop
Hate For Profit“ auf. Hunderte Unternehmen strichen ihre Werbung, darunter
Microsoft, Coca-Cola, Starbucks und Adidas.
Auch im eigenen Haus formierte sich Widerstand. Mitarbeiter streikten
virtuell, kritisierten die Entscheidung auf der internen Plattform,
unterschrieben Petitionen oder widersprachen öffentlich auf Twitter. Es
wurden die größten Proteste der Firmengeschichte. „Facebook ist ein
Unternehmen, das eine offene Gesprächskultur pflegt und in dem auch
Bedenken und Kritik offen geäußert werden können“, sagt Sprecherin Anne
Laumen der taz.
Es blieb nicht bei Gesprächen. Einige kündigten. Andere gaben Firmeninterna
an Journalisten. Hierzulande wurden keine Proteste von Angestellten
bekannt. „Bei Facebook in Deutschland herrscht ein ziemlicher Korpsgeist
vor“, sagt einer, der sich seit Langem beruflich mit dem Unternehmen
beschäftigt. „Da wird meist nach dem Prinzip verfahren: ‚Mark hat das so
gesagt.‘“
## „Eine ziemlich verrückte Idee“
Die Eskalation in der US-Zentrale ist auch eine Spätfolge des
einschneidenden Jahres 2016. Der Gedanke, zu Trumps Aufstieg beigetragen
haben zu können, quält viele der meist progressiv gesinnten Mitarbeiter bis
heute. Zuckerbergs damalige Reaktion steuerte dazu bei. „Die Idee, dass
Fake News auf Facebook, die ein sehr kleiner Teil des Inhalts sind, die
Wahl auf irgendeine Art beeinflusst haben, ist eine ziemlich verrückte
Idee“, sagte er zwei Tage nach der Wahl auf einem Podium. „Wähler treffen
Entscheidungen auf der Basis ihrer gelebten Erfahrungen.“
Doch es mehrten sich Hinweise, dass sein Beiseiteschieben dieser Bedenken
voreilig war. Schon Tage später [3][zeigte eine Auswertung des
Online-Mediums Buzzfeed], wie viel Resonanz Falschnachrichten zur Wahl auf
Facebook durch Teilen, Reaktionen und Kommentare im Vergleich zu
Nachrichten der größten US-Medien erhalten hatten.
Nach und nach wurde klar, wie koordiniert Desinformation auf der Plattform
aus dem Ausland zur Beeinflussung der Wahl eingesetzt worden war. Die
kremlnahe russische Firma Internet Research Agency hatte über Jahre eine
gezielte Kampagne durchgeführt – zunächst um Spaltung zu verstärken,
schließlich um Trump zu unterstützen und Kontrahentin Hillary Clinton in
Verruf zu bringen. Rund 29 Millionen US-Bürger sahen 2015 bis 2017 auf
Facebook Inhalte russischer Fake-Accounts und Gruppen, musste der Konzern
nach Dementis 2017 zugeben. Durch Interaktionen verbreiteten sie sich
potenziell an weitere Dutzende Millionen US-Nutzer.
Russische Manipulation war eine Seite. Eine andere waren Trumps Anzeigen.
38 Millionen Euro steckte er von Juni bis November 2016 in Werbung auf
Facebook, Hillary Clinton gab 24 Millionen aus. Der Konzern bot beiden
Wahlkampfbüros eingebettete Mitarbeiter seiner Anzeigenabteilung an. Trumps
Team nahm an, Clintons lehnte ab.
Ein Facebook-Angestellter half Trumps Leuten, Banner für Spenden zielgenau
einzurichten. Innerhalb von Tagen brachten sie Trump Millionen Dollar für
den Wahlkampf ein, erzählte der Mitarbeiter später. Verantwortlich für
Anzeigen-Technologie bei Facebook war damals Andrew Bosworth. Ende 2019
schrieb der Vertraute Zuckerbergs seinen Kollegen über Trumps Sieg: „Er
wurde gewählt, weil er die beste digitale Anzeigenkampagne durchführte, die
ich je von einem Werbenden gesehen habe.“
Hinter Trumps Anzeigen steckte dessen Wahlkampf-Digitalchef Brad Parscale.
„Ich habe früh verstanden, dass Facebook der Weg war, wie Trump gewinnen
wird“, sagte er in der Fernsehsendung „60 Minutes“. „Facebook war die
Methode. Es war die Autobahn, auf der sein Wagen fuhr.“
Seit Trump im Amt ist, haben er und Zuckerberg sich mindestens zweimal
getroffen. Im September 2019 saßen sie bei Cola im Oval Office. Trump
postete ein Foto der beiden und schrieb dazu: „Nettes Treffen“. Mitgekommen
war Facebooks Policy-Chef Joel Kaplan, Ex-Mitarbeiter Präsident George W.
Bushs im Weißen Haus. Schon bald verabredeten sich Trump und Zuckerberg
erneut.
Im Oktober 2019 aßen sie abends gemeinsam im Blue Room des Weißen Hauses.
Dabei waren auch Facebook-Verwaltungsratmitglied und Trump-Unterstützer
Peter Thiel sowie Trumps Berater Jared Kushner, zu dem Zuckerberg Kontakt
pflegt. Das Treffen blieb wochenlang geheim. Der Präsident erzählte später,
sein Gast aus dem Silicon Valley habe an diesem Abend zu ihm gesagt: „Ich
würde Ihnen gerne gratulieren. Sie sind Nummer eins auf Facebook.“
Die Verbindung der beiden ungleichen mächtigsten Männer der USA lässt
Medien stutzen. „Haben Mr. Trump und Mr. Zuckerberg eine Art von
Übereinkunft erzielt?“, [4][fragte die New York Times]. Sicher ist: Für
Trump ist es von Vorteil, wenn Facebook seine Beiträge und Anzeigen nicht
einschränkt. In Zuckerbergs Interesse ist, dass Trump Facebook nicht
reguliert, dass er gegen die chinesische App Tiktok vorgeht, viel für
Anzeigen ausgibt und mit polarisierender Politik das Engagement auf seiner
Plattform erhöht. Es gebe keinen Deal, sagt Zuckerberg. Die Idee sei
„ziemlich lächerlich“.
Rund läuft es für Trump auf Facebook in jedem Fall. Er mag von einem
Amtsbonus und seiner globalen Prominenz profitieren, doch die Zahlen sind
sehr deutlich. So hat Trumps Profil etwa 30 Millionen Likes, Herausforderer
Joe Biden nur rund drei Millionen. Auch bei Interaktionen auf eigene
Beiträge hängt Trump Biden noch mehr ab als 2016 Clinton, [5][zeigt eine
Analyse]. Draußen, außerhalb der Plattform, sieht es anders aus. Biden
führt in Umfragen klar. Die Offline-Welt und die Facebook-Welt zeigen ein
sehr unterschiedliches Bild.
Facebook ist deshalb selbst Wahlkampfthema. Immer wieder geht es um die
Frage, was dort verbreitet werden darf. Nach dem TV-Duell etwa schaltete
Trumps Team Anzeigen. Sie zeigten ein manipuliertes Foto Bidens. Ihm war
ein Sender ins Ohr retuschiert worden. Er habe vor der Debatte eine
Ohrenuntersuchung verweigert, stand dabei. Die Betrugsvorwürfe waren
erfunden. Facebook veröffentlichte die Werbung. Millionen sahen sie. Kurz
zuvor hatte Bidens Wahlkampf-Managerin Zuckerberg vorgeworfen, sich auf
Machthabende auszurichten. Bidens Team fordert strengere Moderation. Trump
wirft Facebook Zensur vor. Seit Monaten machen beide Druck auf den Gründer.
Zwei Monate vor der Wahl begann Zuckerberg, Schutzmaßnahmen anzukündigen.
Er verbot neue politische Anzeigen für die Woche vor der Wahl und vorerst
danach. Behauptungen, Bürger würden sich beim Wählen mit Corona infizieren,
sollen gelöscht werden. Posts, die die Rechtmäßigkeit des Resultats
abstreiten, einen Hinweis bekommen. Anzeigen, die das tun, sind untersagt.
Sollte ein Kandidat vorzeitig den Sieg beanspruchen, will Facebook zum
offiziellen Stand verlinken.
Die Regelungen sind ein Fortschritt. Doch sie kamen erst vier Jahre nach
2016, betreffen spezielle Fälle und lassen die meisten Probleme
unangetastet. Fehlinformationen in Posts bleiben größtenteils
unberücksichtigt. Unwahrheiten in Anzeigen von Politikern sind weiter
gestattet. Und selbst direkt vor der Wahl ist politische Werbung möglich:
Bereits existierende Anzeigen dürfen bis zur Wahl weiterlaufen.
Twitter schaffte politische Werbung ab – Facebook nicht, macht aber
Vorgaben. Politische Anzeigen benötigen einen Disclaimer mit dem Namen des
Bezahlenden. Doch deklariert ein Werbender eine politische Anzeige nicht
als solche, erscheint sie mitunter trotzdem – ohne Disclaimer.
Das ist auch in Deutschland so. Die taz entdeckte in Facebooks Werbearchiv
einen Banner des Absenders „Schutzzone Wolfsburg“ von 2019. Was dieser Name
auf den ersten Blick nicht verriet: Es war eine [6][Bürgerwehr-Kampagne der
rechtsextremen NPD]. Sechs Tage wurde die Anzeige gezeigt – bis Facebook
sie wegen des fehlenden Disclaimers schließlich deaktivierte. Gegen seine
Werberichtlinien verstieß die NPD-Annonce nicht – obwohl die Polizei gegen
die Gruppierung vorgegangen war.
## AfD dominiert Facebook
Besonders erfolgreich ist in Deutschland auf Facebook eine andere Partei –
die AfD. Unter den im Bundestag vertretenen Parteien lässt sie auf der
Plattform alle anderen weit hinter sich. Das zeigen schon die über 500.000
Likes ihres Profils. Die Linke hat etwa 250.000, CSU, Grüne, CDU und SPD
liegen dahinter etwa gleichauf mit 190.000 bis 220.000, die FDP hat nur
knapp 150.000 „Gefällt mir“.
Die AfD dominiert Facebook, das zeigen Untersuchungen. 2,6 Millionen
Interaktionen erreichte die Partei innerhalb von elf Wochen bei der
Europawahl 2019 auf ihren Seiten – zehnmal mehr als jede andere Partei,
[7][fanden zwei Forscher heraus]. Unter den 100 Partei-Postings mit den
meisten Interaktionen stammten im Wahlkampf 84 von der AfD, [8][so das
Ergebnis einer anderen Studie].
Der Erfolg der AfD auf Facebook liege „ganz klar“ auch daran, dass die
Plattform algorithmisch Empörung und Emotionalität belohnt und Nuancierung
bestraft, sagt Cornelius Puschmann, Professor für digitale Kommunikation an
der Universität Bremen. „Inhalte, die stark auf Emotionalisierung, Empörung
und Verärgerung setzen, passen besonders gut zum Prinzip algorithmischer
Selektion von Facebook. Die ist sehr kongruent mit der Botschaft von
Rechtspopulisten“, sagt er. „Das sind die Inhalte, die auf Facebook viel
Resonanz erzeugen und im Sinne der Plattform funktionieren.“
Wissenschaftlerin Ulrike Klinger sagt: „Populistische Parteien sind auf
Facebook sehr viel erfolgreicher als nicht-populistische.“
Ein spezielles Problem auf der Plattform ist Antisemitismus. Facebook hat
seine Richtlinien in diesem Jahr verschärft. Doch judenfeindliche Inhalte
sind noch immer häufig zu finden. [9][Ein Interview von 2018] gibt einen
Hinweis, wie es dazu kommen konnte.
Zuckerberg sprach mit Tech-Journalistin Kara Swisher darüber, was Facebook
löscht und was nicht. Er wollte seine Haltung mit dem Beispiel
Holocaust-Leugnung verdeutlichen. „Ich bin jüdisch und es gibt eine Reihe
von Leuten, die leugnen, dass der Holocaust passiert ist“, sagte er. „Ich
finde das zutiefst beleidigend. Aber letztlich glaube ich nicht, dass
unsere Plattform das entfernen sollte, weil ich denke, dass es Dinge gibt,
bei denen unterschiedliche Leute falsch liegen. Ich glaube nicht, dass sie
absichtlich falsch liegen.“ Die Interviewerin unterbrach ihn, bei
Holocaust-Leugnern könne es durchaus Absicht sein. Zuckerberg fuhr fort, es
sei schwierig, Absichten nachzuvollziehen. Viele Menschen würden häufig
falsche Dinge sagen.
Holocaust-Leugner strömten weiter auf Facebook. Die taz entdeckte im
September vier Gruppen, die den NS-Völkermord leugnen. Eine bestand bereits
seit 2014 und hatte knapp 2.000 Mitglieder. Die taz informierte den Konzern
über die vier in Deutschland illegalen Gruppen und einen Film auf Facebook,
der den Genozid abstreitet. Das Unternehmen sperrte die Gruppen und das
Video in Deutschland – allerdings vorerst nicht weltweit.
Ende September fragte die taz nach, ob die Gruppen und das Video in allen
Ländern außerhalb Deutschlands noch erreichbar sind und ob sie gegen die
Gemeinschaftsstandards verstoßen. Facebook antwortete nicht. Doch im
Hintergrund bewegte sich etwas. Es stellte sich heraus, dass der Konzern
ohnehin gerade eine Änderung vorbereitete. Am 12. Oktober kündigte Facebook
an, weltweit Inhalte zu verbieten, die den Holocaust leugnen oder
verharmlosen. „Mein eigenes Denken hat sich weiterentwickelt, als ich Daten
gesehen habe, die eine Zunahme antisemitischer Gewalt zeigen“, [10][sagte
Zuckerberg].
Der Zentralrat der Juden bezeichnet die Entscheidung als „überfällig“. Sie
„könnte ein wichtiger Schritt“ zur Eindämmung antisemitischer Inhalte auf
Facebook sein, sagt Präsident Josef Schuster der taz. „Insgesamt braucht es
allerdings noch größere Anstrengungen, um Rassismus und Antisemitismus aus
diesem sozialen Netzwerk zu verbannen.“ Tatsächlich entdeckte die taz noch
in dieser Woche Gruppen zur Holocaust-Leugnung.
## Gruppen tarnen sich
1,8 Milliarden Menschen nutzen Gruppen jeden Monat. Extremisten verwenden
meist geschlossene. Verstöße sind dort schwieriger zu entdecken. Einige
Gruppen tarnen ihre Namen. Eine im September von der taz entdeckte
Fangruppe für den britischen Holocaust-Leugner nannte sich „Jews for David
Irving“. Verschwörungstheoretiker von QAnon nennen sich mitunter wie
Kinderschützer „Save the children“. QAnon-Anhänger glauben entgegen von
Fakten, eine Elite demokratischer Politiker handele weltweit mit Kindern –
und Trump bekämpfe dies.
Facebook wird vorgeworfen, maßgeblich zur Verbreitung dieser Bewegung
beigetragen zu haben. Erst Jahre nach ihrem Anwachsen kündigte der Konzern
Anfang Oktober an, alle QAnon-Gruppen zu entfernen. Noch immer lassen sich
viele finden. Das Unternehmen teilt zu seinem generellen Umgang mit
problematischen Gruppen mit: „Wir haben unsere Regeln in den letzten Jahren
verschärft, in Technologie investiert und mehr Mitarbeiter eingestellt, die
sich um Sicherheitsthemen kümmern und Inhalte überprüfen“, sagt Sprecherin
Anne Laumen.
Thomas Heilmann hat Facebooks Umgang mit Extremismus erlebt. Er kennt den
Konzern aus verschiedenen Perspektiven. Er sitzt für die CDU im Bundestag,
hat aber nicht gerade eine typische Abgeordnetenbiografie. Nach der Wende
baute der Dortmunder Jurist in Dresden eine Werbeagentur und einen
Radiosender auf. Er wurde Chef der Agenturgruppe Scholz & Friends und sehr
reich, indem er frühzeitig in Internetfirmen wie das Job-Netzwerk Xing
investierte.
2008 suchte Facebook Gesellschafter in Europa. Viele winkten ab. Die
Weltwirtschaftskrise hatte begonnen. Die Firma war erst vier Jahre alt. Sie
machte zig Millionen Euro Verlust pro Jahr. Heilmann schlug zu. Er kaufte
Anteile von ausscheidenden Mitarbeitern für „ein paar Hunderttausend Euro“.
„Damals haben alle gesagt: Das ist ja völliger Irrsinn, da einzusteigen“,
erzählt er im Garten des Reichstagspräsidentenpalais am Bundestag. Er
selbst habe damals gedacht: „Das Geld kann auch verloren sein.“ Es kam
anders. Ende 2010 verkaufte er seine Anteile. Ihr Wert war nach oben
geschossen. Um wie viel genau wisse er aus dem Kopf nicht, sagt Heilmann.
Er hat jedenfalls sehr viel Geld mit Facebook verdient.
Doch seine Begeisterung für den Konzern ist verflogen. „Ich finde Facebook
unethisch“, sagt er inzwischen und nennt dafür vier Gründe. Den ersten
erlebte er, als er 2012 Berliner Justizsenator wurde und damals
feststellte, dass „sie bei der Strafverfolgung nicht unterstützen“, etwa
bei Holocaust-Leugnung. Sein zweiter Kritikpunkt: die Verstärkung von
Polarisierung durch Facebook. Dass der Konzern sich jahrelang „dafür
überhaupt nicht verantwortlich fühlte, finde ich einen Skandal“, sagt er.
Sein dritter Einwand: Facebooks Monopol. Der vierte: der Umgang des
Unternehmens mit Nutzerdaten.
Heilmann will den Konzern deshalb hartem Wettbewerb aussetzen. Er erwartet,
dass sich dadurch Missstände bessern. Er möchte auf EU-Ebene einem
„Konnektivitätszwang“ den Weg ebnen. Jede Plattform soll verpflichtet
werden, seinen Nutzern Nachrichten anderer Plattformen zuzustellen – und
das Versenden in andere Netzwerke zu ermöglichen. Vorbild soll der
Mobilfunk sein.
Er verlangt zudem eine Diskussion über geschlossene Gruppen. „Wenn Leute
darin überwiegend politischen Content verbreiten, könnte man ja sagen: Die
Gruppe muss öffentlich gestellt werden.“ Das wäre aber eine „weitgehende
Regulierung“. Die Politik täte sich mit der Regulierung des Konzerns so
schwer, weil sie die destruktive Wirkung nicht gut genug verstünde. An
Sympathien liege es nicht. „Facebook hat im Bundestag keine Fans mehr –
außer bei der AfD.“
## „Gefahr für die Demokratie“
In Datenschutzbehörden saßen die Fans noch nie. Johannes Caspar ist seit
2009 Hamburger Datenschutzbeauftragter. Kurz nachdem er anfing, eröffnete
Facebook seine deutsche Zentrale in der Hansestadt. Caspar wurde damit
Ansprechpartner für Beschwerden aus Deutschland über das Unternehmen.
Seitdem geht es zwischen dem habilitierten Juristen und Facebooks Anwälten
hin und her. Kürzlich erließ er ein Bußgeld über 51.000 Euro, weil der
Konzern den Wechsel eines Datenschutzbeauftragten nicht mitgeteilt hatte.
Das Problem ist aus seiner Sicht aber größer. „Facebook kann über
Profilbildung als Instrument genutzt werden, um politische Meinungen zu
steuern“, sagt er. „Die Möglichkeit zu Hate Speech und falschen
Informationen vergiftet das Miteinander in unserer Gesellschaft. Das ist
eine Gefahr für die Demokratie. Diese Gefahr wächst zusehends.“
Professorin Ulrike Klinger würde das gerne verneinen. „Aber wir wissen es
nicht. Es ist wichtig, dass wir herausfinden, ob bestimmte Diskursdynamiken
Facebooks eine Gefahr für die Demokratie sind.“ Das zu erforschen, sei
derzeit jedoch nicht möglich. Twitter sei gut untersucht. Bei Facebook
kämen Forscher aber kaum an Daten. „Facebook ist eine Blackbox“, sagt sie.
Die Eigendynamik dieser Blackbox hat zu einer Überforderung aller geführt.
Facebook überfordert die Politik. Es überfordert die Nutzer. Es überfordert
den Gründer. Mark Zuckerberg maximiert die Größe und die Anzeigenerlöse
seiner Maschine. Er minimiert seine Verantwortung für ihre Inhalte, für die
Auswirkungen ihrer Grundprogrammierung und für die Folgen ihres
Geschäftsmodells. Er konnte nicht in die enorme Aufgabe hineinwachsen, die
seine Position erfordert. Er erklärte es zu seiner Mission, die Welt näher
zusammenzubringen. Doch immer mehr weist darauf hin, dass er Menschen
auseinandertreibt. Seine Erfindung ist ihm entglitten.
23 Oct 2020
## LINKS
[1] https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-exec…
[2] https://www.newyorker.com/magazine/2018/09/17/can-mark-zuckerberg-fix-faceb…
[3] https://www.buzzfeednews.com/article/craigsilverman/viral-fake-election-new…
[4] https://www.nytimes.com/2020/06/21/business/media/facebook-donald-trump-mar…
[5] https://theconversation.com/trump-v-biden-who-is-engaging-the-most-follower…
[6] /Uniformierte-Patrouille-durch-Wolfsburg/!5615575
[7] https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/F…
[8] https://www.fes.de/index.php?eID=dumpFile&t=f&f=41827&token=6e1…
[9] https://www.vox.com/2018/7/18/17575156/mark-zuckerberg-interview-facebook-r…
[10] https://www.facebook.com/zuck/posts/10112455086578451
## AUTOREN
Timo Hoffmann
## TAGS
Lesestück Recherche und Reportage
Datenschutz
Internet
Populismus
Schwerpunkt Meta
Donald Trump
Mark Zuckerberg
Soziale Netzwerke
Social Media
Fake News
Hamburg
Faschismus
Schwerpunkt Meta
TikTok
Bundestag
China
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Coronavirus
Schwerpunkt AfD
Google
Unilever
## ARTIKEL ZUM THEMA
Fake-Todesmeldungen im Netz: Immer wieder auferstanden
Im Netz häufen sich falsche Todesmeldungen über Prominente. Manche werden
sogar mehrfach bedacht. Damit lässt sich eine Menge Geld verdienen.
Sozialhistoriker über Diskussionskultur: „Wir müssen über Fairness spreche…
Die Gesprächskultur hat sich verändert, sagt Sven Tetzlaff von der
Körber-Stiftung. Mit dem Literaturhaus startet die eine Veranstaltungsreihe
dazu.
Medienforscher über digitalen Faschismus: „Das Spiel um Aufmerksamkeit“
Rechte versuchen im Netz gezielt Gefühle zu manipulieren.
Medienwissenschaftler Simon Strick über die Gefahren des digitalen
Faschismus und den richtigen Umgang damit.
Antisemitischer Shitstorm auf Facebook: Opfer statt Täter gesperrt
Hamburger Mitglieder der Deutsch-Israelischen Gesellschaft wurden Opfer
eines antisemitischen Shitstorms. Facebook half zunächst nicht – im
Gegenteil.
Nach tödlichem Unfall einer Zehnjährigen: Tiktok in Italien unter Druck
Ein Kind starb bei vermutlichen Aufnahmen für die Video-App. Die
Datenschutz-Aufsicht fordert nun von Tiktok, Altersangaben der
Nutzer*innen zu prüfen.
Kommunikation im Bundestag: Ein Fax für alle Fälle
Der Bundestag will die Faxgeräte abschaffen. Diese Art der Kommunikation
ist aus der Zeit gefallen. Aber ein Fax hat so manchen Vorteil.
Nach Kritik an Regierung: Salomonen wollen Facebook verbieten
Im Südpazifikstaat will sich die Regierung Kritik entziehen. Die hat
zugenommen, seit die Staatsführung diplomatisch von Taiwan zu China
gewechselt ist.
Extremistische Gruppen auf Facebook: Wenn der Nazi moderiert
Facebookgruppen, die mehrfach gegen die Regeln verstoßen, sollen von
Freiwilligen betreut werden. Der Konzern wälzt seine Verantwortung ab.
Digitales US-Netzwerk „Parler“: Hetzer suchen neues Zuhause
Das digitale Netzwerk Parler präsentiert sich als Alternative zu Twitter.
Vertreten sind dort vor allem rechte Verschwörungsideolog*innen.
Die steile These: Streitet mehr über Coronaregeln!
Wer die aktuellen Maßnahmen kritisiert, gilt schnell als Coronaleugner.
Nicht Gegenvorschläge verunsichern, sondern die Einseitigkeit der Debatte.
Autoren über rechte Hetze im Netz: „Pöbelei und Propaganda“
Die sozialen Medien sind der Motor des Rechtsextremismus, sagen die Autoren
des Buchs „Digitaler Faschismus“. Sie fordern eine staatliche Kontrolle.
Tech-Bosse im US-Kongress: Die USA sollten von Europa lernen
Demokraten und Republikaner haben die „Big Four“ befragt. Doch um die
Verantwortung und Datensparsamkeit der Tech-Firmen ging es kaum.
Starbucks boykottiert Facebook: Werbepause
Mit Starbucks setzt ein weiterer Konzern Facebook unter Druck, stärker
gegen Hassrede vorzugehen. Der Verlust von Werbeeinnahmen zeigt Wirkung.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.