Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Maßnahmen gegen Falschmeldungen: Facebook sagt Fake News Kampf an
> Facebook hat einen Plan vorgelegt, wie es gegen Falschmeldungen vorgehen
> will. Zunächst bleibt es bei einer Testphase in den USA.
Bild: Facebook begibt sich auf die Suche nach Falschmeldungen
BERLIN taz | Facebook hat am Donnerstag Maßnahmen vorgestellt, wie es die
Verbreitung von Falschmeldungen eindämmen möchte. Kritiker_innen hatten dem
US-Unternehmen zuvor vorgeworfen, Donald Trump indirekt zum Wahlsieg
verholfen zu haben. Im Finale des US-Wahlkampfs seien die zehn
meistgeteilten Geschichten auf Facebook Fake-News gewesen.
Falsche Nachrichten werden nicht nur als Propaganda-Mittel aus politischem
Interesse, sondern auch aus Profit-Zwecken verbreitet. Texte, die Empörung
provozieren, verbreiten sich schnell und werden häufig als Hetze
beispielsweise gegen Geflüchtete genutzt.
Facebook-Gründer Mark Zuckerberg wies die Vorwürfe zunächst zurück, Trump
zum Sieg verholfen zu haben, und verneinte, dass Facebook ein Problem mit
Falschmeldungen habe – nur um kurz später zu verkünden, dass Strategien
gegen die Verbreitung von Fake-News erarbeitet würden.
In einem Blogpost fasste Adam Mosseri, zuständig für den Bereich Newsfeed
bei Facebook, am Donnerstag das Projekt gegen Falschmeldungen in vier
Schritten zusammen. Dabei wies er die Verantwortung Facebooks für das
Entstehen und Verbreiten von Fake-News zumindest teilweise zurück: „Wir
glauben daran, den Menschen eine Stimme zu geben, und können dabei nicht
die Schiedsrichter der Wahrheit werden.“ Bei ihrem Test beschränke sich das
Unternehmen daher auf die „schlimmsten der schlimmen“ Falschmeldungen.
Die erste Maßnahme des Unternehmens soll es Nutzer_innen in Zukunft
erleichtern, Posts zu melden, die ihnen als Falschnachrichten erscheinen.
Bislang musste man bei einer Meldung unter drei vorgegebenen Gründen („Es
ist nervig oder uninteressant“, „Es sollte meiner Meinung nach nicht auf
Facebook sein“, „Es handelt sich um Spam“) entscheiden. Die vierte
Auswahlmöglichkeit – „Es ist eine Falschmeldung“ – soll in der Testpha…
hinzugefügt werden.
Kennzeichnung „umstrittener“ Posts
Diese Meldungen und „andere Signale“, die in Mosseris Post nicht näher
erläutert werden, sollen von Dritten geprüft und gegebenenfalls mit einem
Button „umstritten“ gekennzeichnet werden. ABC News und PolitiFact sowie 41
weitere Redaktionen sollen die Faktenlage der gemeldeten Beiträge
überprüfen. Die 43 Organisationen gehören dem International
Fact-Checking-Network (IFCN) des Poynter-Instituts for Media Studies an und
haben den „Fact Checkers Code of Priniciples“ unterschrieben.
Haben die Organisationen einen Post als „umstritten“ gekennzeichnet, wird
dieser nicht gelöscht, doch landet er im Newsfeed weiter unten und kann
nicht mehr gegen Bezahlung beworben werden. Mosseri argumentiert, dass
dieses Verfahren den User_innen mehr Kontext liefere und ihnen dabei helfe
zu entscheiden, ob sie einen Post teilen möchten oder nicht.
Anhand von Nutzerstatistiken möchte Facebook die Position der Nachrichten
im Newsfeed anpassen. Dabei nimmt Facebook an, dass Artikel, die viel
gelesen und wenig geteilt werden, „irreführende“ Inhalte haben müssen und
demnach Falschmeldungen sind. Auch diese Posts würden dann eine geringere
Gewichtung erfahren und im Newsfeed weiter unten erscheinen.
Der letzte Schritt soll Betrüger_innen das absichtliche Verbreiten von
Fake-News erschweren. Gefälschte Internetadressen, die aussehen wie die
Adressen bekannter Medienorganisationen, verbreiten Falschmeldungen aus
einem finanziellen Interesse. Mit Fake-News ködern sie Nutzer_innen auf
ihre Website, die sich in vielen Fällen dann als Werbeseite herausstellt.
Dies widerspricht den Nutzerbedingungen Facebooks. Mit stärkerer Kontrolle
möchte Facebook gegen diese Betrüger_innen vorgehen und ihnen den Zugang zu
Facebook sperren.
Pilotprojekt in den USA
Bei den vier Maßnahmen, die nun ergriffen werden sollen, handelt es sich
zunächst jedoch nur um ein Pilotprojekt, das auf die USA beschränkt bleibt.
Dabei gibt das Unternehmen einen Großteil der Verantwortung ab – an
außenstehende Redaktionen und an die Vernunft und Eingriffe der
Nutzer_innen.
Ob der Testlauf zu weniger Falschmeldungen auf der Plattform führen und auf
andere Länder übertragen wird, muss sich erst noch zeigen. Fraglich bleibt
auch, ob mithilfe der Nutzerstatistiken Falschmeldungen verhindert werden
können. Denn gerade gefälschte Nachrichten werden häufig gelesen und
geteilt, wie der US-Wahlkampf gezeigt hat.
Auch in Deutschland wird die Kritik am Umgang Facebooks mit Falschmeldungen
immer lauter. Bundesjustizminister Heiko Maas droht nun mit Bußgeldern als
letzte Maßnahme, wenn gefälschte Nachrichten und Hassbotschaften nicht
zeitnah gelöscht werden. Gegenüber der Süddeutschen Zeitung forderte er am
Donnerstag, Facebook müsse seine „gesellschaftliche Verpflichtung“ als eine
Plattform wahrnehmen, auf der kein Platz für „Beleidigungen,
Volksverhetzung oder Verleumdung“ sei.
16 Dec 2016
## AUTOREN
Carolina Schwarz
## TAGS
Fake News
US-Wahl 2024
Internet
Schwerpunkt Meta
Donald Trump
Mark Zuckerberg
Mark Zuckerberg
Wortkunde
Schwerpunkt Meta
Lesestück Meinung und Analyse
Pakistan
Fake News
Schwerpunkt „Lügenpresse“
Schwerpunkt Meta
Fake News
Fake News
Renate Künast
Lüge
Fake News
## ARTIKEL ZUM THEMA
Social-Media-Essay von Mark Zuckerberg: 6.000 Wörter Nichts
Der Konzernchef hat – selbstredend auf Facebook – seinen Essay „Building
Global Community“ veröffentlicht. Neues hat er nicht zu sagen.
Kommentar Echokammer im Internet: Raus aus der Komfortzone!
Facebook und Google lassen immer mächtigere Echokammern entstehen.
Allerdings tummeln sich darin nicht nur Rechtspopulist*innen.
Vorgehen gegen Fake-News: Facebook kooperiert mit Correctiv
Facebook will stärker gegen gefälschte Nachrichten im Netz vorgehen. Dafür
arbeitet die Plattform mit dem Recherchezentrum zusammen.
taz-Debattenserie Digitalisierung: Netz des Irrsinns
Kann die Demokratie das Internet überleben? Es entsteht ein Hass, den es
ohne die „Echokammern“ in den Online-Netzwerken nicht gäbe.
Wie Fake-News wirken können: Pakistan droht Israel mit Atomangriff
Pakistans Verteidigungsminister ist auf eine angebliche Drohung Israels
hereingefallen – und hat dem jüdischen Staat daraufhin indirekt gedroht.
Maßnahmen gegen Falschnachrichten: Die Wahrheitsbehörde regelt das
Das Bundesinnenministerium erwägt, ein „Abwehrzentrum gegen Desinformation“
einzurichten. Als Hauptakteur der Fake News sieht es Russland an.
Kommentar Kritik an dpa-Meldung: Vertrauen gibt es nicht umsonst
Es passte ins Bild: „Türkische Behörden verbieten Weihnachten.“ Das war
nicht ganz präzise – aber ein Segen für die Fakenews-Debatte.
Psychologe Michal Kosinski: „Die Filterbubble ist ein Mythos“
Haben die Methoden von Michal Kosinski den Sieg Donald Trumps ermöglicht?
Und was sagen Fritten über Intelligenz? Der Psychologe im Gespräch.
Kolumne Der Rote Faden: Darf ich weiterschreiben?
Eigentlich wollte unser Autor nur über den Falschmelder von der CDU
schreiben. Dann mischte sich der Wahrheits-Algorithmus ein.
Algorithmen und „Fake News“: Alles ist verbunden
Googles Algorithmen werden zur Verbreitung von Fake News und rechtsextremen
Inhalten instrumentalisiert. Das bedroht die Demokratie.
Falschnachricht in Sozialen Netzwerken: Renate Künast stellt Strafantrag
Rechte Facebook-Seiten verbreiteten im Zusammenhang mit dem Mord in
Freiburg falsche Meldungen über die Grünen-Politikerin. Künast kritisiert
Facebook scharf.
Postfaktisch, das war gestern: Die Linken halluzinierten die Wahrheit
Fake-News sind keine Erfindung des Trump-Lagers. Im Gegenteil. Mit gefakten
Fakten wurden schon linke Revolutionen gewonnen und verloren.
Zugeständnisse bei Facebook: Problembewusstsein okay
Mark Zuckerberg erklärt, er wolle gegen Falschmeldungen vorgehen. Gegen
Hass im Netz macht das Netzwerk Facebook (noch) nichts.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.