Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Sprachforscher über Desinformation: „Keine Zensur, keine Diskrim…
> Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien
> selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler
> darauf hinweisen.
Bild: Die Maschine macht das: Ein Algorithmus soll das Internet aufräumen
taz: Warum deuten orthografische Fehler auf Fake News hin?
Ulrich Schade: Natürlich können nur mehrere Indizien in ihrer Kombination
auf die Klassifikation „Fake News“ hinweisen. Wenn Sie zum Beispiel eine
Hotelbewertung für ein türkisches Hotel sehen und jemand mit einem
deutschen Standardnamen gibt vor, in diesem Hotel gewesen zu sein: Wenn in
dieser Bewertung dann zum Beispiel ein „süper“ steht mit einem „ü“ an…
des „u“, dann kann dies ein Indiz dafür sein, dass die Bewertung ein
türkischer Muttersprachler geschrieben hat, die Bewertung ein „Fake“ ist
und sie eventuell von dem Hotel selbst stammt.
Wie schließen Sie einfache Schreibfehler oder eine Diskriminierung von
Menschen aus, die Deutsch weniger gut beherrschen?
Es wird nicht definitiv gesagt, das sind jetzt „Fake News“, sondern nur,
dass es Hinweise darauf gibt. Der Nutzer muss letztlich die Bewertung
selbst vornehmen.
Als Indiz für Fake News haben Sie die Formulierung „die aktuelle
Bundeskanzlerin Angela Merkel“ genannt. Warum ist das sinnvoll?
Normalerweise würde man so eine umständliche Beschreibung in einer
deutschen Zeitung nicht lesen. Hier in Deutschland weiß jeder, wer mit
„Bundeskanzlerin“ gemeint ist. Wenn sie das aus einer auswärtigen Position
wie Russland oder den USA schreiben, sieht das anders aus. Daher ist der
Zusatz „aktuell“ ein weiterer, minimaler Hinweis, dem man nachgehen sollte.
Dahinter steht die Annahme, dass übersetzte Beiträge tendenziell Fake News
sind.
Nein. Dahinter steht, dass wir zu dritt gezielt nach [1][Beiträgen geschaut
haben, die demokratiefeindlich sind]. Wir haben entsprechende „Fake News“
aus der sogenannten „Deutschen Tageszeitung“ genommen. Das war eine
Internetseite, die zum Teil wie die Seite einer seriösen Zeitung aufgemacht
war. Sie wurde aber offenbar von russischen Muttersprachlern erstellt. Das
ist eine der Quellen, die wir für das Korpus benutzt haben. Dadurch ergaben
sich diese Merkmale.
Wie beugen Sie vor, dass durch das Training ein „bias“, also menschliche
Vorurteile, in die Entscheidung der Software einfließen?
Sie haben in gewisser Weise Recht, dass da ein Bias mit drin ist. Sie
müssen zunächst Korpora zusammenstellen. Dafür benötigen Sie ein Korpus mit
Material, das sie als „Fake News“ bezeichnen würden, und ebenfalls ein
Korpus mit objektiv guten Meldungen, wie zum Beispiel von dpa. Das Tool
lernt so, danach zu entscheiden, ob eine neue Nachricht eher die Merkmale
einer „guten“ Nachricht oder die von „Fake News“ hat.
Wo sehen Sie Anwendungsmöglichkeiten?
„Fake News“ finden zwar alle interessant, aber wir sehen die Anwendung eher
in der [2][Erkennung von Hate Speech]. Ein Provider könnte Seiten vom Netz
nehmen, wenn jemand, um ein drastisches Beispiel zu wählen, andere etwa als
„Nigger“ bezeichnet. Solche Nutzer könnte man anschreiben und sie
auffordern, sich bitte an die Regeln zu halten. Allerdings ist die
Bewertung von Hate Speech schwieriger, nicht bei Beleidigungen, da sind
sich alle einig. Aber wenn es um etwas geht, das im Englischen „offensive
speech“ genannt wird, ist das schwieriger. Wir wollen ja keine Zensur und
auch keine Diskriminierung.
Wird ihre Anwendung bereits angewandt?
Wir sagen prinzipiell nichts über Kunden, sofern diese das nicht
ausdrücklich wünschen.
Ihr Programm ist aber nicht einzigartig?
Sie können davon ausgehen, [3][dass große Unternehmen wie Facebook ihre
eigenen Tools haben], und wenigstens ein anderes Fraunhofer-Institut hat
auch ein ähnliches Programm entwickelt.
Sie sagen, die Einordnung von Hate Speech sei schwierig. Ist eine
technologische Lösung trotzdem für die Herausforderung Fake News geeignet?
Es gibt keine andere Wahl. Sie können sich ja nicht permanent den gesamten
Twitter-Stream ansehen. Daher ist es sinnvoll, dass eine Maschine
vorsortiert. Aber [4][abschließend muss immer noch ein Mensch
rüberschauen], damit nichts falsch läuft.
13 Feb 2019
## LINKS
[1] /Debatte-Fake-News-und-ihre-Wirkung/!5375708
[2] /Debatte-Fake-News-und-ihre-Wirkung/!5375708
[3] /Informatikprofessorin-ueber-Algorithmen/!5429209
[4] /Doku-ueber-Social-Media/!5528146
## AUTOREN
Elisabeth Nöfer
## TAGS
Wahlmanipulation
Fake News
Fraunhofer
Hate Speech
Schwerpunkt Künstliche Intelligenz
Zivilcourage
Schwerpunkt Europawahl
Schwerpunkt Meta
Österreich
WhatsApp
Lesestück Recherche und Reportage
Netzsicherheit
## ARTIKEL ZUM THEMA
Internet-Aktivist über Hatespeech: „Hetze muss bestraft werden“
Die Facebookgruppe #ichbinhier kämpft seit Ende 2016 gegen unsachliche und
aufhetzende Kommentare in sozialen Medien. Ein Admin erklärt, warum.
Angebliche Verbindungen zu Russland: Antifa-Gruppen wehren sich
Russland soll zwei Berliner Antifagruppen unterstützen, berichteten mehrere
Medien. Eine seltsam klingende Behauptung – und offenbar völlig haltlos.
Verschwörungstheorien im Internet: Facebook sperrt Konten
Krude Phantasien, Islamophobie, Antifeminismus: All das findet sich bei
Facebook immer häufiger. Jetzt wurde dem Unternehmen der Druck wohl zu
groß.
„Vermummungsverbot“ in Online-Foren: Weniger Anonymität, weniger Hass?
Österreichs Bundesregierung will, dass User sich zu erkennen geben – mit
ihrer Handynummer beim Provider. Netzexperten sind skeptisch.
Whatsapp schränkt Weiterleitungen ein: Don't kill the messenger
WhatsApp verschärft die Regeln zur Weiterleitung von Nachrichten. Vorbild
ist Indien, wo Fake-News für Panik und Selbstjustiz sorgen.
Gesichtserkennung in der Kritik: Diskriminierende Algorithmen
KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel
wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen.
Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe
Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche
Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum
das gut ist.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.