# taz.de -- Sprachforscher über Desinformation: „Keine Zensur, keine Diskrim… | |
> Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien | |
> selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler | |
> darauf hinweisen. | |
Bild: Die Maschine macht das: Ein Algorithmus soll das Internet aufräumen | |
taz: Warum deuten orthografische Fehler auf Fake News hin? | |
Ulrich Schade: Natürlich können nur mehrere Indizien in ihrer Kombination | |
auf die Klassifikation „Fake News“ hinweisen. Wenn Sie zum Beispiel eine | |
Hotelbewertung für ein türkisches Hotel sehen und jemand mit einem | |
deutschen Standardnamen gibt vor, in diesem Hotel gewesen zu sein: Wenn in | |
dieser Bewertung dann zum Beispiel ein „süper“ steht mit einem „ü“ an… | |
des „u“, dann kann dies ein Indiz dafür sein, dass die Bewertung ein | |
türkischer Muttersprachler geschrieben hat, die Bewertung ein „Fake“ ist | |
und sie eventuell von dem Hotel selbst stammt. | |
Wie schließen Sie einfache Schreibfehler oder eine Diskriminierung von | |
Menschen aus, die Deutsch weniger gut beherrschen? | |
Es wird nicht definitiv gesagt, das sind jetzt „Fake News“, sondern nur, | |
dass es Hinweise darauf gibt. Der Nutzer muss letztlich die Bewertung | |
selbst vornehmen. | |
Als Indiz für Fake News haben Sie die Formulierung „die aktuelle | |
Bundeskanzlerin Angela Merkel“ genannt. Warum ist das sinnvoll? | |
Normalerweise würde man so eine umständliche Beschreibung in einer | |
deutschen Zeitung nicht lesen. Hier in Deutschland weiß jeder, wer mit | |
„Bundeskanzlerin“ gemeint ist. Wenn sie das aus einer auswärtigen Position | |
wie Russland oder den USA schreiben, sieht das anders aus. Daher ist der | |
Zusatz „aktuell“ ein weiterer, minimaler Hinweis, dem man nachgehen sollte. | |
Dahinter steht die Annahme, dass übersetzte Beiträge tendenziell Fake News | |
sind. | |
Nein. Dahinter steht, dass wir zu dritt gezielt nach [1][Beiträgen geschaut | |
haben, die demokratiefeindlich sind]. Wir haben entsprechende „Fake News“ | |
aus der sogenannten „Deutschen Tageszeitung“ genommen. Das war eine | |
Internetseite, die zum Teil wie die Seite einer seriösen Zeitung aufgemacht | |
war. Sie wurde aber offenbar von russischen Muttersprachlern erstellt. Das | |
ist eine der Quellen, die wir für das Korpus benutzt haben. Dadurch ergaben | |
sich diese Merkmale. | |
Wie beugen Sie vor, dass durch das Training ein „bias“, also menschliche | |
Vorurteile, in die Entscheidung der Software einfließen? | |
Sie haben in gewisser Weise Recht, dass da ein Bias mit drin ist. Sie | |
müssen zunächst Korpora zusammenstellen. Dafür benötigen Sie ein Korpus mit | |
Material, das sie als „Fake News“ bezeichnen würden, und ebenfalls ein | |
Korpus mit objektiv guten Meldungen, wie zum Beispiel von dpa. Das Tool | |
lernt so, danach zu entscheiden, ob eine neue Nachricht eher die Merkmale | |
einer „guten“ Nachricht oder die von „Fake News“ hat. | |
Wo sehen Sie Anwendungsmöglichkeiten? | |
„Fake News“ finden zwar alle interessant, aber wir sehen die Anwendung eher | |
in der [2][Erkennung von Hate Speech]. Ein Provider könnte Seiten vom Netz | |
nehmen, wenn jemand, um ein drastisches Beispiel zu wählen, andere etwa als | |
„Nigger“ bezeichnet. Solche Nutzer könnte man anschreiben und sie | |
auffordern, sich bitte an die Regeln zu halten. Allerdings ist die | |
Bewertung von Hate Speech schwieriger, nicht bei Beleidigungen, da sind | |
sich alle einig. Aber wenn es um etwas geht, das im Englischen „offensive | |
speech“ genannt wird, ist das schwieriger. Wir wollen ja keine Zensur und | |
auch keine Diskriminierung. | |
Wird ihre Anwendung bereits angewandt? | |
Wir sagen prinzipiell nichts über Kunden, sofern diese das nicht | |
ausdrücklich wünschen. | |
Ihr Programm ist aber nicht einzigartig? | |
Sie können davon ausgehen, [3][dass große Unternehmen wie Facebook ihre | |
eigenen Tools haben], und wenigstens ein anderes Fraunhofer-Institut hat | |
auch ein ähnliches Programm entwickelt. | |
Sie sagen, die Einordnung von Hate Speech sei schwierig. Ist eine | |
technologische Lösung trotzdem für die Herausforderung Fake News geeignet? | |
Es gibt keine andere Wahl. Sie können sich ja nicht permanent den gesamten | |
Twitter-Stream ansehen. Daher ist es sinnvoll, dass eine Maschine | |
vorsortiert. Aber [4][abschließend muss immer noch ein Mensch | |
rüberschauen], damit nichts falsch läuft. | |
13 Feb 2019 | |
## LINKS | |
[1] /Debatte-Fake-News-und-ihre-Wirkung/!5375708 | |
[2] /Debatte-Fake-News-und-ihre-Wirkung/!5375708 | |
[3] /Informatikprofessorin-ueber-Algorithmen/!5429209 | |
[4] /Doku-ueber-Social-Media/!5528146 | |
## AUTOREN | |
Elisabeth Nöfer | |
## TAGS | |
Wahlmanipulation | |
Fake News | |
Fraunhofer | |
Hate Speech | |
Schwerpunkt Künstliche Intelligenz | |
Zivilcourage | |
Schwerpunkt Europawahl | |
Schwerpunkt Meta | |
Österreich | |
Lesestück Recherche und Reportage | |
Netzsicherheit | |
## ARTIKEL ZUM THEMA | |
Internet-Aktivist über Hatespeech: „Hetze muss bestraft werden“ | |
Die Facebookgruppe #ichbinhier kämpft seit Ende 2016 gegen unsachliche und | |
aufhetzende Kommentare in sozialen Medien. Ein Admin erklärt, warum. | |
Angebliche Verbindungen zu Russland: Antifa-Gruppen wehren sich | |
Russland soll zwei Berliner Antifagruppen unterstützen, berichteten mehrere | |
Medien. Eine seltsam klingende Behauptung – und offenbar völlig haltlos. | |
Verschwörungstheorien im Internet: Facebook sperrt Konten | |
Krude Phantasien, Islamophobie, Antifeminismus: All das findet sich bei | |
Facebook immer häufiger. Jetzt wurde dem Unternehmen der Druck wohl zu | |
groß. | |
„Vermummungsverbot“ in Online-Foren: Weniger Anonymität, weniger Hass? | |
Österreichs Bundesregierung will, dass User sich zu erkennen geben – mit | |
ihrer Handynummer beim Provider. Netzexperten sind skeptisch. | |
Whatsapp schränkt Weiterleitungen ein: Don't kill the messenger | |
WhatsApp verschärft die Regeln zur Weiterleitung von Nachrichten. Vorbild | |
ist Indien, wo Fake-News für Panik und Selbstjustiz sorgen. | |
Gesichtserkennung in der Kritik: Diskriminierende Algorithmen | |
KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel | |
wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen. | |
Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe | |
Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche | |
Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum | |
das gut ist. |