Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Zauber und Gefahr von Deepfakes: Fakevideos mit Missbrauchpotenzial
> Deepfakes mit Kim Kardashian und Mark Zuckerberg sorgen für Aufsehen.
> Können wir bald unseren eigenen Augen und Ohren nicht mehr trauen?
Bild: Im Deepfake wirkt Mark Zuckerberg sogar authentischer als in echten Videos
[1][Facebook-Chef Mark Zuckerberg] hat sich in einem Video zum
Weltherrscher erklärt. Wie so häufig sitzt er mit einem grauen T-Shirt
bekleidet in einem Büro und sagt: „Stellt euch das mal kurz vor: Ein Mann,
mit totaler Kontrolle über die gestohlenen Daten von Milliarden Menschen,
allen ihren Geheimnissen, ihr Leben, ihre Zukunft – ich schulde das alles
Spectre. Spectre hat mir gezeigt, dass derjenige, der die Daten
kontrolliert, auch die Zukunft kontrolliert.“
Die Lippenbewegungen passen zum Ton und die News-Bauchbinde mit dem Logo
des US-amerikanische Nachrichtensenders CBS lassen das Video real
erscheinen. Doch Zuckerberg hat dies so nie gesagt. Das Video ist ein
sogenannter Deepfake. Die Wortschöpfung besteht aus „Deep Learning“, einem
Teilbereich der künstlichen Intelligenz (KI), und „Fake“, also Fälschung.
Bezeichnet werden so [2][mit Audio- und Videomanipulationssoftware
produzierte Videos], in denen ein Algorithmus ein Gesicht in ein anderes
reinmorphen kann. So kann Mark Zuckerberg in einem Video eine Rede halten,
die er nie gehalten hat – und es sieht täuschend echt aus.
Die britischen Künstler Bill Posters und Daniel Howe haben vergangene Woche
nicht nur das Zuckerberg-Deepfake bei Instagram hochgeladen, sondern auch
Videos von Donald Trump und Kim Kardashian. Die Reality-TV-Darstellerin und
Unternehmerin erklärt darin, dass sie unfassbar dankbar dafür sei, Menschen
im Netz manipulieren zu können, um damit reich zu werden. Die Videos
gehören zum Kunstprojekt „Spectre“. Der Name bezieht sich auf
Sicherheitslücken in Computer- und Handy-Mikroprozessoren, die im Januar
2018 öffentlich wurden.
## Gefährlicher Spaß
Wer genau hinsieht und zuhört, kann erkennen, dass sich bei den Videos
nicht um reale Aufnahmen handelt. So ist beispielsweise nicht Zuckerbergs
echte Stimme zu hören, und alle Videos sind mit dem Hashtag #deepfake
versehen. Zudem sind die Aussagen der drei Prominenten so abstrus, dass
vielen Instagram-Nutzer*innen vermutlich schnell Zweifel aufkommen. Doch
verfälschte Ton- und Videoaufnahmen können nicht nur der Unterhaltung
dienen, sondern auch Einfluss auf die aktuelle politische Weltlage nehmen.
Man stelle sich beispielsweise vor, was passieren würde, wenn eine
russische Trollfabrik ein Deepfake produziert, in dem Donald Trump einen
Krieg gegen Nordkorea ankündigt. Expert*innen warnen daher immer wieder vor
dem hohen Missbrauchspotenzial dieser Fakevideos. EU-Justizkommissarin Věra
Jourová wies im Zuge der EU-Wahl auf Gefahren von manipulierten Videos mit
Politiker*innen hin. Können wir also bald unseren eigenen Augen und Ohren
nicht mehr trauen, wenn es darum geht, was real und was Fake ist?
Im Europawahlkampf haben gefälschte Videos zwar keine große Rolle gespielt.
Das aktuelle Trump-Video allerdings ist nicht das erste Video, in dem
Politiker*innen Sachen von sich geben, die sie – zumindest in der
Öffentlichkeit – nie geäußert haben.
Vergangenen Monat ging ein Video der Sprecherin des US-Repräsentantenhauses
Nancy Pelosi viral, in dem sie scheinbar betrunken bei einer Veranstaltung
spricht. Doch Pelosi war nicht betrunken, stattdessen hatte jemand die
Abspielgeschwindigkeit des Videos reduziert und die Tonhöhe angepasst. Ein
Eingriff, der mit jedem gewöhnlichen Computer sehr einfach möglich ist.
## „Präsident Trump ist ein totaler und kompletter Idiot“
Bei einem zweiten Beispiel war schon etwas mehr Aufwand nötig: Ein Mann,
der aussieht wie Barack Obama und spricht wie Barack Obama, sitzt in einem
Büro, hinter ihm die US-amerikanische Flagge, und sagt: „Präsident Trump
ist ein totaler und kompletter Idiot.“
Die Stimme gehört allerdings nicht wirklich Obama, sondern dem Schauspieler
Jordan Peele. Mithilfe der FakeApp, die frei im Internet verfügbar ist, hat
Buzzfeed im Jahr 2018 das Video erstellt, dabei wurde die Mundpartie Peeles
über die von Obama gelegt. Laut Buzzfeed hat die Produktion 56 Stunden in
Anspruch genommen.
Trotz dieser Beispiele bewertet der Medienanalyst Alexander Sängerlaub, der
sich in der Stiftung Neue Verantwortung mit Desinformationen beschäftigt,
die Lage als nicht sonderlich dramatisch: „Obwohl Deepfakes technisch immer
besser werden, glaube ich noch lange nicht, dass unsere Art und Weise, wie
wir die Realität verstehen und sehen, zusammenbricht.“ Momentan sei vor
allem der zeitliche und technische Aufwand noch zu groß. Da eine hohe
Rechenleistung erforderlich sei, dauere es zwischen 12 und 72 Stunden, um
ein wenige Sekunden langes Video zu erstellen.
Als Beispiel für seine eher entspannte Haltung gegenüber Deepfakes führt
Sängerlaub das Beispiel des Fotojournalismus an. Heutzutage könne jeder mit
dem Bildbearbeitungsprogramm Photoshop Bilder verändern. Trotzdem komme es
nur selten vor, dass man es in der Berichterstattung mit gefakten Bildern
zu tun habe. „Zudem werden Deepfakes bisher vor allem zu
Unterhaltungszwecken genutzt: derzeit vor allem in der Pornoindustrie.“
## Die Pornos mit Emma Watson
Vor zwei Jahren begann ein anonymer Reddit-Nutzer Pornovideos ins Internet
zu stellen, in denen er die Köpfe von Schauspielerinnen wie Scarlett
Johansson oder Emma Watson auf die Körper von Pornodarstellerinnen
montierte. Andere Nutzer*innen griffen sein Verfahren auf und
perfektionierten die Videos, sodass mit bloßem Auge nicht mehr erkennbar
war, dass es sich um eine Fälschung handelte. Für die Betroffenen kann das
zwar gravierende Folgen haben, eine politische Gefahr ist es jedoch nicht.
Harmloser geht es beim „Face-Swap“ zu, verfügbar als eigene App oder als
Funktion bei der vor allem bei jungen Leuten beliebten App Snapchat.
Mithilfe von Algorithmen können die Nutzer*innen dort in Videos leicht
Gesichter austauschen. So ist es beispielsweise möglich, dass man selbst
auf Beyoncés Körper sitzt und zu ihrem Lied „Single Ladies“ tanzt.
Was hier spaßig angewandt wird, kann in einer technisch optimierten Form
jedoch auch als potenzielles Desinformationswerkzeug genutzt werden. Wenn
es um die Verbreitung von Deepfakes geht, tragen soziale Medien eine
Verantwortung. So sind sowohl das Pelosi-Video bei Facebook als auch die
„Spectre“-Videos bei Instagram noch online, obwohl es zahlreiche
internationale Berichterstattungen über die Fakes gab.
Ein Pressesprecher von Instagram sagte auf Anfrage der taz: „Wir behandeln
diese Inhalte so, wie wir alle Fehlinformationen auf Instagram behandeln.
Wenn Faktenprüfer von Drittanbietern Inhalte als falsch markieren, dann
filtern wir sie aus Instagrams Empfehlungsseiten wie Explore oder
Hashtag-Seiten heraus.“ Sie werden dann zwar nicht mehr prominent
angezeigt, aber auch nicht offline genommen. Dieses Verfahren hat bereits
mehrfach zu kontroversen Diskussionen geführt.
## Zu späte Faktenchecks
Denn einerseits verschaffen die Plattformen Desinformation damit
Reichweite. Doch wenn Facebook & Co. anfangen würden, vermeintliche
Fakevideos zu löschen, hätten sie die Entscheidungsmacht, was real und was
Fake ist. Sängerlaub ist der Meinung, dass man dies im Einzelfall
entscheiden müsste. Im Fall von Pelosi wurde bei Facebook ein Faktencheck
unter das Video gepostet, in dem erklärt wurde, dass das Video verlangsamt
wurde.
„Wenn jemand Desinformation produziert und ein paar Tage später ein
Faktencheck dazu erscheint, ist das Video längst um die Welt gegangenen.
Doch das lässt sich heute nicht mehr rückgängig machen, dass Dinge
erstveröffentlicht und erst im Nachhinein verifiziert werden“, sagt
Sängerlaub.
Wenn das Löschen der Videos Gefahren birgt und Faktenchecks meist zu spät
kommen: Was kann im Umgang mit Deepfakes helfen? Sängerlaub plädiert in
erster Linie dafür, die Medienkompetenz der Nutzer*innen zu fördern. Man
müsse Deepfakes erklären und die Nutzer*innen dazu zubringen, Videos zu
hinterfragen. Also: Welchen Quellen kann ich vertrauen? Gibt es das Video
noch an anderer Stelle? Wie schätzen journalistische Medien es ein?
Deepfakes werden uns in Zukunft vermutlich häufiger begegnen. „Ich glaube,
wenn Deepfakes immer weiter professionalisiert werden, sind auch die
Nutzer*innen so weit mit der Technologie vertraut, dass sie einen Umgang
damit finden“, sagt Sängerlaub. Doch nicht nur Nutzer*innen müssen geschult
werden, sondern auch digitale Medien.
## Deep Learning
Viele Forscher*innen, einschließlich der Gesellschaft für Informatik,
plädieren generell für ein digitales Wasserzeichen, das Medien nutzen
könnten. Somit könnte die Echtheit von Datenmaterial geklärt werden. Das
Wasserzeichen müsste dabei mit dem Material verwoben werden, so dass es
unmöglich sei, es zu entfernen, ohne das Datenmaterial zu beschädigen.
Der Informatiker Matthias Nießner der Technischen Universität München hat
gemeinsam mit anderen Forscher*innen eine Datensammlung namens
FaceForensics angelegt, worin sich eine Vielzahl gefälschter Videos und
Hunderttausende Bilder finden. Daraufhin wurde ein Deep Learning System
trainiert, das nun Unterschiede zwischen Originalen und Fälschungen
erkennen soll.
Obwohl Deepfakes bisher nicht gegen die Richtlinien von Instagram
verstoßen, könnte zumindest das Video von Mark Zuckerberg bald
verschwinden. Der Nachrichtensender CBS forderte Facebook auf, das Video
offline zu nehmen, da sein Logo ohne Genehmigung benutzt worden sei.
19 Jun 2019
## LINKS
[1] /Datenschutz-bei-Facebook/!5591986
[2] /Deepfakes--gefaelschte-Videos/!5497121
## AUTOREN
Carolina Schwarz
## TAGS
Instagram
Fake News
Mark Zuckerberg
Nancy Pelosi
Kim Kardashian
Barack Obama
Hollywood
Schwerpunkt Meta
Netzpolitik
Fake News
## ARTIKEL ZUM THEMA
Digitale Wiederauferstehung: Wollt Ihr den totalen Dean?
Der tote Schauspieler James Dean soll dank Computertechnik eine Rolle in
einem Vietnamfilm übernehmen. Eine gute Idee?
Datenschutz bei Facebook: Zuckerberg macht auf Privatsphäre
Facebook will seinen schlechten Ruf beim Datenschutz aufpäppeln und
Nachrichten zukünftig verschlüsseln. An der Datensammelei ändert das
nichts.
Neuer Podcast „Filterbabbel“: Nerd-Themen für alle
Filterbabbel ist ein Podcast über digitale Öffentlichkeit, gemacht von zwei
Frauen und gleichermaßen gedacht für Netz-Neulinge und Spezialist*innen.
„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.