Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz als Fotogenerator: Falsche Gesichter
> Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht
> gibt. Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und
> Bots.
Bild: Sie schauen Euch zwar an – aber sie gibt's in Wirklichkeit gar nicht
Dass sich Fotos von Personen dank Software extrem verändern lassen, ist
nicht neu. Und auch nicht, dass Programme Figuren nach menschlichem Vorbild
generieren können. Doch was künstliche Intelligenz in Sachen Fälschung –
und Täuschung – schon alles kann, da zeigt jetzt die Website
[1][thispersondoesnotexist.com] (deutsch: Diese Person existiert nicht).
Mit jeder Aktualisierung erstellt die Website ein neues Portraitfoto einer
Person, das so in jedem Facebook-Account erscheinen könnte. Manchmal sehen
die Bilder aus wie Urlaubsfotos, auf denen am Rand noch die Schulter eines
herausgeschnittenen Menschen zu sehen ist. Andere Bilder wirken wie
Bewerbungsfotos, die Menschen in formeller Kleidung vor neutralem
Hintergrund zeigen. Nur: Die Menschen auf den Fotos gibt es nicht. Sie
wurden mithilfe von künstlicher Intelligenz erstellt.
## Fälschungen aus echten Gesichtern
Der Vorgang, der hinter dem zufälligen Fake-Face-Generator steckt, macht
sich das Prinzip sogenannter Generative Adversarial Networks (GAN) zunutze,
das schon hinter den „Deepfakes“, also dem [2][Skandal um
Bewegtbildmanipulation], steckte. Im Frühjahr 2018 wurde die Öffentlichkeit
auf diese Form der Fälschung aufmerksam, als Buzzfeed ein gefälschtes Video
vom damaligen US-Präsidenten Barack Obama veröffentlichte und
Internetnutzer*innen die Gesichter von Schauspieler*innen in Pornos hinein
montierten.
Die Website mit den falschen Gesichtern erinnert nun daran, dass von
Fälschungen nicht nur Prominente betroffen sein können. Auf Grundlage der
GAN-Technologie greift ein Algorithmus zunächst auf ein riesiges Datenset
von Fotos echter Menschen zu. Verschiedene Merkmale der Bilder werden
durchmischt und so zu einem neuen Gesicht zusammengefügt. Im nächsten
Schritt prüft ein anderer Algorithmus, ob das Bild echt oder gefälscht ist.
Wenn der Computer die Täuschung erkennt, geht das Foto wieder zurück zum
ersten Schritt – um es noch besser zu machen.
Urheber der Website ist Philip Wang, der als Software-Ingenieur beim
Shuttle-Dienst Uber arbeitet. „Den meisten Menschen ist nicht klar, wie gut
künstliche Intelligenz künftig Bilder miteinander verschmelzen können
wird“, sagte [3][Wang gegenüber Motherboard] in der vergangenen Woche.
Kritiker*innen sind durch die Technik hinter dem zufälligen Fotogenerator
alarmiert. Das Problem bleibt seit Jahren dasselbe: Die Technik entwickelt
sich schneller, als die Gesellschaft mit Regularien und Medienkompetenz
folgen kann. Die zunehmend gute Qualität der Bilder macht es nur noch
schwerer, Fake-Profile und Bots von echten Accounts zu unterscheiden – und
in der Konsequenz die Glaubwürdigkeit von Inhalten im Netz zu
gewährleisten.
19 Feb 2019
## LINKS
[1] https://thispersondoesnotexist.com/
[2] /Deepfakes--gefaelschte-Videos/!5497121
[3] https://motherboard.vice.com/en_us/article/7xn4wy/this-website-uses-ai-to-g…
## AUTOREN
Lin Hierse
## TAGS
Manipulation
Netzsicherheit
Schwerpunkt Künstliche Intelligenz
Gesellschaftskritik
Twitter / X
Fake News
Schwerpunkt Angela Merkel
## ARTIKEL ZUM THEMA
Wie KI Sexismus produziert: Die Frau ist immer unter 35
Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
Kritik nach Video einer Touristin: Kolonialist*innen am Hotel-Pool
In fremden Ländern fremde Sitten kritisieren? Der etwas cholerische
Tierrechtseinsatz einer britischen Touristin in Marokko sorgt für
Aufregung.
Midterms in den USA: Twitter löscht Fake-Accounts
Vor den Wahlen in der kommenden Woche hat Twitter 10.000 Profile gelöscht.
Diese hätten ausgegeben, von Demokraten zu sein und zum Wahlboykott
aufgefordert.
„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
Manipulation von Fotografien: Merkel schwitzt!
Fotografien gelten als verlässliche Quellen. Aber gefälschte Fotos sind
nicht leicht zu erkennen. Es gibt Tricks, um Fakes zu erkennen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.