# taz.de -- Manipulation von Lippenbewegungen: Obama sagt, was du willst | |
> US-Forscher haben eine Software entwickelt, um Lippenbewegungen in Videos | |
> zu fälschen. Oder um diese Fälschungen zu entlarven. | |
Bild: Über das Setzen von Vektorpunkten lassen sich Lippenbewegungen verändern | |
Künstliche Intelligenz, liebevoll KI abgekürzt, ist das Baby der | |
Wissenschaft. Jeden Tag lernt es etwas Neues und die Mamis und Papis kippen | |
um vor Stolz. Wenn der kleine Racker sein Wissen nur mal nicht anders | |
anwendet, als sie es gerne hätten. | |
Die University of Washington hat gerade ein Projekt veröffentlicht mit dem | |
Namen [1][„Synthesizing Obama: Learning Lip Sync from Audio“]. Eine neue | |
Software, mit der man Videos mithilfe von Audiodateien verändern kann. | |
Die Wissenschaftler zeigen an einem Video des ehemaligen US-Präsidenten | |
Barack Obama, wie die neue Software funktioniert: Anstatt der tatsächlich | |
von ihm gehaltenen Rede werden Obama Worte in den Mund gelegt, die er zu | |
einem anderen Zeitpunkt gesagt hat. | |
Dazu fütterte das Team die Software mit vierzehn Stunden Audiomaterial von | |
Obamas Stimme. Diese Daten werden anschließend in eine virtuelle Simulation | |
von Lippen eingefügt. Vektorpunkte bilden eine virtuelle Simulation von | |
Obamas Lippen und bewegen sich wie die des Vorbildes. In der nächsten Phase | |
nehmen die Lippen menschliche Gestalt an: Aus den giftgrünen Punkten wird | |
ein hautfarbener Mund. Nach ein paar Nachbesserungen von Zähnen und | |
weiteren Details wird der so gefälschte untere Gesichtsteil in ein ganz | |
anderes Video von Obama eingefügt. Die Computeranimateure passen dann noch | |
schnell die Kopfbewegungen an das Gesagte an, damit der neu-alte Obama | |
keine unnatürlichen Bewegungen macht. Et voilà! Fertig ist das Obama-Video | |
mit einer ganz neuen Botschaft. | |
## Der Unterschied ist kaum erkennbar | |
Das Bahnbrechende an dieser Technik ist: Die Qualität des Ursprungsvideos | |
kann sehr schlecht sein, das Video gar aus einer ganz anderen Zeit stammen | |
– und die Person nicht mal im Bild gewesen sein. Denn der | |
Bearbeitungsprozess benötigt nur Audiodateien. | |
Forscher der Stanford University haben bereits 2016 ein ähnliches Projekt | |
namens „Face2Face“ vorgestellt. Anders als bei der University of Washington | |
stützten sie sich jedoch auf ein Gesichtserkennungsprogramm. Das Ergebnis | |
ist auch hier verblüffend: Der Nutzer wird mit einer Kamera gefilmt und | |
seine Gesichtsbewegungen werden in Echtzeit auf das Gesicht projiziert. | |
Allerdings ist das Ergebnis aus Stanford noch nicht so akkurat und somit | |
leichter als Fälschung identifizierbar. Bei den Ergebnissen aus Washington | |
hingegen ist es für den Laien kaum mehr möglich, den Unterschied zu einem | |
authentischen Video zu erkennen. | |
Das Projekt fasziniert und beängstigt gleichermaßen. Was mit der heutigen | |
Technik alles möglich ist, vor allem bei dem harmlosen Beispiel: Obama sagt | |
etwas, was er zu einem anderen Zeitpunkt schon einmal gesagt hat. Es sind | |
immer noch Aussagen von Obama selbst. | |
## Wirkungsvolle Babysitter programmieren | |
Allerdings gibt es auch ein Projekt vom Forschungsteam der University of | |
Alabama in Birmingham, das sich mit der Imitation von Stimmen beschäftigt. | |
Hier reichen bereits drei bis fünf Minuten Audiomaterial aus, um eine | |
synthetische Stimme zu erschaffen, die sowohl Menschen als auch | |
biometrische Stimmerkennungssicherheitssysteme täuschen kann. | |
Kombiniert man nun das Verfahren der Universität Washington, wo die | |
Videomanipulation nur noch Audiodateien benötigt, mit den Ergebnissen aus | |
Birmingham: Horrorkopfkino. | |
Ira Kemelmacher-Shlizerman aus dem Forschungsteam an der University of | |
Washington ist sich dessen bewusst. CNN sagte sie: „Es ist wichtig zu | |
wissen, dass Videos genau wie Fotos verändert werden können.“ | |
Das war laut der Forscherin auch ein Grund dafür, die Ergebnisse zu | |
veröffentlichen: damit entsprechend auch Algorithmen entwickelt werden | |
können, die bearbeitete Videos identifizieren. | |
Fakt ist: Dass die KI-Babys groß werden und beunruhigende Fähigkeiten | |
entwickeln, ist nicht zu verhindern. Jetzt ist es an der Zeit, ihnen | |
wirkungsvolle Babysitter zu programmieren. | |
28 Jul 2017 | |
## LINKS | |
[1] https://www.youtube.com/watch?v=MVBe6_o4cMI | |
## AUTOREN | |
Pola Kapuste | |
## TAGS | |
Software | |
Manipulation | |
Barack Obama | |
Schach | |
Studie | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz und Schach: Erschreckend klug | |
Alpha Zero hat in nur vier Stunden Schach erlernt. Gegen die künstliche | |
Intelligenz haben weder Menschen noch Schachprogramme die leiseste Chance. | |
Studie zu künstlicher Intelligenz: Bist du schwul oder was? | |
Eine Studie sagt, ein Computer könne die sexuelle Orientierung eines | |
Menschen an seinem Gesicht erkennen. Ist das wirklich so einfach? | |
Geschlecht von Künstlichen Intelligenzen: Siri, ficken? | |
Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich | |
weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen aus. |