Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz im Wahlkampf: Wenn Robo-Scholz anruft
> Pünktlich zum Super-Wahljahr 2024 ist das Zeitalter der KI angebrochen.
> Die taz hat sich umgehört, was das für die Wahlen bedeutet.
Bild: Hier telefoniert noch das Original: Kanzler Olaf Scholz am Hörer
Berlin taz | Ein [1][Anruf von Joe Biden], der Wähler*innen vom Wählen
abhalten will. Ein neues Lied eines bereits verstorbenen indischen
Musikers, das den indischen Präsidenten Narendra Modi preist. Eine Kampagne
von mindestens 64 Accounts auf der Plattform X, die russische Propaganda
verbreiten. All diese Beispiele haben eins gemeinsam: Sie sind
wahrscheinlich mit Hilfe von generativer künstlicher Intelligenz (KI)
entstanden.
Welche Rolle wird KI im deutschen Super-Wahljahr 2024 spielen? Es stehen
vier hierzulande bedeutsame Wahlen an: Europa, [2][Sachsen, Brandenburg und
Thüringen]. Grundsätzliches steht zur Debatte. Ist die Demokratie den
Angriffen vom rechten Rand gewachsen? Verlieren CDU, SPD, Grüne, Linke und
FDP – die Parteien der stabileren Zeiten – dermaßen an Stimmen, dass ohne
AfD oder Bündnis Sahra Wagenknecht kaum zu regieren ist? Hält die
Brandmauer gegen rechts?
Zudem hat Russland ein Interesse, mitzumischen. Deutschland stehe im
Mittelpunkt russischer Einflussoperationen, warnte kürzlich das
parlamentarische Kontrollgremium. Dessen Vorsitzender Konstantin von Notz
(Grüne) sagte im taz-Interview: „Es wird immer offensichtlicher, dass
Russland massiv Einfluss nimmt.“ Man werde das auch bei den Europa- und
Landtagswahlen erleben. In diese Gemengelage stößt nun KI.
## Experiment aus Stanford
Eine Gruppe Wissenschaftler*innen der Universitäten Georgetown und
Stanford hat in einem Experiment untersucht, wie überzeugend KI-Propaganda
ist. Die Ergebnisse: Desinformation, die der KI-Chatbot GPT-3 formuliert
hatte, war fast so überzeugend wie menschliche Desinformation. Nach dem
Lesen stimmten etwa 47 Prozent der Untersuchten der menschlichen
Desinformation zu und 43,5 Prozent der KI-gemachten. Auch wenn die
menschengemachte Desinformation etwas effektiver ist, schließen die
Forscher*innen daraus: „Propagandist*innen könnten GPT-3 dazu nutzen,
überzeugende Artikel mit minimalem menschlichen Aufwand zu generieren.“
GPT-3 ist zudem mittlerweile ein veraltetes Modell.
„Desinformation ist jetzt schon einfach zu fabrizieren, aber KI kann sie
verstärken“, sagt Edda Humprecht. Die 39-Jährige ist Professorin für
digitale Kommunikation und Öffentlichkeit an der Universität Jena. „Wut ist
die treibendste Emotion in den sozialen Medien“, sagt Humprecht. KI könne
helfen, Inhalten mehr Aufmerksamkeit zu bringen, durch schnell erstellte
Bilder etwa, die Emotionen schüren. Zur Täuschung taugen sie laut Humprecht
derzeit weniger: „KI-Videos und Texte können aktuell relativ leicht
entlarvt werden. Aber eingebettet in größere Erzählungen wird es
schwieriger“, sagt die Wissenschaftlerin. „Und hinter diesen Erzählungen
stehen Menschen und sie werden von Menschen weiterverbreitet.“
Themen, die laut der Wissenschaftlerin dabei besonders angreifbar sind:
Migration, Klima, Pandemie, Gender und Sexualität sowie lokal spezifische
Aufreger. „Oft sind Minderheiten oder Frauen im Fokus von Desinformation“,
sagt Humprecht.
## Die AfD nutzt KI
So setzen auch Teile der AfD schon KI ein. Der Bundestagsabgeordnete
Norbert Kleinwächter etwa fiel mit einem KI-generierten Bild auf, das gegen
Geflüchtete Stimmung macht. Ein weiteres Bild zeigt Gesundheitsminister
Karl Lauterbach (SPD) mit Zombie-Gesicht.
„Die sozialen Medien springen auf Sensationalisierung an, darauf kann man
KI gut programmieren“, sagt Edda Humprecht. Dafür müssten die KI-Inhalte
nicht mal sonderlich gut sein. „Es geht nicht um perfekte Täuschung,
sondern darum, Ideologien zu verstärken.“ So könne man Wahlen zwar nicht
entscheiden. Aber man kann Menschen radikalisieren oder apathischer machen
und so etwa zu Polarisierung beitragen oder die Wahlbeteiligung
beeinflussen.
„KI kann vor allem Unterstützer bestimmter Parteien oder Ideologien
ansprechen“, sagt auch Andreas Jungherr. Der 42-Jährige ist
Politikwissenschaftler an der Universität Bamberg und untersucht die
Auswirkungen von Digitalisierung auf Politik und Gesellschaft.
Jungherr befürchtet, dass vor allem die Parteien der politischen Ränder
sich auf die Technologie stürzen. Ähnlich wie bei Tiktok könnten sie sich
hier einen Vorteil verschaffen. „Die politischen Ränder brauchen
Innovation, weil sie für ihr Überleben davon abhängen, möglichst günstig
viel zu erreichen“, sagt Jungherr. Und: „Akteure der Ränder sind
experimentier- und risikofreudiger. Sie haben weniger Angst vor negativer
Berichterstattung, da Kontroversen ihnen Sichtbarkeit bringen.“
## Chancen auf lokaler Ebene
Die etablierten Parteien sollten sich dennoch mit der Technik
auseinandersetzen, rät Jungherr: „Wenn Parteien besser darin werden,
Menschen zu aktivieren, dann haben wir alle etwas davon.“ Der
Wissenschaftler sieht vor allem auf lokaler Ebene Chancen: „Mit generativer
KI können kleine Verbände Inhalte erstellen, für die sie früher eine
Agentur gebraucht hätten.“ Das könne die politische Kommunikation
verbessern. In Agenturen, die für Parteien Kampagnen entwickeln, sei der
Einsatz von KI schon Alltag. Jungherr sagt: „Auch die etablierten Parteien
sollten ein Verständnis für die Technik erlangen und das nicht Agenturen
oder den Rändern überlassen.“
Vom Verzicht auf KI im Wahlkampf hält er daher wenig. Jungherr rät dazu,
KI-Inhalte eindeutig zu kennzeichnen, wenn möglich mit digitalen
Wasserzeichen. „Das macht es zumindest schwieriger, Inhalte zu kopieren
oder zu fälschen.“
Wie also werden die Parteien KI einsetzen? Die mit Digitalisierung in den
vergangenen Wahlkampf gezogene FDP antwortet auf Anfrage wenig
überraschend: Man werde die Chancen, die KI bietet, für die eigene
Kommunikation nutzen. „Künstliche Intelligenz bietet Parteien insbesondere
im Bereich der generierenden KI viele Chancen für bürgernahe politische
Kommunikation“, schreibt ein Sprecher. Gleichzeitig müssten Risiken wie
Fake News entschieden bekämpft werden. Man verpflichte sich zu „absoluter
Transparenz“.
## Nutzung von KI im Wahlkampf
Die CDU hat noch keine Entscheidung getroffen, in welchem Umfang sie KI in
Wahlkämpfen nutzen wird, erfährt die taz auf Anfrage. „Wenn wir KI
anwenden, würden wir dies kennzeichnen“, schreibt eine Sprecherin. Man sei
offen für Initiativen und diskutiere Handlungsoptionen mit Partnern. Auch
die SPD hat noch nicht über KI-Nutzung im Wahlkampf entschieden, hält aber
eine Kennzeichnung für erforderlich. „Absehbar“ würden auch eigene
Richtlinien erarbeitet.
Auch BSW gibt an, noch nicht über den Einsatz entschieden zu haben. Die
Grünen haben nach Angaben einer Sprecherin bereits Richtlinien im Umgang
mit KI. Öffentlich machen wollen sie diese jedoch derzeit nicht. Etwas
konkreter wird die Sprecherin aber: „Wir kennzeichnen KI-generierte Inhalte
transparent und verzichten auf die Verwendung von KI zur Nachahmung von
Stimmen oder physischem Erscheinungsbild einer Person – außer wenn die
Person ihre ausdrückliche Zustimmung dazu gegeben hat.“ AfD und Linke haben
auf taz-Anfragen nicht geantwortet.
Wie bereitet man eine Gesellschaft auf Wahlen im KI-Zeitalter vor? Angela
Müller hat Ideen. Müller ist Head of Policy and Advocacy bei der
gemeinnützigen Organisation Algorithm Watch. „Man darf die Verantwortung
nicht auf Einzelne abwälzen“, sagt Müller. Stattdessen müsse man die
Anbieter in die Pflicht nehmen. „Es braucht Regeln – nationale und
internationale.“ KI-Unternehmen müssten verpflichtet werden, ihre Produkte
umfangreicher auf Risiken zu testen, bevor sie sie auf den Markt bringen,
und Rechenschaft über diese Tests ablegen. Zudem sieht sie die
Social-Media-Plattformen in der Verantwortung. „Einzelpersonen können
nichts viral gehen lassen. Da kommen dann die Algorithmen der
Social-Media-Plattformen ins Spiel“, sagt Müller.
## Meta, Tiktok, Google
Die großen Tech-Konzerne von Meta, Tiktok und Google bis OpenAI versprechen
im AI Elections Accord, gemeinsamgegen KI-Desinformation vorzugehen. Auf
eine Nachfrage, wie das konkret bei den Landtags- oder Europawahlen
aussehen könnte, kam auf Nachfrage keine Antwort. Dass die Konzerne große
Aufmerksamkeit auf Landtagswahlen legen, hält Angela Müller zumindest für
fraglich.
Sowohl Müller als auch Jungherr und Humprecht sehen aktuell das größte
Potenzial für glaubwürdige Fakes in KI-Stimmgeneratoren. So sind vor der
slowakischen Präsidentschaftswahl gefälschte Tonaufnahmen einer
Journalistin und eines prowestlichen Politikers aufgetaucht. Joe Bidens
Robo-Calls gingen um die Welt. „Diese Modelle laden dazu ein, sie für
Missbrauch und Negativkampagnen zu nutzen“, sagt Angela Müller.
Störgeräusche während Anrufen oder auf Tonaufnahmen sind normal und den
Hörenden fehlen andere Sinne, um die Echtheit zu überprüfen. Das macht
Tonaufnahmen besonders anfällig für Fakes. „Das größte Risiko dafür sehe
ich im Lokalen, wo wenige Medien und Expert*innen hinschauen, die Fakes
entlarven könnten“, sagt Andreas Jungherr – wie gemacht also für
Landtagswahlen.
## Inhalte prüfen
Ist grundsätzliches Misstrauen gegenüber digitalen Inhalten also die
Zukunft des Diskurses? Zumindest wird es in Zukunft wohl wichtiger, Inhalte
über viele Faktoren zu prüfen. Neben Fakes droht darüber hinaus noch eine
Kehrseite: Die Ausrede, dass echte Aufnahmen nur KI-Fakes seien. Aktuell
steht der AfD-Abgeordnete Petr Bystron im Verdacht, Geld von einem
prorussischen Netzwerk bekommen zu haben. Tschechische Geheimdienste sollen
Tonaufnahmen dazu besitzen. Gut möglich, dass Menschen wie Bystron in
Zukunft versuchen werden, sich mit dem Verweis „Ist doch nur ein KI-Fake“
aus der Affäre ziehen könnten.
„Wir brauchen KI-Modelle, die transparent für Medien und Zivilgesellschaft
überprüfbar sind und nicht in erster Linie kommerziellen Interessen
dienen“, fordert Angela Müller. Demokratische Meinungsbildung dürfe sich
nicht Profit unterordnen. „KI wird nicht die Demokratie zerstören“, sagt
sie. „Wenn wir die Demokratie kaputtgehen lassen, tragen wir schon selbst
die Verantwortung dafür.“
22 Apr 2024
## LINKS
[1] https://www.tagesschau.de/ausland/amerika/wahlen-wahlbeeinflussung-ki-100.h…
[2] /Wahlen-in-Ostdeutschland-2024/!t5993946
## AUTOREN
Moritz Müllender
## TAGS
Schwerpunkt Künstliche Intelligenz
Wahlkampf
Parteien
GNS
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Landtagswahl Thüringen
Kolumne Der rote Faden
Wahlmanipulation
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Berliner Verwaltung und KI: Bloß nicht halluzinieren
Der im vergangenen Jahr abgeschaltete Berliner Verwaltungs-Chatbot Bobbi
soll wiederauferstehen. Das Nachfolgeprojekt könnte aber am Geld scheitern.
Verfassungsblog gegen die AfD: Höhere Hürden für Höcke
Das „Thüringen-Projekt“ vom Verfassungsblog macht Vorschläge zur Stärkung
von Demokratie. Warum die AfD es damit schwerer haben wird.
Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche
Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der
Bundeskanzler ist jetzt auf TikTok.
Voice Engine von OpenAI weckt Ängste: Künstlich Stimmen imitieren
OpenAI stellt ein neues Programm vor: Mit Voice Engine lassen sich Stimmen
imitieren. Im Superwahljahr verstärkt das Ängste vor Manipulation.
Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher
Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft
rechtliche und ethische Probleme hervor.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.