# taz.de -- Künstliche Intelligenz im Wahlkampf: Wenn Robo-Scholz anruft | |
> Pünktlich zum Super-Wahljahr 2024 ist das Zeitalter der KI angebrochen. | |
> Die taz hat sich umgehört, was das für die Wahlen bedeutet. | |
Bild: Hier telefoniert noch das Original: Kanzler Olaf Scholz am Hörer | |
BERLIN taz | Ein [1][Anruf von Joe Biden], der Wähler*innen vom Wählen | |
abhalten will. Ein neues Lied eines bereits verstorbenen indischen | |
Musikers, das den indischen Präsidenten Narendra Modi preist. Eine Kampagne | |
von mindestens 64 Accounts auf der Plattform X, die russische Propaganda | |
verbreiten. All diese Beispiele haben eins gemeinsam: Sie sind | |
wahrscheinlich mit Hilfe von generativer künstlicher Intelligenz (KI) | |
entstanden. | |
Welche Rolle wird KI im deutschen Super-Wahljahr 2024 spielen? Es stehen | |
vier hierzulande bedeutsame Wahlen an: Europa, [2][Sachsen, Brandenburg und | |
Thüringen]. Grundsätzliches steht zur Debatte. Ist die Demokratie den | |
Angriffen vom rechten Rand gewachsen? Verlieren CDU, SPD, Grüne, Linke und | |
FDP – die Parteien der stabileren Zeiten – dermaßen an Stimmen, dass ohne | |
AfD oder Bündnis Sahra Wagenknecht kaum zu regieren ist? Hält die | |
Brandmauer gegen rechts? | |
Zudem hat Russland ein Interesse, mitzumischen. Deutschland stehe im | |
Mittelpunkt russischer Einflussoperationen, warnte kürzlich das | |
parlamentarische Kontrollgremium. Dessen Vorsitzender Konstantin von Notz | |
(Grüne) sagte im taz-Interview: „Es wird immer offensichtlicher, dass | |
Russland massiv Einfluss nimmt.“ Man werde das auch bei den Europa- und | |
Landtagswahlen erleben. In diese Gemengelage stößt nun KI. | |
## Experiment aus Stanford | |
Eine Gruppe Wissenschaftler*innen der Universitäten Georgetown und | |
Stanford hat in einem Experiment untersucht, wie überzeugend KI-Propaganda | |
ist. Die Ergebnisse: Desinformation, die der KI-Chatbot GPT-3 formuliert | |
hatte, war fast so überzeugend wie menschliche Desinformation. Nach dem | |
Lesen stimmten etwa 47 Prozent der Untersuchten der menschlichen | |
Desinformation zu und 43,5 Prozent der KI-gemachten. Auch wenn die | |
menschengemachte Desinformation etwas effektiver ist, schließen die | |
Forscher*innen daraus: „Propagandist*innen könnten GPT-3 dazu nutzen, | |
überzeugende Artikel mit minimalem menschlichen Aufwand zu generieren.“ | |
GPT-3 ist zudem mittlerweile ein veraltetes Modell. | |
„Desinformation ist jetzt schon einfach zu fabrizieren, aber KI kann sie | |
verstärken“, sagt Edda Humprecht. Die 39-Jährige ist Professorin für | |
digitale Kommunikation und Öffentlichkeit an der Universität Jena. „Wut ist | |
die treibendste Emotion in den sozialen Medien“, sagt Humprecht. KI könne | |
helfen, Inhalten mehr Aufmerksamkeit zu bringen, durch schnell erstellte | |
Bilder etwa, die Emotionen schüren. Zur Täuschung taugen sie laut Humprecht | |
derzeit weniger: „KI-Videos und Texte können aktuell relativ leicht | |
entlarvt werden. Aber eingebettet in größere Erzählungen wird es | |
schwieriger“, sagt die Wissenschaftlerin. „Und hinter diesen Erzählungen | |
stehen Menschen und sie werden von Menschen weiterverbreitet.“ | |
Themen, die laut der Wissenschaftlerin dabei besonders angreifbar sind: | |
Migration, Klima, Pandemie, Gender und Sexualität sowie lokal spezifische | |
Aufreger. „Oft sind Minderheiten oder Frauen im Fokus von Desinformation“, | |
sagt Humprecht. | |
## Die AfD nutzt KI | |
So setzen auch Teile der AfD schon KI ein. Der Bundestagsabgeordnete | |
Norbert Kleinwächter etwa fiel mit einem KI-generierten Bild auf, das gegen | |
Geflüchtete Stimmung macht. Ein weiteres Bild zeigt Gesundheitsminister | |
Karl Lauterbach (SPD) mit Zombie-Gesicht. | |
„Die sozialen Medien springen auf Sensationalisierung an, darauf kann man | |
KI gut programmieren“, sagt Edda Humprecht. Dafür müssten die KI-Inhalte | |
nicht mal sonderlich gut sein. „Es geht nicht um perfekte Täuschung, | |
sondern darum, Ideologien zu verstärken.“ So könne man Wahlen zwar nicht | |
entscheiden. Aber man kann Menschen radikalisieren oder apathischer machen | |
und so etwa zu Polarisierung beitragen oder die Wahlbeteiligung | |
beeinflussen. | |
„KI kann vor allem Unterstützer bestimmter Parteien oder Ideologien | |
ansprechen“, sagt auch Andreas Jungherr. Der 42-Jährige ist | |
Politikwissenschaftler an der Universität Bamberg und untersucht die | |
Auswirkungen von Digitalisierung auf Politik und Gesellschaft. | |
Jungherr befürchtet, dass vor allem die Parteien der politischen Ränder | |
sich auf die Technologie stürzen. Ähnlich wie bei Tiktok könnten sie sich | |
hier einen Vorteil verschaffen. „Die politischen Ränder brauchen | |
Innovation, weil sie für ihr Überleben davon abhängen, möglichst günstig | |
viel zu erreichen“, sagt Jungherr. Und: „Akteure der Ränder sind | |
experimentier- und risikofreudiger. Sie haben weniger Angst vor negativer | |
Berichterstattung, da Kontroversen ihnen Sichtbarkeit bringen.“ | |
## Chancen auf lokaler Ebene | |
Die etablierten Parteien sollten sich dennoch mit der Technik | |
auseinandersetzen, rät Jungherr: „Wenn Parteien besser darin werden, | |
Menschen zu aktivieren, dann haben wir alle etwas davon.“ Der | |
Wissenschaftler sieht vor allem auf lokaler Ebene Chancen: „Mit generativer | |
KI können kleine Verbände Inhalte erstellen, für die sie früher eine | |
Agentur gebraucht hätten.“ Das könne die politische Kommunikation | |
verbessern. In Agenturen, die für Parteien Kampagnen entwickeln, sei der | |
Einsatz von KI schon Alltag. Jungherr sagt: „Auch die etablierten Parteien | |
sollten ein Verständnis für die Technik erlangen und das nicht Agenturen | |
oder den Rändern überlassen.“ | |
Vom Verzicht auf KI im Wahlkampf hält er daher wenig. Jungherr rät dazu, | |
KI-Inhalte eindeutig zu kennzeichnen, wenn möglich mit digitalen | |
Wasserzeichen. „Das macht es zumindest schwieriger, Inhalte zu kopieren | |
oder zu fälschen.“ | |
Wie also werden die Parteien KI einsetzen? Die mit Digitalisierung in den | |
vergangenen Wahlkampf gezogene FDP antwortet auf Anfrage wenig | |
überraschend: Man werde die Chancen, die KI bietet, für die eigene | |
Kommunikation nutzen. „Künstliche Intelligenz bietet Parteien insbesondere | |
im Bereich der generierenden KI viele Chancen für bürgernahe politische | |
Kommunikation“, schreibt ein Sprecher. Gleichzeitig müssten Risiken wie | |
Fake News entschieden bekämpft werden. Man verpflichte sich zu „absoluter | |
Transparenz“. | |
## Nutzung von KI im Wahlkampf | |
Die CDU hat noch keine Entscheidung getroffen, in welchem Umfang sie KI in | |
Wahlkämpfen nutzen wird, erfährt die taz auf Anfrage. „Wenn wir KI | |
anwenden, würden wir dies kennzeichnen“, schreibt eine Sprecherin. Man sei | |
offen für Initiativen und diskutiere Handlungsoptionen mit Partnern. Auch | |
die SPD hat noch nicht über KI-Nutzung im Wahlkampf entschieden, hält aber | |
eine Kennzeichnung für erforderlich. „Absehbar“ würden auch eigene | |
Richtlinien erarbeitet. | |
Auch BSW gibt an, noch nicht über den Einsatz entschieden zu haben. Die | |
Grünen haben nach Angaben einer Sprecherin bereits Richtlinien im Umgang | |
mit KI. Öffentlich machen wollen sie diese jedoch derzeit nicht. Etwas | |
konkreter wird die Sprecherin aber: „Wir kennzeichnen KI-generierte Inhalte | |
transparent und verzichten auf die Verwendung von KI zur Nachahmung von | |
Stimmen oder physischem Erscheinungsbild einer Person – außer wenn die | |
Person ihre ausdrückliche Zustimmung dazu gegeben hat.“ AfD und Linke haben | |
auf taz-Anfragen nicht geantwortet. | |
Wie bereitet man eine Gesellschaft auf Wahlen im KI-Zeitalter vor? Angela | |
Müller hat Ideen. Müller ist Head of Policy and Advocacy bei der | |
gemeinnützigen Organisation Algorithm Watch. „Man darf die Verantwortung | |
nicht auf Einzelne abwälzen“, sagt Müller. Stattdessen müsse man die | |
Anbieter in die Pflicht nehmen. „Es braucht Regeln – nationale und | |
internationale.“ KI-Unternehmen müssten verpflichtet werden, ihre Produkte | |
umfangreicher auf Risiken zu testen, bevor sie sie auf den Markt bringen, | |
und Rechenschaft über diese Tests ablegen. Zudem sieht sie die | |
Social-Media-Plattformen in der Verantwortung. „Einzelpersonen können | |
nichts viral gehen lassen. Da kommen dann die Algorithmen der | |
Social-Media-Plattformen ins Spiel“, sagt Müller. | |
## Meta, Tiktok, Google | |
Die großen Tech-Konzerne von Meta, Tiktok und Google bis OpenAI versprechen | |
im AI Elections Accord, gemeinsamgegen KI-Desinformation vorzugehen. Auf | |
eine Nachfrage, wie das konkret bei den Landtags- oder Europawahlen | |
aussehen könnte, kam auf Nachfrage keine Antwort. Dass die Konzerne große | |
Aufmerksamkeit auf Landtagswahlen legen, hält Angela Müller zumindest für | |
fraglich. | |
Sowohl Müller als auch Jungherr und Humprecht sehen aktuell das größte | |
Potenzial für glaubwürdige Fakes in KI-Stimmgeneratoren. So sind vor der | |
slowakischen Präsidentschaftswahl gefälschte Tonaufnahmen einer | |
Journalistin und eines prowestlichen Politikers aufgetaucht. Joe Bidens | |
Robo-Calls gingen um die Welt. „Diese Modelle laden dazu ein, sie für | |
Missbrauch und Negativkampagnen zu nutzen“, sagt Angela Müller. | |
Störgeräusche während Anrufen oder auf Tonaufnahmen sind normal und den | |
Hörenden fehlen andere Sinne, um die Echtheit zu überprüfen. Das macht | |
Tonaufnahmen besonders anfällig für Fakes. „Das größte Risiko dafür sehe | |
ich im Lokalen, wo wenige Medien und Expert*innen hinschauen, die Fakes | |
entlarven könnten“, sagt Andreas Jungherr – wie gemacht also für | |
Landtagswahlen. | |
## Inhalte prüfen | |
Ist grundsätzliches Misstrauen gegenüber digitalen Inhalten also die | |
Zukunft des Diskurses? Zumindest wird es in Zukunft wohl wichtiger, Inhalte | |
über viele Faktoren zu prüfen. Neben Fakes droht darüber hinaus noch eine | |
Kehrseite: Die Ausrede, dass echte Aufnahmen nur KI-Fakes seien. Aktuell | |
steht der AfD-Abgeordnete Petr Bystron im Verdacht, Geld von einem | |
prorussischen Netzwerk bekommen zu haben. Tschechische Geheimdienste sollen | |
Tonaufnahmen dazu besitzen. Gut möglich, dass Menschen wie Bystron in | |
Zukunft versuchen werden, sich mit dem Verweis „Ist doch nur ein KI-Fake“ | |
aus der Affäre ziehen könnten. | |
„Wir brauchen KI-Modelle, die transparent für Medien und Zivilgesellschaft | |
überprüfbar sind und nicht in erster Linie kommerziellen Interessen | |
dienen“, fordert Angela Müller. Demokratische Meinungsbildung dürfe sich | |
nicht Profit unterordnen. „KI wird nicht die Demokratie zerstören“, sagt | |
sie. „Wenn wir die Demokratie kaputtgehen lassen, tragen wir schon selbst | |
die Verantwortung dafür.“ | |
22 Apr 2024 | |
## LINKS | |
[1] https://www.tagesschau.de/ausland/amerika/wahlen-wahlbeeinflussung-ki-100.h… | |
[2] /Wahlen-in-Ostdeutschland-2024/!t5993946 | |
## AUTOREN | |
Moritz Müllender | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Wahlkampf | |
Parteien | |
GNS | |
Schwerpunkt Landtagswahl Thüringen | |
Kolumne Der rote Faden | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Verfassungsblog gegen die AfD: Höhere Hürden für Höcke | |
Das „Thüringen-Projekt“ vom Verfassungsblog macht Vorschläge zur Stärkung | |
von Demokratie. Warum die AfD es damit schwerer haben wird. | |
Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche | |
Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der | |
Bundeskanzler ist jetzt auf TikTok. | |
Voice Engine von OpenAI weckt Ängste: Künstlich Stimmen imitieren | |
OpenAI stellt ein neues Programm vor: Mit Voice Engine lassen sich Stimmen | |
imitieren. Im Superwahljahr verstärkt das Ängste vor Manipulation. | |
Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher | |
Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft | |
rechtliche und ethische Probleme hervor. |