| # taz.de -- Künstliche Intelligenz im Wahlkampf: Wenn Robo-Scholz anruft | |
| > Pünktlich zum Super-Wahljahr 2024 ist das Zeitalter der KI angebrochen. | |
| > Die taz hat sich umgehört, was das für die Wahlen bedeutet. | |
| Bild: Hier telefoniert noch das Original: Kanzler Olaf Scholz am Hörer | |
| Berlin taz | Ein [1][Anruf von Joe Biden], der Wähler*innen vom Wählen | |
| abhalten will. Ein neues Lied eines bereits verstorbenen indischen | |
| Musikers, das den indischen Präsidenten Narendra Modi preist. Eine Kampagne | |
| von mindestens 64 Accounts auf der Plattform X, die russische Propaganda | |
| verbreiten. All diese Beispiele haben eins gemeinsam: Sie sind | |
| wahrscheinlich mit Hilfe von generativer künstlicher Intelligenz (KI) | |
| entstanden. | |
| Welche Rolle wird KI im deutschen Super-Wahljahr 2024 spielen? Es stehen | |
| vier hierzulande bedeutsame Wahlen an: Europa, [2][Sachsen, Brandenburg und | |
| Thüringen]. Grundsätzliches steht zur Debatte. Ist die Demokratie den | |
| Angriffen vom rechten Rand gewachsen? Verlieren CDU, SPD, Grüne, Linke und | |
| FDP – die Parteien der stabileren Zeiten – dermaßen an Stimmen, dass ohne | |
| AfD oder Bündnis Sahra Wagenknecht kaum zu regieren ist? Hält die | |
| Brandmauer gegen rechts? | |
| Zudem hat Russland ein Interesse, mitzumischen. Deutschland stehe im | |
| Mittelpunkt russischer Einflussoperationen, warnte kürzlich das | |
| parlamentarische Kontrollgremium. Dessen Vorsitzender Konstantin von Notz | |
| (Grüne) sagte im taz-Interview: „Es wird immer offensichtlicher, dass | |
| Russland massiv Einfluss nimmt.“ Man werde das auch bei den Europa- und | |
| Landtagswahlen erleben. In diese Gemengelage stößt nun KI. | |
| ## Experiment aus Stanford | |
| Eine Gruppe Wissenschaftler*innen der Universitäten Georgetown und | |
| Stanford hat in einem Experiment untersucht, wie überzeugend KI-Propaganda | |
| ist. Die Ergebnisse: Desinformation, die der KI-Chatbot GPT-3 formuliert | |
| hatte, war fast so überzeugend wie menschliche Desinformation. Nach dem | |
| Lesen stimmten etwa 47 Prozent der Untersuchten der menschlichen | |
| Desinformation zu und 43,5 Prozent der KI-gemachten. Auch wenn die | |
| menschengemachte Desinformation etwas effektiver ist, schließen die | |
| Forscher*innen daraus: „Propagandist*innen könnten GPT-3 dazu nutzen, | |
| überzeugende Artikel mit minimalem menschlichen Aufwand zu generieren.“ | |
| GPT-3 ist zudem mittlerweile ein veraltetes Modell. | |
| „Desinformation ist jetzt schon einfach zu fabrizieren, aber KI kann sie | |
| verstärken“, sagt Edda Humprecht. Die 39-Jährige ist Professorin für | |
| digitale Kommunikation und Öffentlichkeit an der Universität Jena. „Wut ist | |
| die treibendste Emotion in den sozialen Medien“, sagt Humprecht. KI könne | |
| helfen, Inhalten mehr Aufmerksamkeit zu bringen, durch schnell erstellte | |
| Bilder etwa, die Emotionen schüren. Zur Täuschung taugen sie laut Humprecht | |
| derzeit weniger: „KI-Videos und Texte können aktuell relativ leicht | |
| entlarvt werden. Aber eingebettet in größere Erzählungen wird es | |
| schwieriger“, sagt die Wissenschaftlerin. „Und hinter diesen Erzählungen | |
| stehen Menschen und sie werden von Menschen weiterverbreitet.“ | |
| Themen, die laut der Wissenschaftlerin dabei besonders angreifbar sind: | |
| Migration, Klima, Pandemie, Gender und Sexualität sowie lokal spezifische | |
| Aufreger. „Oft sind Minderheiten oder Frauen im Fokus von Desinformation“, | |
| sagt Humprecht. | |
| ## Die AfD nutzt KI | |
| So setzen auch Teile der AfD schon KI ein. Der Bundestagsabgeordnete | |
| Norbert Kleinwächter etwa fiel mit einem KI-generierten Bild auf, das gegen | |
| Geflüchtete Stimmung macht. Ein weiteres Bild zeigt Gesundheitsminister | |
| Karl Lauterbach (SPD) mit Zombie-Gesicht. | |
| „Die sozialen Medien springen auf Sensationalisierung an, darauf kann man | |
| KI gut programmieren“, sagt Edda Humprecht. Dafür müssten die KI-Inhalte | |
| nicht mal sonderlich gut sein. „Es geht nicht um perfekte Täuschung, | |
| sondern darum, Ideologien zu verstärken.“ So könne man Wahlen zwar nicht | |
| entscheiden. Aber man kann Menschen radikalisieren oder apathischer machen | |
| und so etwa zu Polarisierung beitragen oder die Wahlbeteiligung | |
| beeinflussen. | |
| „KI kann vor allem Unterstützer bestimmter Parteien oder Ideologien | |
| ansprechen“, sagt auch Andreas Jungherr. Der 42-Jährige ist | |
| Politikwissenschaftler an der Universität Bamberg und untersucht die | |
| Auswirkungen von Digitalisierung auf Politik und Gesellschaft. | |
| Jungherr befürchtet, dass vor allem die Parteien der politischen Ränder | |
| sich auf die Technologie stürzen. Ähnlich wie bei Tiktok könnten sie sich | |
| hier einen Vorteil verschaffen. „Die politischen Ränder brauchen | |
| Innovation, weil sie für ihr Überleben davon abhängen, möglichst günstig | |
| viel zu erreichen“, sagt Jungherr. Und: „Akteure der Ränder sind | |
| experimentier- und risikofreudiger. Sie haben weniger Angst vor negativer | |
| Berichterstattung, da Kontroversen ihnen Sichtbarkeit bringen.“ | |
| ## Chancen auf lokaler Ebene | |
| Die etablierten Parteien sollten sich dennoch mit der Technik | |
| auseinandersetzen, rät Jungherr: „Wenn Parteien besser darin werden, | |
| Menschen zu aktivieren, dann haben wir alle etwas davon.“ Der | |
| Wissenschaftler sieht vor allem auf lokaler Ebene Chancen: „Mit generativer | |
| KI können kleine Verbände Inhalte erstellen, für die sie früher eine | |
| Agentur gebraucht hätten.“ Das könne die politische Kommunikation | |
| verbessern. In Agenturen, die für Parteien Kampagnen entwickeln, sei der | |
| Einsatz von KI schon Alltag. Jungherr sagt: „Auch die etablierten Parteien | |
| sollten ein Verständnis für die Technik erlangen und das nicht Agenturen | |
| oder den Rändern überlassen.“ | |
| Vom Verzicht auf KI im Wahlkampf hält er daher wenig. Jungherr rät dazu, | |
| KI-Inhalte eindeutig zu kennzeichnen, wenn möglich mit digitalen | |
| Wasserzeichen. „Das macht es zumindest schwieriger, Inhalte zu kopieren | |
| oder zu fälschen.“ | |
| Wie also werden die Parteien KI einsetzen? Die mit Digitalisierung in den | |
| vergangenen Wahlkampf gezogene FDP antwortet auf Anfrage wenig | |
| überraschend: Man werde die Chancen, die KI bietet, für die eigene | |
| Kommunikation nutzen. „Künstliche Intelligenz bietet Parteien insbesondere | |
| im Bereich der generierenden KI viele Chancen für bürgernahe politische | |
| Kommunikation“, schreibt ein Sprecher. Gleichzeitig müssten Risiken wie | |
| Fake News entschieden bekämpft werden. Man verpflichte sich zu „absoluter | |
| Transparenz“. | |
| ## Nutzung von KI im Wahlkampf | |
| Die CDU hat noch keine Entscheidung getroffen, in welchem Umfang sie KI in | |
| Wahlkämpfen nutzen wird, erfährt die taz auf Anfrage. „Wenn wir KI | |
| anwenden, würden wir dies kennzeichnen“, schreibt eine Sprecherin. Man sei | |
| offen für Initiativen und diskutiere Handlungsoptionen mit Partnern. Auch | |
| die SPD hat noch nicht über KI-Nutzung im Wahlkampf entschieden, hält aber | |
| eine Kennzeichnung für erforderlich. „Absehbar“ würden auch eigene | |
| Richtlinien erarbeitet. | |
| Auch BSW gibt an, noch nicht über den Einsatz entschieden zu haben. Die | |
| Grünen haben nach Angaben einer Sprecherin bereits Richtlinien im Umgang | |
| mit KI. Öffentlich machen wollen sie diese jedoch derzeit nicht. Etwas | |
| konkreter wird die Sprecherin aber: „Wir kennzeichnen KI-generierte Inhalte | |
| transparent und verzichten auf die Verwendung von KI zur Nachahmung von | |
| Stimmen oder physischem Erscheinungsbild einer Person – außer wenn die | |
| Person ihre ausdrückliche Zustimmung dazu gegeben hat.“ AfD und Linke haben | |
| auf taz-Anfragen nicht geantwortet. | |
| Wie bereitet man eine Gesellschaft auf Wahlen im KI-Zeitalter vor? Angela | |
| Müller hat Ideen. Müller ist Head of Policy and Advocacy bei der | |
| gemeinnützigen Organisation Algorithm Watch. „Man darf die Verantwortung | |
| nicht auf Einzelne abwälzen“, sagt Müller. Stattdessen müsse man die | |
| Anbieter in die Pflicht nehmen. „Es braucht Regeln – nationale und | |
| internationale.“ KI-Unternehmen müssten verpflichtet werden, ihre Produkte | |
| umfangreicher auf Risiken zu testen, bevor sie sie auf den Markt bringen, | |
| und Rechenschaft über diese Tests ablegen. Zudem sieht sie die | |
| Social-Media-Plattformen in der Verantwortung. „Einzelpersonen können | |
| nichts viral gehen lassen. Da kommen dann die Algorithmen der | |
| Social-Media-Plattformen ins Spiel“, sagt Müller. | |
| ## Meta, Tiktok, Google | |
| Die großen Tech-Konzerne von Meta, Tiktok und Google bis OpenAI versprechen | |
| im AI Elections Accord, gemeinsamgegen KI-Desinformation vorzugehen. Auf | |
| eine Nachfrage, wie das konkret bei den Landtags- oder Europawahlen | |
| aussehen könnte, kam auf Nachfrage keine Antwort. Dass die Konzerne große | |
| Aufmerksamkeit auf Landtagswahlen legen, hält Angela Müller zumindest für | |
| fraglich. | |
| Sowohl Müller als auch Jungherr und Humprecht sehen aktuell das größte | |
| Potenzial für glaubwürdige Fakes in KI-Stimmgeneratoren. So sind vor der | |
| slowakischen Präsidentschaftswahl gefälschte Tonaufnahmen einer | |
| Journalistin und eines prowestlichen Politikers aufgetaucht. Joe Bidens | |
| Robo-Calls gingen um die Welt. „Diese Modelle laden dazu ein, sie für | |
| Missbrauch und Negativkampagnen zu nutzen“, sagt Angela Müller. | |
| Störgeräusche während Anrufen oder auf Tonaufnahmen sind normal und den | |
| Hörenden fehlen andere Sinne, um die Echtheit zu überprüfen. Das macht | |
| Tonaufnahmen besonders anfällig für Fakes. „Das größte Risiko dafür sehe | |
| ich im Lokalen, wo wenige Medien und Expert*innen hinschauen, die Fakes | |
| entlarven könnten“, sagt Andreas Jungherr – wie gemacht also für | |
| Landtagswahlen. | |
| ## Inhalte prüfen | |
| Ist grundsätzliches Misstrauen gegenüber digitalen Inhalten also die | |
| Zukunft des Diskurses? Zumindest wird es in Zukunft wohl wichtiger, Inhalte | |
| über viele Faktoren zu prüfen. Neben Fakes droht darüber hinaus noch eine | |
| Kehrseite: Die Ausrede, dass echte Aufnahmen nur KI-Fakes seien. Aktuell | |
| steht der AfD-Abgeordnete Petr Bystron im Verdacht, Geld von einem | |
| prorussischen Netzwerk bekommen zu haben. Tschechische Geheimdienste sollen | |
| Tonaufnahmen dazu besitzen. Gut möglich, dass Menschen wie Bystron in | |
| Zukunft versuchen werden, sich mit dem Verweis „Ist doch nur ein KI-Fake“ | |
| aus der Affäre ziehen könnten. | |
| „Wir brauchen KI-Modelle, die transparent für Medien und Zivilgesellschaft | |
| überprüfbar sind und nicht in erster Linie kommerziellen Interessen | |
| dienen“, fordert Angela Müller. Demokratische Meinungsbildung dürfe sich | |
| nicht Profit unterordnen. „KI wird nicht die Demokratie zerstören“, sagt | |
| sie. „Wenn wir die Demokratie kaputtgehen lassen, tragen wir schon selbst | |
| die Verantwortung dafür.“ | |
| 22 Apr 2024 | |
| ## LINKS | |
| [1] https://www.tagesschau.de/ausland/amerika/wahlen-wahlbeeinflussung-ki-100.h… | |
| [2] /Wahlen-in-Ostdeutschland-2024/!t5993946 | |
| ## AUTOREN | |
| Moritz Müllender | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Wahlkampf | |
| Parteien | |
| GNS | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Landtagswahl Thüringen | |
| Kolumne Der rote Faden | |
| Wahlmanipulation | |
| Schwerpunkt Künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| Berliner Verwaltung und KI: Bloß nicht halluzinieren | |
| Der im vergangenen Jahr abgeschaltete Berliner Verwaltungs-Chatbot Bobbi | |
| soll wiederauferstehen. Das Nachfolgeprojekt könnte aber am Geld scheitern. | |
| Verfassungsblog gegen die AfD: Höhere Hürden für Höcke | |
| Das „Thüringen-Projekt“ vom Verfassungsblog macht Vorschläge zur Stärkung | |
| von Demokratie. Warum die AfD es damit schwerer haben wird. | |
| Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche | |
| Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der | |
| Bundeskanzler ist jetzt auf TikTok. | |
| Voice Engine von OpenAI weckt Ängste: Künstlich Stimmen imitieren | |
| OpenAI stellt ein neues Programm vor: Mit Voice Engine lassen sich Stimmen | |
| imitieren. Im Superwahljahr verstärkt das Ängste vor Manipulation. | |
| Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher | |
| Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft | |
| rechtliche und ethische Probleme hervor. |