Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Zukunft von KI: Habt keine Angst
> 2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der
> Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß.
Bild: Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg
Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und
in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie
hilft uns, Texte zu schreiben, Bilder und [1][medizinische Diagnosen zu
erstellen]. Aber schnell wurde aus der Freude Panik, aus dem Mut
apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe
„Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse,
die [2][im Mai warnten:] „Das Risiko der Ausrottung durch künstliche
Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für
die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht?
Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die
anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wi…
ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in
allen Disziplinen und Diskursen werden unsere Leben und unsere
Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit
wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch
zusammenkneifen aus Angst vor dem bösen Wolf.
Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine
Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten.
KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja
genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende
Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von
Werbung in Momenten, in denen wir besonders emotional angreifbar und
dadurch in Kauflaune sind.
Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest
vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach
Jahren der Planung auf den [3][AI Act], die weltweit erste Verordnung zur
Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen
und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst
hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine
Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten
KI-Öffentlichkeitsoffensive.
## Gefühl dafür bekommen
Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin
der Europäischen Kommission Ursula von der Leyen aber mit [4][Sam Altman].
Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und
Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei
Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI
umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst
lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die
Macher*innen machen, in diesem Fall Sam Altman und Co.
Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen
Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den
anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien
und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an
Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative
Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für
Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein
Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie
wir sie gut einsetzen können. Vielleicht können wir es ja als Training
verstehen.
Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen
anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen,
einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen
voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch
manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI
in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie
aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder
Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand.
Das ist die wahre Dystopie.
Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von
Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen?
Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen
uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade
deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst
abwenden.
## Nur wir können uns selbst unterwerfen
Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für
Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI
füttern und betreuen – [5][oft unterbezahlt im Ausland, etwa in Uganda].
Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit
ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es
möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer
Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen.
Oder auch, wie in anderen Ländern schon katastrophal gescheitert,
einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der
Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn
unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen
Vorhersagen über sie.
Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit
denen sie arbeitet. [6][Das bedeutet für Schwarze Menschen etwa ein
erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als
Straftäter*in „identifiziert“ zu werden.] [7][KI-Tools, die bei der
Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt].
Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden.
Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht
braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie
wir unsere Daten schön unbrauchbar gestalten können, um KI im Training
gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht
unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst.
29 Dec 2023
## LINKS
[1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490
[2] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
[3] /EU-Einigung-auf-KI-Gesetz/!5975908
[4] /Chaos-bei-OpenAI/!5972516
[5] /Niedriglohnarbeit-fuer-US-Tech-Konzerne/!5959693
[6] https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentif…
[7] https://www.newamerica.org/oti/blog/ai-discrimination-in-hiring-and-what-we…
## AUTOREN
Johannes Drosdowski
## TAGS
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Rassismus
Technikfeindlichkeit
Technologie
Bildung
Kolumne Der rote Faden
Schwerpunkt Künstliche Intelligenz
Leben mit Behinderung
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Osteuropa
Musik
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche
Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der
Bundeskanzler ist jetzt auf TikTok.
Student entwickelt KI, die KI erkennt: Entlarvende Logik
Tim Tlok aus Seevetal hat einen Detektor gebaut, der KI-generierte Texte
von menschengemachten unterscheiden kann. KI-geplagte Lehrkräfte freuen
sich.
Internetnutzung und KI: Antrainierte Vorurteile
Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung
Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.
Künstliche Intelligenz im Alltag: Steaks braten mit dem Kühlschrank
Tech-Hersteller haben erneut eine goldene KI-Zukunft versprochen. Die Frage
ist nicht, ob wir die brauchen, sondern wer bereit ist, dafür zu zahlen.
Diskriminierende KIs: „Zeigen den Status quo von gestern“
Queere Menschen werden durch Künstliche Intelligenz oft diskriminiert.
Sowohl Technologie an sich, als auch die Entstehungsbedingungen sind
schuld.
Podcast über Hacker der 80er: Suche nach dem dunklen Rächer
„Dark Avenger“ begibt sich auf die Spuren eines der größten
Computervirenschöpfers der 1980er. Doch der Podcast rudert ab und zu ins
Fiktionale aus.
Neues Album „WIRE“ von Portrait XO: Im Duett mit der KI
Fremd und befremdlich vertraut: Als Portrait XO veröffentlicht
US-Produzentin Rania Kim mit einer Stimm-KI das verblüffende Albumprojekt
„WIRE“.
OpenAI und Microsoft verklagt: New York Times gegen ChatGPT
ChatGPT verletze das Urheberrecht, sagt die NYTimes. Deswegen geht das
Medienhaus jetzt rechtlich gegen OpenAI vor – anders als die deutschen
Verlage.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.