# taz.de -- Zukunft von KI: Habt keine Angst | |
> 2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der | |
> Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß. | |
Bild: Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg | |
Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und | |
in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie | |
hilft uns, Texte zu schreiben, Bilder und [1][medizinische Diagnosen zu | |
erstellen]. Aber schnell wurde aus der Freude Panik, aus dem Mut | |
apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe | |
„Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse, | |
die [2][im Mai warnten:] „Das Risiko der Ausrottung durch künstliche | |
Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für | |
die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht? | |
Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die | |
anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wi… | |
ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in | |
allen Disziplinen und Diskursen werden unsere Leben und unsere | |
Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit | |
wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch | |
zusammenkneifen aus Angst vor dem bösen Wolf. | |
Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine | |
Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten. | |
KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja | |
genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende | |
Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von | |
Werbung in Momenten, in denen wir besonders emotional angreifbar und | |
dadurch in Kauflaune sind. | |
Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest | |
vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach | |
Jahren der Planung auf den [3][AI Act], die weltweit erste Verordnung zur | |
Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen | |
und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst | |
hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine | |
Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten | |
KI-Öffentlichkeitsoffensive. | |
## Gefühl dafür bekommen | |
Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin | |
der Europäischen Kommission Ursula von der Leyen aber mit [4][Sam Altman]. | |
Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und | |
Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei | |
Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI | |
umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst | |
lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die | |
Macher*innen machen, in diesem Fall Sam Altman und Co. | |
Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen | |
Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den | |
anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien | |
und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an | |
Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative | |
Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für | |
Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein | |
Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie | |
wir sie gut einsetzen können. Vielleicht können wir es ja als Training | |
verstehen. | |
Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen | |
anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen, | |
einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen | |
voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch | |
manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI | |
in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie | |
aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder | |
Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand. | |
Das ist die wahre Dystopie. | |
Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von | |
Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen? | |
Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen | |
uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade | |
deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst | |
abwenden. | |
## Nur wir können uns selbst unterwerfen | |
Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für | |
Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI | |
füttern und betreuen – [5][oft unterbezahlt im Ausland, etwa in Uganda]. | |
Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit | |
ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es | |
möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer | |
Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen. | |
Oder auch, wie in anderen Ländern schon katastrophal gescheitert, | |
einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der | |
Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn | |
unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen | |
Vorhersagen über sie. | |
Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit | |
denen sie arbeitet. [6][Das bedeutet für Schwarze Menschen etwa ein | |
erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als | |
Straftäter*in „identifiziert“ zu werden.] [7][KI-Tools, die bei der | |
Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt]. | |
Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden. | |
Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht | |
braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie | |
wir unsere Daten schön unbrauchbar gestalten können, um KI im Training | |
gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht | |
unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst. | |
29 Dec 2023 | |
## LINKS | |
[1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490 | |
[2] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661 | |
[3] /EU-Einigung-auf-KI-Gesetz/!5975908 | |
[4] /Chaos-bei-OpenAI/!5972516 | |
[5] /Niedriglohnarbeit-fuer-US-Tech-Konzerne/!5959693 | |
[6] https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentif… | |
[7] https://www.newamerica.org/oti/blog/ai-discrimination-in-hiring-and-what-we… | |
## AUTOREN | |
Johannes Drosdowski | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Rassismus | |
Technikfeindlichkeit | |
Technologie | |
Bildung | |
Schwerpunkt Künstliche Intelligenz | |
Leben mit Behinderung | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Osteuropa | |
Musik | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Student entwickelt KI, die KI erkennt: Entlarvende Logik | |
Tim Tlok aus Seevetal hat einen Detektor gebaut, der KI-generierte Texte | |
von menschengemachten unterscheiden kann. KI-geplagte Lehrkräfte freuen | |
sich. | |
Internetnutzung und KI: Antrainierte Vorurteile | |
Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung | |
Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich. | |
Künstliche Intelligenz im Alltag: Steaks braten mit dem Kühlschrank | |
Tech-Hersteller haben erneut eine goldene KI-Zukunft versprochen. Die Frage | |
ist nicht, ob wir die brauchen, sondern wer bereit ist, dafür zu zahlen. | |
Diskriminierende KIs: „Zeigen den Status quo von gestern“ | |
Queere Menschen werden durch Künstliche Intelligenz oft diskriminiert. | |
Sowohl Technologie an sich, als auch die Entstehungsbedingungen sind | |
schuld. | |
Podcast über Hacker der 80er: Suche nach dem dunklen Rächer | |
„Dark Avenger“ begibt sich auf die Spuren eines der größten | |
Computervirenschöpfers der 1980er. Doch der Podcast rudert ab und zu ins | |
Fiktionale aus. | |
Neues Album „WIRE“ von Portrait XO: Im Duett mit der KI | |
Fremd und befremdlich vertraut: Als Portrait XO veröffentlicht | |
US-Produzentin Rania Kim mit einer Stimm-KI das verblüffende Albumprojekt | |
„WIRE“. | |
OpenAI und Microsoft verklagt: New York Times gegen ChatGPT | |
ChatGPT verletze das Urheberrecht, sagt die NYTimes. Deswegen geht das | |
Medienhaus jetzt rechtlich gegen OpenAI vor – anders als die deutschen | |
Verlage. |