| # taz.de -- Zukunft von KI: Habt keine Angst | |
| > 2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der | |
| > Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß. | |
| Bild: Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg | |
| Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und | |
| in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie | |
| hilft uns, Texte zu schreiben, Bilder und [1][medizinische Diagnosen zu | |
| erstellen]. Aber schnell wurde aus der Freude Panik, aus dem Mut | |
| apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe | |
| „Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse, | |
| die [2][im Mai warnten:] „Das Risiko der Ausrottung durch künstliche | |
| Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für | |
| die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht? | |
| Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die | |
| anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wi… | |
| ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in | |
| allen Disziplinen und Diskursen werden unsere Leben und unsere | |
| Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit | |
| wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch | |
| zusammenkneifen aus Angst vor dem bösen Wolf. | |
| Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine | |
| Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten. | |
| KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja | |
| genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende | |
| Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von | |
| Werbung in Momenten, in denen wir besonders emotional angreifbar und | |
| dadurch in Kauflaune sind. | |
| Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest | |
| vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach | |
| Jahren der Planung auf den [3][AI Act], die weltweit erste Verordnung zur | |
| Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen | |
| und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst | |
| hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine | |
| Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten | |
| KI-Öffentlichkeitsoffensive. | |
| ## Gefühl dafür bekommen | |
| Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin | |
| der Europäischen Kommission Ursula von der Leyen aber mit [4][Sam Altman]. | |
| Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und | |
| Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei | |
| Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI | |
| umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst | |
| lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die | |
| Macher*innen machen, in diesem Fall Sam Altman und Co. | |
| Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen | |
| Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den | |
| anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien | |
| und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an | |
| Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative | |
| Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für | |
| Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein | |
| Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie | |
| wir sie gut einsetzen können. Vielleicht können wir es ja als Training | |
| verstehen. | |
| Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen | |
| anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen, | |
| einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen | |
| voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch | |
| manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI | |
| in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie | |
| aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder | |
| Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand. | |
| Das ist die wahre Dystopie. | |
| Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von | |
| Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen? | |
| Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen | |
| uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade | |
| deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst | |
| abwenden. | |
| ## Nur wir können uns selbst unterwerfen | |
| Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für | |
| Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI | |
| füttern und betreuen – [5][oft unterbezahlt im Ausland, etwa in Uganda]. | |
| Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit | |
| ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es | |
| möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer | |
| Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen. | |
| Oder auch, wie in anderen Ländern schon katastrophal gescheitert, | |
| einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der | |
| Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn | |
| unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen | |
| Vorhersagen über sie. | |
| Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit | |
| denen sie arbeitet. [6][Das bedeutet für Schwarze Menschen etwa ein | |
| erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als | |
| Straftäter*in „identifiziert“ zu werden.] [7][KI-Tools, die bei der | |
| Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt]. | |
| Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden. | |
| Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht | |
| braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie | |
| wir unsere Daten schön unbrauchbar gestalten können, um KI im Training | |
| gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht | |
| unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst. | |
| 29 Dec 2023 | |
| ## LINKS | |
| [1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490 | |
| [2] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661 | |
| [3] /EU-Einigung-auf-KI-Gesetz/!5975908 | |
| [4] /Chaos-bei-OpenAI/!5972516 | |
| [5] /Niedriglohnarbeit-fuer-US-Tech-Konzerne/!5959693 | |
| [6] https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentif… | |
| [7] https://www.newamerica.org/oti/blog/ai-discrimination-in-hiring-and-what-we… | |
| ## AUTOREN | |
| Johannes Drosdowski | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Rassismus | |
| Technikfeindlichkeit | |
| Technologie | |
| Bildung | |
| Kolumne Der rote Faden | |
| Schwerpunkt Künstliche Intelligenz | |
| Leben mit Behinderung | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Osteuropa | |
| Musik | |
| Schwerpunkt Künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche | |
| Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der | |
| Bundeskanzler ist jetzt auf TikTok. | |
| Student entwickelt KI, die KI erkennt: Entlarvende Logik | |
| Tim Tlok aus Seevetal hat einen Detektor gebaut, der KI-generierte Texte | |
| von menschengemachten unterscheiden kann. KI-geplagte Lehrkräfte freuen | |
| sich. | |
| Internetnutzung und KI: Antrainierte Vorurteile | |
| Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung | |
| Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich. | |
| Künstliche Intelligenz im Alltag: Steaks braten mit dem Kühlschrank | |
| Tech-Hersteller haben erneut eine goldene KI-Zukunft versprochen. Die Frage | |
| ist nicht, ob wir die brauchen, sondern wer bereit ist, dafür zu zahlen. | |
| Diskriminierende KIs: „Zeigen den Status quo von gestern“ | |
| Queere Menschen werden durch Künstliche Intelligenz oft diskriminiert. | |
| Sowohl Technologie an sich, als auch die Entstehungsbedingungen sind | |
| schuld. | |
| Podcast über Hacker der 80er: Suche nach dem dunklen Rächer | |
| „Dark Avenger“ begibt sich auf die Spuren eines der größten | |
| Computervirenschöpfers der 1980er. Doch der Podcast rudert ab und zu ins | |
| Fiktionale aus. | |
| Neues Album „WIRE“ von Portrait XO: Im Duett mit der KI | |
| Fremd und befremdlich vertraut: Als Portrait XO veröffentlicht | |
| US-Produzentin Rania Kim mit einer Stimm-KI das verblüffende Albumprojekt | |
| „WIRE“. | |
| OpenAI und Microsoft verklagt: New York Times gegen ChatGPT | |
| ChatGPT verletze das Urheberrecht, sagt die NYTimes. Deswegen geht das | |
| Medienhaus jetzt rechtlich gegen OpenAI vor – anders als die deutschen | |
| Verlage. |