| # taz.de -- Künstliche Intelligenz: Keine Panik vor KI | |
| > Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und | |
| > verhindert eine Debatte über Gefahren wie die Interessen von Google oder | |
| > Amazon. | |
| Bild: Schreckensszenarien täuschen darüber hinweg, dass stochastische Modelle… | |
| Seit [1][Sprachmodelle wie ChatGPT] im Herbst 2022 für die Allgemeinheit | |
| geöffnet wurden, ist ein breiter gesellschaftlicher Diskurs über künstliche | |
| Intelligenz (KI) entstanden. Der spannt sich aktuell über den | |
| Gesprächsstoff sommerlicher Gartenpartys („Also, ich habe die KI mal | |
| gefragt, …“) über optimistische Äußerungen aus der Wirtschaft („zentra… | |
| Wettbewerbsfaktor“) [2][bis hin zu dystopischen Warnungen] aus der | |
| digitalen Techbranche selbst („Verlust der Steuerungsfähigkeit unserer | |
| Zivilisation“). Die Reaktionen auf KI schwanken zwischen Faszination und | |
| Grauen. Was stimmt denn nun und wie kann man für KI zu einer ausgewogenen | |
| Einschätzung kommen? Klar ist: KI-Anwendungen müssen reguliert werden, um | |
| sie für Demokratie und Gemeinwohl gestalten zu können. | |
| KI ganz allgemein als Technik in den Blick zu nehmen und zu überlegen, ob | |
| sie denn gut oder schlecht sei, ist ungefähr so sinnvoll, wie über die Vor- | |
| und Nachteile der Stromversorgung nachzudenken. Die Verfügbarkeit von | |
| Elektrizität hat zu einer starken Veränderung der Lebens- und Arbeitswelten | |
| geführt. Kaum jemand kommt jedoch auf die Idee, sie an sich zu bewerten. | |
| Sondern sie begegnet uns zum Beispiel in Form der Straßenbeleuchtung, des | |
| Küchenmixers oder [3][eines Elektroautos]. Ähnlich verhält es sich auch | |
| mit KI: Sie ist immer in ihren jeweiligen Anwendungskontexten zu | |
| betrachten. Für ein KI-Sprachmodell sind andere Anwendungsregeln notwendig | |
| als für einen autonom fahrenden PKW oder für KI, die für die Auswahl von | |
| Inhalten in Sozialen Medien genutzt wird. Natürlich brauchen wir – wie in | |
| der Stromversorgung – allgemeine Standards zur sicheren und ethisch | |
| akzeptablen Nutzung von KI. Dazu gehören unter anderem menschliche | |
| Aufsicht, Trainingsdatenqualität oder Nachvollziehbarkeit. | |
| Es wird häufig der Eindruck erweckt, bei KI handele sich um eine ganz | |
| besondere Technik, die „autonom“ handele, dem Menschen überlegen sei und | |
| ganz prinzipiell nicht verstanden werden könne. Deshalb könne man sie | |
| schlecht regulieren. Das stimmt nicht. Wenn man als durchschnittliche | |
| Verbraucherin ein Gerät oder eine Maschine nicht versteht, kann man diese | |
| Technik trotzdem nutzen und den Umgang mit ihr sicher und gut gestalten. | |
| Den ganz überwiegenden Teil der Techniken, die wir benutzen, verstehen wir | |
| nicht. Man denke nur an den Küchenmixer oder das Auto. Ihre Funktion können | |
| nur wenige Expertinnen und Experten erklären. Die meisten wollen einfach | |
| nur sicher ohne Stromschlag Sahne schlagen oder mit dem PKW fahren und | |
| zuverlässig das Bremspedal treten können. | |
| Trotzdem müssen Technologien natürlich im Prinzip transparent sein, sodass | |
| sie kontrolliert hergestellt werden können und die durch sie ausgelösten | |
| Handlungen rechtssicher nachvollziehbar sind. Aber es muss nicht für jede | |
| einzelne Person, die KI nutzt, die Funktion im Detail erklärbar sein. In | |
| einem demokratischen Rechtsstaat sorgen starke Institutionen für eine | |
| verbraucherfreundliche Nutzung von Techniken, ohne dass jede einzelne von | |
| uns ein Informatikstudium für das Leben in einer digitalen Gesellschaft | |
| ablegen muss. | |
| ## Steuerung ist möglich | |
| Tatsächlich allerdings ist es so, dass KI teils auch für Expertinnen | |
| intransparent bleibt. Anwendungen suchen sich selbst ihre Lösungswege für | |
| bestimmte Aufgaben. KI „lernt“ auf anderen Wegen als Menschen und erstellt | |
| Muster aus Daten, deren Genese (sowohl der Muster als auch der Daten) nicht | |
| oder nur schlecht nachvollziehbar sind. Trotzdem können die Randbedingungen | |
| und die Ergebnisse von KI-gesteuerten Prozessen durch den Menschen kritisch | |
| nachvollzogen und bewertet werden. Zum Beispiel können Trainingsdaten | |
| dokumentiert und kritisch geprüft werden, die Algorithmen für | |
| KI-Anwendungen können nach ethischen Kriterien aufgestellt und durch | |
| unabhängige Stellen kontrolliert werden. Auch die Ergebnisse von | |
| automatisierten Entscheidungen sollten fortlaufend auf Diskriminierung, | |
| Unausgewogenheit und Fehler untersucht werden, sodass auch bei | |
| selbstlernenden Systemen stets im Blick behalten wird, dass neue | |
| Eigendynamiken maschinellen Lernens keinen schädlichen Einfluss gewinnen. | |
| Seit einigen Monaten wird [4][vermehrt vor den großen Risiken der KI | |
| gewarnt]. In offenen Briefen von Wissenschaftlerinnen und Vertretern von | |
| Digitalkonzernen ist von der Dominanz der KI die Rede, von Deepfakes oder | |
| Killerrobotern und einer allgemeinen Verdummung des Menschen. In Science | |
| Fiction und Unterhaltung sind solche Negativszenarien schon lange ein | |
| attraktives Thema. | |
| ## Reale ökonomische Interessen | |
| Solche Dystopien und die damit verbundenen Mystifizierungen verschleiern | |
| jedoch die realen Interessen, die mit KI verbunden sind. In Hinblick auf | |
| eine wert- und gemeinwohlorientierte Nutzung von KI ist vielmehr ganz | |
| konventionell zu fragen: [5][Wem nützt eine Anwendung und wem schadet sie?] | |
| Es gibt keine Indizien oder gar wissenschaftlich begründete Hinweise dafür, | |
| dass KI an der Schwelle zu einer bösartigen Superintelligenz steht. Selbst | |
| wenn die Forschung zu einer künstlichen allgemeinen Intelligenz in | |
| Jahrzehnten zu überzeugenden Ergebnissen kommen sollte, dann wird diese | |
| Intelligenz aller Wahrscheinlichkeit nach als Assistenzsystem zur | |
| Unterstützung verschiedenster menschlicher Tätigkeiten genutzt werden. | |
| So wie auch jetzt KI den Menschen in vielen Feldern sinnvoll unterstützen | |
| und teils ersetzen kann. Das heißt jedoch nicht, dass KI sich eigenständige | |
| Ziele setzen kann, die sie gegen eine hilflose Menschheit durchsetzt. | |
| Vielmehr ist es so, dass die großen Digitalkonzerne wie Meta, Google oder | |
| Amazon ihre in den letzten Jahrzehnten gehorteten Datenschätze nun für KI | |
| und den Ausbau ihrer überragenden Marktpositionen nutzen können. Sie | |
| beherrschen damit wichtige Bereiche der gesellschaftlichen Infrastrukturen | |
| wie (öffentliche) Kommunikation und Handelsplattformen nach ihren | |
| gewinnorientierten Zielen, ohne demokratisch kontrolliert zu werden. | |
| ## Stochastische Modelle haben andere Risiken | |
| [6][Schreckensszenarien von nicht steuerbaren Superintelligenzen] täuschen | |
| darüber hinweg, dass stochastische Modelle (das wäre eine sachgemäßere | |
| Bezeichnung von KI) mit realen und ganz anderen großen Risiken verbunden | |
| sind. Beispielhaft hierfür steht das Unternehmen „Neuralink“ von Elon Musk. | |
| Musk, der kürzlich noch ein Moratorium zum Stopp der Forschung an | |
| bedeutenden KI-Innovationen gefordert hat, will durch Implantate [7][eine | |
| Schnittstelle zwischen Gehirn und Computer schaffen], mit der vermeintliche | |
| menschliche Defizite wie Gedächtnisprobleme, Depression, Angst oder | |
| Hörverlust behoben werden sollen. Hier wie auch für den gesamten | |
| medizinischen Bereich von der Forschung, Diagnose über die Therapie bis hin | |
| zu „Gesundheitsapps“ fallen die Möglichkeiten der KI auf fruchtbaren Boden. | |
| Wir müssen also vielmehr nach den konkreten Folgen für Biopolitik, | |
| Datenschutz und Menschenbild fragen, statt allgemein über | |
| Schreckensszenarien zu sprechen. | |
| KI hat auch Risiken für öffentliche Medienkommunikation und | |
| Meinungsbildung. KI-Anwendungen helfen, Wahlkampagnen effektiver und | |
| individualisierter zu gestalten. Sie haben aber auch das Potenzial, die | |
| Präferenzen und Charaktereigenschaften von Wählern zu erkennen und zu | |
| manipulieren, zum Beispiel durch Falschinformationen und [8][Deepfakes], | |
| die gezielt und intransparent gestreut werden. Auch generell ist KI für die | |
| Gestaltung von sozialen Medien von großer Bedeutung. KI steuert die | |
| Antworten von Suchmaschinen, prägt die Auswahl von Inhalten in sozialen | |
| Medien und generiert Texte und Bilder. In der Medienkommunikation | |
| delegieren die Digitalkonzerne bereits jetzt viele Steuerungsaufgaben an | |
| algorithmische Systeme. Aber eben nicht nach einem in Dystopien | |
| vorgestellten Eigensinn der KI, sondern zielgenau für die | |
| Geschäftsinteressen der Datenökonomie. | |
| ## Demokratische Antworten finden | |
| Auf solche Probleme müssen demokratisch und ethisch legitimierte Antworten | |
| gefunden werden. Zum Beispiel Offenlegungspflichten und Register für KI, | |
| Zertifikate und Standards für riskante KI-Anwendungen oder für solche, die | |
| mit Manipulation, Diskriminierung und Überwachung verbunden sein können. | |
| Zum Beispiel zur Organisation von Migration, Personalauswahl oder solche, | |
| die Auswirkungen auf kritische Infrastrukturen haben beziehungsweise in der | |
| öffentlichen Verwaltung eingesetzt werden. | |
| Aber auch Auswirkungen müssen gemeinwohlorientiert gestaltet werden: Wie | |
| sieht es etwa mit den Arbeitnehmerinnenrechten für all diejenigen aus, die | |
| KI-Daten beschriften und zur Nutzung vorbereiten? Wie kann eine wirksame | |
| Konzentrationskontrolle für Digitalkonzerne umgesetzt werden? | |
| ## Es braucht Selbstverpflichtungen | |
| Die aktuell vom Europaparlament [9][verabschiedete KI-Verordnung] wird ein | |
| entscheidender Beitrag für eine verbesserte Regulierung sein. Die | |
| KI-Verordnung reicht jedoch nicht aus. Wir brauchen insbesondere im | |
| staatsfernen Medienbereich Selbstverpflichtungen mit | |
| Kennzeichnungspflichten und redaktionell verantwortlichem Umgang mit | |
| KI-Instrumenten im Journalismus. Zudem muss Ethik in KI-Forschung und | |
| Entwicklung integriert werden, was inzwischen sogar in Google-Publikationen | |
| gefordert wird. Und selbstverständlich sind wir auch alle selbst | |
| aufgerufen, uns mit neuen Techniken wie KI auseinanderzusetzen und sie | |
| selbstbestimmt zu nutzen. Dazu brauchen wir Bildung für kritische | |
| Medienmündigkeit etwa in der Schule, der Hochschule und der Ausbildung. | |
| Es stellt sich nicht die Frage, ob KI reguliert werden soll, sondern wer | |
| das tut. Gesellschaften leben immer nach Normen und Regeln. Wenn wir sie | |
| nicht demokratisch und gemeinsam bestimmen, überlassen wir die Regeln für | |
| den Umgang mit KI den Digitalkonzernen. | |
| 26 Jun 2023 | |
| ## LINKS | |
| [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174 | |
| [2] /Faschismus-durch-kuenstliche-Intelligenz/!5938774 | |
| [3] /Elektroautos-mit-Solarzellen/!5908960 | |
| [4] /Geplante-EU-Regulierung-von-KI/!5937412 | |
| [5] /Macht-der-kuenstlichen-Intelligenz/!5937599 | |
| [6] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661 | |
| [7] /Neuropsychologin-ueber-Gehirne-und-Computer/!5941275 | |
| [8] /Zauber-und-Gefahr-von-Deepfakes/!5600572 | |
| [9] /Regulierung-Kuenstlicher-Intelligenz/!5940720 | |
| ## AUTOREN | |
| Jessica Heesen | |
| ## TAGS | |
| Mensch-Maschine-Beziehung | |
| Amazon | |
| Science-Fiction | |
| Intelligente Maschinen | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Pressefreiheit | |
| Saskia Esken | |
| Amazon | |
| Literatur | |
| Gesetz | |
| Technologie | |
| ## ARTIKEL ZUM THEMA | |
| Künstliche Intelligenz: ChatGPT wird dümmer | |
| Forscher*innen der Stanford Universität und der UC Berkeley haben | |
| Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt. | |
| TÜV für Künstliche Intelligenz: Die Neuen im Newsroom | |
| Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz. | |
| Auch der Journalismus muss seine Grundsätze mal wieder updaten. | |
| SPD-Chefin Esken über Desinformation: „Brauchen schlagkräftige Behörden“ | |
| SPD-Chefin Saskia Esken fordert mehr Personal im Kampf gegen Fake News, | |
| Hassrede im Netz und Desinformation. Doch auch da gebe es einen | |
| Fachkräftemangel. | |
| Kontrolle von Digitalkonzernen: Erfolg für das Bundeskartellamt | |
| Der Onlinehändler Amazon klagt gegen besondere Kontrollen der | |
| Wettbewerbshüter. Doch der BGH sieht in denen offenbar kein Problem. | |
| KI in Filmen und Romanen: Die KI versteht dich besser | |
| Was ist die Künstliche Intelligenz? Rationale Bedrohung? Oder | |
| Wunschmaschine? Filme und Romane verwischen die Grenzen zwischen Mensch und | |
| Programm. | |
| Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz | |
| Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf | |
| konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig. | |
| Macht der künstlichen Intelligenz: Wer profitiert | |
| Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den | |
| technologischen, sondern auch um den ökonomischen Aspekt. |