# taz.de -- Künstliche Intelligenz: Keine Panik vor KI | |
> Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und | |
> verhindert eine Debatte über Gefahren wie die Interessen von Google oder | |
> Amazon. | |
Bild: Schreckensszenarien täuschen darüber hinweg, dass stochastische Modelle… | |
Seit [1][Sprachmodelle wie ChatGPT] im Herbst 2022 für die Allgemeinheit | |
geöffnet wurden, ist ein breiter gesellschaftlicher Diskurs über künstliche | |
Intelligenz (KI) entstanden. Der spannt sich aktuell über den | |
Gesprächsstoff sommerlicher Gartenpartys („Also, ich habe die KI mal | |
gefragt, …“) über optimistische Äußerungen aus der Wirtschaft („zentra… | |
Wettbewerbsfaktor“) [2][bis hin zu dystopischen Warnungen] aus der | |
digitalen Techbranche selbst („Verlust der Steuerungsfähigkeit unserer | |
Zivilisation“). Die Reaktionen auf KI schwanken zwischen Faszination und | |
Grauen. Was stimmt denn nun und wie kann man für KI zu einer ausgewogenen | |
Einschätzung kommen? Klar ist: KI-Anwendungen müssen reguliert werden, um | |
sie für Demokratie und Gemeinwohl gestalten zu können. | |
KI ganz allgemein als Technik in den Blick zu nehmen und zu überlegen, ob | |
sie denn gut oder schlecht sei, ist ungefähr so sinnvoll, wie über die Vor- | |
und Nachteile der Stromversorgung nachzudenken. Die Verfügbarkeit von | |
Elektrizität hat zu einer starken Veränderung der Lebens- und Arbeitswelten | |
geführt. Kaum jemand kommt jedoch auf die Idee, sie an sich zu bewerten. | |
Sondern sie begegnet uns zum Beispiel in Form der Straßenbeleuchtung, des | |
Küchenmixers oder [3][eines Elektroautos]. Ähnlich verhält es sich auch | |
mit KI: Sie ist immer in ihren jeweiligen Anwendungskontexten zu | |
betrachten. Für ein KI-Sprachmodell sind andere Anwendungsregeln notwendig | |
als für einen autonom fahrenden PKW oder für KI, die für die Auswahl von | |
Inhalten in Sozialen Medien genutzt wird. Natürlich brauchen wir – wie in | |
der Stromversorgung – allgemeine Standards zur sicheren und ethisch | |
akzeptablen Nutzung von KI. Dazu gehören unter anderem menschliche | |
Aufsicht, Trainingsdatenqualität oder Nachvollziehbarkeit. | |
Es wird häufig der Eindruck erweckt, bei KI handele sich um eine ganz | |
besondere Technik, die „autonom“ handele, dem Menschen überlegen sei und | |
ganz prinzipiell nicht verstanden werden könne. Deshalb könne man sie | |
schlecht regulieren. Das stimmt nicht. Wenn man als durchschnittliche | |
Verbraucherin ein Gerät oder eine Maschine nicht versteht, kann man diese | |
Technik trotzdem nutzen und den Umgang mit ihr sicher und gut gestalten. | |
Den ganz überwiegenden Teil der Techniken, die wir benutzen, verstehen wir | |
nicht. Man denke nur an den Küchenmixer oder das Auto. Ihre Funktion können | |
nur wenige Expertinnen und Experten erklären. Die meisten wollen einfach | |
nur sicher ohne Stromschlag Sahne schlagen oder mit dem PKW fahren und | |
zuverlässig das Bremspedal treten können. | |
Trotzdem müssen Technologien natürlich im Prinzip transparent sein, sodass | |
sie kontrolliert hergestellt werden können und die durch sie ausgelösten | |
Handlungen rechtssicher nachvollziehbar sind. Aber es muss nicht für jede | |
einzelne Person, die KI nutzt, die Funktion im Detail erklärbar sein. In | |
einem demokratischen Rechtsstaat sorgen starke Institutionen für eine | |
verbraucherfreundliche Nutzung von Techniken, ohne dass jede einzelne von | |
uns ein Informatikstudium für das Leben in einer digitalen Gesellschaft | |
ablegen muss. | |
## Steuerung ist möglich | |
Tatsächlich allerdings ist es so, dass KI teils auch für Expertinnen | |
intransparent bleibt. Anwendungen suchen sich selbst ihre Lösungswege für | |
bestimmte Aufgaben. KI „lernt“ auf anderen Wegen als Menschen und erstellt | |
Muster aus Daten, deren Genese (sowohl der Muster als auch der Daten) nicht | |
oder nur schlecht nachvollziehbar sind. Trotzdem können die Randbedingungen | |
und die Ergebnisse von KI-gesteuerten Prozessen durch den Menschen kritisch | |
nachvollzogen und bewertet werden. Zum Beispiel können Trainingsdaten | |
dokumentiert und kritisch geprüft werden, die Algorithmen für | |
KI-Anwendungen können nach ethischen Kriterien aufgestellt und durch | |
unabhängige Stellen kontrolliert werden. Auch die Ergebnisse von | |
automatisierten Entscheidungen sollten fortlaufend auf Diskriminierung, | |
Unausgewogenheit und Fehler untersucht werden, sodass auch bei | |
selbstlernenden Systemen stets im Blick behalten wird, dass neue | |
Eigendynamiken maschinellen Lernens keinen schädlichen Einfluss gewinnen. | |
Seit einigen Monaten wird [4][vermehrt vor den großen Risiken der KI | |
gewarnt]. In offenen Briefen von Wissenschaftlerinnen und Vertretern von | |
Digitalkonzernen ist von der Dominanz der KI die Rede, von Deepfakes oder | |
Killerrobotern und einer allgemeinen Verdummung des Menschen. In Science | |
Fiction und Unterhaltung sind solche Negativszenarien schon lange ein | |
attraktives Thema. | |
## Reale ökonomische Interessen | |
Solche Dystopien und die damit verbundenen Mystifizierungen verschleiern | |
jedoch die realen Interessen, die mit KI verbunden sind. In Hinblick auf | |
eine wert- und gemeinwohlorientierte Nutzung von KI ist vielmehr ganz | |
konventionell zu fragen: [5][Wem nützt eine Anwendung und wem schadet sie?] | |
Es gibt keine Indizien oder gar wissenschaftlich begründete Hinweise dafür, | |
dass KI an der Schwelle zu einer bösartigen Superintelligenz steht. Selbst | |
wenn die Forschung zu einer künstlichen allgemeinen Intelligenz in | |
Jahrzehnten zu überzeugenden Ergebnissen kommen sollte, dann wird diese | |
Intelligenz aller Wahrscheinlichkeit nach als Assistenzsystem zur | |
Unterstützung verschiedenster menschlicher Tätigkeiten genutzt werden. | |
So wie auch jetzt KI den Menschen in vielen Feldern sinnvoll unterstützen | |
und teils ersetzen kann. Das heißt jedoch nicht, dass KI sich eigenständige | |
Ziele setzen kann, die sie gegen eine hilflose Menschheit durchsetzt. | |
Vielmehr ist es so, dass die großen Digitalkonzerne wie Meta, Google oder | |
Amazon ihre in den letzten Jahrzehnten gehorteten Datenschätze nun für KI | |
und den Ausbau ihrer überragenden Marktpositionen nutzen können. Sie | |
beherrschen damit wichtige Bereiche der gesellschaftlichen Infrastrukturen | |
wie (öffentliche) Kommunikation und Handelsplattformen nach ihren | |
gewinnorientierten Zielen, ohne demokratisch kontrolliert zu werden. | |
## Stochastische Modelle haben andere Risiken | |
[6][Schreckensszenarien von nicht steuerbaren Superintelligenzen] täuschen | |
darüber hinweg, dass stochastische Modelle (das wäre eine sachgemäßere | |
Bezeichnung von KI) mit realen und ganz anderen großen Risiken verbunden | |
sind. Beispielhaft hierfür steht das Unternehmen „Neuralink“ von Elon Musk. | |
Musk, der kürzlich noch ein Moratorium zum Stopp der Forschung an | |
bedeutenden KI-Innovationen gefordert hat, will durch Implantate [7][eine | |
Schnittstelle zwischen Gehirn und Computer schaffen], mit der vermeintliche | |
menschliche Defizite wie Gedächtnisprobleme, Depression, Angst oder | |
Hörverlust behoben werden sollen. Hier wie auch für den gesamten | |
medizinischen Bereich von der Forschung, Diagnose über die Therapie bis hin | |
zu „Gesundheitsapps“ fallen die Möglichkeiten der KI auf fruchtbaren Boden. | |
Wir müssen also vielmehr nach den konkreten Folgen für Biopolitik, | |
Datenschutz und Menschenbild fragen, statt allgemein über | |
Schreckensszenarien zu sprechen. | |
KI hat auch Risiken für öffentliche Medienkommunikation und | |
Meinungsbildung. KI-Anwendungen helfen, Wahlkampagnen effektiver und | |
individualisierter zu gestalten. Sie haben aber auch das Potenzial, die | |
Präferenzen und Charaktereigenschaften von Wählern zu erkennen und zu | |
manipulieren, zum Beispiel durch Falschinformationen und [8][Deepfakes], | |
die gezielt und intransparent gestreut werden. Auch generell ist KI für die | |
Gestaltung von sozialen Medien von großer Bedeutung. KI steuert die | |
Antworten von Suchmaschinen, prägt die Auswahl von Inhalten in sozialen | |
Medien und generiert Texte und Bilder. In der Medienkommunikation | |
delegieren die Digitalkonzerne bereits jetzt viele Steuerungsaufgaben an | |
algorithmische Systeme. Aber eben nicht nach einem in Dystopien | |
vorgestellten Eigensinn der KI, sondern zielgenau für die | |
Geschäftsinteressen der Datenökonomie. | |
## Demokratische Antworten finden | |
Auf solche Probleme müssen demokratisch und ethisch legitimierte Antworten | |
gefunden werden. Zum Beispiel Offenlegungspflichten und Register für KI, | |
Zertifikate und Standards für riskante KI-Anwendungen oder für solche, die | |
mit Manipulation, Diskriminierung und Überwachung verbunden sein können. | |
Zum Beispiel zur Organisation von Migration, Personalauswahl oder solche, | |
die Auswirkungen auf kritische Infrastrukturen haben beziehungsweise in der | |
öffentlichen Verwaltung eingesetzt werden. | |
Aber auch Auswirkungen müssen gemeinwohlorientiert gestaltet werden: Wie | |
sieht es etwa mit den Arbeitnehmerinnenrechten für all diejenigen aus, die | |
KI-Daten beschriften und zur Nutzung vorbereiten? Wie kann eine wirksame | |
Konzentrationskontrolle für Digitalkonzerne umgesetzt werden? | |
## Es braucht Selbstverpflichtungen | |
Die aktuell vom Europaparlament [9][verabschiedete KI-Verordnung] wird ein | |
entscheidender Beitrag für eine verbesserte Regulierung sein. Die | |
KI-Verordnung reicht jedoch nicht aus. Wir brauchen insbesondere im | |
staatsfernen Medienbereich Selbstverpflichtungen mit | |
Kennzeichnungspflichten und redaktionell verantwortlichem Umgang mit | |
KI-Instrumenten im Journalismus. Zudem muss Ethik in KI-Forschung und | |
Entwicklung integriert werden, was inzwischen sogar in Google-Publikationen | |
gefordert wird. Und selbstverständlich sind wir auch alle selbst | |
aufgerufen, uns mit neuen Techniken wie KI auseinanderzusetzen und sie | |
selbstbestimmt zu nutzen. Dazu brauchen wir Bildung für kritische | |
Medienmündigkeit etwa in der Schule, der Hochschule und der Ausbildung. | |
Es stellt sich nicht die Frage, ob KI reguliert werden soll, sondern wer | |
das tut. Gesellschaften leben immer nach Normen und Regeln. Wenn wir sie | |
nicht demokratisch und gemeinsam bestimmen, überlassen wir die Regeln für | |
den Umgang mit KI den Digitalkonzernen. | |
26 Jun 2023 | |
## LINKS | |
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174 | |
[2] /Faschismus-durch-kuenstliche-Intelligenz/!5938774 | |
[3] /Elektroautos-mit-Solarzellen/!5908960 | |
[4] /Geplante-EU-Regulierung-von-KI/!5937412 | |
[5] /Macht-der-kuenstlichen-Intelligenz/!5937599 | |
[6] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661 | |
[7] /Neuropsychologin-ueber-Gehirne-und-Computer/!5941275 | |
[8] /Zauber-und-Gefahr-von-Deepfakes/!5600572 | |
[9] /Regulierung-Kuenstlicher-Intelligenz/!5940720 | |
## AUTOREN | |
Jessica Heesen | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
künstliche Intelligenz | |
Mensch-Maschine-Beziehung | |
Intelligente Maschinen | |
Amazon | |
Science-Fiction | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Saskia Esken | |
Amazon | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schlagloch | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz: ChatGPT wird dümmer | |
Forscher*innen der Stanford Universität und der UC Berkeley haben | |
Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt. | |
TÜV für Künstliche Intelligenz: Die Neuen im Newsroom | |
Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz. | |
Auch der Journalismus muss seine Grundsätze mal wieder updaten. | |
SPD-Chefin Esken über Desinformation: „Brauchen schlagkräftige Behörden“ | |
SPD-Chefin Saskia Esken fordert mehr Personal im Kampf gegen Fake News, | |
Hassrede im Netz und Desinformation. Doch auch da gebe es einen | |
Fachkräftemangel. | |
Kontrolle von Digitalkonzernen: Erfolg für das Bundeskartellamt | |
Der Onlinehändler Amazon klagt gegen besondere Kontrollen der | |
Wettbewerbshüter. Doch der BGH sieht in denen offenbar kein Problem. | |
KI in Filmen und Romanen: Die KI versteht dich besser | |
Was ist die Künstliche Intelligenz? Rationale Bedrohung? Oder | |
Wunschmaschine? Filme und Romane verwischen die Grenzen zwischen Mensch und | |
Programm. | |
Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz | |
Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf | |
konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig. | |
Macht der künstlichen Intelligenz: Wer profitiert | |
Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den | |
technologischen, sondern auch um den ökonomischen Aspekt. |