Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz: Keine Panik vor KI
> Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und
> verhindert eine Debatte über Gefahren wie die Interessen von Google oder
> Amazon.
Bild: Schreckensszenarien täuschen darüber hinweg, dass stochastische Modelle…
Seit [1][Sprachmodelle wie ChatGPT] im Herbst 2022 für die Allgemeinheit
geöffnet wurden, ist ein breiter gesellschaftlicher Diskurs über künstliche
Intelligenz (KI) entstanden. Der spannt sich aktuell über den
Gesprächsstoff sommerlicher Gartenpartys („Also, ich habe die KI mal
gefragt, …“) über optimistische Äußerungen aus der Wirtschaft („zentra…
Wettbewerbsfaktor“) [2][bis hin zu dystopischen Warnungen] aus der
digitalen Techbranche selbst („Verlust der Steuerungsfähigkeit unserer
Zivilisation“). Die Reaktionen auf KI schwanken zwischen Faszination und
Grauen. Was stimmt denn nun und wie kann man für KI zu einer ausgewogenen
Einschätzung kommen? Klar ist: KI-Anwendungen müssen reguliert werden, um
sie für Demokratie und Gemeinwohl gestalten zu können.
KI ganz allgemein als Technik in den Blick zu nehmen und zu überlegen, ob
sie denn gut oder schlecht sei, ist ungefähr so sinnvoll, wie über die Vor-
und Nachteile der Stromversorgung nachzudenken. Die Verfügbarkeit von
Elektrizität hat zu einer starken Veränderung der Lebens- und Arbeitswelten
geführt. Kaum jemand kommt jedoch auf die Idee, sie an sich zu bewerten.
Sondern sie begegnet uns zum Beispiel in Form der Straßenbeleuchtung, des
Küchenmixers oder [3][eines Elektroautos]. Ähnlich verhält es sich auch
mit KI: Sie ist immer in ihren jeweiligen Anwendungskontexten zu
betrachten. Für ein KI-Sprachmodell sind andere Anwendungsregeln notwendig
als für einen autonom fahrenden PKW oder für KI, die für die Auswahl von
Inhalten in Sozialen Medien genutzt wird. Natürlich brauchen wir – wie in
der Stromversorgung – allgemeine Standards zur sicheren und ethisch
akzeptablen Nutzung von KI. Dazu gehören unter anderem menschliche
Aufsicht, Trainingsdatenqualität oder Nachvollziehbarkeit.
Es wird häufig der Eindruck erweckt, bei KI handele sich um eine ganz
besondere Technik, die „autonom“ handele, dem Menschen überlegen sei und
ganz prinzipiell nicht verstanden werden könne. Deshalb könne man sie
schlecht regulieren. Das stimmt nicht. Wenn man als durchschnittliche
Verbraucherin ein Gerät oder eine Maschine nicht versteht, kann man diese
Technik trotzdem nutzen und den Umgang mit ihr sicher und gut gestalten.
Den ganz überwiegenden Teil der Techniken, die wir benutzen, verstehen wir
nicht. Man denke nur an den Küchenmixer oder das Auto. Ihre Funktion können
nur wenige Expertinnen und Experten erklären. Die meisten wollen einfach
nur sicher ohne Stromschlag Sahne schlagen oder mit dem PKW fahren und
zuverlässig das Bremspedal treten können.
Trotzdem müssen Technologien natürlich im Prinzip transparent sein, sodass
sie kontrolliert hergestellt werden können und die durch sie ausgelösten
Handlungen rechtssicher nachvollziehbar sind. Aber es muss nicht für jede
einzelne Person, die KI nutzt, die Funktion im Detail erklärbar sein. In
einem demokratischen Rechtsstaat sorgen starke Institutionen für eine
verbraucherfreundliche Nutzung von Techniken, ohne dass jede einzelne von
uns ein Informatikstudium für das Leben in einer digitalen Gesellschaft
ablegen muss.
## Steuerung ist möglich
Tatsächlich allerdings ist es so, dass KI teils auch für Expertinnen
intransparent bleibt. Anwendungen suchen sich selbst ihre Lösungswege für
bestimmte Aufgaben. KI „lernt“ auf anderen Wegen als Menschen und erstellt
Muster aus Daten, deren Genese (sowohl der Muster als auch der Daten) nicht
oder nur schlecht nachvollziehbar sind. Trotzdem können die Randbedingungen
und die Ergebnisse von KI-gesteuerten Prozessen durch den Menschen kritisch
nachvollzogen und bewertet werden. Zum Beispiel können Trainingsdaten
dokumentiert und kritisch geprüft werden, die Algorithmen für
KI-Anwendungen können nach ethischen Kriterien aufgestellt und durch
unabhängige Stellen kontrolliert werden. Auch die Ergebnisse von
automatisierten Entscheidungen sollten fortlaufend auf Diskriminierung,
Unausgewogenheit und Fehler untersucht werden, sodass auch bei
selbstlernenden Systemen stets im Blick behalten wird, dass neue
Eigendynamiken maschinellen Lernens keinen schädlichen Einfluss gewinnen.
Seit einigen Monaten wird [4][vermehrt vor den großen Risiken der KI
gewarnt]. In offenen Briefen von Wissenschaftlerinnen und Vertretern von
Digitalkonzernen ist von der Dominanz der KI die Rede, von Deepfakes oder
Killerrobotern und einer allgemeinen Verdummung des Menschen. In Science
Fiction und Unterhaltung sind solche Negativszenarien schon lange ein
attraktives Thema.
## Reale ökonomische Interessen
Solche Dystopien und die damit verbundenen Mystifizierungen verschleiern
jedoch die realen Interessen, die mit KI verbunden sind. In Hinblick auf
eine wert- und gemeinwohlorientierte Nutzung von KI ist vielmehr ganz
konventionell zu fragen: [5][Wem nützt eine Anwendung und wem schadet sie?]
Es gibt keine Indizien oder gar wissenschaftlich begründete Hinweise dafür,
dass KI an der Schwelle zu einer bösartigen Superintelligenz steht. Selbst
wenn die Forschung zu einer künstlichen allgemeinen Intelligenz in
Jahrzehnten zu überzeugenden Ergebnissen kommen sollte, dann wird diese
Intelligenz aller Wahrscheinlichkeit nach als Assistenzsystem zur
Unterstützung verschiedenster menschlicher Tätigkeiten genutzt werden.
So wie auch jetzt KI den Menschen in vielen Feldern sinnvoll unterstützen
und teils ersetzen kann. Das heißt jedoch nicht, dass KI sich eigenständige
Ziele setzen kann, die sie gegen eine hilflose Menschheit durchsetzt.
Vielmehr ist es so, dass die großen Digitalkonzerne wie Meta, Google oder
Amazon ihre in den letzten Jahrzehnten gehorteten Datenschätze nun für KI
und den Ausbau ihrer überragenden Marktpositionen nutzen können. Sie
beherrschen damit wichtige Bereiche der gesellschaftlichen Infrastrukturen
wie (öffentliche) Kommunikation und Handelsplattformen nach ihren
gewinnorientierten Zielen, ohne demokratisch kontrolliert zu werden.
## Stochastische Modelle haben andere Risiken
[6][Schreckensszenarien von nicht steuerbaren Superintelligenzen] täuschen
darüber hinweg, dass stochastische Modelle (das wäre eine sachgemäßere
Bezeichnung von KI) mit realen und ganz anderen großen Risiken verbunden
sind. Beispielhaft hierfür steht das Unternehmen „Neuralink“ von Elon Musk.
Musk, der kürzlich noch ein Moratorium zum Stopp der Forschung an
bedeutenden KI-Innovationen gefordert hat, will durch Implantate [7][eine
Schnittstelle zwischen Gehirn und Computer schaffen], mit der vermeintliche
menschliche Defizite wie Gedächtnisprobleme, Depression, Angst oder
Hörverlust behoben werden sollen. Hier wie auch für den gesamten
medizinischen Bereich von der Forschung, Diagnose über die Therapie bis hin
zu „Gesundheitsapps“ fallen die Möglichkeiten der KI auf fruchtbaren Boden.
Wir müssen also vielmehr nach den konkreten Folgen für Biopolitik,
Datenschutz und Menschenbild fragen, statt allgemein über
Schreckensszenarien zu sprechen.
KI hat auch Risiken für öffentliche Medienkommunikation und
Meinungsbildung. KI-Anwendungen helfen, Wahlkampagnen effektiver und
individualisierter zu gestalten. Sie haben aber auch das Potenzial, die
Präferenzen und Charaktereigenschaften von Wählern zu erkennen und zu
manipulieren, zum Beispiel durch Falschinformationen und [8][Deepfakes],
die gezielt und intransparent gestreut werden. Auch generell ist KI für die
Gestaltung von sozialen Medien von großer Bedeutung. KI steuert die
Antworten von Suchmaschinen, prägt die Auswahl von Inhalten in sozialen
Medien und generiert Texte und Bilder. In der Medienkommunikation
delegieren die Digitalkonzerne bereits jetzt viele Steuerungsaufgaben an
algorithmische Systeme. Aber eben nicht nach einem in Dystopien
vorgestellten Eigensinn der KI, sondern zielgenau für die
Geschäftsinteressen der Datenökonomie.
## Demokratische Antworten finden
Auf solche Probleme müssen demokratisch und ethisch legitimierte Antworten
gefunden werden. Zum Beispiel Offenlegungspflichten und Register für KI,
Zertifikate und Standards für riskante KI-Anwendungen oder für solche, die
mit Manipulation, Diskriminierung und Überwachung verbunden sein können.
Zum Beispiel zur Organisation von Migration, Personalauswahl oder solche,
die Auswirkungen auf kritische Infrastrukturen haben beziehungsweise in der
öffentlichen Verwaltung eingesetzt werden.
Aber auch Auswirkungen müssen gemeinwohlorientiert gestaltet werden: Wie
sieht es etwa mit den Arbeitnehmerinnenrechten für all diejenigen aus, die
KI-Daten beschriften und zur Nutzung vorbereiten? Wie kann eine wirksame
Konzentrationskontrolle für Digitalkonzerne umgesetzt werden?
## Es braucht Selbstverpflichtungen
Die aktuell vom Europaparlament [9][verabschiedete KI-Verordnung] wird ein
entscheidender Beitrag für eine verbesserte Regulierung sein. Die
KI-Verordnung reicht jedoch nicht aus. Wir brauchen insbesondere im
staatsfernen Medienbereich Selbstverpflichtungen mit
Kennzeichnungspflichten und redaktionell verantwortlichem Umgang mit
KI-Instrumenten im Journalismus. Zudem muss Ethik in KI-Forschung und
Entwicklung integriert werden, was inzwischen sogar in Google-Publikationen
gefordert wird. Und selbstverständlich sind wir auch alle selbst
aufgerufen, uns mit neuen Techniken wie KI auseinanderzusetzen und sie
selbstbestimmt zu nutzen. Dazu brauchen wir Bildung für kritische
Medienmündigkeit etwa in der Schule, der Hochschule und der Ausbildung.
Es stellt sich nicht die Frage, ob KI reguliert werden soll, sondern wer
das tut. Gesellschaften leben immer nach Normen und Regeln. Wenn wir sie
nicht demokratisch und gemeinsam bestimmen, überlassen wir die Regeln für
den Umgang mit KI den Digitalkonzernen.
26 Jun 2023
## LINKS
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[2] /Faschismus-durch-kuenstliche-Intelligenz/!5938774
[3] /Elektroautos-mit-Solarzellen/!5908960
[4] /Geplante-EU-Regulierung-von-KI/!5937412
[5] /Macht-der-kuenstlichen-Intelligenz/!5937599
[6] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
[7] /Neuropsychologin-ueber-Gehirne-und-Computer/!5941275
[8] /Zauber-und-Gefahr-von-Deepfakes/!5600572
[9] /Regulierung-Kuenstlicher-Intelligenz/!5940720
## AUTOREN
Jessica Heesen
## TAGS
Mensch-Maschine-Beziehung
Google
Amazon
Science-Fiction
Intelligente Maschinen
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Pressefreiheit
Saskia Esken
Amazon
Literatur
Gesetz
Technologie
## ARTIKEL ZUM THEMA
Künstliche Intelligenz: ChatGPT wird dümmer
Forscher*innen der Stanford Universität und der UC Berkeley haben
Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
TÜV für Künstliche Intelligenz: Die Neuen im Newsroom
Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz.
Auch der Journalismus muss seine Grundsätze mal wieder updaten.
SPD-Chefin Esken über Desinformation: „Brauchen schlagkräftige Behörden“
SPD-Chefin Saskia Esken fordert mehr Personal im Kampf gegen Fake News,
Hassrede im Netz und Desinformation. Doch auch da gebe es einen
Fachkräftemangel.
Kontrolle von Digitalkonzernen: Erfolg für das Bundeskartellamt
Der Onlinehändler Amazon klagt gegen besondere Kontrollen der
Wettbewerbshüter. Doch der BGH sieht in denen offenbar kein Problem.
KI in Filmen und Romanen: Die KI versteht dich besser
Was ist die Künstliche Intelligenz? Rationale Bedrohung? Oder
Wunschmaschine? Filme und Romane verwischen die Grenzen zwischen Mensch und
Programm.
Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz
Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf
konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig.
Macht der künstlichen Intelligenz: Wer profitiert
Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den
technologischen, sondern auch um den ökonomischen Aspekt.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.