Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- ChatGPT mit Tücken: Kein Entkommen vor der KI
> Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
> Anfang einer rasanten Entwicklung – die auch Risiken birgt.
Bild: Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbi…
Berlin taz | Wie wird [1][Künstliche Intelligenz (KI]) unsere Gesellschaft
verändern? Und welche Weiterentwicklungen sind in nächster Zeit zu
erwarten? Mit der Veröffentlichung [2][des KI-Chatbots ChatGPT] sind diese
Fragen nicht nur in der Wissenschaft, sondern [3][auch in der Gesellschaft
in den Vordergrund gerückt]. „Ich würde das als eine technologische
Revolution bezeichnen“, sagte der KI-Experte Hinrich Schütze bei einem
Gespräch des Science Media Centers am Donnerstag zu den jüngsten
Entwicklungen.
Revolutionär sei unter anderem die Menge der verwendeten Trainingsdaten und
der Fortschritt, dass ein Chatbot auch in der Lage sei, daraus dialogische
Situationen zu generieren. Und bei aller Kritik an den Falschinformationen,
die ChatGPT erzeugt: Im Vergleich zur ersten Generation an
KI-Textgeneratoren, so Schütz, hätten sich grobe Fehler und Probleme wie
Rassismus und Falschinformationen „um Größenordnungen verbessert“.
Das US-Unternehmen [4][OpenAI] hatte ChatGPT im November vorgestellt. Die
KI wurde mit großen Textmengen trainiert und generiert auf Basis dieser
Trainingsdaten neue Texte. In der vergangenen Woche wurde für zahlende
Kund:innen eine neue Version freigeschaltet. Die kann nicht nur Texte,
sondern auch Bilder verarbeiten. Expert:innen nennen das Multimodalität.
Diese Multimodalität ist ein erster Schritt hin von einer schwachen KI, die
nur eine Disziplin beherrscht, zu einer starken KI, die viele Bereiche
miteinander verbindet.
Mit ChatGPT hat es eine KI-Anwendung erstmals geschafft, Künstliche
Intelligenz für eine breite Masse an Menschen erfahrbar zu machen – sowohl
was die Potenziale als auch was die Grenzen angeht. Als besonders
problematisch gilt, dass das Programm auch in nennenswertem Umfang
[5][Falschinformationen generiert]. Diese sind für Nutzer:innen jedoch
nicht direkt erkennbar, denn ChatGPT gibt keine Quellen für die erstellten
Texte an.
[6][Nicole Krämer, Professorin für Sozialpsychologie an der Universität
Duisburg-Essen], wies auf ein weiteres Problem hin: „Menschen verstehen
viel zu wenig, wie solche Systeme funktionieren.“ Das führe zu
Fehleinschätzungen – einerseits bezüglich des Vertrauens, das der Software
entgegengebracht werde. Andererseits aber auch in Bezug auf den Umgang mit
den eigenen Daten. Menschen vertrauten KI-Systemen wie ChatGPT, aber auch
Amazons Alexa zahlreiche persönliche Daten an.
„Die Gefahr ist nicht unbedingt die einzelne Info, die ich durch meine
Anfrage an das System reingebe, sondern die Tatsache, dass das wieder mit
anderen Daten zusammengebracht werden kann“, warnte sie. Hier sei der
[7][Gesetzgeber gefordert]. Der müsse mindestens sicherstellen, dass die
Nutzer:innen sich tatsächlich darüber im Klaren seien, welche Daten wie
verarbeitet würden.
## Kaum ein digitales Dasein ohne KI
Das wäre um so wichtiger, weil es Krämer zufolge in den kommenden Jahren
immer schwieriger werde, keine Daten an eine KI zu liefern. Selbst wer sich
keinen Sprachassistenten wie Alexa in die Wohnung holt, auf ChatGPT und
KI-gestützte Suchmaschinen verzichtet, nutze vielleicht soziale Medien –
und auch da würde unter anderem KI über die Sortierung und Sichtbarkeit von
Nachrichten eine Rolle spielen. „Ich glaube, ganz entkommen kann man der KI
nicht.“
[8][Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des
Centrums für Informations- und Sprachverarbeitung an der
Ludwig-Maximilians-Universität München], wies ebenso auf die Kehrseiten der
neuen Technologie hin: Berufsfelder, die überflüssig würden, eine
zunehmende Intransparenz der Systeme, wenn Menschen bei Suchanfragen nur
noch Antworten, aber keine Quellen mehr angezeigt bekommen.
Und: „Es wird die Versuchung bestehen, Entscheidungen durch diese Maschinen
machen zu lassen.“ In den Bereichen Recht und Vermögensberatung
beispielsweise, aber auch in der Medizin. Das Problem dabei: Die
Entscheidung der KI komme mit einer hohen Glaubwürdigkeit daher – dabei sei
die Sicherheit der Aussage überhaupt nicht einschätzbar. „Und die Menschen
sind nicht daran gewöhnt, dass jemand mit hundertprozentiger Sicherheit und
Selbstvertrauen spricht, aber völlig falsch liegt.“ Das müssten wir als
Gesellschaft lernen und das werde „ein schwieriger Prozess.“
Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche
verbindet, könnte die Robotik sein. [9][Marc Toussaint ist Leiter des
Fachgebietes Intelligente Systeme an der Technischen Universität Berlin]
und hat selbst an einem KI-Modell mitgearbeitet, das Sprache und Robotik
verbindet. Ein Roboter, ausgestattet mit Kamera und Greifarm, konnte so
Sprachbefehle ausführen – und etwa Chips aus der richtigen Schublade holen.
Toussaint teilt den Revolutionsgedanken: Mit der „Verschränkung von Sprache
und physischer Welt“ eröffneten sich ganz neue Möglichkeiten.
Doch Revolution hin oder der – Schütze warnt gleichzeitig davor, zu viel
Potenzial in den neuesten Entwicklungen zu sehen. „Wir haben noch keine
echte Künstliche Intelligenz erreicht“, sagte er. Die sehe er erst, wenn
bei der KI ein „tiefes Verständnis der physischen und sozialen Welt“
erreicht sei – und da rechne er noch mit jahrzentelanger Arbeit.
24 Mar 2023
## LINKS
[1] /kuenstliche-Intelligenz/!t5025529
[2] /OpenAI-in-der-Kritk/!5922783
[3] /ChatGPT-loest-Bildungskrise-aus/!5920652
[4] /OpenAI-in-der-Kritk/!5922783
[5] /Kuenstliche-Intelligenz/!5905841
[6] https://www.uni-due.de/sozialpsychologie/kraemer
[7] /Kuenstliche-Intelligenz-in-Deutschland/!5908323
[8] https://schuetze.cis.lmu.de/
[9] https://www.user.tu-berlin.de/mtoussai/
## AUTOREN
Svenja Bergt
## TAGS
Roboter
Technologie
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Kolumne Digitalozän
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Kriminalität
Technologie
Interview
Technischer Fortschritt
Transparenz
Lesestück Recherche und Reportage
Bot
## ARTIKEL ZUM THEMA
Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zuschreibt
Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen Norweger
hat es nun besonders schwer getroffen.
Leben zwischen KI und Supermarktregal: Wenn Kaffee zu Albträumen führt
Supermarkt oder Internet? Das kann beim Einkaufen zur existenziellen Frage
werden. Und zu einer, die sich manchmal nur mit Kaffee durchstehen lässt.
Osnabrücker Höflichkeits-Forschung: „Nicht schlecht“ kann alles heißen
Nicole Gotzner von der Universität Osnabrück erforscht, wie höfliches
Sprechen funktioniert. Meist geht es darum, das Gesicht zu wahren.
EU-Regulierung für ChatGPT und Co.: Keine Massenüberwachung
EU-Abgeordnete stimmen für Auflagen für Künstliche Intelligenz.
Bürgerrechtler:innen äußern sich positiv. Das war beim Vorschlag des Rats
noch anders.
Falschaussagen der KI: Rufschädigung durch ChatGPT
Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood
fälschlicherweise als Kriminellen. Dagegen will er vorgehen.
Moratorium über Umgang mit KI: Pause mit Problemen
Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“
Sucht, Schulden, Kindererziehung – bei vielen Problemen können
Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI?
KI in Wissenschaft und Journalismus: Mensch und Maschine
Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die
Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI
nicht.
OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
problematischer.
ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch
etwas Zentrales verlorengeht. Stimmt das?
Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“
Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz
spricht über Chancen, Risiken und die Bewusstseinsfrage.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.