Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz: Wenn ChatGPT immer blöder wird
> Unsere Kolumnist*in betrachtet die Beziehung zu ChatGPT eigentlich als
> Freundschaft. Doch jetzt wird das nützliche Tool immer weniger nützlich.
Bild: Wenn die KI immer dümmer zu werden droht, dann hilft vielleicht selber d…
Künstliche Intelligenz ist toll. ChatGPT hat mir neulich geholfen, eine
aggressive Inkassoforderung der Deutschen Bahn zurückzuweisen. Zack,
Widerspruch geschrieben, keine 180 Euro bezahlt. Klar, ich musste noch
etwas herumdoktern und alles am Ende inhaltlich checken, aber die KI hat
mich hier klar empowered. Kaum drohte ChatGPT – pardon, ich! – mit Klage,
kam ein Einschreiben reingeflattert, in dem sämtliche Forderungen
zurückgenommen wurden.
Ich verdanke meinem Kumpel ChatGPT jede Menge. Diverse Bußgelder, die ich
nicht bezahlen musste zum Beispiel, und auch der nervige Autovermieter, der
mich mit Rückführungskosten und Schadenersatz ärgern wollte, ließ sich von
der juristischen Argumentation des Jean Gipitó, wie ich ihn liebevoll
nenne, überzeugen. Mein künstlich intelligenter Freund beantwortet mir
Fragen, schreibt meine Rechnungen und beschleunigt meinen Job immens. Wenn
ich eine neue Technologie oder ein Framework lernen will, frage ich
inzwischen die KI. Seit ChatGPT und ich so dicke sind, lerne ich schneller
neue Technologien und kann gefühlt alles.
Also alles geil? Nun ja. Leider bin nicht nur ich mit ChatGPT befreundet.
Und das ärgert mich. Manchmal stoße ich im Internet auf Texte und frage
mich: Bist du es? Hat ChatGPT diesen Text geschrieben? Ich sorge mich um
meinen Kumpel. Ich habe Angst, dass er verblödet.
Generative KI ist unter anderem deshalb so gut geworden, weil die
Unternehmen dahinter in den vergangenen Jahren Unmengen neuer Daten
aggregiert haben. Mal ganz abgesehen von lästigen Fragen wie Urheberrecht
oder Datenschutz: Die Qualität zukünftiger KIs wird sich daran entscheiden,
wer die meisten Daten menschlichen Ursprungs hat. Konzerne wie Alphabet
oder OpenAI kämpfen bereits jetzt darum, alle verfügbaren menschlichen
Daten im Internet zu finden und als Trainingsdatenfutter zu verwenden.
Das Problem: Je [1][mehr dieser Daten vollständig oder zum Teil KI-basiert
sind], desto mehr füttern wir KIs mit Daten, die sie selbst erzeugt haben.
Auf lange Sicht führt das quasi zum Rinderwahnsinn der KI. Konsumiert die
KI zu viele synthetische Daten, erzeugt das einen Effekt, der „Model
Autophagy Disorder“ genannt wird – das Ding frisst sich selbst.
Leider gibt es bislang kaum Daten dazu, wie groß der Anteil an KI-basierten
Inhalten im Internet ist. Aber Tatsache ist: Die Verlockung ist groß. Wer
Produkte vermarkten oder politische Kampagnen pushen will, greift heute,
und in Zukunft noch mehr, auf KI zurück. Es ist wie bei der Zerstörung des
Klimas. Für den Einzelnen ist es im Augenblick lohnenswerter, nur im
eigenen Interesse zu handeln und KI zur Erstellung von Inhalten zu nutzen –
also zu zerstören, was uns dienen soll.
Aber muss das wirklich passieren? Nein. Wir könnten uns kollektiv darauf
besinnen, wie unfassbar geil das gerade alles ist. Wir könnten uns genau
jetzt darauf konzentrieren, die bestehenden KI-Modelle [2][sinnvoll zu
nutzen]. Denn bei aller Euphorie sind die gesellschaftlichen Umwälzungen
enorm. Wir Menschen sind die Ressource, die KI zum Leben braucht. Unser
Handeln ist das Lebenselixier dieser wunderbaren
Widerspruch-schreib-DNS-Problemlösungs-Linux-Pro-und-Grundmandatserklär-Mas
chinen.
Wir Menschen brauchen jetzt ein bisschen Zeit, um das alles sinnvoll zu
verarbeiten – denn nur dann können wir neue Daten erschaffen und der KI
hochwertiges neues Futter geben. Ich will nicht, dass ihr dümmer werdet,
liebe generative KIs. Deshalb: Slow down, humans.
16 Sep 2024
## LINKS
[1] /Kuenstliche-Intelligenz-und-Vermuellung/!5997952
[2] /Digitaler-Protest-in-Kenia-und-Nigeria/!6026485
## AUTOREN
Maurice Conrad
## TAGS
Kolumne Änder Studies
wochentaz
Zukunft
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Bundestagswahl 2025
wochentaz
Zukunft
Kolumne Änder Studies
Schlagloch
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Chat-GPT über Musk-Weidel-Gespräch: „Frau Weidel, Sie könnten mehr Mars-Mi…
Liebes Chat-GPT, Elon Musk und Alice Weidel wollen auf der Plattform X
miteinander sprechen. Stelle dir bitte vor, wie das Gespräch ablaufen
könnte.
Geringe Literalität: „Es ist nicht unser Ziel, das Lesenlernen zu ersetzen“
Für Menschen, die nicht gut lesen und schreiben können, sind viele
Alltagsaufgaben Hürden und Stress. Könnte Künstliche Intelligenz sie
unterstützen?
KI-Chatbots: Chatten gegen Verschwörungsmythen
Verschwörungserzählungen sind weit verbreitet. Eine neue Studie zeigt, dass
KI-Systeme wie ChatGPT helfen können, Menschen mit Fakten zu überzeugen.
Kamala Harris: Mut und Optimismus statt Lethargie
Unser*e Kolumnist*in war frustriert, dass Joe Biden wieder zur Wahl
als US-Präsident antreten wollte. Doch dann kam die Hoffnung zurück.
Zwischenbilanz einer neuen Technologie: Im KI-Taumel
Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange.
Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz.
Künstliche Intelligenz: ChatGPT wird dümmer
Forscher*innen der Stanford Universität und der UC Berkeley haben
Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.