Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Präsident der Karlshochschule über KI: „Es gibt noch genug zu t…
> Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die
> Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint
> Robert Lepenies.
Bild: Reale Intelligenz: Student:innen in der Ludwig-Maximilians-Universität M…
taz: Die Künstliche Intelligenz ChatGPT generiert auf Prüfungsfragen in
Jura oder Medizin so gute Antworten, dass Student:innen damit Bestnoten
erzielen würden. Wie verändert diese Entwicklung die Bedeutung des Wissens?
Robert Lepenies: Selbst wenn eine Anwendung wie ChatGPT eines Tages
verlässlich das bereits vorhandene Wissen der Welt zusammenfassen würde –
es bliebe immer noch genug übrig, was uns keine Software abnehmen kann. Wir
müssen zum Beispiel wissen, wie wir es schaffen, eine nachhaltige
gesellschaftliche Transformation hinzukriegen. Wenn wir uns also fragen,
was Hochschulen im Speziellen und Bildung im Allgemeinen in Zeiten von
Künstlicher Intelligenz noch für eine Aufgabe hat, dann würde ich sagen: Es
gibt noch genug zu tun.
Was verändert [1][denn ChatGPT?]
Erst mal macht es uns klar, wie falsch es ist, Bildung immer nur im Kontext
von Prüfungen oder Seminararbeiten zu sehen. Wissen muss etwas sein, das
die Welt voranbringt. Bringt uns diese Debatte hin zu mehr Praxisnähe, zum
Ausprobieren, zum experimentellen Lernen? Das wäre toll. Ein reiner Fokus
auf Hausarbeit oder Klausur als Maßstab für erfolgreiche Bildung – davon
müssen wir uns befreien.
Und ganz konkret?
Die Leichtigkeit, mit der es möglich ist, mit ChatGPT schnell große Mengen
an Text zu produzieren, die wälzt viel um. Und das betrifft tatsächlich
alle Menschen, die an Bildungseinrichtungen arbeiten. Man kann eine
schnelle Seminararbeit erstellen, eine Modulbeschreibung, man kann
Werbetexte, Konferenzankündigungen, Bewerbungen oder Anträge unglaublich
schnell generieren.
Ist das jetzt gut oder schlecht?
Ambivalent.
Warum?
Wir können einerseits ganz viel Hilfreiches damit anfangen. Nach Abschluss
einer Bildungseinheit kann ich mir als Lehrender [2][von der Software] zum
Beispiel ein Quiz dazu generieren lassen. Ich kann meinen Seminarplan
hochladen mit der Frage, ob ich etwas Wichtiges vergessen habe. Bald werden
wir wohl auf Knopfdruck einzelne Lernvideos erstellen und bebildern lassen
können. Schon heute kann ich im Seminar einen Chatbot im Prozess des
Brainstormings mit einbinden und dann gemeinschaftlich die Ergebnisse
diskutieren. Da sind die Ergebnisse meiner Erfahrung nach viel
höherwertiger, als wenn zunächst jeder für sich selbst nachdenkt oder mit
Nachbarin oder Nachbarn. Das ist wie vor 30 Jahren in der Kneipe: Hatte da
jemand eine Faktenfrage, konnte man auch nicht einfach nachschauen. Heute
geht das. Und das kann eine Diskussion durchaus voranbringen oder
Falschinformationen ausräumen.
Und andererseits?
Andererseits hängt die normative Bewertung solcher Technologien von
mehreren Faktoren ab. Unter anderem auch davon, wie gerecht die
Gesellschaft ist, auf die eine Technologie trifft – in unserer Welt, in der
Lebenschancen global extrem ungleich verteilt sind, werden wir sicher bald
die Auswirkungen spüren. Trifft eine disruptive Technologie auf eine sehr
ungerechte Gesellschaft, wird sie davon höchstwahrscheinlich noch
ungerechter. Trifft sie auf einen paradiesischen Zustand der Gleichheit,
dann wird es mehr positive Effekte geben.
Letzteres haben wir jedenfalls nicht. Welche Auswirkungen hat das also in
der Praxis?
Erstmal merken wir, dass sich etwas verändert. Und das ist gut, denn wann
immer wir Veränderung wahrnehmen, können wir sie auch reflektieren und
damit bewusst umgehen. Das heißt: An jedem [3][Tag der Lehre an jeder Uni
ist ChatGPT] auch ein Thema. Da stellt sich etwa die Frage, wie wir unsere
Studierenden auf eine Welt vorbereiten, in der sie sich ständig auf neue
Technologien einstellen müssen. Wer wird von diesen Veränderungen betroffen
sein? Was bedeutet es für eine Gesellschaft, wenn die Technologien ein
ständiges Umorientieren erfordern? Hier sind wir wieder beim Thema
Gerechtigkeit. Oder ganz konkret: Wie gehen die Prüfungsämter damit um,
dass sich Seminararbeiten oder Teile davon einfach maschinell erstellen
lassen?
Ist das ein Problem, das Sie in der Praxis sehen?
Noch nicht. Mit Betonung auf „noch“. Denn momentan kann man darüber lachen,
dass es inhaltlich häufig Quatsch ist, was bei dem Programm rauskommt.
Manche Studierende nutzen es trotzdem und fallen auf die Nase damit. Zum
Beispiel, weil sie das Programm als Suchmaschine nutzen und
Falschbehauptungen übernehmen. Die Frage ist: Was ist denn in drei Jahren,
wenn diese Funktionen überall eingebettet sind? Haben dann noch Menschen
die Konzentration, seitenlange Artikel durchzulesen? Oder haben wir das
verlernt, weil alle sich nur noch KI-generierte Zusammenfassungen
anschauen? Es ist faszinierend zu sehen, wie schnell sich Kulturtechniken
verändern.
Und welche Antworten haben Sie?
Eine Antwort ist eine Pluralität der Prüfungsformen. Wir müssen vom
Auswendiglernen und Reproduzieren weg zur Anwendung, zur Transformation –
der Welt und der eigenen Persönlichkeit. Zum Beispiel Gruppenarbeit in
konkreten Projekten in der Praxis. Da lernen die Studierenden direkt am
Zahn der Zeit, was die Gesellschaft, was die Unternehmen oder
Organisationen eigentlich denken und brauchen und welche Fragen sie sich
stellen. Dabei verbringt beispielsweise eine Gruppe Studierender ein
Semester bei einer zivilgesellschaftlichen Organisation und entwickelt
gemeinsam mit denen ein durchführbares Konzept zu einer gesellschaftlich
relevanten Frage. Was man jetzt schon absehen kann: Wir werden in Zukunft
ganz neue Fähigkeiten brauchen. Eine ist, den Output eines solchen
Programms richtig einzuordnen. Und zwar nicht nur offensichtliche
Falschinformationen, sondern beispielsweise Verzerrungen, die sich durch
einseitige Trainingsdaten ergeben können. Eine andere Kompetenz, die
wichtiger werden wird: Wie bekomme ich das Programm überhaupt dazu, etwas
Sinnvolles zu erzeugen? Das ist gar nicht so einfach, etwa bei einem
Bildgenerator genau das Bild generiert zu bekommen, was man im Kopf hat. Da
braucht man Ausdauer, aber auch ein gewisses Maß an Interaktion, Sozialität
und intuitivem Wissen über die Welt jenseits der Maschine. Man braucht
Impressionen von draußen, um in der Lage zu sein, einen guten Prompt …
…das ist der Textbefehl für eine Künstliche Intelligenz …
… zu generieren. Dieses Silicon-Valley-Bild, dass man einfach die Lernenden
vor die Bildschirme setzt und dann wird das schon, das wird nie aufgehen
können. Wir werden immer noch die Welt jenseits des Bildschirms brauchen.
Inwieweit sind Sie in dem ganzen Prozess als Bildungseinrichtungen
Getriebene oder Gestalterinnen?
Ich hoffe natürlich, dass wir zu den Gestaltern gehören. Dass wir es
schaffen, Reflektionsräume zu öffnen, Raum für Kritik zu geben – und nicht
einfach beibringen, wie man die besten Prompts schreibt. Stattdessen geht
es vor allem darum, kritisches Denken zu vermitteln: Wer bekommt denn die
ganzen Daten der Nutzenden? Woher kommen die Trainingsdaten für die KI?
Welche Biases, also Verzerrungen sind da möglicherweise drin? Wie geht man
damit um? Wie checken wir Quellen? Das alles macht einen noch nicht zum
Gestalter, aber es schafft eine Digitalkompetenz. Und die ist die Basis zum
Gestalten.
Und was braucht es noch?
Ich glaube, wir brauchen mehrere große, politische Lösungen. Europäische
KI-Modelle, die offen und privatsphärefreundlich sind, und eine wirksame
Regulierung beispielsweise. Da passiert gerade noch nicht genug und vor
allem nicht schnell genug.
Je stärker wir KI-Anwendungen einbinden, desto abhängiger machen wir uns
von ihnen – davon, dass das Internet funktioniert oder das Unternehmen
OpenAI sein Programm ChatGPT weiterhin für alle kostenlos bereitstellt.
Ja, da ist es wichtig, dass wir als Gesellschaft darauf achten, die
Souveränität zu behalten. Dass wir also Entscheidungen weiterhin selber
treffen und Kompetenzen – wie etwa die Fähigkeit zu einer medizinischen
Diagnosestellung – immer noch haben, auch wenn die KI das vielleicht besser
kann. Es braucht ein Reservoir an Menschen, die elementare Kulturtechniken
beherrschen, wie etwa das Schreiben. Ob es aber deshalb sinnvoll ist, alle
Schüler:innen in einer Abiturprüfung fünf Stunden lang mit einem
Kugelschreiber ein Papier bearbeiten zu lassen – das bezweifel ich.
26 Apr 2023
## LINKS
[1] /ChatGPT-mit-Tuecken/!5924109
[2] /OpenAI-in-der-Kritk/!5922783
[3] /ChatGPT-loest-Bildungskrise-aus/!5920652
## AUTOREN
Svenja Bergt
## TAGS
Bildung
Unterricht
Schwerpunkt Künstliche Intelligenz
GNS
Kiel
Bürgerrechte
Zukunft
IG
Roboter
## ARTIKEL ZUM THEMA
Künstliche Intelligenz in der Medizin: Hatschi? KI!
Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein
Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen
helfen.
Chancenstartprogramm und Schulförderung: Eine Lehrstunde aus Kiel
Der Bund will ab 2024 benachteiligte Schüler:innen mit mehr Geld
unterstützen. An einer Schule in Kiel weiß man, wie es sinnvoll eingesetzt
wird.
KI-Regulierung in der EU: Regeln für die Maschine
EU-Abgeordnete haben sich auf einen Entwurf geeinigt, der KI nach Risiko
einstufen soll. Damit sollen Menschenrechte geschützt und die Wirtschaft
beflügelt werden.
Künstliche Intelligenz: Wer hat Angst vor ChatGPT?
Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald
von Maschinen übernommen werden. Warum das kein Albtraum sein muss.
Risiken von KI: „Alles geht zu schnell“
Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
KI und Anthropomorphismus: Mensch in der Maschine?
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
wir zu menschlichen Metaphern. Aber das birgt Probleme.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.