# taz.de -- Präsident der Karlshochschule über KI: „Es gibt noch genug zu t… | |
> Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die | |
> Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint | |
> Robert Lepenies. | |
Bild: Reale Intelligenz: Student:innen in der Ludwig-Maximilians-Universität M… | |
taz: Die Künstliche Intelligenz ChatGPT generiert auf Prüfungsfragen in | |
Jura oder Medizin so gute Antworten, dass Student:innen damit Bestnoten | |
erzielen würden. Wie verändert diese Entwicklung die Bedeutung des Wissens? | |
Robert Lepenies: Selbst wenn eine Anwendung wie ChatGPT eines Tages | |
verlässlich das bereits vorhandene Wissen der Welt zusammenfassen würde – | |
es bliebe immer noch genug übrig, was uns keine Software abnehmen kann. Wir | |
müssen zum Beispiel wissen, wie wir es schaffen, eine nachhaltige | |
gesellschaftliche Transformation hinzukriegen. Wenn wir uns also fragen, | |
was Hochschulen im Speziellen und Bildung im Allgemeinen in Zeiten von | |
Künstlicher Intelligenz noch für eine Aufgabe hat, dann würde ich sagen: Es | |
gibt noch genug zu tun. | |
Was verändert [1][denn ChatGPT?] | |
Erst mal macht es uns klar, wie falsch es ist, Bildung immer nur im Kontext | |
von Prüfungen oder Seminararbeiten zu sehen. Wissen muss etwas sein, das | |
die Welt voranbringt. Bringt uns diese Debatte hin zu mehr Praxisnähe, zum | |
Ausprobieren, zum experimentellen Lernen? Das wäre toll. Ein reiner Fokus | |
auf Hausarbeit oder Klausur als Maßstab für erfolgreiche Bildung – davon | |
müssen wir uns befreien. | |
Und ganz konkret? | |
Die Leichtigkeit, mit der es möglich ist, mit ChatGPT schnell große Mengen | |
an Text zu produzieren, die wälzt viel um. Und das betrifft tatsächlich | |
alle Menschen, die an Bildungseinrichtungen arbeiten. Man kann eine | |
schnelle Seminararbeit erstellen, eine Modulbeschreibung, man kann | |
Werbetexte, Konferenzankündigungen, Bewerbungen oder Anträge unglaublich | |
schnell generieren. | |
Ist das jetzt gut oder schlecht? | |
Ambivalent. | |
Warum? | |
Wir können einerseits ganz viel Hilfreiches damit anfangen. Nach Abschluss | |
einer Bildungseinheit kann ich mir als Lehrender [2][von der Software] zum | |
Beispiel ein Quiz dazu generieren lassen. Ich kann meinen Seminarplan | |
hochladen mit der Frage, ob ich etwas Wichtiges vergessen habe. Bald werden | |
wir wohl auf Knopfdruck einzelne Lernvideos erstellen und bebildern lassen | |
können. Schon heute kann ich im Seminar einen Chatbot im Prozess des | |
Brainstormings mit einbinden und dann gemeinschaftlich die Ergebnisse | |
diskutieren. Da sind die Ergebnisse meiner Erfahrung nach viel | |
höherwertiger, als wenn zunächst jeder für sich selbst nachdenkt oder mit | |
Nachbarin oder Nachbarn. Das ist wie vor 30 Jahren in der Kneipe: Hatte da | |
jemand eine Faktenfrage, konnte man auch nicht einfach nachschauen. Heute | |
geht das. Und das kann eine Diskussion durchaus voranbringen oder | |
Falschinformationen ausräumen. | |
Und andererseits? | |
Andererseits hängt die normative Bewertung solcher Technologien von | |
mehreren Faktoren ab. Unter anderem auch davon, wie gerecht die | |
Gesellschaft ist, auf die eine Technologie trifft – in unserer Welt, in der | |
Lebenschancen global extrem ungleich verteilt sind, werden wir sicher bald | |
die Auswirkungen spüren. Trifft eine disruptive Technologie auf eine sehr | |
ungerechte Gesellschaft, wird sie davon höchstwahrscheinlich noch | |
ungerechter. Trifft sie auf einen paradiesischen Zustand der Gleichheit, | |
dann wird es mehr positive Effekte geben. | |
Letzteres haben wir jedenfalls nicht. Welche Auswirkungen hat das also in | |
der Praxis? | |
Erstmal merken wir, dass sich etwas verändert. Und das ist gut, denn wann | |
immer wir Veränderung wahrnehmen, können wir sie auch reflektieren und | |
damit bewusst umgehen. Das heißt: An jedem [3][Tag der Lehre an jeder Uni | |
ist ChatGPT] auch ein Thema. Da stellt sich etwa die Frage, wie wir unsere | |
Studierenden auf eine Welt vorbereiten, in der sie sich ständig auf neue | |
Technologien einstellen müssen. Wer wird von diesen Veränderungen betroffen | |
sein? Was bedeutet es für eine Gesellschaft, wenn die Technologien ein | |
ständiges Umorientieren erfordern? Hier sind wir wieder beim Thema | |
Gerechtigkeit. Oder ganz konkret: Wie gehen die Prüfungsämter damit um, | |
dass sich Seminararbeiten oder Teile davon einfach maschinell erstellen | |
lassen? | |
Ist das ein Problem, das Sie in der Praxis sehen? | |
Noch nicht. Mit Betonung auf „noch“. Denn momentan kann man darüber lachen, | |
dass es inhaltlich häufig Quatsch ist, was bei dem Programm rauskommt. | |
Manche Studierende nutzen es trotzdem und fallen auf die Nase damit. Zum | |
Beispiel, weil sie das Programm als Suchmaschine nutzen und | |
Falschbehauptungen übernehmen. Die Frage ist: Was ist denn in drei Jahren, | |
wenn diese Funktionen überall eingebettet sind? Haben dann noch Menschen | |
die Konzentration, seitenlange Artikel durchzulesen? Oder haben wir das | |
verlernt, weil alle sich nur noch KI-generierte Zusammenfassungen | |
anschauen? Es ist faszinierend zu sehen, wie schnell sich Kulturtechniken | |
verändern. | |
Und welche Antworten haben Sie? | |
Eine Antwort ist eine Pluralität der Prüfungsformen. Wir müssen vom | |
Auswendiglernen und Reproduzieren weg zur Anwendung, zur Transformation – | |
der Welt und der eigenen Persönlichkeit. Zum Beispiel Gruppenarbeit in | |
konkreten Projekten in der Praxis. Da lernen die Studierenden direkt am | |
Zahn der Zeit, was die Gesellschaft, was die Unternehmen oder | |
Organisationen eigentlich denken und brauchen und welche Fragen sie sich | |
stellen. Dabei verbringt beispielsweise eine Gruppe Studierender ein | |
Semester bei einer zivilgesellschaftlichen Organisation und entwickelt | |
gemeinsam mit denen ein durchführbares Konzept zu einer gesellschaftlich | |
relevanten Frage. Was man jetzt schon absehen kann: Wir werden in Zukunft | |
ganz neue Fähigkeiten brauchen. Eine ist, den Output eines solchen | |
Programms richtig einzuordnen. Und zwar nicht nur offensichtliche | |
Falschinformationen, sondern beispielsweise Verzerrungen, die sich durch | |
einseitige Trainingsdaten ergeben können. Eine andere Kompetenz, die | |
wichtiger werden wird: Wie bekomme ich das Programm überhaupt dazu, etwas | |
Sinnvolles zu erzeugen? Das ist gar nicht so einfach, etwa bei einem | |
Bildgenerator genau das Bild generiert zu bekommen, was man im Kopf hat. Da | |
braucht man Ausdauer, aber auch ein gewisses Maß an Interaktion, Sozialität | |
und intuitivem Wissen über die Welt jenseits der Maschine. Man braucht | |
Impressionen von draußen, um in der Lage zu sein, einen guten Prompt … | |
…das ist der Textbefehl für eine Künstliche Intelligenz … | |
… zu generieren. Dieses Silicon-Valley-Bild, dass man einfach die Lernenden | |
vor die Bildschirme setzt und dann wird das schon, das wird nie aufgehen | |
können. Wir werden immer noch die Welt jenseits des Bildschirms brauchen. | |
Inwieweit sind Sie in dem ganzen Prozess als Bildungseinrichtungen | |
Getriebene oder Gestalterinnen? | |
Ich hoffe natürlich, dass wir zu den Gestaltern gehören. Dass wir es | |
schaffen, Reflektionsräume zu öffnen, Raum für Kritik zu geben – und nicht | |
einfach beibringen, wie man die besten Prompts schreibt. Stattdessen geht | |
es vor allem darum, kritisches Denken zu vermitteln: Wer bekommt denn die | |
ganzen Daten der Nutzenden? Woher kommen die Trainingsdaten für die KI? | |
Welche Biases, also Verzerrungen sind da möglicherweise drin? Wie geht man | |
damit um? Wie checken wir Quellen? Das alles macht einen noch nicht zum | |
Gestalter, aber es schafft eine Digitalkompetenz. Und die ist die Basis zum | |
Gestalten. | |
Und was braucht es noch? | |
Ich glaube, wir brauchen mehrere große, politische Lösungen. Europäische | |
KI-Modelle, die offen und privatsphärefreundlich sind, und eine wirksame | |
Regulierung beispielsweise. Da passiert gerade noch nicht genug und vor | |
allem nicht schnell genug. | |
Je stärker wir KI-Anwendungen einbinden, desto abhängiger machen wir uns | |
von ihnen – davon, dass das Internet funktioniert oder das Unternehmen | |
OpenAI sein Programm ChatGPT weiterhin für alle kostenlos bereitstellt. | |
Ja, da ist es wichtig, dass wir als Gesellschaft darauf achten, die | |
Souveränität zu behalten. Dass wir also Entscheidungen weiterhin selber | |
treffen und Kompetenzen – wie etwa die Fähigkeit zu einer medizinischen | |
Diagnosestellung – immer noch haben, auch wenn die KI das vielleicht besser | |
kann. Es braucht ein Reservoir an Menschen, die elementare Kulturtechniken | |
beherrschen, wie etwa das Schreiben. Ob es aber deshalb sinnvoll ist, alle | |
Schüler:innen in einer Abiturprüfung fünf Stunden lang mit einem | |
Kugelschreiber ein Papier bearbeiten zu lassen – das bezweifel ich. | |
26 Apr 2023 | |
## LINKS | |
[1] /ChatGPT-mit-Tuecken/!5924109 | |
[2] /OpenAI-in-der-Kritk/!5922783 | |
[3] /ChatGPT-loest-Bildungskrise-aus/!5920652 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Bildung | |
Unterricht | |
Schwerpunkt Künstliche Intelligenz | |
GNS | |
Kiel | |
Bürgerrechte | |
Zukunft | |
IG | |
Roboter | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz in der Medizin: Hatschi? KI! | |
Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein | |
Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen | |
helfen. | |
Chancenstartprogramm und Schulförderung: Eine Lehrstunde aus Kiel | |
Der Bund will ab 2024 benachteiligte Schüler:innen mit mehr Geld | |
unterstützen. An einer Schule in Kiel weiß man, wie es sinnvoll eingesetzt | |
wird. | |
KI-Regulierung in der EU: Regeln für die Maschine | |
EU-Abgeordnete haben sich auf einen Entwurf geeinigt, der KI nach Risiko | |
einstufen soll. Damit sollen Menschenrechte geschützt und die Wirtschaft | |
beflügelt werden. | |
Künstliche Intelligenz: Wer hat Angst vor ChatGPT? | |
Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald | |
von Maschinen übernommen werden. Warum das kein Albtraum sein muss. | |
Risiken von KI: „Alles geht zu schnell“ | |
Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
KI und Anthropomorphismus: Mensch in der Maschine? | |
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
wir zu menschlichen Metaphern. Aber das birgt Probleme. |