| # taz.de -- Präsident der Karlshochschule über KI: „Es gibt noch genug zu t… | |
| > Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die | |
| > Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint | |
| > Robert Lepenies. | |
| Bild: Reale Intelligenz: Student:innen in der Ludwig-Maximilians-Universität M… | |
| taz: Die Künstliche Intelligenz ChatGPT generiert auf Prüfungsfragen in | |
| Jura oder Medizin so gute Antworten, dass Student:innen damit Bestnoten | |
| erzielen würden. Wie verändert diese Entwicklung die Bedeutung des Wissens? | |
| Robert Lepenies: Selbst wenn eine Anwendung wie ChatGPT eines Tages | |
| verlässlich das bereits vorhandene Wissen der Welt zusammenfassen würde – | |
| es bliebe immer noch genug übrig, was uns keine Software abnehmen kann. Wir | |
| müssen zum Beispiel wissen, wie wir es schaffen, eine nachhaltige | |
| gesellschaftliche Transformation hinzukriegen. Wenn wir uns also fragen, | |
| was Hochschulen im Speziellen und Bildung im Allgemeinen in Zeiten von | |
| Künstlicher Intelligenz noch für eine Aufgabe hat, dann würde ich sagen: Es | |
| gibt noch genug zu tun. | |
| Was verändert [1][denn ChatGPT?] | |
| Erst mal macht es uns klar, wie falsch es ist, Bildung immer nur im Kontext | |
| von Prüfungen oder Seminararbeiten zu sehen. Wissen muss etwas sein, das | |
| die Welt voranbringt. Bringt uns diese Debatte hin zu mehr Praxisnähe, zum | |
| Ausprobieren, zum experimentellen Lernen? Das wäre toll. Ein reiner Fokus | |
| auf Hausarbeit oder Klausur als Maßstab für erfolgreiche Bildung – davon | |
| müssen wir uns befreien. | |
| Und ganz konkret? | |
| Die Leichtigkeit, mit der es möglich ist, mit ChatGPT schnell große Mengen | |
| an Text zu produzieren, die wälzt viel um. Und das betrifft tatsächlich | |
| alle Menschen, die an Bildungseinrichtungen arbeiten. Man kann eine | |
| schnelle Seminararbeit erstellen, eine Modulbeschreibung, man kann | |
| Werbetexte, Konferenzankündigungen, Bewerbungen oder Anträge unglaublich | |
| schnell generieren. | |
| Ist das jetzt gut oder schlecht? | |
| Ambivalent. | |
| Warum? | |
| Wir können einerseits ganz viel Hilfreiches damit anfangen. Nach Abschluss | |
| einer Bildungseinheit kann ich mir als Lehrender [2][von der Software] zum | |
| Beispiel ein Quiz dazu generieren lassen. Ich kann meinen Seminarplan | |
| hochladen mit der Frage, ob ich etwas Wichtiges vergessen habe. Bald werden | |
| wir wohl auf Knopfdruck einzelne Lernvideos erstellen und bebildern lassen | |
| können. Schon heute kann ich im Seminar einen Chatbot im Prozess des | |
| Brainstormings mit einbinden und dann gemeinschaftlich die Ergebnisse | |
| diskutieren. Da sind die Ergebnisse meiner Erfahrung nach viel | |
| höherwertiger, als wenn zunächst jeder für sich selbst nachdenkt oder mit | |
| Nachbarin oder Nachbarn. Das ist wie vor 30 Jahren in der Kneipe: Hatte da | |
| jemand eine Faktenfrage, konnte man auch nicht einfach nachschauen. Heute | |
| geht das. Und das kann eine Diskussion durchaus voranbringen oder | |
| Falschinformationen ausräumen. | |
| Und andererseits? | |
| Andererseits hängt die normative Bewertung solcher Technologien von | |
| mehreren Faktoren ab. Unter anderem auch davon, wie gerecht die | |
| Gesellschaft ist, auf die eine Technologie trifft – in unserer Welt, in der | |
| Lebenschancen global extrem ungleich verteilt sind, werden wir sicher bald | |
| die Auswirkungen spüren. Trifft eine disruptive Technologie auf eine sehr | |
| ungerechte Gesellschaft, wird sie davon höchstwahrscheinlich noch | |
| ungerechter. Trifft sie auf einen paradiesischen Zustand der Gleichheit, | |
| dann wird es mehr positive Effekte geben. | |
| Letzteres haben wir jedenfalls nicht. Welche Auswirkungen hat das also in | |
| der Praxis? | |
| Erstmal merken wir, dass sich etwas verändert. Und das ist gut, denn wann | |
| immer wir Veränderung wahrnehmen, können wir sie auch reflektieren und | |
| damit bewusst umgehen. Das heißt: An jedem [3][Tag der Lehre an jeder Uni | |
| ist ChatGPT] auch ein Thema. Da stellt sich etwa die Frage, wie wir unsere | |
| Studierenden auf eine Welt vorbereiten, in der sie sich ständig auf neue | |
| Technologien einstellen müssen. Wer wird von diesen Veränderungen betroffen | |
| sein? Was bedeutet es für eine Gesellschaft, wenn die Technologien ein | |
| ständiges Umorientieren erfordern? Hier sind wir wieder beim Thema | |
| Gerechtigkeit. Oder ganz konkret: Wie gehen die Prüfungsämter damit um, | |
| dass sich Seminararbeiten oder Teile davon einfach maschinell erstellen | |
| lassen? | |
| Ist das ein Problem, das Sie in der Praxis sehen? | |
| Noch nicht. Mit Betonung auf „noch“. Denn momentan kann man darüber lachen, | |
| dass es inhaltlich häufig Quatsch ist, was bei dem Programm rauskommt. | |
| Manche Studierende nutzen es trotzdem und fallen auf die Nase damit. Zum | |
| Beispiel, weil sie das Programm als Suchmaschine nutzen und | |
| Falschbehauptungen übernehmen. Die Frage ist: Was ist denn in drei Jahren, | |
| wenn diese Funktionen überall eingebettet sind? Haben dann noch Menschen | |
| die Konzentration, seitenlange Artikel durchzulesen? Oder haben wir das | |
| verlernt, weil alle sich nur noch KI-generierte Zusammenfassungen | |
| anschauen? Es ist faszinierend zu sehen, wie schnell sich Kulturtechniken | |
| verändern. | |
| Und welche Antworten haben Sie? | |
| Eine Antwort ist eine Pluralität der Prüfungsformen. Wir müssen vom | |
| Auswendiglernen und Reproduzieren weg zur Anwendung, zur Transformation – | |
| der Welt und der eigenen Persönlichkeit. Zum Beispiel Gruppenarbeit in | |
| konkreten Projekten in der Praxis. Da lernen die Studierenden direkt am | |
| Zahn der Zeit, was die Gesellschaft, was die Unternehmen oder | |
| Organisationen eigentlich denken und brauchen und welche Fragen sie sich | |
| stellen. Dabei verbringt beispielsweise eine Gruppe Studierender ein | |
| Semester bei einer zivilgesellschaftlichen Organisation und entwickelt | |
| gemeinsam mit denen ein durchführbares Konzept zu einer gesellschaftlich | |
| relevanten Frage. Was man jetzt schon absehen kann: Wir werden in Zukunft | |
| ganz neue Fähigkeiten brauchen. Eine ist, den Output eines solchen | |
| Programms richtig einzuordnen. Und zwar nicht nur offensichtliche | |
| Falschinformationen, sondern beispielsweise Verzerrungen, die sich durch | |
| einseitige Trainingsdaten ergeben können. Eine andere Kompetenz, die | |
| wichtiger werden wird: Wie bekomme ich das Programm überhaupt dazu, etwas | |
| Sinnvolles zu erzeugen? Das ist gar nicht so einfach, etwa bei einem | |
| Bildgenerator genau das Bild generiert zu bekommen, was man im Kopf hat. Da | |
| braucht man Ausdauer, aber auch ein gewisses Maß an Interaktion, Sozialität | |
| und intuitivem Wissen über die Welt jenseits der Maschine. Man braucht | |
| Impressionen von draußen, um in der Lage zu sein, einen guten Prompt … | |
| …das ist der Textbefehl für eine Künstliche Intelligenz … | |
| … zu generieren. Dieses Silicon-Valley-Bild, dass man einfach die Lernenden | |
| vor die Bildschirme setzt und dann wird das schon, das wird nie aufgehen | |
| können. Wir werden immer noch die Welt jenseits des Bildschirms brauchen. | |
| Inwieweit sind Sie in dem ganzen Prozess als Bildungseinrichtungen | |
| Getriebene oder Gestalterinnen? | |
| Ich hoffe natürlich, dass wir zu den Gestaltern gehören. Dass wir es | |
| schaffen, Reflektionsräume zu öffnen, Raum für Kritik zu geben – und nicht | |
| einfach beibringen, wie man die besten Prompts schreibt. Stattdessen geht | |
| es vor allem darum, kritisches Denken zu vermitteln: Wer bekommt denn die | |
| ganzen Daten der Nutzenden? Woher kommen die Trainingsdaten für die KI? | |
| Welche Biases, also Verzerrungen sind da möglicherweise drin? Wie geht man | |
| damit um? Wie checken wir Quellen? Das alles macht einen noch nicht zum | |
| Gestalter, aber es schafft eine Digitalkompetenz. Und die ist die Basis zum | |
| Gestalten. | |
| Und was braucht es noch? | |
| Ich glaube, wir brauchen mehrere große, politische Lösungen. Europäische | |
| KI-Modelle, die offen und privatsphärefreundlich sind, und eine wirksame | |
| Regulierung beispielsweise. Da passiert gerade noch nicht genug und vor | |
| allem nicht schnell genug. | |
| Je stärker wir KI-Anwendungen einbinden, desto abhängiger machen wir uns | |
| von ihnen – davon, dass das Internet funktioniert oder das Unternehmen | |
| OpenAI sein Programm ChatGPT weiterhin für alle kostenlos bereitstellt. | |
| Ja, da ist es wichtig, dass wir als Gesellschaft darauf achten, die | |
| Souveränität zu behalten. Dass wir also Entscheidungen weiterhin selber | |
| treffen und Kompetenzen – wie etwa die Fähigkeit zu einer medizinischen | |
| Diagnosestellung – immer noch haben, auch wenn die KI das vielleicht besser | |
| kann. Es braucht ein Reservoir an Menschen, die elementare Kulturtechniken | |
| beherrschen, wie etwa das Schreiben. Ob es aber deshalb sinnvoll ist, alle | |
| Schüler:innen in einer Abiturprüfung fünf Stunden lang mit einem | |
| Kugelschreiber ein Papier bearbeiten zu lassen – das bezweifel ich. | |
| 26 Apr 2023 | |
| ## LINKS | |
| [1] /ChatGPT-mit-Tuecken/!5924109 | |
| [2] /OpenAI-in-der-Kritk/!5922783 | |
| [3] /ChatGPT-loest-Bildungskrise-aus/!5920652 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Bildung | |
| Unterricht | |
| Schwerpunkt Künstliche Intelligenz | |
| GNS | |
| Kiel | |
| Bürgerrechte | |
| Zukunft | |
| IG | |
| Roboter | |
| ## ARTIKEL ZUM THEMA | |
| Künstliche Intelligenz in der Medizin: Hatschi? KI! | |
| Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein | |
| Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen | |
| helfen. | |
| Chancenstartprogramm und Schulförderung: Eine Lehrstunde aus Kiel | |
| Der Bund will ab 2024 benachteiligte Schüler:innen mit mehr Geld | |
| unterstützen. An einer Schule in Kiel weiß man, wie es sinnvoll eingesetzt | |
| wird. | |
| KI-Regulierung in der EU: Regeln für die Maschine | |
| EU-Abgeordnete haben sich auf einen Entwurf geeinigt, der KI nach Risiko | |
| einstufen soll. Damit sollen Menschenrechte geschützt und die Wirtschaft | |
| beflügelt werden. | |
| Künstliche Intelligenz: Wer hat Angst vor ChatGPT? | |
| Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald | |
| von Maschinen übernommen werden. Warum das kein Albtraum sein muss. | |
| Risiken von KI: „Alles geht zu schnell“ | |
| Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
| Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
| KI und Anthropomorphismus: Mensch in der Maschine? | |
| Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
| wir zu menschlichen Metaphern. Aber das birgt Probleme. |