Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz an Universitäten: Eine neue Ära des Studi…
> Über 90 Prozent der Studierenden nutzen im Studium KI. Expert*innen
> und Beteiligte streiten, ob das der Lehre und dem Lernen hilft oder
> schadet.
Bild: Studierende, die Chatbots für ein Essay verwenden, erinnern später kaum…
Berlin taz | Ginge es nach Stephan Krusche, würden alle Menschen in
Deutschland zu KI-Gurus werden. Weil das aber wohl unmöglich ist, kümmert
sich der Informatik-Professor der Technischen Universität München (TUM)
fürs Erste um seine Studierenden und Kolleg*innen.
Wer ihm zuhört, merkt schnell, wie begeistert Krusche auf [1][die neue Welt
der künstlichen Intelligenz (KI)] blickt. Bereits kurz nach der
Veröffentlichung von ChatGPT im November 2022 brach für ihn und die gesamte
Tech-Branche eine „Goldgräber-Stimmung“ aus: Immer tiefer hinein in den
digitalen Wilden Westen, um „Ideen, die wir nicht umsetzen konnten, weil
die Technologie limitiert war“, endlich zu realisieren.
Krusche ist überzeugt, dass KI die universitäre Bildung revolutionieren
kann: Student*innen müssen dank KI-Tutoren nicht mehr ewig auf Feedback
warten. Überlastete Professoren können sich bei der Erstellung von
Kursinhalten helfen lassen. Bestenfalls bekommen auch Bürofachkräfte oder
wissenschaftliche Mitarbeiter*innen künftig weniger stupide Aufgaben
übertragen – es gibt ja die KI.
Doch nicht jeder denkt so. Manche sehen im Chatbot-Hype den nahenden
Zusammenbruch der Hochschulbildung. Wo sich beide Seiten einig sind: KI ist
längst nicht mehr aus den Laptops der Studis wegzudenken.
## KI inzwischen fester Bestandteil des Studiums
Das bestätigt [2][eine Studie der Hochschule Darmstadt]. Aktuell nutzen
über 90 Prozent der Studierenden KI-basierte Tools für die Uni – vor zwei
Jahren waren es noch 63 Prozent. Binnen weniger Jahre, so die Autor*innen,
habe sich KI „von einer punktuellen Hilfestellung zu einem festen
Bestandteil des Studiums entwickelt“.
Daraus machen Studierende auch keinen Hehl. Eine Berliner Studentin der
Politikwissenschaft etwa erzählt der taz, dass sie ChatGPT gerade zur
Vorbereitung auf eine Prüfung in einem Spanischkurs nutzt. Sie hat dazu
einen Prompt eingegeben, der die KI auf Basis bisheriger Seminarinhalte
neue Übungsaufgaben produzieren lässt. Gerade füllt sie Wortlücken mit
Vokabeln aus. Die KI als Lernassistent? „Ich kann das nur empfehlen“, sagt
sie.
Auch die Zusammenfassung von Forschungsliteratur durch die KI ist bei
Studierenden beliebt, um sofort die Kernaussagen bisweilen langatmiger
Journalartikel vor sich zu haben.
Ein Student der TU München, der anonym bleiben möchte, gibt zu: „Ich habe
keinen Satz selber geschrieben in meiner Bachelorarbeit.“ Er habe aber
natürlich selbst die inhaltlichen Überlegungen gemacht, Literatursichtung
mal ausgenommen, da habe ihm auch eine KI geholfen. Dafür hat er seine
Stichpunkte der KI gegeben und gesagt: „Paraphrasiere mir das mal in einem
scientific Ton.“
Grundsätzlich warnen Hochschulen davor, sorglos Aufgaben an KI auszulagern,
etwa in der Textarbeit. „Ein KI-Modell kann bestenfalls Daten
zusammenfassen, wobei ich selbst da skeptisch bin“, sagt Martin Wan,
Projektleiter der [3][Hochschulrektorenkonferenz (HRK)] beim Hochschulforum
Digitalisierung. „Wenn es heißt, ein KI-Modell fasst Informationen eines
Textes zusammen, dann fasst es diese in der Regel nicht analytisch
verstehend zusammen, sondern es kürzt bzw. verkürzt sie algorithmisch.“
Die HRK ist ein Zusammenschluss von 271 deutschen Hochschulen und beteiligt
sich am Hochschulforum, einem vom Bundesforschungsministerium geförderten
Thinktank, der sich schwerpunktmäßig mit Herausforderungen durch
Digitalisierung und KI beschäftigt.
## Fähigkeiten wie Textverständnis könnten verloren gehen
Aus Sicht von Wan werde insbesondere die Quellenkritik im Zeitalter
computergenerierten Denkens „noch wichtiger als jemals zuvor“. Er sieht
seinen Auftrag auch darin, „im Sinne der Persönlichkeitsentwicklung“ darauf
hinzuwirken, dass Studierende KI-Modelle souverän benutzen.
Die Selbstverständlichkeit, mit der Studis KI einsetzen, stört auch Martina
Thiele von der Uni Tübingen. Die Professorin für Medienwissenschaft sieht
die Gefahr einer Abhängigkeit, des Verlernens von Kulturtechniken wie dem
Lesen und Verstehen längerer Texte oder dem eigenständigen Entwickeln
schlüssiger Argumentation. Expert*innen sprechen von „De-Skilling“, also
dem Verlorengehen von Fähigkeiten, weil man sie zu wenig trainiert.
Die Gründe, vermehrt auf KI zurückzugreifen, liegen laut Thiele auch im
Druck, den viele Studierende verspüren. „Wir sind in so einem Hamsterrad.
Der Konkurrenzdruck wird immer größer bei Studierenden und
Wissenschaftler*innen.“ Die Verlockung, zu Hilfsmitteln zu greifen, sei da
groß.
Thiele sieht weitere negative Begleiterscheinungen der KI, die ihr in der
Debatte zu kurz kommen. Sie meint, die dazu nötigen Rechenzentren würden
enorm Energie verbrauchen. Dazu kommen Fragen bei Urheberrechten und
geistigem Eigentum. „Es ist mehr als bedenklich, eigene Texte, mehr noch
aber die anderen Autor*innen ungefragt in die KI-Systeme einzuspeisen“,
meint Thiele, „Wir füttern da wirklich einen Kraken.“
Auch TUM-Professor Krusche erkennt Gefahren der neuen Technologie, jedoch
immer mit dem Blick auf die von ihm wahrgenommenen Vorteile. „Die guten
Studenten werden besser“, sagt Krusche; bei schwachen oder mittelmäßigen
Studierenden, die viel KI nutzen, merke man jedoch, „dass sie nicht die
gewünschten Kompetenzen entwickeln“.
Ob Krusches Beobachtungen auf alle Studierenden zutreffen, ist bisher kaum
erforscht. Eine [4][Untersuchung des Massachusetts Institute of Technology
(MIT)] liefert jedoch Ansatzpunkte. Das MIT untersuchte über mehrere Phasen
die Hirnaktivität von 54 Teilnehmer*innen beim Schreiben eines Essays.
Sie wurden in drei Gruppen eingeteilt: Ein Teil durfte beim Verfassen des
Textes KI benutzen, ein Teil Google samt der auffindbaren Suchergebnisse,
ein dritter Teil blieb ohne Hilfsmittel. Das Ergebnis: Je mehr externe
Unterstützung, desto weniger Netzwerkbildung im Gehirn.
Und auch andere Kompetenzen litten: Die erste Versuchsgruppe identifizierte
sich kaum mit ihren Essays und konnte selbst kurz nach dem Schreibprozess
nur noch wenig daraus zitieren. Die Autor*innen bilanzieren, dass die
Hirnaktivität bei denjenigen nachließ, die nur mit KI gearbeitet hatten.
## „Jedes Fach muss es für sich selbst als Thema wahrnehmen“
Dass routinierte Nutzer*innen Vorteile haben, birgt laut Krusche auch
Gefahren: Menschen, die KI nicht nutzen können oder wollen, werden
abgehängt; ähnlich wie es früher mit dem Internet war. Das
[5][Hochschulforum Digitalisierung] arbeitet daran, im Uni-Kontext
möglichst viele Menschen mitzunehmen: etwa über „KI-Labs“, in denen
Lehrende Einsatzszenarien erproben und diskutieren. Insbesondere aber über
die AG Künstliche Intelligenz, die Herausforderungen der Hochschulbildung
auslotete [6][und im März Handlungsempfehlungen vorlegte].
„Jedes Fach muss es für sich selbst als Thema wahrnehmen“, mahnt
HRK-Experte Wan. „KI betrifft nicht nur die Informatiker oder nur die
Ingenieure. Sondern es betrifft auch den Germanisten genauso wie den
Philosophen.“ Nicht nur handwerkliche Aspekte der KI gelte es dabei zu
berücksichtigen, auch die Funktionsweisen der Technologie müssten kritisch
hinterfragt und im Nutzungsverhalten berücksichtigt werden.
Dass Chatbots bestehendes Herrschaftswissen und unbewusste
[7][Diskriminierung verstetigen] und somit indirekt gesellschaftliche
Diskurse beeinflussen könnten, ist auch eine Sorge, die viele Studierende
umtreibt.
Auch Krusche möchte so viele Studierende und Professor*innen wie
möglich mit KI vertraut machen und entwickelte innerhalb der
Open-Source-Lernplattform Artemis einen Chatbot namens Iris, der
Studierenden bei Übungsaufgaben und einem besseren Verständnis der
Vorlesungen helfen soll. „Ich sehe vor allem das schnelle Feedback und die
schnelle Hilfestellung bei den Studenten als Möglichkeit, dass die
Lernerfahrung besser und die Frustration gesenkt wird“, erklärt Krusche.
Besonders beim Programmieren sei so ein Chatbot hilfreich, denn „Studenten
müssen sich durch sehr viele Fehlermeldungen durchkämpfen, die sie oft gar
nicht verstehen.“ Ein TUM-Student, der auch Artemis nutzt und Probleme beim
Programmieren hatte, kannte Iris nicht. Die Kommunikation zwischen
Studierenden, Professoren und Universitäten ist auch ein Problem.
## Studierende wünschen sich stärkere Vorgaben
Denn Studierende wünschen sich vor allem stärkere Vorgaben zur KI-Nutzung –
deutschlandweit sprechen sich [8][einer Befragung des Centrums für
Hochschulentwicklung (CHE)] zufolge rund 70 Prozent dafür aus. Das Angebot
ihrer Hochschulen zum Kompetenzerwerb im Bereich KI bewerten Studierende im
Schnitt mit 2,7 von 5 Sternen, ein Fünftel mit nur einem Stern.
Das liegt aber nicht daran, dass Universitäten keine Vorgaben oder Angebote
machen. Dass die Freie Universität (FU) Berlin bereits im Mai 2023 [9][ein
sechsseitiges Eckpunktepapier] zum Umgang mit KI-basierten Tools
veröffentlichte, war vielen Studierenden dort schlicht nicht bekannt.
Im FU-Papier wird beispielsweise empfohlen, bei Prüfungen unter Aufsicht
KI-Tools nicht zuzulassen. Bei Hausarbeiten sollen die jeweiligen
Prüfungsausschüsse über die Zulässigkeit entscheiden. Ein Einsatz von KI
bei einem Verbot stelle bei beiden Fällen einen Täuschungsversuch dar.
Bei der Nutzung von KI-Detektoren ist die Uni – [10][im Sinne des
Forschungsstandes] – zurückhaltend: Es sei „angesichts derzeit nicht
hinreichender Ergebnisqualität und mangels Überprüfbarkeit der Ergebnisse“
durch Prüfende zweifelhaft, ob Ergebnisse der Software „prüfungsrechtlich
Bestand haben können“.
Werden Präsentationen und mündliche Prüfungen zur Alternative?
In Tübingen bemerkte Thiele durch KI „halluzinierte“ Quellenangaben im
Literaturverzeichnis, einmal sogar eine nicht existente Studie von ihr
selbst. Mittlerweile werden Texte direkt im Seminar, mal mit, mal ohne
KI-Unterstützung geschrieben, Ergebnisse verglichen. Und es gibt mehr
Präsentationen und mündliche Prüfungen.
Ein Student von der FU spricht sich gegen ein grundsätzliches Verbot von
KI-Tools bei Prüfungsszenarien aus: „Wer es nutzt und dann auf die Fresse
fliegt, der soll halt auf die Fresse fliegen.“
24 Jul 2025
## LINKS
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[2] https://opus4.kobv.de/opus4-h-da/frontdoor/deliver/index/docId/533/file/gpt…
[3] https://www.hrk.de/
[4] https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/
[5] https://hochschulforumdigitalisierung.de/
[6] https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/01/HFD_AP_…
[7] https://thenextweb.com/news/chatgpt-advises-women-to-ask-for-lower-salaries…
[8] https://www.che.de/2025/ein-viertel-der-studierenden-nutzt-taeglich-kuenstl…
[9] https://www.fu-berlin.de/campusleben/lernen-und-lehren/2023/230511-umgang-m…
[10] https://arxiv.org/ftp/arxiv/papers/2403/2403.19148.pdf
## AUTOREN
Marc Tawadrous
Sönke Gorgos
## TAGS
Schwerpunkt Künstliche Intelligenz
Hochschulpolitik
Digitalisierung
Social-Auswahl
Bildungssystem
Schwerpunkt Stadtland
Schwerpunkt Künstliche Intelligenz
GNS
## ARTIKEL ZUM THEMA
Kinder benachteiligter Familien: Wenn die Kita schon zu spät ist
Eine Langzeitstudie zeigt, wie stark soziale Ungleichheiten bereits im
Alter von zwei Jahren sichtbar werden. Was muss der Staat tun?
Boom der Rechenzentren: Platz da für die KI
Bei künstlicher Intelligenz geht es für Internetgiganten wie Google und
Amazon um riesige Datenmengen. Im Berliner Umland boomen die Rechenzentren.
Entwicklung von KI: Künstliche Intelligenz macht Angst
Computer, die menschenähnlich denken, versprachen die Zukunft. Heute sehen
das viele anders, so eine neue Studie.
Künstliche Intelligenz: Die Deutschen waren früh dran
1988 entstand das Deutsche Forschungszentrum für KI – also lange Zeit vor
Google, Amazon und Meta. Warum wurde ChatGPT dennoch in den USA entwickelt?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.