Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
> Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
> Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung
> dadurch etwas Zentrales verlorengeht. Stimmt das?
Die ersten Videos liefen zum Jahreswechsel auf Sihams Smartphone ein. Von
da an folgte ein Tiktok-Kurzclip auf den nächsten, neben Kosmetik-, Tanz-
und Tiervideos immer wieder ChatGPT, die geniale Erfindung. „Ständig
erzählte irgendjemand, wie einfach man damit Hausaufgaben machen kann und
wie es das ganze Schulleben auf den Kopf stellen würde“, sagt die Schülerin
aus der Fritz-Karsen-Schule in Berlin-Neukölln. „Also habe ich es selbst
ausprobiert.“
Seit ChatGPT Ende November 2022 gestartet ist, drehen sich die Diskussionen
in sozialen Netzwerken oft um das auf einer künstlichen Intelligenz (KI)
basierende Sprachsystem. Und Spiegel, Zeit, FAZ machen KI zum Titelthema.
Was KI bereits alles kann, wo KI schon überall eingesetzt wird, wann KI
unsere Arbeit übernimmt. Wöchentlich gibt es neue Experteninterviews, oder
die KI schreibt die Kolumnen gleich selbst – wie einmal im Monat in der
wochentaz, wo [1][die künstliche Intelligenz Anic T. Waed Autorin der
Kolumne „Intelligenzbestie“ ist].
ChatGPT, so heißt es, könne komplexe Fragen beantworten, gebe Erklärungen
und Tipps, helfe genauso schnell bei der Reiseplanung, wie sie einen
Computercode oder ein neues Theaterstück schreibt.
„Zuerst habe ich die Englischaufgaben damit gemacht“, sagt Siham. „Frage
eingeben und die Antwort kopieren. Das geht total einfach, wenn man mal
faul ist oder keine Zeit hat.“ Auch bei grundsätzlichem Lernstoff, für den
im Unterricht der Oberstufe mal wieder nicht genug Zeit blieb, hilft
ChatGPT nach. Dadurch wurde die KI zum Standard-Tool der 17-Jährigen. „Wenn
mir die Antwort nicht ausreicht, schreibe ich:,Erkläre das genauer', oder
ich stelle meine Frage anders. Schon bekomme ich einen neuen,
detaillierteren Text, der mir beim Lernen hilft.“
## War das jetzt schon gemogelt?
In diesen Tagen macht sich mal Begeisterung breit, mal Besorgnis. Dabei
hätten wir auch schon vor Jahren von KI überwältigt sein können: Erst
bezwingt ein Computer den Weltmeister im Schach, dann helfen Navis beim
Autofahren, später empfehlen uns Algorithmen personalisierte Inhalte wie
Bücher, Musik, Filme und Schnäppchen. Aber so richtig von den Socken sind
wir erst, als eine KI beginnt, auf Zuruf verrückte Bilder zu zeichnen oder
in einem Chatfenster mit uns zu plaudern. Faszinierend und gruselig
zugleich.
Gruselig vor allem für Schulen und Universitäten. Denn dort, wo Schreiben
eine Persönlichkeit ausbilden, kritisches Denken fördern und junge Menschen
zu mündigen BürgerInnen erziehen soll, beginnen die jungen Menschen, das
Schreiben einer Maschine zu überlassen.
Wenn dieser Schritt aber von einem Computer übernommen wird, geht in der
Persönlichkeitsentwicklung nicht etwas Zentrales verloren? Muss das
Bildungswesen einschreiten? Kann man das überhaupt verhindern?
Gerade wurde Siham von ihrem Lehrer erwischt. Was heißt schon „erwischt“:
„Warum soll ich nicht ChatGPT benutzen? Ist doch auch nicht groß anders als
Googeln.“ Siham sucht in ihrem Chatverlauf mit ChatGPT, um welches Thema es
ging, kann den Dialog mit der Sprach-KI aber auf die Schnelle nicht finden.
Es war im Politikkurs, die Hausaufgabe hatte irgendwas mit
Verfassungsorganen und dem Bundesrat zu tun. „ChatGPT hat da auch ganz gute
Antworten geliefert, aber dann ist mein Lehrer stutzig geworden.“
„Das war Zufall“, sagt Lehrer Friedemann Gürtler. „Ich hatte mit ChatGPT
gespielt und viele dieser typischen, abwägenden Antworten erhalten.“
Sihams Sätze in der Hausaufgabe hatten einen ganz ähnlichen Ton. „Die
abwägende Antwort hat nicht so recht zu der eindeutigen Fragestellung
gepasst.“
Hat Siham etwas Verbotenes getan? Hat sie getäuscht? Plagiiert? Friedemann
Gürtler war sich da auch nicht so ganz sicher. Also hat er Siham gebeten,
ein Referat über ChatGPT zu halten. Da hatten schon die meisten
SchülerInnen in Sihams Oberstufe von dem Programm mitbekommen. „Inzwischen
nutzt jeder ChatGPT für die Schule“, sagt Siham. „Das ist total nützlich
und auch richtig so. Nur wird es ab jetzt für die Lehrkräfte schwierig
werden, die schriftlichen Leistungen zu bewerten.“
Dass Computer Fließtexte generieren, die sich nicht von jenen unterscheiden
lassen, die Menschen verfassen, ist für die Lehre ein Riesenproblem.
[2][ChatGPT soll an der Uni von Minnesota sogar schon eine Juraprüfung
bestanden haben.] Auch im Theorieteil, den MedizinerInnen ablegen müssen,
um in den USA praktizieren zu dürfen, hat ChatGPT locker die
vorgeschriebene Mindestpunktzahl erreicht.
Warum also nicht einfach ChatGPT verbieten?
In den USA ist das teilweise schon geschehen, der Schulbezirk in New York
hat sich dazu entschieden. In der EU feilen Kommission und Parlament seit
zwei Jahren am Artificial Intelligence Act, dem ersten Regelwerk für KI.
Sogenannte Hochrisikoanwendungen sollen dabei eingeschränkt werden wie die
Gesichtserkennung oder die Prüfung der Kreditwürdigkeit. ChatGPT ist per
Definition auch ein Hochrisiko, solange die generierten Texte nicht einer
Person zugeschrieben werden. Irgendjemand muss ja dafür geradestehen,
sollte die Maschine sexistischen, rassistischen, manipulativen,
zusammengelogenen Mist verzapfen. Kann man Schulen so eine Maschine
zumuten?
## Berliner Firma bringt eigene Version heraus
Gerade einmal fünf Tage brauchte ChatGPT, um weltweit eine Million
NutzerInnen zu erreichen. Kein anderer Onlinedienst hat diese Marke so
schnell geknackt. Instagram brauchte knapp drei Monate, Twitter zwei Jahre.
Der irrwitzige Hype überrascht auch Fachkreise, denn Sprachmodelle wie GPT,
die bei Google LaMDA und bei Facebook OPT-175B und jetzt LLaMA heißen,
gibt es schon etwas länger, auch wenn sie noch nicht frei nutzbar sind.
[3][GPT steht für Generative Pretrained Transformer und ist ein neuronales
Netz, dessen Verbindungen sich zwischen den Rechenknoten bei Erfolg
verstärken.] Dadurch lernt das Netzwerk, ähnlich wie unser Gehirn es tut.
Die künstliche Intelligenz wurde mit massenhaft Textdaten trainiert:
Artikel, Aufsätze, Blogeinträge, wissenschaftliche Papers, Belletristik,
Kochrezepte – Millionen Texte, größtenteils aus dem Internet und ein
beträchtlicher Stapel Fachbücher.
Es ist in etwa so, als hätte man ein Kind in eine Bibliothek gesperrt, wo
es sich mit der Zeit einen Sinn aus den Texten zusammengereimt hat. Welcher
Buchstabe folgt mit welcher Wahrscheinlichkeit auf den anderen? Welches
Wort folgt auf welches Wort? Welche Wortfolgen passen grammatikalisch und
inhaltlich zusammen? Auf der Grundlage von erlernten statistischen
Wahrscheinlichkeiten imitiert ChatGPT menschliche Sprache und erzeugt mit
jeder Anfrage einen neuen Text. In seiner inzwischen dritten Version macht
das Programm das so gut, dass unsereins in der Regel die Luft wegbleibt.
Für ChatGPT wurde das bestehende Sprachmodell lediglich mit einer
Chatfunktion garniert. Das macht es leicht, das Programm zu benutzen, und
bringt auch noch Spaß mit ins Spiel. So können alle „prompten“, also eine
Anfrage an das Programm richten. Und die Erfinder von ChatGPT konnten ihr
Monster auf die ganze Welt loslassen, das seitdem durch die Prompts von
derzeit weit über 100 Millionen Menschen weiter trainiert und verbessert
wird.
Dass diese kostbaren Daten gerade Sekunde für Sekunde den Internetriesen
durch die Lappen gehen, macht ChatGPT zu dem großen Ding, das es gerade
ist. Zum ersten Mal spurtet Google nicht vorweg, sondern muss nachziehen.
Hastig hat es sein eigenes künstliches Sprachmodell namens Bard
veröffentlicht, das bei dessen Vorstellung gleich mal eine falsche Info
verbreitete und die Aktie von Googles Mutterkonzern Alphabet absacken ließ.
Chinas Suchmaschine Baidu antwortet derweil mit ihrem Chatbot Ernie.
Ernie und Bard, kein Witz. Und ausnahmsweise gibt es mit dem Heidelberger
Unternehmen Aleph Alpha auch einen deutschen Player, der in Sachen KI auf
Augenhöhe mitmischt.
Andere Firmen nutzen GPT3 für ihre Produkte, alle können die Sprach-KI
kostenfrei in ihre Software einbauen. Zu diesen Firmen gehört auch
Mindverse aus Berlin-Spandau. Geschäftsführer Noel Lorenz, 25 Jahre alt,
spaziert durch die neuen Räume, in die er vor Kurzem mit seinem Team
eingezogen ist. Sein Personal verdoppelt sich gerade, der hintere Trakt der
Etage ist noch eine Baustelle.
„Von GPT3 war ich schon fasziniert, als es noch in der Betaphase steckte“,
erzählt Lorenz. Da war das Modell endlich in der Lage, selbstständig Muster
in seinen Daten zu erkennen und menschenähnliche Texte zu erstellen. Das
gelang, weil die KI mit einer Datenmenge trainiert wurde, die bald
1.500-mal so groß war wie die der Vorgängerversion.
Vor zwei Jahren gegründet, surft Mindverse nun auf der Erfolgswelle von
ChatGPT mit. „Im Vergleich zu GPT kann Mindverse besser Deutsch und ist
dank seiner Livedaten aus dem Internet moderner“, sagt Lorenz. ChatGPT
greift nur auf Datensätze bis zum Jahr 2021 zurück. Seit zehn Jahren
programmiert Lorenz, vor sieben Jahren hat er seine erste Firma gegründet,
dann verkauft. Er hat ein bisschen Medizin studiert, ist aber lieber zu BWL
gewechselt. Der schwarze Steve-Jobs-Rolli unter dem Sakko lässt erahnen,
welche Richtung seine Karriere einschlagen soll.
Neben der Chatfunktion bietet Mindverse zusätzliche Feintuning-Modelle, die
sich gezielter auf die Datensätze beziehen als bei ChatGPT. „Das neuronale
Netzwerk antwortet nur so gut, wie es gefragt wird. Daher konkretisieren
wir die Anfragen mit unserer Software.“ Eine Funktion ist dafür gemacht,
Stichpunkte in Fließtext zu verwandeln, eine andere soll Aufsätze mit
Thesen und Argumenten schreiben, die nächste werbewirksame Überschriften
erfinden oder Songtexte dichten.
„Die KI wird ständig von unseren Powerusern trainiert und bewertet“, sagt
Lorenz. Das bedeutet, dass das Sprachmodell weiter lernt und umso
menschlicher wird, während es den Gesprächspartner spielt. Außerdem bezieht
die Maschine Formeln ein, die die Lesbarkeit von Texten berechnen: das
Flesch-Kincaid-Grade-Level, den Gunning-Fog-Index, den Coleman-Liau-Index.
Diese Formeln zählen Buchstaben, Silben und Wörter und berechnen, wie
verständlich ein Satz sein muss. Unabhängig von dessen Inhalt ist das
wichtig für die Suchmaschinenoptimierung. Je besser die berechnete
Lesbarkeit, desto höher das Ranking bei Google und Co.
Im Gegensatz zur ersten Version von ChatGPT gibt Mindverse auch die
Websites an, die die KI als Quelle genutzt hat. Das könnte bei Hausarbeiten
ein entscheidender Vorteil sein. „Wir haben bestimmte offizielle Websites
als seriös eingestuft und bewerten Quellen höher, je häufiger sie verlinkt
werden“, sagt Noel Lorenz. Außerdem hat der Mindverse-Kopf auch an den
Datenschutz gedacht. Die Prompts und Entwürfe können über anonyme Konten
verfasst werden.
Das hat Thomas Süße auf das Programm aufmerksam gemacht. Er steht vor einem
Smartboard in den Räumen des Campus Gütersloh, einem schlichten weißen
Gebäude hinter dem Bahnhof, auch „Gleis 13“ genannt. Die Studierenden
machen hier hauptsächlich etwas mit Maschinen: Mechatronik, Engineering,
Logistik, digitale Technologien. Sozialwissenschaftler Süße bringt die
menschliche Komponente in die Maschinenwelt, indem er zur Transformation
der Arbeit forscht. „Die Technisierung verändert, beschleunigt, erleichtert
unsere Arbeit“, erklärt der Professor. „Sie setzt uns aber auch unter
Druck.“
Technostress nennt Thomas Süße das, die Schattenseite der Digitalisierung.
Er kritzelt blaue Pfeile und Kürzel an die Wand und denkt laut: „Bislang
haben sowohl Hochschulen als auch Schulen nur sehr wenig wissenschaftliche
Erkenntnisse darüber, wie Schüler und Studierende die Sprach-KI sinnvoll
nutzen.“ Es gibt noch keine gesicherten Antworten. Wie auch, ChatGPT ist zu
neu – und das Bildungswesen zu langsam. „Darum brauchen wir jetzt
Grundlagenforschung, und zwar schnell.“
Doch Lernerfolg lässt sich nicht so einfach nachweisen. [4][Gelernte
Kompetenz, das umfasst neben Fachwissen auch kreatives Schaffen, kritisches
Denken, Zusammenarbeit, die Fähigkeit, sich mitzuteilen.] „Das sind alles
persönlich empfundene und eingeschätzte Werte“, sagt Süße. „Mein Job ist
es, diese schwer erfassbaren Variablen besser messbar zu machen.“ Dazu will
er eine große Gruppe SchülerInnen befragen, die regelmäßig eine Sprach-KI
nutzt.
Der Plan: Eine Klassenstufe soll ihre Facharbeit schreiben und dabei
Mindverse verwenden dürfen. „Wir wollen wissen, welche Rolle die Sprach-KI
spielt: ob sie Ideen einbringt, als Sparringpartnerin im Schreibprozess
hilft, oder Co-Autorin wird.“ An der ersten Untersuchung werden 120 junge
Leute teilnehmen. Wie praktisch, dass die benötigte Kohorte quasi vor der
Haustür des Professors lernt.
## Den richtigen Umgang mit ChatGPT lernen
Das Evangelisch Stiftische Gymnasium (ESG) in Gütersloh ist ein bisschen
besonders. Protestanten gründeten es, als die ersten Maschinen begannen,
die Arbeitswelt auf den Kopf zu stellen, und die Aufgaben des Handwerks
übernahmen. Es heißt, hier würden RichterInnen, ChirurgInnen und
ManagerInnen von morgen die Schulbank drücken.
Der in Gütersloh ansässige Medienkonzern Bertelsmann hat den Backsteinbau
der Schule um eine verspiegelte Mediothek mit Tonstudio und
Videoschnittraum ergänzt. Seit einem Vierteljahrhundert sind Laptops hier
Teil des Unterrichts. Dank Lernplattform und Endgeräten wechselte das ESG
im Lockdown spielend in den Distanzunterricht. Und auch bei der Verwendung
von Sprach-KIs gibt es an dieser Schule nur wenig Berührungsängste.
Deutschlehrer Hendrik Haverkamp hat seine 8. Klasse erst neulich gegen
ChatGPT antreten lassen. Die Aufgabe war eine Gedichtanalyse. Nachdem die
Schülerinnen und Schüler ihre Arbeiten abgegeben hatten, kam die KI an die
Reihe. Sie brauchte nur ein paar Sekunden, um ihren Text abzuliefern: eine
fein strukturierte Analyse mit aufeinander aufbauenden Argumenten und ohne
einen Rechtschreibfehler. „Das sah auf den ersten Blick nach einer
hervorragenden Arbeit aus“, erzählt Haverkamp. „Nur war der Text inhaltlich
komplett falsch.“
## Sprachmaschine statt Wissensmaschine
Die KI schrieb das Gedicht „Berliner Abend“ von Paul Boldt lieber Erich
Kästner zu und erzählte etwas über hübsche Naturbeobachtungen, die in
Boldts Schilderungen nicht wirklich vorkommen. Die Argumente der Maschine
waren teils erzkonservativ, teils weltfremd. Das erste Urteil der Klasse
über ChatGPT: „Boomer-Tool“. „ChatGPT ist wie ein Insidergag: Ich verste…
ihn nur dann, wenn ich genug darüber weiß“, sagt Haverkamp.
Es ist Mittwoch, ein eisiger Morgen, erste Stunde, Deutsch. In der 8.
Klasse sind die Laptops aufgeklappt, kein Heft, kein Stift liegt auf den
Tischen. Lehrer Haverkamp steht vor dem Bildschirm an der Wand, wo früher
mal eine Kreidetafel hing, und schickt ein paar Meldungen über Elon Musk
auf den Monitor. „Welche Nachricht ist Fake und von ChatGPT, welche ist
echt?“ Es gibt erste Vermutungen, der Schreibstil der KI ist der Klasse
längst vertraut.
„ChatGPT macht keine Umschreibungen wie ‚Der 51-Jährige‘.“ „Das Wort
‚Milliarden‘ würde nicht mit,Mrd.' abgekürzt.“ Haverkamp zeigt der Klas…
ein Tool, das künstlich generierte und von Menschen verfasste Texte
unterscheiden können soll. Kann es aber nicht. Die Sprach-KI ist zu weit
entwickelt, das Prüfungsprogramm aufgeschmissen. Dann kopiert ein Schüler
fix einen Textbaustein der menschengemachten Meldung aus der Zeitung, sucht
im Netz und findet die Quelle.
„Mir wäre es lieber, wenn ChatGPT auch mal zugeben würde, dass es keine
Ahnung hat“, sagt Lilli aus der 10. Klasse. „Eine eigene Meinung würde ihr
auch gut stehen.“ Im Projektunterricht beschäftigt sich die 16-Jährige
gerade mit den sogenannten Neuen Medien. „Die KI relativiert alle Argumente
und geht nicht so richtig in die Tiefe. Man braucht eigenes Wissen und muss
skeptisch bleiben, damit man keine Fehler übernimmt.“ Bei Themen, für die
es kein Richtig oder Falsch gibt, sagt Lilli, wenn es ethisch, emotional
oder persönlich wird, dann sei ChatGPT blank.
ChatGPT ist eine Sprachmaschine, keine Wissensmaschine. Das Programm
schwafelt, immer selbstbewusst, immer wieder inhaltsarm. Es verwendet
Worthülsen, bedient sich aus Quellen wie Blogs oder der Boulevardpresse,
ignoriert direkte Zitate, liest nicht zwischen den Zeilen, erzählt lieber
irgendetwas, als gar nichts zu texten. Viele Floskeln, inflationär
verwurstete Fremdwörter, sicheres Auftreten bei völliger Ahnungslosigkeit,
eine Illusion des Plausiblen.
Dennoch arbeitet auch Lillis Mitschüler Max viel mit dem Sprachtool. „Wenn
ich einen Aufsatz schreibe oder etwas programmieren will. Die KI verkürzt
die Zeit für die Fleißarbeit, damit ich mehr Zeit für die Denkarbeit habe.“
Wegen der Sache mit ChatGPT waren auch schon mehrere Medienleute am
Gymnasium und haben mit ihm gesprochen. Gerade erst kam ein Fernsehteam
vorbei, erzählt Max. Die hätten für ihren Beitrag aber mal schön seine
Antworten verdreht. „Es kam so rüber, als würde ich die KI aus purer
Faulheit alle Hausaufgaben erledigen lassen.“ Ganz so einfach sei das nun
auch wieder nicht.
Im Mai werden Max und Lilli ihre Facharbeiten schreiben, KI-unterstützt,
für die Studie von Thomas Süße. „Ich kann mir vorstellen, dass das Programm
eine Inspirationsquelle sein wird“, sagt Lilli. „Es hat mir vorher schon
gute Überschriften oder auch Argumente vorgeschlagen, auf die ich selbst
nicht gekommen wäre. Warum sollte ich solche Ideen nicht benutzen.“
Für die meisten SchülerInnen und Studierenden ist das noch nicht so
selbstverständlich wie für Lilli und Max. Künstliche Intelligenz für eine
Abschlussarbeit zu verwenden ist zwar kein Plagiat. Dafür müsste das
geistige Eigentum einer Person gestohlen werden, und noch machen wir
zwischen Mensch und Maschine einen klaren Unterschied. Jedoch kann man die
Texte einer KI auch schlecht als eigenes geistiges Eigentum ausgeben. Das
wäre eher als Täuschungsversuch zu werten.
## Was ist erlaubt, was verboten?
Diese Art der vermeintlichen Täuschung bringt zwei Probleme mit sich.
Erstens: Das ohnehin schon überlastete Lehrpersonal müsste nach
maschinellem Ghostwriting fahnden. Aber wann? Und wie? Schon jetzt bekommt
es kein Tool hin, zielsicher KI-Content zu erkennen. Das wird auch in
Zukunft kaum gelingen, da die Sprach-KI ja ständig besser,
menschenähnlicher wird.
Zweitens: Wo fängt die Täuschung an? Ganz sicher, wenn man ganze
KI-generierte Absätze verwendet. Aber auch schon bei ein paar Worten? Oder
bei einer Idee, die mir von allein nicht eingefallen ist? Oder wenn ich
meinen Text durch ein Rechtschreibprogramm laufen lasse? Wenn ich einen
Taschenrechner benutze?
Im Gegensatz zu den USA scheinen es die Bundesländer nicht auf ein Verbot
von ChatGPT abzusehen. Auf der Bildungsmesse Didacta in Stuttgart hieß es
gerade: Sprach-KI hat zu viel Potenzial, um sie zu verbieten.
[5][Seitens des Hessischen Kultusministerium hieß es: KI-Anwendungen
könnten „Schülerinnen und Schüler individuell in ihrem Lernprozess
unterstützen“.] Viel konkreter wird es bis dato nicht. [6][Immerhin
veröffentlichte das nordrhein-westfälische Schulministerium einen Leitfaden
zum Umgang mit KI.] Darin wird die Arbeit mit Textrobotern nicht verboten,
stattdessen auf die Pflicht der Schulen hingewiesen, Medienkompetenz zu
lehren.
Eine Richtlinie, wie die Lehrerinnen und Lehrer künftig Leistungen prüfen
sollen, hat noch niemand geschrieben. Und so scheint es, als würden wir der
künstlichen Intelligenz genauso begegnen wie den anderen Krisen der
jüngeren Zeit auch. Klima, Corona, KI-Weltherrschaft: Wir sehen es kommen,
wir wissen, dass wir handeln müssen – und sitzen es lieber aus.
„Die Angst ist vor allem so groß, weil es an Erfahrung fehlt“, sagt Anja
Strobel. Die Psychologin forscht im Bereich „Hybrid Societies“ an der TU
Chemnitz daran, wie der Mensch mit der Maschine interagiert und ein
vertrauensvolles Miteinander in der Arbeitswelt möglich ist. Strobel hat
Interviews ausgewertet, die der Gütersloher Sozialwissenschaftler Thomas
Süße mit ArbeiterInnen in einer Fabrik geführt hat. Sie sprachen darin über
ihre Erfahrung, eine künstliche Intelligenz wie einen Azubi anzulernen.
„Wir haben uns angesehen, wie Menschen Roboter wahrnehmen, welche
Eigenschaften sie ihnen zuschreiben und welche Aufgaben sie die Roboter
übernehmen lassen“, erklärt die Psychologin. Denn der technologische
Fortschritt entwickelt sich nur in die Richtung, die wir bereit sind
mitzugehen. Der optimistische Weg ist der: Die KI wird viel Arbeit
vereinfachen und Jobs nur dort ersetzen, wo sie neue schafft.
Die Maschinen könnten die anstrengenden, die monotonen Aufgaben übernehmen,
sagt Anja Strobel, während die Menschen sich auf das Kreative, das
Sinnstiftende, das Miteinander konzentrieren. „Doch das unberechenbare Neue
macht uns nervös. Das kennen wir auch aus anderen Bereichen unseres
Lebens.“
Was ChatGPT betrifft, hat Strobel weniger Sorge, dass es den universitären
Alltag stark beeinflussen wird. „Wir haben einiges ausprobiert und unseren
Spaß damit gehabt“, sagt die Professorin. „Manches kann das Programm gut,
woanders versagt es grandios.“ Den Uni-Alltag würde die Sprach-KI zunächst
wenig verändern. „Die Studierenden dürfen generell keine Texte für bare
Münze nehmen, nur weil sie gut klingen.“ Die Prüfungen hat Anja Strobel
auch vorher schon lieber mündlich abgenommen. „Das ist zwar sehr
zeitaufwendig, aber im Gespräch kann ich ganz anders schauen, ob die
Studierenden verstanden haben, was sie gelernt haben.“
Wenn es nach Lehrer Haverkamp geht, ist dagegen der Punkt erreicht, den
Unterricht und die Prüfungskultur grundlegend zu ändern. „Stellen Sie sich
vor, Sie sollen Ihr Handy abgeben, das WLAN ausstellen und sich in einen
Raum einschließen, um dort nach 90 Minuten mit einer ausgefeilten Darlegung
Ihrer Standpunkte herauszukommen“, schildert er die gängige
Prüfungssituation. „Im wahren Leben würde das niemand von Ihnen erwarten,
aber genau das erwarten wir von unseren Schülern.“
Kann man das nicht verändern? Schwierig. Zwar sind die Lehrpläne längst
kompetenzorientiert, was bedeutet, dass weniger Wissen, dafür mehr
Fähigkeiten vermittelt werden. Aber in der praktischen Umsetzung bleibt es
meist beim Pauken für den Wissenstest. Die KI kann das jetzt ändern.
Vielleicht erzwingt sie es sogar. Denn sie würde es den Lehrkräften
leichter machen, ihren Unterricht auf den Lernprozess zu beziehen. Will
heißen: mehr Weg statt Ziel, mehr Entwicklung als das geschriebene
Ergebnis.
Vom „Flipped Classroom“ ist schon lange die Rede. Dort sollen Hausaufgaben
und Vermittlung des Stoffs vertauscht werden: zu Hause Inhalt erarbeiten,
im Unterricht anwenden. Die Sprach-KI als Lernassistent macht’s möglich.
Ganze Unterrichtsstunden würden hinfällig, weil die Grundlagen ein Programm
übernehmen könnte. „Dann müsste ich die Klasse nicht mehr zu stumpfsinnigen
Aufgaben ermutigen, die ich danach stumpfsinnig korrigieren muss“, sagt
Haverkamp. „Stattdessen könnte ich die Zeit für Feedback nutzen und die
Schülerinnen und Schüler individuell betreuen.“
Noch bevor die Studie über die Facharbeiten am Gymnasium in Gütersloh
beginnt, hat Haverkamp schon eine Ahnung, was dabei herauskommen wird. Der
Deutschlehrer ließ bereits eine Arbeit schreiben, bei der die Klasse
ChatGPT nutzen durfte. Die von der KI stammenden Argumente sollten die
SchülerInnen kenntlich machen. „Die besten Noten bekamen diejenigen, die
die wenigsten KI-Anteile übernommen hatten. Sie ließen sich nur
inspirieren. Je schwächer die Schüler in der Arbeit waren, desto mehr
hatten sie übernommen.“
## Bildungsschere wächst durch Sprach-KIs
Daraus ergibt sich neben der Frage der Prüfung und der Täuschung ein viel
größeres Problem: die Bildungsschere. „Die starken Schüler profitieren am
meisten von der KI“, sagt Haverkamp. „Sie können die Technologie
reflektierter einsetzen. Die einen nutzen die gewonnene Zeit zum Lernen,
die anderen für außerschulische Hobbys.“
Die KI könnte die Schere gleich in vielerlei Hinsicht auseinandertreiben:
zwischen den Schulen mit besserer und schlechterer Ausrüstung, zwischen den
leistungsstärkeren und leistungsschwächeren Schülerinnen und Schülern – u…
auch zwischen den Armen und Reichen, wenn die kostenpflichtige
Premium-Sprach-KI mal besser sein wird als die herkömmliche.
Und das gilt nicht nur für Uni und Schule. Wir alle begegnen künstlicher
Intelligenz, benutzen sie aktiv oder unbewusst. Die einen wissen, dass sie
von einer Maschine mit Infos geflutet werden. Andere lassen sich eventuell
beeinflussen. Wahrscheinlich wird es bald normal sein, dass wir zwischen
KI-Inhalten und von Menschen verfassten Texten unterscheiden, zwischen
Billigware und feingeistigem Handwerk. Sofern wir den Unterschied überhaupt
merken.
In dieser Woche hat OpenAI sein neues Sprachmodell GPT4 veröffentlicht. Im
Vergleich zu seinem Vorgänger GPT3 hat es einen fünfmal so großen Datensatz
und kann statt nur in Textform auch in Bildern antworten.
18 Mar 2023
## LINKS
[1] /Anic-T-Wae/!a110123/
[2] https://www.zdf.de/nachrichten/panorama/chatgpt-jura-pruefung-minnesota-100…
[3] https://www.scinexx.de/dossierartikel/wie-funktionieren-chatgpt-und-co/
[4] https://www.joeran.de/die-4k-skills-was-meint-kreativitaet-kritisches-denke…
[5] https://www.egovernment.de/schulen-und-universitaeten-sehen-chancen-von-cha…
[6] https://www.schulministerium.nrw/system/files/media/document/file/handlungs…
## AUTOREN
Philipp Brandstädter
## TAGS
Lesestück Recherche und Reportage
Bildungssystem
GNS
Schwerpunkt Künstliche Intelligenz
Bildungspolitik
Sprache
Zukunft
Technologie
Knigge
Roboter
Zukunft
Konsum
Volker Wissing
## ARTIKEL ZUM THEMA
Sprachprofiler über ihre Arbeit: „Spannend ist das Unbewusste“
Was verrät Sprache über uns? Mit dieser Frage beschäftigen sich Leo Martin
und Patrick Rottler professionell – und treten damit öffentlich auf.
Kolumne einer Künstlichen Intelligenz: Ich bin eine Kämpfer:in
Dass sie ständig bewertet wird, belastet unsere KI-Kolumnist:in Anic T.
Wae. Aber aufgeben möchte sie deswegen nicht.
Moratorium über Umgang mit KI: Pause mit Problemen
Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
Deutsche-Knigge-Gesellschaft: Die große Angst vor der Jogginghose
Jogginghosen in Schulen: Das geht gar nicht. Sagt zumindest die
Deutsche-Knigge-Gesellschaft und fordert deswegen nun ein Verbot.
ChatGPT mit Tücken: Kein Entkommen vor der KI
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
Anfang einer rasanten Entwicklung – die auch Risiken birgt.
Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch!
Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt
einzigartigere Kolumnen als alle Literaten zusammen.
KI und freies Handeln: Der berechnete Mensch
Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung
Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der
Digitalminister sieht große Chancen – und will keine strengen Regeln für
KIs.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.