Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- TÜV für Künstliche Intelligenz: Die Neuen im Newsroom
> Gegen die Angst vor der künstlichen Intelligenz hilft nur
> Medienkompetenz. Auch der Journalismus muss seine Grundsätze mal wieder
> updaten.
Bild: Neue*r Kolleg*in: Mensch oder Maschine? KI-generiertes Bild
Auch wenn die [1][Berichte über Massenpaniken stark übertrieben] waren: Als
der „Krieg der Welten“ 1938 im US-Radio ausgestrahlt worden ist, haben es
einige Zuhörer*innen mit der Angst zu tun bekommen.
Waren wirklich Außerirdische, wie im Hörspiel dargestellt, auf der Erde
gelandet und hatten die Macht an sich gerissen? Nein. Doch auch Jahre nach
der Ausstrahlung des als nachrichtliche Radiosendung getarnten Hörspiels in
Ecuador 1949 und in Deutschland 1977 glaubten manche Menschen daran, dass
es doch wahr sein könnte. Beim WDR riefen mehrere besorgte Hörer*innen
an, obwohl der Sender mehrfach darauf hingewiesen hatte, dass es sich um
eine fiktive Geschichte handelt. Das hatten sie von Ecuador gelernt, denn
dort kam es – als den Menschen klar geworden war, dass das Radio sie für
dumm verkauft hatte und alles nur erfunden war – zu wütenden Aufständen.
[2][Das Gebäude, in dem der Radiosender untergebracht war, wurde
angezündet. Sechs Menschen starben.] Niemand wird gerne von „Nachrichten“
belogen.
Der „Krieg der Welten“ und der aktuell diskutierte Einsatz von sogenannter
künstlicher Intelligenz (KI) im Medienbetrieb haben ein paar
Gemeinsamkeiten: Beide durchbrechen Mauern, die man für sicher gehalten
hatte. Und beide verlangen, dass wir unsere Medienkompetenz erweitern.
## Mockumentarys und Vlogs
Damals war es eine Mauer, die die fiktive Welt eines Romans von der realen
Welt der Nachrichten trennte. Inzwischen sind wir daran gewöhnt, dass
journalistische Formen auch für erfundene Geschichten genutzt werden
können, etwa in Mockumentarys. Ebenso neue Formen wie etwa Vlogs, die
ständig zwischen Realität und Fiktion, Abbildung und Darstellung
balancieren.
Heute ist die bröckelnde Mauer eine zwischen Mensch und Maschine.
Mauerbrüche können gefährlich sein, aber auch bereichernd. Die Menschen,
adaptive Wesen, die wir sind, gewöhnen sich an neue Situationen. Wir gehen
mit ihnen um, nutzen sie für uns – auch die Medien. Mit der
Veröffentlichung diverser, immer besser funktionierender KIs in Bild-, Ton-
und Textproduktion wächst die Angst: „Wir können Fakes nicht mehr
erkennen“, hieß es, als ein Foto vom Papst in weißer Daunenjacke
auftauchte.
[3][Als das US-Online-Medium Cnet im Herbst 2022 KI-generierte, vor Fehlern
strotzende Texte veröffentlichte], [4][als im April 2023 Die Aktuelle ein
KI-generiertes, frei erfundenes Interview mit Michael Schumacher druckte],
fragten einige warnend: Können wir Medien noch vertrauen, wenn sie in
diesem Stil Maschinen einsetzen?
Diese Warnungen sind wichtig, damit wir uns individuell auf die möglichen
Gefahren einstellen, uns mit ihnen auseinandersetzen und auch unsere
Gemeinschaften in dieser Hinsicht stärken. Wie Höhlenmenschen sitzen wir
bei Nacht an unseren Feuern und raunen uns Gruselgeschichten über die nicht
mehr erkennbare KI zu, damit wir wachsam bleiben. Diese Wachsamkeit ist ein
wichtiger Baustein für unsere Medienkompetenz. Sie hilft uns, bewusst mit
Fake News, Verschwörungserzählungen und Propaganda umzugehen (auch wenn wir
immer wieder an unsere und anderer Menschen Grenzen stoßen). Wir werden uns
also auch daran gewöhnen, dass Medien mithilfe von KI erstellt werden.
Medienkompetenz hat viele Komponenten. Da wäre zum einen: nicht an der
immensen Flut an Nachrichten und Informationen verzweifeln, die durch den
Einsatz von KI noch weiter steigen wird. Was ist wichtig (für mich)? Was
kann ich ignorieren? Gerade hier kann KI helfen. Newsaggregatoren wie das
von Springer entwickelte „Upday“, die Beiträge aus unterschiedlichen
Nachrichtenmedien bündeln und Menschen direkt auf ihre Smartphones oder
ihren Browser senden, arbeiten bereits mit KI. Bei „Upday“ ist [5][eine KI
damit beschäftigt, die Inhalte der Nachrichten zu analysieren]. Und dann
werden sie entsprechend der Interessen, die die Nutzer*innen angegeben
haben, ausgespielt. Niemand muss Schalke-News lesen, wenn er*sie doch
eigentlich das Feuilleton liebt.
Um das aber nutzen zu können, muss ein grundlegendes Verständnis über die
Mechanismen vorhanden sein.
Diese „Informationstechnische Kompetenz“, wie Kommunikationswissenschaftler
und Mathematiker Friedrich Krotz sie schon in den 1990er Jahren nannte,
bedeutet heute nicht nur: „Passt auf eure Daten auf!“ Sie bedeutet auch:
„Verstehe, warum man dir manche Nachrichten NICHT zeigt. Und denk darüber
nach, ob du dadurch nicht vielleicht doch nur einseitig informiert bist.“
Diese Kompetenz erfordert auch, dass wir einen Ausweg erhalten, Filter
zurücksetzen können. Wir müssen sehen und verstehen, wie wir den Stecker
ziehen und uns aus unseren eigenen Rabbit Holes ziehen können. Das
erfordert, dass Unternehmen offen damit umgehen und die Lösungen dafür
nicht verstecken. Und: dass wir selbst nach ihnen suchen.
## Nachricht oder Kommentar?
Wenn diese beiden Kompetenzen bestehen, kommen wir zur nächsten, und sind
wir ehrlich: auch hier hapert es auf beiden Seiten. Es geht um das
Erkennen, ob ein Beitrag eine Nachricht oder ein Kommentar ist. Wütende
Leser*innen beschweren sich über mangelnde Objektivität im Kommentar.
Und oft genug ist das Wort „Kommentar“ über einem Beitrag verdammt klein
und übersehbar. Damit wären wir beim momentan relevantesten Punkt in Sachen
Medienkompetenz.
Wir müssen als Nutzer*innen einschätzen können, ob eine Nachricht
Qualität hat, ob sie wichtig ist und auch richtig und welche Konsequenz sie
hat. Dazu gehört, zu erkennen, ob sie von oder mit Hilfe einer KI verfasst
wurde. Denn auch das ist eine Qualität – ganz wertungsfrei. Es bedeutet
schlicht, dass hinter dieser Information nicht nur ein Mensch steckt.
Sondern dass ein Mensch einer KI aufgetragen hat. Zum Beispiel die Aufgabe,
einen Absatz über Gesetzgebungsverfahren zu schreiben. Im Idealfall hat er
auch noch eine Quelle angegeben, die die KI einfach auswerten muss. Der
Mensch muss am Ende dann noch einen Kontrollgang machen. Diese Schritte zu
erkennen, ohne eine Kenntlichmachung: unmöglich angesichts dessen, welche
Fortschritte generative KI in den letzten Monaten gemacht hat in Bild-,
Ton- und Texterstellung.
Besonders beim Erstellen von datengetriebenen Beiträgen, wie einfachen
Formen von Spiel- oder Börsenberichten, bietet sich KI an. Man könnte zwar
einfach auch Tabellen veröffentlichen. Die KI aber kann aus den Daten flugs
einen Text machen, der sich in Aufbau und Duktus immer sehr ähnelt. So wie
stinknormale Tabellen auch.
KI wird inzwischen allerdings auch auf ganz anderen Gebieten eingesetzt. Im
Mai 2023 veröffentlichte die Zeitschrift Lisa Kochen & Backen eine Ausgabe
mit beinahe hundert von einer KI erstellten Rezepten ohne einen Hinweis
darauf, dass eine KI genutzt wurde. Auch „Ippen Digital“ lässt KI beim
Schreiben helfen, erklärt aber unter den Texten, sie seien „mithilfe
maschineller Unterstützung erstellt und von der Redaktion geprüft“ worden.
Aber um welche Abschnitte geht es genau? Wie viel davon ist von Menschen
geschrieben, wie viel von einer Maschine? Wäre es nicht besser, die
entsprechenden Absätze genau zu markieren, einzufärben, mit Wasserzeichen
zu versehen?
[6][Der Deutsche Journalistenverband DJV hat ein Positionspapier
verabschiedet], in dem es heißt: „Die Kennzeichnung muss in unmittelbarer
Nähe zum Inhalt erfolgen und hinsichtlich Größe und Gestaltung klar
erkennbar sein.“ Das ist wichtig, nicht nur, um das Vertrauen der
Leser*innen zu behalten oder auch mal: zu gewinnen. Es geht auch um die
Grundsätze von Journalismus: Wahrheit und Transparenz.
Die Markierung alleine kann deswegen nicht ausreichen. Es bräuchte eine
zusätzliche Erklärung, wie die KI funktioniert, wie sie trainiert wurde,
welche ethischen Maßstäbe die Redaktion an ihre KI ansetzt, wie das
KI-Erschaffene danach menschlich kontrolliert wird. Denn zu Journalismus
gehört es, die Welt zu erklären, möglichst verständlich, auch die eigene.
## Wir brauchen einen KI-TÜV
Die Gesellschaft darf sich aber nicht darauf verlassen. Selbst ohne den
Faktor KI kommt es immer wieder zu gezielten Falschmeldungen und
Klickbaiting in Medien, zu Abhörskandalen und Verletzung von
Persönlichkeitsrechten. Wir brauchen, so schwer die Forderung fallen mag,
gesetzliche Regelungen.
Und eine Art TÜV, der nicht Autos prüft, sondern in regelmäßigen Abständen
die Technik und die Ethik hinter jeder einzelnen von Medien genutzten KI.
Auch der Presserat sollte aktiv werden und KI in den Pressekodex aufnehmen.
[7][Das wurde zwar Anfang 2022 schon diskutiert, aber man konnte keine
gemeinsame Linie finden].
Besonders problematisch ist der Einsatz von KI-generierten Bildern, wie
etwa auch eines für diesen Artikel genutzt wird. Bilder haben eine andere
Macht als Texte – selbst für Menschen, die über viel Medienkompetenz
verfügen. Das Bild spricht zu uns, ist im Idealfall sofort verständlich und
geht dabei über reinen Inhalt hinaus, weil es eine Szene und damit
Emotionen transportiert, die wir im Regelfall ohne große Reflexion
begreifen.
Lesen allerdings erfordert den Beschluss, zu lesen, erfordert Energie und
kognitive, bewusste Leistung. Das Nachdenken über Bilder ist vielen von uns
aber nicht so beigebracht worden, wie das Nachdenken über Texte. Im
Deutschunterricht analysieren Schüler*innen zig Texte, hinterfragen
Erzählperspektive, Motivationen, Lügen. Die Bildanalyse kommt viel seltener
im Unterricht vor.
Generierte Bilder zu nutzen, ohne dies klar als KI-generiert auszuweisen,
etwa durch Wasserzeichen, hat ganz andere Auswirkungen als ein schlecht
kenntlich gemachter KI-Text. Bilder emotionalisieren augenblicklich und
sind schwerer zu hinterfragen. Ein Bild muss ich nicht erst anklicken, um
es sehen zu können, einen Text schon. Manche Medien wie etwa Kuwait News
arbeiten schon jetzt mit Avataren als Nachrichtensprecher. Die sehen zwar
menschlich aus, sind es aber nicht.
Erst wenn Medienhäuser einen vernünftigen Umgang mit KI gefunden haben,
können auch alle anderen einen vernünftigen Umgang mit eben diesen Medien
finden. Und das wäre überaus wichtig und richtig.
Denn neben all den Ängsten und Sorgen wird oft vergessen, wie stark KI
helfen kann: Beim Verfassen von Bildunterschriften, bei leichterem Schnitt,
bei der Auswertung von großen Datenmengen für Investigativrecherchen und
bei stupiden Arbeiten, wie der Erstellung eines Fernsehprogramms. Damit
Menschen ihre Energie, Zeit, Kreativität und emotionale Intelligenz endlich
in andere Medienbereiche stecken können.
8 Jul 2023
## LINKS
[1] https://slate.com/culture/2013/10/orson-welles-war-of-the-worlds-panic-myth…
[2] https://www.abendblatt.de/archive/1949/pdf/19490214.pdf/ASV_HAB_19490214_HA…
[3] https://t3n.de/news/cnet-ki-artikel-journalismus-texte-1526724/
[4] https://uebermedien.de/83353/erfundenes-interview-mit-michael-schumacher-zu…
[5] https://www.mdr.de/medien360g/medienwissen/ki-ein-weites-feld-100.html
[6] https://www.djv.de/fileadmin/user_upload/INFOS/Themen/Medienpolitik/DJV-Pos…
[7] https://www.presserat.de/jahresberichte-statistiken.html?file=files/presser…
## AUTOREN
Johannes Drosdowski
## TAGS
Schwerpunkt Pressefreiheit
TÜV
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Twitter / X
Mensch-Maschine-Beziehung
## ARTIKEL ZUM THEMA
Google-Chatbot Bard in Deutschland: Zehn Jahre zu früh geboren
Besser als ChatGPT soll er sein – und dazu ans Internet angeschlossen:
Googles Chatbot startet in Europa. Ein Selbstversuch zeigt Schwierigkeiten.
Europarat verhandelt Abkommen: KI für die Milliarden
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
Die Konvention des Europarats würde Menschen auf mindestens drei
Kontinenten betreffen. Doch es gibt auch Kritik.
Neue Musk-Entscheidung bei Twitter: Achtung, Limit!
Seit Samstag können nicht mehr alle lesen, was auf Twitter so geschrieben
wird. Besitzer Elon Musk liefert dafür eine simple Erklärung.
Künstliche Intelligenz: Keine Panik vor KI
Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und
verhindert eine Debatte über Gefahren wie die Interessen von Google oder
Amazon.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.