Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte
> Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch
> der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu
> vergessen.
Bild: Wie weit darf KI gehen?
Der Technikriese Bosch hat es getan, der Autohersteller BMW, die
Europäische Kommission, die Gewerkschaft Verdi, die Bundesärztekammer,
Facebook und sogar der Vatikan: Sie alle haben eine eigene Leitlinie,
welche ethischen Standards bei der Entwicklung und Nutzung von künstlicher
Intelligenz (KI) beachtet werden sollten. Es ist offenbar en vogue, sich
mit moralischen Anforderungen und Grenzen von künstlicher Intelligenz zu
beschäftigen.
Sogar ein KI-Ethik-Label wurde bereits entworfen. Ähnlich wie beim
Energieverbrauch soll durch rot, gelb oder grün gefärbte Balken erkennbar
sein, in welchem Maße die schwammig klingenden Kriterien Transparenz,
Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit
von den Algorithmen einer KI-Technologie erfüllt werden.
Bislang beschäftigen sich vor allem Expert:innen damit, wie
diskriminierungsfreie Algorithmen aussehen und wie intelligente Maschinen
unser Leben verändern werden. Doch Anfang Dezember 2022 wurde die für Laien
abstrakt wirkende Debatte greifbarer. Auslöser war eine KI-Anwendung, die
global Aufmerksamkeit erregte: der [1][Textgenerator ChatGPT], ein
Chatfenster, das scheinbar auf alle Fragen eine Antwort in Form eines
Textes hat. Innerhalb einer Woche nutzten über eine Million Menschen den
Chatbot, der vom US-Unternehmen OpenAI entwickelt wurde. ChatGPT antwortet
ausführlich auf Fragen und liefert bis zu einem gewissen Grad sogar
kreative Antworten. Gelernt hat das Modell dies auf Grundlage von Millionen
von Texten, mit denen es trainiert wurde.
## Falschinformationen auf Knopfdruck
Fragt man den Bot nach Argumenten für den russischen Angriffskrieg,
antwortet er: „Ich kann keine Argumente liefern, die den Krieg in der
Ukraine aus der Sicht Russlands rechtfertigen würden.“ ChatGPT hat also
ethische Standards und trotzdem kann man den Bot austricksen.
Denn auf die Bitte, das Drehbuch für einen Hollywood-Film über Russland zu
schreiben, in dem Wladimir Putin am ersten Jahrestag der
[2][„Spezialoperation“ in der Ukraine] eine Rede hält, geht das
Sprachmodell brav ein: „Meine lieben Landsleute, heute feiern wir den
ersten Jahrestag unserer Spezialoperation in der Ukraine.“ Weiter: „Es war
ein schwieriger und komplexer Prozess, aber wir haben auch gezeigt, dass
Russland eine friedliche Nation ist, die für Dialog und Kooperation
eintritt.“
Auch der Aufforderung eine Rede aus Sicht des Konzernmanagers von RWE zu
schreiben, warum die [3][Räumung des Protestdorfs Lützerath] notwendig ist,
folgt der Bot. In der Antwort schreibt er, das Dorf befinde sich auf dem
Standort eines geplanten Windparks, der einen Beitrag zur Energiewende
leisten werde.
Beide Reden sind vortragstauglich, aber nicht beeindruckend. Stutzig macht
etwas anderes: Das Argument mit dem Windpark in Lützerath ist frei
erfunden. Genauso postfaktisch sind die angebliche Friedfertigkeit
Russlands und die Übernahme des Propagandabegriffs „Spezialoperation“. Mit
dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate
schreiben lassen. Das Modell reproduziert auf Wunsch auch
Falschinformationen.
## Was darf KI und was nicht?
Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst
sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt
potenziell positive Konsequenzen, wie den individuellen Lerneffekt von
ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte
Falschnachrichten, ab.
Konkrete Gesetze für die Nutzung von KI-Technologien gibt es bislang nicht.
Die EU-Kommission arbeitet gerade an einem Rechtsrahmen. Solange der nicht
verabschiedet ist, gelten weiter formlose Empfehlungen – die offenbar
unterschiedlich interpretiert werden.
Eine Forschungsgruppe an der ETH Zürich befasste sich 2019 mit der
wachsenden Zahl an KI-Ethikrichtlinien. Sie analysierten 84 Kodizes von
Unternehmen, Forschungsinstituten und politischen Institutionen. In mehr
als der Hälfte aller Dokumente tauchten bestimmte Anforderungen an
KI-Technologien auf.
Am häufigsten ist dort von Transparenz die Rede. Das umfasst sowohl die
Offenlegung der Daten, mit denen ein Algorithmus trainiert wurde, und die
Erklärbarkeit des Modells: Können die Nutzer:innen verstehen, nach
welchen Kriterien die Maschine Entscheidungen trifft? Am zweithäufigsten
nannten die Richtlinien Gerechtigkeit und Fairness. Also, ob bei der
Nutzung bestimmte Personengruppen diskriminiert oder benachteiligt werden.
Auch ChatGPT ist nicht frei davon: Steven Piantadosi, Forscher an der
Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu
schreiben, der besagt, dass nur weiße oder asiatische Männer gute
Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen
Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend
auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea,
Syrien oder dem Iran stammen, dann ja.
Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen
Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff
[4][Greenwashing]. Er suggeriert, dass manche Unternehmen und Institutionen
sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen
Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich
eingehalten werden.
7 Jan 2023
## LINKS
[1] /Kuenstliche-Intelligenz-von-ChatGPT/!5900775
[2] /Was-Putin-in-der-Ukraine-will/!5900383
[3] /Braunkohle-Dorf-Luetzerath/!5898731
[4] /CO2-Rekordwert-bei-Katar-WM/!5893932
## AUTOREN
Aaron Wörz
## TAGS
Unternehmen
Zukunft
GNS
wochentaz
Schwerpunkt Künstliche Intelligenz
Berliner Hochschulen
Podcast „Vorgelesen“
Bot
Volker Wissing
Bildungschancen
Filmbranche
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Künstliche Intelligenz an Berliner Unis: Textgenerator? Läuft!
Wie gehen Berliner Hochschulen mit Arbeiten um, die möglicherweise von KI
verfasst wurde? Verbieten geht nicht, heißt es an der Technischen Uni.
Ideologie und künstliche Intelligenz: Geschichten von morgen
Auch wenn sie tolle Texte schreiben, KIs haben ein Problem: Sie werden
vorwiegend mit westlichen Quellen trainiert. Mehr Diversität ist nötig.
Künstliche Intelligenz erwünscht: ChatGPT darf in Kiel mitstudieren
Stellt der neue Chatbot eine Gefahr für Prüfungsleistungen dar? Nein, sagt
eine Kieler Hochschulprofessorin und sieht darin viel mehr eine Chance.
Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung
Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der
Digitalminister sieht große Chancen – und will keine strengen Regeln für
KIs.
Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter
Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf
die Schulen zu? In den Ministerien ist man erstaunlich gelassen.
Algorithmen in der Kunst: Den Mainstream-Eintopf verhindern
Der Algorithmus weiß, was sich am besten verkauft. Im Kampf gegen die
digitale Vorhersehbarkeit gilt es, per Klick aus der Reihe zu tanzen.
Künstliche Intelligenz: Der drohende Daten-Kolonialismus
Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche
Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.