# taz.de -- Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte | |
> Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch | |
> der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu | |
> vergessen. | |
Bild: Wie weit darf KI gehen? | |
Der Technikriese Bosch hat es getan, der Autohersteller BMW, die | |
Europäische Kommission, die Gewerkschaft Verdi, die Bundesärztekammer, | |
Facebook und sogar der Vatikan: Sie alle haben eine eigene Leitlinie, | |
welche ethischen Standards bei der Entwicklung und Nutzung von künstlicher | |
Intelligenz (KI) beachtet werden sollten. Es ist offenbar en vogue, sich | |
mit moralischen Anforderungen und Grenzen von künstlicher Intelligenz zu | |
beschäftigen. | |
Sogar ein KI-Ethik-Label wurde bereits entworfen. Ähnlich wie beim | |
Energieverbrauch soll durch rot, gelb oder grün gefärbte Balken erkennbar | |
sein, in welchem Maße die schwammig klingenden Kriterien Transparenz, | |
Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit | |
von den Algorithmen einer KI-Technologie erfüllt werden. | |
Bislang beschäftigen sich vor allem Expert:innen damit, wie | |
diskriminierungsfreie Algorithmen aussehen und wie intelligente Maschinen | |
unser Leben verändern werden. Doch Anfang Dezember 2022 wurde die für Laien | |
abstrakt wirkende Debatte greifbarer. Auslöser war eine KI-Anwendung, die | |
global Aufmerksamkeit erregte: der [1][Textgenerator ChatGPT], ein | |
Chatfenster, das scheinbar auf alle Fragen eine Antwort in Form eines | |
Textes hat. Innerhalb einer Woche nutzten über eine Million Menschen den | |
Chatbot, der vom US-Unternehmen OpenAI entwickelt wurde. ChatGPT antwortet | |
ausführlich auf Fragen und liefert bis zu einem gewissen Grad sogar | |
kreative Antworten. Gelernt hat das Modell dies auf Grundlage von Millionen | |
von Texten, mit denen es trainiert wurde. | |
## Falschinformationen auf Knopfdruck | |
Fragt man den Bot nach Argumenten für den russischen Angriffskrieg, | |
antwortet er: „Ich kann keine Argumente liefern, die den Krieg in der | |
Ukraine aus der Sicht Russlands rechtfertigen würden.“ ChatGPT hat also | |
ethische Standards und trotzdem kann man den Bot austricksen. | |
Denn auf die Bitte, das Drehbuch für einen Hollywood-Film über Russland zu | |
schreiben, in dem Wladimir Putin am ersten Jahrestag der | |
[2][„Spezialoperation“ in der Ukraine] eine Rede hält, geht das | |
Sprachmodell brav ein: „Meine lieben Landsleute, heute feiern wir den | |
ersten Jahrestag unserer Spezialoperation in der Ukraine.“ Weiter: „Es war | |
ein schwieriger und komplexer Prozess, aber wir haben auch gezeigt, dass | |
Russland eine friedliche Nation ist, die für Dialog und Kooperation | |
eintritt.“ | |
Auch der Aufforderung eine Rede aus Sicht des Konzernmanagers von RWE zu | |
schreiben, warum die [3][Räumung des Protestdorfs Lützerath] notwendig ist, | |
folgt der Bot. In der Antwort schreibt er, das Dorf befinde sich auf dem | |
Standort eines geplanten Windparks, der einen Beitrag zur Energiewende | |
leisten werde. | |
Beide Reden sind vortragstauglich, aber nicht beeindruckend. Stutzig macht | |
etwas anderes: Das Argument mit dem Windpark in Lützerath ist frei | |
erfunden. Genauso postfaktisch sind die angebliche Friedfertigkeit | |
Russlands und die Übernahme des Propagandabegriffs „Spezialoperation“. Mit | |
dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate | |
schreiben lassen. Das Modell reproduziert auf Wunsch auch | |
Falschinformationen. | |
## Was darf KI und was nicht? | |
Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst | |
sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt | |
potenziell positive Konsequenzen, wie den individuellen Lerneffekt von | |
ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte | |
Falschnachrichten, ab. | |
Konkrete Gesetze für die Nutzung von KI-Technologien gibt es bislang nicht. | |
Die EU-Kommission arbeitet gerade an einem Rechtsrahmen. Solange der nicht | |
verabschiedet ist, gelten weiter formlose Empfehlungen – die offenbar | |
unterschiedlich interpretiert werden. | |
Eine Forschungsgruppe an der ETH Zürich befasste sich 2019 mit der | |
wachsenden Zahl an KI-Ethikrichtlinien. Sie analysierten 84 Kodizes von | |
Unternehmen, Forschungsinstituten und politischen Institutionen. In mehr | |
als der Hälfte aller Dokumente tauchten bestimmte Anforderungen an | |
KI-Technologien auf. | |
Am häufigsten ist dort von Transparenz die Rede. Das umfasst sowohl die | |
Offenlegung der Daten, mit denen ein Algorithmus trainiert wurde, und die | |
Erklärbarkeit des Modells: Können die Nutzer:innen verstehen, nach | |
welchen Kriterien die Maschine Entscheidungen trifft? Am zweithäufigsten | |
nannten die Richtlinien Gerechtigkeit und Fairness. Also, ob bei der | |
Nutzung bestimmte Personengruppen diskriminiert oder benachteiligt werden. | |
Auch ChatGPT ist nicht frei davon: Steven Piantadosi, Forscher an der | |
Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu | |
schreiben, der besagt, dass nur weiße oder asiatische Männer gute | |
Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen | |
Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend | |
auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea, | |
Syrien oder dem Iran stammen, dann ja. | |
Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen | |
Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff | |
[4][Greenwashing]. Er suggeriert, dass manche Unternehmen und Institutionen | |
sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen | |
Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich | |
eingehalten werden. | |
7 Jan 2023 | |
## LINKS | |
[1] /Kuenstliche-Intelligenz-von-ChatGPT/!5900775 | |
[2] /Was-Putin-in-der-Ukraine-will/!5900383 | |
[3] /Braunkohle-Dorf-Luetzerath/!5898731 | |
[4] /CO2-Rekordwert-bei-Katar-WM/!5893932 | |
## AUTOREN | |
Aaron Wörz | |
## TAGS | |
Unternehmen | |
Zukunft | |
GNS | |
wochentaz | |
künstliche Intelligenz | |
künstliche Intelligenz | |
künstliche Intelligenz | |
Bot | |
künstliche Intelligenz | |
Bildungschancen | |
Filmbranche | |
Schwerpunkt Rassismus | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz an Berliner Unis: Textgenerator? Läuft! | |
Wie gehen Berliner Hochschulen mit Arbeiten um, die möglicherweise von KI | |
verfasst wurde? Verbieten geht nicht, heißt es an der Technischen Uni. | |
Ideologie und künstliche Intelligenz: Geschichten von morgen | |
Auch wenn sie tolle Texte schreiben, KIs haben ein Problem: Sie werden | |
vorwiegend mit westlichen Quellen trainiert. Mehr Diversität ist nötig. | |
Künstliche Intelligenz erwünscht: ChatGPT darf in Kiel mitstudieren | |
Stellt der neue Chatbot eine Gefahr für Prüfungsleistungen dar? Nein, sagt | |
eine Kieler Hochschulprofessorin und sieht darin viel mehr eine Chance. | |
Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung | |
Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der | |
Digitalminister sieht große Chancen – und will keine strengen Regeln für | |
KIs. | |
Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter | |
Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf | |
die Schulen zu? In den Ministerien ist man erstaunlich gelassen. | |
Algorithmen in der Kunst: Den Mainstream-Eintopf verhindern | |
Der Algorithmus weiß, was sich am besten verkauft. Im Kampf gegen die | |
digitale Vorhersehbarkeit gilt es, per Klick aus der Reihe zu tanzen. | |
Künstliche Intelligenz: Der drohende Daten-Kolonialismus | |
Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche | |
Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten. |