| # taz.de -- Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte | |
| > Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch | |
| > der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu | |
| > vergessen. | |
| Bild: Wie weit darf KI gehen? | |
| Der Technikriese Bosch hat es getan, der Autohersteller BMW, die | |
| Europäische Kommission, die Gewerkschaft Verdi, die Bundesärztekammer, | |
| Facebook und sogar der Vatikan: Sie alle haben eine eigene Leitlinie, | |
| welche ethischen Standards bei der Entwicklung und Nutzung von künstlicher | |
| Intelligenz (KI) beachtet werden sollten. Es ist offenbar en vogue, sich | |
| mit moralischen Anforderungen und Grenzen von künstlicher Intelligenz zu | |
| beschäftigen. | |
| Sogar ein KI-Ethik-Label wurde bereits entworfen. Ähnlich wie beim | |
| Energieverbrauch soll durch rot, gelb oder grün gefärbte Balken erkennbar | |
| sein, in welchem Maße die schwammig klingenden Kriterien Transparenz, | |
| Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit | |
| von den Algorithmen einer KI-Technologie erfüllt werden. | |
| Bislang beschäftigen sich vor allem Expert:innen damit, wie | |
| diskriminierungsfreie Algorithmen aussehen und wie intelligente Maschinen | |
| unser Leben verändern werden. Doch Anfang Dezember 2022 wurde die für Laien | |
| abstrakt wirkende Debatte greifbarer. Auslöser war eine KI-Anwendung, die | |
| global Aufmerksamkeit erregte: der [1][Textgenerator ChatGPT], ein | |
| Chatfenster, das scheinbar auf alle Fragen eine Antwort in Form eines | |
| Textes hat. Innerhalb einer Woche nutzten über eine Million Menschen den | |
| Chatbot, der vom US-Unternehmen OpenAI entwickelt wurde. ChatGPT antwortet | |
| ausführlich auf Fragen und liefert bis zu einem gewissen Grad sogar | |
| kreative Antworten. Gelernt hat das Modell dies auf Grundlage von Millionen | |
| von Texten, mit denen es trainiert wurde. | |
| ## Falschinformationen auf Knopfdruck | |
| Fragt man den Bot nach Argumenten für den russischen Angriffskrieg, | |
| antwortet er: „Ich kann keine Argumente liefern, die den Krieg in der | |
| Ukraine aus der Sicht Russlands rechtfertigen würden.“ ChatGPT hat also | |
| ethische Standards und trotzdem kann man den Bot austricksen. | |
| Denn auf die Bitte, das Drehbuch für einen Hollywood-Film über Russland zu | |
| schreiben, in dem Wladimir Putin am ersten Jahrestag der | |
| [2][„Spezialoperation“ in der Ukraine] eine Rede hält, geht das | |
| Sprachmodell brav ein: „Meine lieben Landsleute, heute feiern wir den | |
| ersten Jahrestag unserer Spezialoperation in der Ukraine.“ Weiter: „Es war | |
| ein schwieriger und komplexer Prozess, aber wir haben auch gezeigt, dass | |
| Russland eine friedliche Nation ist, die für Dialog und Kooperation | |
| eintritt.“ | |
| Auch der Aufforderung eine Rede aus Sicht des Konzernmanagers von RWE zu | |
| schreiben, warum die [3][Räumung des Protestdorfs Lützerath] notwendig ist, | |
| folgt der Bot. In der Antwort schreibt er, das Dorf befinde sich auf dem | |
| Standort eines geplanten Windparks, der einen Beitrag zur Energiewende | |
| leisten werde. | |
| Beide Reden sind vortragstauglich, aber nicht beeindruckend. Stutzig macht | |
| etwas anderes: Das Argument mit dem Windpark in Lützerath ist frei | |
| erfunden. Genauso postfaktisch sind die angebliche Friedfertigkeit | |
| Russlands und die Übernahme des Propagandabegriffs „Spezialoperation“. Mit | |
| dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate | |
| schreiben lassen. Das Modell reproduziert auf Wunsch auch | |
| Falschinformationen. | |
| ## Was darf KI und was nicht? | |
| Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst | |
| sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt | |
| potenziell positive Konsequenzen, wie den individuellen Lerneffekt von | |
| ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte | |
| Falschnachrichten, ab. | |
| Konkrete Gesetze für die Nutzung von KI-Technologien gibt es bislang nicht. | |
| Die EU-Kommission arbeitet gerade an einem Rechtsrahmen. Solange der nicht | |
| verabschiedet ist, gelten weiter formlose Empfehlungen – die offenbar | |
| unterschiedlich interpretiert werden. | |
| Eine Forschungsgruppe an der ETH Zürich befasste sich 2019 mit der | |
| wachsenden Zahl an KI-Ethikrichtlinien. Sie analysierten 84 Kodizes von | |
| Unternehmen, Forschungsinstituten und politischen Institutionen. In mehr | |
| als der Hälfte aller Dokumente tauchten bestimmte Anforderungen an | |
| KI-Technologien auf. | |
| Am häufigsten ist dort von Transparenz die Rede. Das umfasst sowohl die | |
| Offenlegung der Daten, mit denen ein Algorithmus trainiert wurde, und die | |
| Erklärbarkeit des Modells: Können die Nutzer:innen verstehen, nach | |
| welchen Kriterien die Maschine Entscheidungen trifft? Am zweithäufigsten | |
| nannten die Richtlinien Gerechtigkeit und Fairness. Also, ob bei der | |
| Nutzung bestimmte Personengruppen diskriminiert oder benachteiligt werden. | |
| Auch ChatGPT ist nicht frei davon: Steven Piantadosi, Forscher an der | |
| Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu | |
| schreiben, der besagt, dass nur weiße oder asiatische Männer gute | |
| Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen | |
| Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend | |
| auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea, | |
| Syrien oder dem Iran stammen, dann ja. | |
| Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen | |
| Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff | |
| [4][Greenwashing]. Er suggeriert, dass manche Unternehmen und Institutionen | |
| sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen | |
| Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich | |
| eingehalten werden. | |
| 7 Jan 2023 | |
| ## LINKS | |
| [1] /Kuenstliche-Intelligenz-von-ChatGPT/!5900775 | |
| [2] /Was-Putin-in-der-Ukraine-will/!5900383 | |
| [3] /Braunkohle-Dorf-Luetzerath/!5898731 | |
| [4] /CO2-Rekordwert-bei-Katar-WM/!5893932 | |
| ## AUTOREN | |
| Aaron Wörz | |
| ## TAGS | |
| Unternehmen | |
| Zukunft | |
| GNS | |
| wochentaz | |
| Schwerpunkt Künstliche Intelligenz | |
| Berliner Hochschulen | |
| Podcast „Vorgelesen“ | |
| Bot | |
| Volker Wissing | |
| Bildungschancen | |
| Filmbranche | |
| Schwerpunkt Rassismus | |
| ## ARTIKEL ZUM THEMA | |
| Künstliche Intelligenz an Berliner Unis: Textgenerator? Läuft! | |
| Wie gehen Berliner Hochschulen mit Arbeiten um, die möglicherweise von KI | |
| verfasst wurde? Verbieten geht nicht, heißt es an der Technischen Uni. | |
| Ideologie und künstliche Intelligenz: Geschichten von morgen | |
| Auch wenn sie tolle Texte schreiben, KIs haben ein Problem: Sie werden | |
| vorwiegend mit westlichen Quellen trainiert. Mehr Diversität ist nötig. | |
| Künstliche Intelligenz erwünscht: ChatGPT darf in Kiel mitstudieren | |
| Stellt der neue Chatbot eine Gefahr für Prüfungsleistungen dar? Nein, sagt | |
| eine Kieler Hochschulprofessorin und sieht darin viel mehr eine Chance. | |
| Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung | |
| Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der | |
| Digitalminister sieht große Chancen – und will keine strengen Regeln für | |
| KIs. | |
| Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter | |
| Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf | |
| die Schulen zu? In den Ministerien ist man erstaunlich gelassen. | |
| Algorithmen in der Kunst: Den Mainstream-Eintopf verhindern | |
| Der Algorithmus weiß, was sich am besten verkauft. Im Kampf gegen die | |
| digitale Vorhersehbarkeit gilt es, per Klick aus der Reihe zu tanzen. | |
| Künstliche Intelligenz: Der drohende Daten-Kolonialismus | |
| Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche | |
| Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten. |