Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Chatbots aus China: Ernie statt ChatGPT
> Die chinesische Regierung hat erstmals mehrere KI-Chatbots für die
> Öffentlichkeit freigegeben. Diese dienen vor allem der politischen
> Kontrolle.
Bild: Peking, 16.08.: Besucher des „Wave Summit“ probieren den Chatbot Erni…
Peking taz | Als die kalifornischen Entwickler von „[1][Open AI]“ ihren
[2][ChatGPT] auf den Markt brachten, reagierte die chinesische Regierung
wie zu erwarten: Nach einem kurzen Zeitfenster der Neugierde ließ sie die
Software für die eigene Bevölkerung sperren. Im Hintergrund jedoch
arbeiteten die heimischen Programmierer bereits unter Hochdruck an einer
chinesischen Alternative.
Am Donnerstag schließlich hat Peking eine Lizenz an gleich mehrere Anbieter
vergeben, die nun ihre Chatbots der Öffentlichkeit zugänglich machen
dürfen. Als vielversprechendster [3][Konkurrent] zu ChatGPT gilt
insbesondere „Ernie“ vom Internetriesen [4][Baidu], dem chinesischen
Pendant zu Google. Der Markt reagierte euphorisch: Die Baidu-Aktie stieg am
Donnerstag um über 3,1 Prozent.
Bislang wurde die Entwicklung von KI-Software vor allem von den politischen
Regulierungen in China gelähmt. Künstliche Intelligenz wird einerseits zwar
von der Parteiführung in Peking als Zukunftstechnologie massiv gefördert,
bietet aber gleichzeitig auch ein ungemein subversives Potenzial – nicht
zuletzt, weil die Software selbst dazu lernt.
Doch die Zentralregierung hatte es bereits vor über zehn Jahren erfolgreich
gemeistert, die digitalen Möglichkeiten für den eigenen Machterhalt
erfolgreich zu nutzen. Als nämlich die sozialen Medien aufkamen, reagierte
Peking zunächst mit flächendeckenden Verboten und Zensur. Zu sehr hatte man
Angst vor dem Mobilisierungspotenzial von Twitter und Facebook, wie es die
Jugend beim „arabischen Frühling“ nutzte: Man organisierte sich, teilte
kritische Informationen gegen autoritären Herrscher, verabredete sich zu
Protesten.
## Eigene Alternativen von kritischen Inhalten gesäubert
Doch Peking lernte schnell dazu. Schon bald, nachdem die ausländischen
Plattformen verboten waren, brachte man eigene Alternativen auf den Markt.
Diese wurden nicht nur von sämtlichen kritischen Inhalten gesäubert,
sondern dienten dem Regime schließlich als Werkzeug zur Kontrolle und
Überwachung.
Ohne Wechat, Weibo und Co. würde die staatliche Propaganda mittlerweile
weitaus weniger effektiv funktionieren: Der Algorithmus sorgte zum Beispiel
während der drakonischen Corona-Lockdowns dafür, dass die Postings
verzweifelter und wütender Bürger gelöscht wurden, während die „heroische…
Videos der Gesundheitsmitarbeiter ganz prominent auf den Apps platziert
wurden.
Ähnlich läuft es nun bei den Chatbots. Sämtliche Anbieter müssen nicht nur
ihre Algorithmen bei den Behörden hinterlegen, sondern sich sowohl den
chinesischen Bestimmungen als auch den [5][sozialistischen Grundwerten]
verpflichten. Dass dies die Entwicklung verlangsamen würde, muss die
kommunistische Partei in Kauf nehmen: ChatGPT hatte schließlich bereits
kurz nach seiner Einführung über 100 Millionen Nutzerinnen und Nutzer. Und
mit jeder Sucheingabe lernt die Software dazu.
Wie stark die chinesische Konkurrenz zensiert wird, zeigt ein erster
Praxistest: Wer „Ernie“ von Baidu nutzen möchte, muss sich erst einmal mit
seiner Telefonnummer registrieren. Diese ist in China stets auch mit dem
eigenen Pass verknüpft. Anonymität gibt es also keine.
## Keine Antwort zu Peking 1989
Inhaltlich ist das Programm ohnehin extrem eingeschränkt. Zunächst die
erwartbare Zensur: Wer nach der Situation der Muslime in Xinjiang fragt,
erhält natürlich nur eine Fehlermeldung als Antwort. Auch „Was ist die
Kulturrevolution?“ kann Ernie nicht beantworten; genauso wenig, was 1989
auf dem Platz des Himmlischen Friedens in Peking geschah.
Absurd wird es allerdings, wenn man simple Fragen zur chinesischen Politik
stellt: Wie viele Mitglieder hat die kommunistische Partei? Wie lautet die
Biografie von Staatschef Xi Jinping? Wer war Wirtschaftsreformer Deng
Xiaoping? All dies ist bereits zu „sensibel“, als dass es von der
chinesischen KI beantwortet werden kann. Ja, selbst die Frage „Wo liegt
Tibet?“ wird bereits als Verstoß gegen die Regeln gewertet. Genau wie die
einfache Frage: „Wer ist Staatschef von China?“.
Vor allem aber legen die Algorithmen die Scheinmoral der chinesischen
Zensur offen. „Ernie“ kann etwa genau beantworten, wie viele Covid-Tote es
in den USA gab und wie hoch dort die Arbeitslosigkeit ist. Wer jedoch
dieselben Fragen zu China stellt, bekommt nur einen Warnhinweis.
Es bleibt aus der Perspektive liberaler Demokratien nur zu wünschen, dass
die chinesische KI aufgrund der endlosen Regulierungen hinter der
Entwicklung zurückbleibt. Denn wenn das Modell „Ernie“ Schule macht und
chinesische Firmen ihre Software ins Ausland exportieren, dürften wohl
weltweit diktatorische Regime Interesse daran finden. Chatbots wie „Ernie“
dienen schließlich vor allem als Werkzeug der politischen Manipulation.
1 Sep 2023
## LINKS
[1] /OpenAI-in-der-Kritk/!5922783
[2] /Kuenstliche-Intelligenz/!5948779
[3] /Google-Chatbot-Bard-in-Deutschland/!5947380
[4] /USA-versus-China/!5953799
[5] /Automarkt-in-China/!5943401
## AUTOREN
Fabian Kretschmer
## TAGS
Schwerpunkt Künstliche Intelligenz
China
Internet
China
China
Schwerpunkt Künstliche Intelligenz
Server
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Chinas Verteidigungsminister: Wo steckt Li Shangfu?
Erst wurden zwei Generäle geschasst, dann der Außenminister. Nun hat ein
weiterer Minister länger keinen Auftritt mehr absolviert.
G20-Gipfel ohne Chinas Staatschef: Warum Xi nicht kommt
Chinas Staatschef kommt nicht zum G20-Gipfel am Wochenende in Indien. Das
Verhältnis ist angespannt. Gönnt Peking Delhi keinen Erfolg?
Textgenerator „Poetron“: Gedichte? Vorsicht vor KI
Günter Gehl entwickelte schon 1985 den skurrilen Textgenerator „Poetron“.
Als KI-Pionier und Vorläufer von ChatGPT möchte er aber nicht gelten.
Ökologischer Fußabdruck von KI: Die Klimakiller-Intelligenz
Künstliche Intelligenz gilt als neue Schlüsseltechnologie, auch gegen die
Klimakrise. Doch sie hat ein schmutziges Geheimnis – im wahrsten Sinne.
Künstliche Intelligenz: ChatGPT wird dümmer
Forscher*innen der Stanford Universität und der UC Berkeley haben
Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.