Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Risiken von KI: „Alles geht zu schnell“
> Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
> Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
Bild: Künstliche Intelligenz wirft viele Fragen auf
wochentaz: Frau Simon, was unterscheidet die Maschine aus philosophischer
Sicht vom Menschen?
Judith Simon: Das ist eine Frage, die viele Bücher füllen kann und auch
gefüllt hat. Vielleicht fangen wir damit an, dass der Mensch ein
Bewusstsein hat und Maschinen nicht. Maschinen haben auch kein Verständnis
von Sprache. Sie können es nur simulieren, indem sie Muster in der Sprache
erkennen und reproduzieren. Auch ChatGPT ist also im Grunde nur Statistik.
Sie sind Mitglied des Deutschen Ethikrats und haben kürzlich eine
[1][Stellungnahme] zum Thema „Herausforderungen durch Künstliche
Intelligenz“ veröffentlicht. Womit haben Sie sich da befasst?
Wir haben uns den Einsatz von KI in vier Anwendungsbereichen angeschaut:
Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung.
Eine Leitfrage dabei war: Wessen Handlungsmöglichkeiten werden durch die
Nutzung von KI erweitert oder vermindert?
Welche Potenziale und Chancen haben Sie erkannt?
KI-gestützte Systeme sind vor allem gut darin, Muster in Daten zu erkennen.
Dies kann in ganz unterschiedlichen Bereichen verwendet werden, zum
Beispiel in der Krebsdiagnostik bei der Analyse von Gewebeproben. In den
sozialen Medien kommt KI zum Einsatz, um Inhalte auszuwählen oder zu
sortieren. [2][In der Bildung] kann KI personalisiertes Lernen
unterstützen. KI wird auch im Sozial- und Polizeiwesen verwendet, um
Entscheidungen zu unterstützen, etwa um die Gefährdung von Kindern zu
bewerten, Betrug aufzudecken oder Vorhersagen über zukünftige Einbrüche zu
machen. Im Idealfall hilft die KI, effizienter zu arbeiten, Fehler zu
verringern und bessere Entscheidungen zu treffen.
Und wo ist der Haken?
Zu den generellen Problemen von KI-Systemen zählt deren mangelnde
Transparenz und Nachvollziehbarkeit. Ein zweites verbreitetes Problem ist
Diskriminierung durch sogenannte systemische Verzerrungen. Ursache sind
oftmals die Daten, welche entweder nicht repräsentativ sind oder
strukturelle Ungleichheiten unserer Gesellschaft widerspiegeln. Die KI
lernt diese Strukturen und reproduziert sie. Auch der Schutz der
Privatsphäre ist ein wichtiges Thema. Wenn Entscheidungen an Software
delegiert werden, stellen sich zudem Fragen rund um Autonomie und
Verantwortung. Und letztlich funktionieren diese Systeme nicht von selbst,
sondern hängen davon ab, dass Menschen Daten für sie aufbereiten. Diese
arbeiten oft unter prekären Arbeitsbedingungen im Globalen Süden.
Wie kann diesen Problemen begegnet werden?
Gremien wie die Enquete-Kommission des Bundestags für KI oder die
Datenethikkommission der Bundesregierung haben bereits umfassende
Empfehlungen an die Politik gegeben. Beide haben einen Ansatz
vorgeschlagen, um im Entwicklungsprozess von KI-Systemen sowohl die Risiken
als auch Möglichkeiten der Kontrolle und Regulierung mitzudenken. Das
spiegelt sich auch auf EU-Ebene im sogenannten KI-Act wider. Dieser soll
gemeinsam mit anderen Verordnungen, wie etwa dem Digital Services Act,
dafür sorgen, dass solche Systeme nicht mit massiven Nebenwirkungen auf den
Markt kommen.
Im Fall der sprachbasierten KI ChatGPT wurde jüngst vor eben solchen
Nebenwirkungen gewarnt. In einem [3][offenen Brief], unterzeichnet von über
1.000 Tech-Expert:innen, darunter Unternehmer wie Elon Musk und
Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich
die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den
Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand –
nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig
kontrollieren kann“.
Die Entwicklungen haben zuletzt viele etwas überrollt – mich auch. Das
Besondere an ChatGPT ist, dass es zum einen mächtig, und zum anderen so
einfach nutzbar und frei zugänglich ist. So sind die Nutzerzahlen innerhalb
kürzester Zeit durch die Decke gegangen. Und dann wurde GPT4
veröffentlicht, das Text mit Bildeingabe kombiniert. Die angekündigte
Anbindung an das Internet ist der nächste große Schritt, welcher neue
Risiken für eine rasante, massenhafte Verbreitung von Fehlinformationen mit
sich bringt.
Viele haben auch Angst, ihren Arbeitsplatz zu verlieren.
Ja, davon werden sicher einige Branchen betroffen sein. Besonders jene, in
denen mit standardisierten Texten gearbeitet wird, die nach klaren Mustern
aufgebaut sind. So braucht man in naher Zukunft vielleicht nur noch ein
paar Journalist:innen, um die von der sprachbasierten KI produzierten Texte
zu überprüfen. Das Gleiche gilt für Übersetzer:innen oder
Grafikdesigner:innen wegen bildgenerierenden Anwendungen wie Dall-E.
Ist diese Entwicklung noch aufzuhalten?
Zumindest können wir die technologischen Entwicklungen und ökonomischen
Rahmenbedingungen beeinflussen. Ich bitte meine Informatik-Studierenden
häufig, sich vorzustellen, die Technologie, die sie entwickeln, würde von
mehreren Millionen oder gar Milliarden Menschen verwendet werden. Dann wird
ihnen oft bewusst, dass die Folgen ihrer Designentscheidungen vielleicht
viel massiver sein könnten, als sie sich das zunächst ausgemalt hatten.
Die Unterzeichner:innen des offenen Briefes fordern ein halbjähriges
Moratorium für die Entwicklung von KI-Systemen, die leistungsfähiger sind
als die Sprachanwendung GPT4 der Firma OpenAI. Sie wollen Zeit gewinnen, um
solche Gedankenexperimente durchzuführen. Ist das realistisch?
Nein, ich denke nicht. Der Wettbewerbsdruck zwischen den Unternehmen dürfte
zu groß sein.
Teilen Sie denn die Forderung?
Ich teile bestimmte Punkte des Briefes. Zum Beispiel den Eindruck, dass
gerade alles zu schnell geht und dass es sinnvoll wäre, sich mit den
Auswirkungen von sogenannten High-Risk-Technologien – zu denen ich ChatGPT
zählen würde – zu beschäftigen, und zwar bevor sie frei zugänglich gemacht
werden. Auch werden einige Vorschläge zur Überprüfbarkeit und Kontrolle von
KI-Systemen gemacht, zu deren Sicherheit, Robustheit usw. Die sind
sinnvoll, wurden aber auch schon von vielen anderen zuvor vorgeschlagen.
Und was teilen Sie nicht?
Zum einen den großen Fokus auf die langfristigen Risiken durch eine
sogenannte „generelle künstliche Intelligenz“ (artificial general
intelligence), also eine KI, die menschliche Intelligenz perfekt simuliert,
sie in allen Bereichen übertrifft oder gar über Bewusstsein oder ähnliches
verfügt. Kritiker:innen des Briefes haben zu Recht darauf hingewiesen,
dass so reale Probleme bereits aktuell verwendeter KI-Systeme [4][aus dem
Blick verloren werden].
Wer trägt die Verantwortung dafür, Schäden durch KI-Systeme abzuwenden oder
zu begleichen?
Es gibt eine einfache Daumenregel: Je mehr Macht ich habe, umso mehr
Verantwortung trage ich. Die größte Verantwortung tragen die Unternehmer
selbst, die Systeme entwickeln und auf den Markt werfen. Darüber hinaus ist
die Politik in der Pflicht, einen gesetzgeberischen Rahmen zu schaffen, der
Risiken minimiert und Chancen nutzbar macht. Aber auch die Nutzer:innen
tragen die Verantwortung zu überlegen, wozu sie diese Tools verwenden und
wozu nicht. Ob sie also ChatGPT verwenden, um zu lernen oder um zu betrügen
und zu manipulieren.
Italien und Kanada haben im Fall von ChatGPT wegen Verstößen gegen den
Datenschutz rechtliche Schritte eingeleitet, Italien ließ die Anwendung
sogar vorerst sperren. In Australien will ein Bürgermeister wegen
Verleumdung gegen die Entwickler vorgehen. Sind Verbote die Lösung?
Verbote sind sicher immer nur das letzte Mittel. Ich bin keine Juristin,
aber es scheint hier auch eher so zu sein, dass es keinen wirklich
geeigneten Rechtsrahmen gibt, mit dem man den Herausforderungen von ChatGPT
begegnen kann. Und da hat man eben existierende Datenschutzgesetze
verwendet. Nun ist ChatGPT allerdings bereits in der Welt und die Frage
ist, wie man es wieder eingefangen kriegt.
Haben Sie eine Idee?
Einerseits werden wir lernen müssen, damit verantwortungsbewusst umzugehen.
Das ist nicht einfach, weil ChatGPT so leicht zu verwenden und zu
missbrauchen ist. Es stellt sich die Frage, welche Möglichkeiten der
geltende Rechtsrahmen bietet, etwa das Datenschutz- oder Urheberrecht, um
bestimmte Probleme einzuhegen. Und ob in den neuen Verordnungen auf
EU-Ebene solche Technologien bereits ausreichend berücksichtigt wurden oder
ob Anpassungen notwendig sind.
Und die Unternehmer, wie erreicht man die?
Ganz ehrlich: Ich glaube nicht, dass man Unternehmer „erreichen“ muss.
Jeder Mensch ist verantwortlich für die Entscheidungen, die er trifft – und
deren Folgen. Und wenn ich Entscheidungen treffe, die hohe Auswirkungen für
viele Menschen haben können, dann muss ich eben auch entsprechend
verantwortungsbewusst handeln. Dass das im Falle von ChatGPT nicht passiert
ist, fällt also allein in die Verantwortung der Unternehmer selbst.
8 Apr 2023
## LINKS
[1] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/ste…
[2] /ChatGPT-loest-Bildungskrise-aus/!5920652
[3] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[4] /Moratorium-ueber-Umgang-mit-KI/!5925502
## AUTOREN
Nora Belghaus
## TAGS
IG
Elon Musk
Roboter
GNS
Ethik
Schwerpunkt Künstliche Intelligenz
Transnationale Konzerne
Internet
Bildung
Regulierung
Lesestück Recherche und Reportage
Roboter
Technischer Fortschritt
## ARTIKEL ZUM THEMA
Neue EU-Regeln für Tech-Giganten: Transparenz für alle
Google, Meta und Co. sollen schärfer gegen illegale Inhalte vorgehen und
transparenter arbeiten. Was das heißt? Antworten auf die wichtigsten
Fragen.
EU-Plan in der Kritik: Zweifel an Chatkontrolle wachsen
Die EU-Kommission will unter anderem E-Mails und Messenger-Nachrichten
durchleuchten lassen. Doch das Vorhaben gerät zunehmend unter Druck.
Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“
Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die
Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert
Lepenies.
Umsetzung des Digitale-Dienste-Gesetzes: Neue Algorithmenprüfer
Die EU-Kommission will mit einem Institut untersuchen, wie die großen
IT-Konzerne technisch arbeiten. Das ist eine wichtige Grundlage für
Regulierung.
Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter
Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich
zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
KI und Anthropomorphismus: Mensch in der Maschine?
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
wir zu menschlichen Metaphern. Aber das birgt Probleme.
KI in Wissenschaft und Journalismus: Mensch und Maschine
Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die
Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI
nicht.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.