# taz.de -- Risiken von KI: „Alles geht zu schnell“ | |
> Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
> Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
Bild: Künstliche Intelligenz wirft viele Fragen auf | |
wochentaz: Frau Simon, was unterscheidet die Maschine aus philosophischer | |
Sicht vom Menschen? | |
Judith Simon: Das ist eine Frage, die viele Bücher füllen kann und auch | |
gefüllt hat. Vielleicht fangen wir damit an, dass der Mensch ein | |
Bewusstsein hat und Maschinen nicht. Maschinen haben auch kein Verständnis | |
von Sprache. Sie können es nur simulieren, indem sie Muster in der Sprache | |
erkennen und reproduzieren. Auch ChatGPT ist also im Grunde nur Statistik. | |
Sie sind Mitglied des Deutschen Ethikrats und haben kürzlich eine | |
[1][Stellungnahme] zum Thema „Herausforderungen durch Künstliche | |
Intelligenz“ veröffentlicht. Womit haben Sie sich da befasst? | |
Wir haben uns den Einsatz von KI in vier Anwendungsbereichen angeschaut: | |
Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung. | |
Eine Leitfrage dabei war: Wessen Handlungsmöglichkeiten werden durch die | |
Nutzung von KI erweitert oder vermindert? | |
Welche Potenziale und Chancen haben Sie erkannt? | |
KI-gestützte Systeme sind vor allem gut darin, Muster in Daten zu erkennen. | |
Dies kann in ganz unterschiedlichen Bereichen verwendet werden, zum | |
Beispiel in der Krebsdiagnostik bei der Analyse von Gewebeproben. In den | |
sozialen Medien kommt KI zum Einsatz, um Inhalte auszuwählen oder zu | |
sortieren. [2][In der Bildung] kann KI personalisiertes Lernen | |
unterstützen. KI wird auch im Sozial- und Polizeiwesen verwendet, um | |
Entscheidungen zu unterstützen, etwa um die Gefährdung von Kindern zu | |
bewerten, Betrug aufzudecken oder Vorhersagen über zukünftige Einbrüche zu | |
machen. Im Idealfall hilft die KI, effizienter zu arbeiten, Fehler zu | |
verringern und bessere Entscheidungen zu treffen. | |
Und wo ist der Haken? | |
Zu den generellen Problemen von KI-Systemen zählt deren mangelnde | |
Transparenz und Nachvollziehbarkeit. Ein zweites verbreitetes Problem ist | |
Diskriminierung durch sogenannte systemische Verzerrungen. Ursache sind | |
oftmals die Daten, welche entweder nicht repräsentativ sind oder | |
strukturelle Ungleichheiten unserer Gesellschaft widerspiegeln. Die KI | |
lernt diese Strukturen und reproduziert sie. Auch der Schutz der | |
Privatsphäre ist ein wichtiges Thema. Wenn Entscheidungen an Software | |
delegiert werden, stellen sich zudem Fragen rund um Autonomie und | |
Verantwortung. Und letztlich funktionieren diese Systeme nicht von selbst, | |
sondern hängen davon ab, dass Menschen Daten für sie aufbereiten. Diese | |
arbeiten oft unter prekären Arbeitsbedingungen im Globalen Süden. | |
Wie kann diesen Problemen begegnet werden? | |
Gremien wie die Enquete-Kommission des Bundestags für KI oder die | |
Datenethikkommission der Bundesregierung haben bereits umfassende | |
Empfehlungen an die Politik gegeben. Beide haben einen Ansatz | |
vorgeschlagen, um im Entwicklungsprozess von KI-Systemen sowohl die Risiken | |
als auch Möglichkeiten der Kontrolle und Regulierung mitzudenken. Das | |
spiegelt sich auch auf EU-Ebene im sogenannten KI-Act wider. Dieser soll | |
gemeinsam mit anderen Verordnungen, wie etwa dem Digital Services Act, | |
dafür sorgen, dass solche Systeme nicht mit massiven Nebenwirkungen auf den | |
Markt kommen. | |
Im Fall der sprachbasierten KI ChatGPT wurde jüngst vor eben solchen | |
Nebenwirkungen gewarnt. In einem [3][offenen Brief], unterzeichnet von über | |
1.000 Tech-Expert:innen, darunter Unternehmer wie Elon Musk und | |
Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich | |
die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den | |
Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – | |
nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig | |
kontrollieren kann“. | |
Die Entwicklungen haben zuletzt viele etwas überrollt – mich auch. Das | |
Besondere an ChatGPT ist, dass es zum einen mächtig, und zum anderen so | |
einfach nutzbar und frei zugänglich ist. So sind die Nutzerzahlen innerhalb | |
kürzester Zeit durch die Decke gegangen. Und dann wurde GPT4 | |
veröffentlicht, das Text mit Bildeingabe kombiniert. Die angekündigte | |
Anbindung an das Internet ist der nächste große Schritt, welcher neue | |
Risiken für eine rasante, massenhafte Verbreitung von Fehlinformationen mit | |
sich bringt. | |
Viele haben auch Angst, ihren Arbeitsplatz zu verlieren. | |
Ja, davon werden sicher einige Branchen betroffen sein. Besonders jene, in | |
denen mit standardisierten Texten gearbeitet wird, die nach klaren Mustern | |
aufgebaut sind. So braucht man in naher Zukunft vielleicht nur noch ein | |
paar Journalist:innen, um die von der sprachbasierten KI produzierten Texte | |
zu überprüfen. Das Gleiche gilt für Übersetzer:innen oder | |
Grafikdesigner:innen wegen bildgenerierenden Anwendungen wie Dall-E. | |
Ist diese Entwicklung noch aufzuhalten? | |
Zumindest können wir die technologischen Entwicklungen und ökonomischen | |
Rahmenbedingungen beeinflussen. Ich bitte meine Informatik-Studierenden | |
häufig, sich vorzustellen, die Technologie, die sie entwickeln, würde von | |
mehreren Millionen oder gar Milliarden Menschen verwendet werden. Dann wird | |
ihnen oft bewusst, dass die Folgen ihrer Designentscheidungen vielleicht | |
viel massiver sein könnten, als sie sich das zunächst ausgemalt hatten. | |
Die Unterzeichner:innen des offenen Briefes fordern ein halbjähriges | |
Moratorium für die Entwicklung von KI-Systemen, die leistungsfähiger sind | |
als die Sprachanwendung GPT4 der Firma OpenAI. Sie wollen Zeit gewinnen, um | |
solche Gedankenexperimente durchzuführen. Ist das realistisch? | |
Nein, ich denke nicht. Der Wettbewerbsdruck zwischen den Unternehmen dürfte | |
zu groß sein. | |
Teilen Sie denn die Forderung? | |
Ich teile bestimmte Punkte des Briefes. Zum Beispiel den Eindruck, dass | |
gerade alles zu schnell geht und dass es sinnvoll wäre, sich mit den | |
Auswirkungen von sogenannten High-Risk-Technologien – zu denen ich ChatGPT | |
zählen würde – zu beschäftigen, und zwar bevor sie frei zugänglich gemacht | |
werden. Auch werden einige Vorschläge zur Überprüfbarkeit und Kontrolle von | |
KI-Systemen gemacht, zu deren Sicherheit, Robustheit usw. Die sind | |
sinnvoll, wurden aber auch schon von vielen anderen zuvor vorgeschlagen. | |
Und was teilen Sie nicht? | |
Zum einen den großen Fokus auf die langfristigen Risiken durch eine | |
sogenannte „generelle künstliche Intelligenz“ (artificial general | |
intelligence), also eine KI, die menschliche Intelligenz perfekt simuliert, | |
sie in allen Bereichen übertrifft oder gar über Bewusstsein oder ähnliches | |
verfügt. Kritiker:innen des Briefes haben zu Recht darauf hingewiesen, | |
dass so reale Probleme bereits aktuell verwendeter KI-Systeme [4][aus dem | |
Blick verloren werden]. | |
Wer trägt die Verantwortung dafür, Schäden durch KI-Systeme abzuwenden oder | |
zu begleichen? | |
Es gibt eine einfache Daumenregel: Je mehr Macht ich habe, umso mehr | |
Verantwortung trage ich. Die größte Verantwortung tragen die Unternehmer | |
selbst, die Systeme entwickeln und auf den Markt werfen. Darüber hinaus ist | |
die Politik in der Pflicht, einen gesetzgeberischen Rahmen zu schaffen, der | |
Risiken minimiert und Chancen nutzbar macht. Aber auch die Nutzer:innen | |
tragen die Verantwortung zu überlegen, wozu sie diese Tools verwenden und | |
wozu nicht. Ob sie also ChatGPT verwenden, um zu lernen oder um zu betrügen | |
und zu manipulieren. | |
Italien und Kanada haben im Fall von ChatGPT wegen Verstößen gegen den | |
Datenschutz rechtliche Schritte eingeleitet, Italien ließ die Anwendung | |
sogar vorerst sperren. In Australien will ein Bürgermeister wegen | |
Verleumdung gegen die Entwickler vorgehen. Sind Verbote die Lösung? | |
Verbote sind sicher immer nur das letzte Mittel. Ich bin keine Juristin, | |
aber es scheint hier auch eher so zu sein, dass es keinen wirklich | |
geeigneten Rechtsrahmen gibt, mit dem man den Herausforderungen von ChatGPT | |
begegnen kann. Und da hat man eben existierende Datenschutzgesetze | |
verwendet. Nun ist ChatGPT allerdings bereits in der Welt und die Frage | |
ist, wie man es wieder eingefangen kriegt. | |
Haben Sie eine Idee? | |
Einerseits werden wir lernen müssen, damit verantwortungsbewusst umzugehen. | |
Das ist nicht einfach, weil ChatGPT so leicht zu verwenden und zu | |
missbrauchen ist. Es stellt sich die Frage, welche Möglichkeiten der | |
geltende Rechtsrahmen bietet, etwa das Datenschutz- oder Urheberrecht, um | |
bestimmte Probleme einzuhegen. Und ob in den neuen Verordnungen auf | |
EU-Ebene solche Technologien bereits ausreichend berücksichtigt wurden oder | |
ob Anpassungen notwendig sind. | |
Und die Unternehmer, wie erreicht man die? | |
Ganz ehrlich: Ich glaube nicht, dass man Unternehmer „erreichen“ muss. | |
Jeder Mensch ist verantwortlich für die Entscheidungen, die er trifft – und | |
deren Folgen. Und wenn ich Entscheidungen treffe, die hohe Auswirkungen für | |
viele Menschen haben können, dann muss ich eben auch entsprechend | |
verantwortungsbewusst handeln. Dass das im Falle von ChatGPT nicht passiert | |
ist, fällt also allein in die Verantwortung der Unternehmer selbst. | |
8 Apr 2023 | |
## LINKS | |
[1] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/ste… | |
[2] /ChatGPT-loest-Bildungskrise-aus/!5920652 | |
[3] https://futureoflife.org/open-letter/pause-giant-ai-experiments/ | |
[4] /Moratorium-ueber-Umgang-mit-KI/!5925502 | |
## AUTOREN | |
Nora Belghaus | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Roboter | |
Ethik | |
Elon Musk | |
künstliche Intelligenz | |
GNS | |
IG | |
Transnationale Konzerne | |
Internet | |
Bildung | |
Regulierung | |
Lesestück Recherche und Reportage | |
künstliche Intelligenz | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Neue EU-Regeln für Tech-Giganten: Transparenz für alle | |
Google, Meta und Co. sollen schärfer gegen illegale Inhalte vorgehen und | |
transparenter arbeiten. Was das heißt? Antworten auf die wichtigsten | |
Fragen. | |
EU-Plan in der Kritik: Zweifel an Chatkontrolle wachsen | |
Die EU-Kommission will unter anderem E-Mails und Messenger-Nachrichten | |
durchleuchten lassen. Doch das Vorhaben gerät zunehmend unter Druck. | |
Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“ | |
Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die | |
Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert | |
Lepenies. | |
Umsetzung des Digitale-Dienste-Gesetzes: Neue Algorithmenprüfer | |
Die EU-Kommission will mit einem Institut untersuchen, wie die großen | |
IT-Konzerne technisch arbeiten. Das ist eine wichtige Grundlage für | |
Regulierung. | |
Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
KI und Anthropomorphismus: Mensch in der Maschine? | |
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
wir zu menschlichen Metaphern. Aber das birgt Probleme. | |
KI in Wissenschaft und Journalismus: Mensch und Maschine | |
Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die | |
Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI | |
nicht. |