| # taz.de -- Risiken von KI: „Alles geht zu schnell“ | |
| > Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
| > Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
| Bild: Künstliche Intelligenz wirft viele Fragen auf | |
| wochentaz: Frau Simon, was unterscheidet die Maschine aus philosophischer | |
| Sicht vom Menschen? | |
| Judith Simon: Das ist eine Frage, die viele Bücher füllen kann und auch | |
| gefüllt hat. Vielleicht fangen wir damit an, dass der Mensch ein | |
| Bewusstsein hat und Maschinen nicht. Maschinen haben auch kein Verständnis | |
| von Sprache. Sie können es nur simulieren, indem sie Muster in der Sprache | |
| erkennen und reproduzieren. Auch ChatGPT ist also im Grunde nur Statistik. | |
| Sie sind Mitglied des Deutschen Ethikrats und haben kürzlich eine | |
| [1][Stellungnahme] zum Thema „Herausforderungen durch Künstliche | |
| Intelligenz“ veröffentlicht. Womit haben Sie sich da befasst? | |
| Wir haben uns den Einsatz von KI in vier Anwendungsbereichen angeschaut: | |
| Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung. | |
| Eine Leitfrage dabei war: Wessen Handlungsmöglichkeiten werden durch die | |
| Nutzung von KI erweitert oder vermindert? | |
| Welche Potenziale und Chancen haben Sie erkannt? | |
| KI-gestützte Systeme sind vor allem gut darin, Muster in Daten zu erkennen. | |
| Dies kann in ganz unterschiedlichen Bereichen verwendet werden, zum | |
| Beispiel in der Krebsdiagnostik bei der Analyse von Gewebeproben. In den | |
| sozialen Medien kommt KI zum Einsatz, um Inhalte auszuwählen oder zu | |
| sortieren. [2][In der Bildung] kann KI personalisiertes Lernen | |
| unterstützen. KI wird auch im Sozial- und Polizeiwesen verwendet, um | |
| Entscheidungen zu unterstützen, etwa um die Gefährdung von Kindern zu | |
| bewerten, Betrug aufzudecken oder Vorhersagen über zukünftige Einbrüche zu | |
| machen. Im Idealfall hilft die KI, effizienter zu arbeiten, Fehler zu | |
| verringern und bessere Entscheidungen zu treffen. | |
| Und wo ist der Haken? | |
| Zu den generellen Problemen von KI-Systemen zählt deren mangelnde | |
| Transparenz und Nachvollziehbarkeit. Ein zweites verbreitetes Problem ist | |
| Diskriminierung durch sogenannte systemische Verzerrungen. Ursache sind | |
| oftmals die Daten, welche entweder nicht repräsentativ sind oder | |
| strukturelle Ungleichheiten unserer Gesellschaft widerspiegeln. Die KI | |
| lernt diese Strukturen und reproduziert sie. Auch der Schutz der | |
| Privatsphäre ist ein wichtiges Thema. Wenn Entscheidungen an Software | |
| delegiert werden, stellen sich zudem Fragen rund um Autonomie und | |
| Verantwortung. Und letztlich funktionieren diese Systeme nicht von selbst, | |
| sondern hängen davon ab, dass Menschen Daten für sie aufbereiten. Diese | |
| arbeiten oft unter prekären Arbeitsbedingungen im Globalen Süden. | |
| Wie kann diesen Problemen begegnet werden? | |
| Gremien wie die Enquete-Kommission des Bundestags für KI oder die | |
| Datenethikkommission der Bundesregierung haben bereits umfassende | |
| Empfehlungen an die Politik gegeben. Beide haben einen Ansatz | |
| vorgeschlagen, um im Entwicklungsprozess von KI-Systemen sowohl die Risiken | |
| als auch Möglichkeiten der Kontrolle und Regulierung mitzudenken. Das | |
| spiegelt sich auch auf EU-Ebene im sogenannten KI-Act wider. Dieser soll | |
| gemeinsam mit anderen Verordnungen, wie etwa dem Digital Services Act, | |
| dafür sorgen, dass solche Systeme nicht mit massiven Nebenwirkungen auf den | |
| Markt kommen. | |
| Im Fall der sprachbasierten KI ChatGPT wurde jüngst vor eben solchen | |
| Nebenwirkungen gewarnt. In einem [3][offenen Brief], unterzeichnet von über | |
| 1.000 Tech-Expert:innen, darunter Unternehmer wie Elon Musk und | |
| Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich | |
| die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den | |
| Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – | |
| nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig | |
| kontrollieren kann“. | |
| Die Entwicklungen haben zuletzt viele etwas überrollt – mich auch. Das | |
| Besondere an ChatGPT ist, dass es zum einen mächtig, und zum anderen so | |
| einfach nutzbar und frei zugänglich ist. So sind die Nutzerzahlen innerhalb | |
| kürzester Zeit durch die Decke gegangen. Und dann wurde GPT4 | |
| veröffentlicht, das Text mit Bildeingabe kombiniert. Die angekündigte | |
| Anbindung an das Internet ist der nächste große Schritt, welcher neue | |
| Risiken für eine rasante, massenhafte Verbreitung von Fehlinformationen mit | |
| sich bringt. | |
| Viele haben auch Angst, ihren Arbeitsplatz zu verlieren. | |
| Ja, davon werden sicher einige Branchen betroffen sein. Besonders jene, in | |
| denen mit standardisierten Texten gearbeitet wird, die nach klaren Mustern | |
| aufgebaut sind. So braucht man in naher Zukunft vielleicht nur noch ein | |
| paar Journalist:innen, um die von der sprachbasierten KI produzierten Texte | |
| zu überprüfen. Das Gleiche gilt für Übersetzer:innen oder | |
| Grafikdesigner:innen wegen bildgenerierenden Anwendungen wie Dall-E. | |
| Ist diese Entwicklung noch aufzuhalten? | |
| Zumindest können wir die technologischen Entwicklungen und ökonomischen | |
| Rahmenbedingungen beeinflussen. Ich bitte meine Informatik-Studierenden | |
| häufig, sich vorzustellen, die Technologie, die sie entwickeln, würde von | |
| mehreren Millionen oder gar Milliarden Menschen verwendet werden. Dann wird | |
| ihnen oft bewusst, dass die Folgen ihrer Designentscheidungen vielleicht | |
| viel massiver sein könnten, als sie sich das zunächst ausgemalt hatten. | |
| Die Unterzeichner:innen des offenen Briefes fordern ein halbjähriges | |
| Moratorium für die Entwicklung von KI-Systemen, die leistungsfähiger sind | |
| als die Sprachanwendung GPT4 der Firma OpenAI. Sie wollen Zeit gewinnen, um | |
| solche Gedankenexperimente durchzuführen. Ist das realistisch? | |
| Nein, ich denke nicht. Der Wettbewerbsdruck zwischen den Unternehmen dürfte | |
| zu groß sein. | |
| Teilen Sie denn die Forderung? | |
| Ich teile bestimmte Punkte des Briefes. Zum Beispiel den Eindruck, dass | |
| gerade alles zu schnell geht und dass es sinnvoll wäre, sich mit den | |
| Auswirkungen von sogenannten High-Risk-Technologien – zu denen ich ChatGPT | |
| zählen würde – zu beschäftigen, und zwar bevor sie frei zugänglich gemacht | |
| werden. Auch werden einige Vorschläge zur Überprüfbarkeit und Kontrolle von | |
| KI-Systemen gemacht, zu deren Sicherheit, Robustheit usw. Die sind | |
| sinnvoll, wurden aber auch schon von vielen anderen zuvor vorgeschlagen. | |
| Und was teilen Sie nicht? | |
| Zum einen den großen Fokus auf die langfristigen Risiken durch eine | |
| sogenannte „generelle künstliche Intelligenz“ (artificial general | |
| intelligence), also eine KI, die menschliche Intelligenz perfekt simuliert, | |
| sie in allen Bereichen übertrifft oder gar über Bewusstsein oder ähnliches | |
| verfügt. Kritiker:innen des Briefes haben zu Recht darauf hingewiesen, | |
| dass so reale Probleme bereits aktuell verwendeter KI-Systeme [4][aus dem | |
| Blick verloren werden]. | |
| Wer trägt die Verantwortung dafür, Schäden durch KI-Systeme abzuwenden oder | |
| zu begleichen? | |
| Es gibt eine einfache Daumenregel: Je mehr Macht ich habe, umso mehr | |
| Verantwortung trage ich. Die größte Verantwortung tragen die Unternehmer | |
| selbst, die Systeme entwickeln und auf den Markt werfen. Darüber hinaus ist | |
| die Politik in der Pflicht, einen gesetzgeberischen Rahmen zu schaffen, der | |
| Risiken minimiert und Chancen nutzbar macht. Aber auch die Nutzer:innen | |
| tragen die Verantwortung zu überlegen, wozu sie diese Tools verwenden und | |
| wozu nicht. Ob sie also ChatGPT verwenden, um zu lernen oder um zu betrügen | |
| und zu manipulieren. | |
| Italien und Kanada haben im Fall von ChatGPT wegen Verstößen gegen den | |
| Datenschutz rechtliche Schritte eingeleitet, Italien ließ die Anwendung | |
| sogar vorerst sperren. In Australien will ein Bürgermeister wegen | |
| Verleumdung gegen die Entwickler vorgehen. Sind Verbote die Lösung? | |
| Verbote sind sicher immer nur das letzte Mittel. Ich bin keine Juristin, | |
| aber es scheint hier auch eher so zu sein, dass es keinen wirklich | |
| geeigneten Rechtsrahmen gibt, mit dem man den Herausforderungen von ChatGPT | |
| begegnen kann. Und da hat man eben existierende Datenschutzgesetze | |
| verwendet. Nun ist ChatGPT allerdings bereits in der Welt und die Frage | |
| ist, wie man es wieder eingefangen kriegt. | |
| Haben Sie eine Idee? | |
| Einerseits werden wir lernen müssen, damit verantwortungsbewusst umzugehen. | |
| Das ist nicht einfach, weil ChatGPT so leicht zu verwenden und zu | |
| missbrauchen ist. Es stellt sich die Frage, welche Möglichkeiten der | |
| geltende Rechtsrahmen bietet, etwa das Datenschutz- oder Urheberrecht, um | |
| bestimmte Probleme einzuhegen. Und ob in den neuen Verordnungen auf | |
| EU-Ebene solche Technologien bereits ausreichend berücksichtigt wurden oder | |
| ob Anpassungen notwendig sind. | |
| Und die Unternehmer, wie erreicht man die? | |
| Ganz ehrlich: Ich glaube nicht, dass man Unternehmer „erreichen“ muss. | |
| Jeder Mensch ist verantwortlich für die Entscheidungen, die er trifft – und | |
| deren Folgen. Und wenn ich Entscheidungen treffe, die hohe Auswirkungen für | |
| viele Menschen haben können, dann muss ich eben auch entsprechend | |
| verantwortungsbewusst handeln. Dass das im Falle von ChatGPT nicht passiert | |
| ist, fällt also allein in die Verantwortung der Unternehmer selbst. | |
| 8 Apr 2023 | |
| ## LINKS | |
| [1] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/ste… | |
| [2] /ChatGPT-loest-Bildungskrise-aus/!5920652 | |
| [3] https://futureoflife.org/open-letter/pause-giant-ai-experiments/ | |
| [4] /Moratorium-ueber-Umgang-mit-KI/!5925502 | |
| ## AUTOREN | |
| Nora Belghaus | |
| ## TAGS | |
| IG | |
| Elon Musk | |
| Roboter | |
| GNS | |
| Ethik | |
| Schwerpunkt Künstliche Intelligenz | |
| Transnationale Konzerne | |
| Internet | |
| Bildung | |
| Regulierung | |
| Lesestück Recherche und Reportage | |
| Roboter | |
| Technischer Fortschritt | |
| ## ARTIKEL ZUM THEMA | |
| Neue EU-Regeln für Tech-Giganten: Transparenz für alle | |
| Google, Meta und Co. sollen schärfer gegen illegale Inhalte vorgehen und | |
| transparenter arbeiten. Was das heißt? Antworten auf die wichtigsten | |
| Fragen. | |
| EU-Plan in der Kritik: Zweifel an Chatkontrolle wachsen | |
| Die EU-Kommission will unter anderem E-Mails und Messenger-Nachrichten | |
| durchleuchten lassen. Doch das Vorhaben gerät zunehmend unter Druck. | |
| Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“ | |
| Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die | |
| Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert | |
| Lepenies. | |
| Umsetzung des Digitale-Dienste-Gesetzes: Neue Algorithmenprüfer | |
| Die EU-Kommission will mit einem Institut untersuchen, wie die großen | |
| IT-Konzerne technisch arbeiten. Das ist eine wichtige Grundlage für | |
| Regulierung. | |
| Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
| Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
| zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
| KI und Anthropomorphismus: Mensch in der Maschine? | |
| Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
| wir zu menschlichen Metaphern. Aber das birgt Probleme. | |
| KI in Wissenschaft und Journalismus: Mensch und Maschine | |
| Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die | |
| Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI | |
| nicht. |