| # taz.de -- Offener Brief von KI-Forscher:innen: Schutz vor Vergeltung gefordert | |
| > Entwickler:innen wollen vor den Risiken künstlicher Intelligenz | |
| > warnen dürfen. Viele fürchten die Reaktion der Konzerne auf interne | |
| > Kritik. | |
| Bild: OpenAI-Chef Sam Altman | |
| San Francisco dpa | Eine Gruppe von KI-Forscher:innen, darunter mehrere | |
| ehemalige Angestellte der ChatGPT-Firma OpenAI, fordert das Recht ein, die | |
| Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle | |
| Schutz für Whistleblower reiche nicht aus, betonten die Expert:innen in | |
| einem [1][am Dienstag veröffentlichten offenen Brief]. | |
| Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet | |
| – aber bei künstlicher Intelligenz gebe es in vielen Fällen noch keine | |
| rechtlichen Vorgaben. „Einige von uns fürchten zu Recht | |
| Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab.“ | |
| Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige | |
| OpenAI-Forscher Leopold Aschenbrenner sagte dem Dwarkesh Podcast, er sei | |
| gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über | |
| KI-Sicherheit besorgt gezeigt habe. | |
| Die Forscher:innen riefen die Unternehmen mit fortgeschrittenen | |
| KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den | |
| Mitarbeiter:innen nicht negative Äußerungen über ihre Arbeitgeber zu | |
| verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitenden mit | |
| dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma „verunglimpfen“ | |
| sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, | |
| von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie | |
| angewendet worden. | |
| ## Schon lange Warnungen vor künstlicher Intelligenz | |
| Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem | |
| Mitarbeiter:innen anonym die Verwaltungsräte von Unternehmen sowie | |
| Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software | |
| informieren können. Die müssten auch die Freiheit haben, an die | |
| Öffentlichkeit zu gehen, solange es keine internen Wege gebe. | |
| Einige [2][KI-Expert:innen warnen schon lange], die rasante Entwicklung | |
| künstlicher Intelligenz könne zu autonomer Software führen, die sich der | |
| Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von | |
| Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung | |
| der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen | |
| daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt | |
| mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich. | |
| Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an | |
| eine „wissenschaftliche Herangehensweise an Risiken der Technologie“. | |
| Mitarbeiter:innen stehe frei, auch anonym ihre Sorgen zu teilen. | |
| Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich | |
| gemacht werden, die dadurch in die falschen Hände geraten könnten. | |
| Vier aktuelle und zwei frühere Mitarbeitende von OpenAI schlossen sich dem | |
| Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen | |
| öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein | |
| früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, der derzeit | |
| bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte | |
| zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts | |
| untergekommen sei, wovor er warnen wolle. | |
| ## Gerangel um OpenAI-Chef Altman | |
| Altman war im November vom Verwaltungsrat von OpenAI überraschend unter | |
| Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage | |
| später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche | |
| Mitarbeiter:innen und der Großaktionär Microsoft hinter ihn gestellt | |
| hatten. | |
| Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur | |
| Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den | |
| Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste | |
| Sorgen aus, dass die Firma die Technologie ohne nötige | |
| Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte. | |
| Zuletzt geriet OpenAI unter Druck, nachdem [3][Schauspielerin Scarlett | |
| Johansson von der Firma wissen wollte], wieso eine Stimme von ChatGPT ihrer | |
| eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen | |
| habe, Sprachdaten dafür zu liefern. | |
| 5 Jun 2024 | |
| ## LINKS | |
| [1] https://righttowarn.ai/ | |
| [2] /Zukunft-von-KI/!5979683 | |
| [3] /Scarlett-Johansson-gegen-OpenAI/!6009030 | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Whistleblower | |
| Offener Brief | |
| Forschung | |
| Schlagloch | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| Zwischenbilanz einer neuen Technologie: Im KI-Taumel | |
| Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange. | |
| Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz. | |
| EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter | |
| Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und | |
| der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt. | |
| Chaos bei OpenAI: Künstliche Aufregung | |
| Letzte Woche rausgeworfen, jetzt zurückgeholt: Sam Altman, CEO von OpenAI. | |
| Wer ist der mächtigste Entwickler von künstlicher Intelligenz? |