# taz.de -- Offener Brief von KI-Forscher:innen: Schutz vor Vergeltung gefordert | |
> Entwickler:innen wollen vor den Risiken künstlicher Intelligenz | |
> warnen dürfen. Viele fürchten die Reaktion der Konzerne auf interne | |
> Kritik. | |
Bild: OpenAI-Chef Sam Altman | |
San Francisco dpa | Eine Gruppe von KI-Forscher:innen, darunter mehrere | |
ehemalige Angestellte der ChatGPT-Firma OpenAI, fordert das Recht ein, die | |
Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle | |
Schutz für Whistleblower reiche nicht aus, betonten die Expert:innen in | |
einem [1][am Dienstag veröffentlichten offenen Brief]. | |
Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet | |
– aber bei künstlicher Intelligenz gebe es in vielen Fällen noch keine | |
rechtlichen Vorgaben. „Einige von uns fürchten zu Recht | |
Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab.“ | |
Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige | |
OpenAI-Forscher Leopold Aschenbrenner sagte dem Dwarkesh Podcast, er sei | |
gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über | |
KI-Sicherheit besorgt gezeigt habe. | |
Die Forscher:innen riefen die Unternehmen mit fortgeschrittenen | |
KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den | |
Mitarbeiter:innen nicht negative Äußerungen über ihre Arbeitgeber zu | |
verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitenden mit | |
dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma „verunglimpfen“ | |
sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, | |
von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie | |
angewendet worden. | |
## Schon lange Warnungen vor künstlicher Intelligenz | |
Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem | |
Mitarbeiter:innen anonym die Verwaltungsräte von Unternehmen sowie | |
Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software | |
informieren können. Die müssten auch die Freiheit haben, an die | |
Öffentlichkeit zu gehen, solange es keine internen Wege gebe. | |
Einige [2][KI-Expert:innen warnen schon lange], die rasante Entwicklung | |
künstlicher Intelligenz könne zu autonomer Software führen, die sich der | |
Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von | |
Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung | |
der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen | |
daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt | |
mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich. | |
Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an | |
eine „wissenschaftliche Herangehensweise an Risiken der Technologie“. | |
Mitarbeiter:innen stehe frei, auch anonym ihre Sorgen zu teilen. | |
Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich | |
gemacht werden, die dadurch in die falschen Hände geraten könnten. | |
Vier aktuelle und zwei frühere Mitarbeitende von OpenAI schlossen sich dem | |
Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen | |
öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein | |
früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, der derzeit | |
bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte | |
zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts | |
untergekommen sei, wovor er warnen wolle. | |
## Gerangel um OpenAI-Chef Altman | |
Altman war im November vom Verwaltungsrat von OpenAI überraschend unter | |
Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage | |
später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche | |
Mitarbeiter:innen und der Großaktionär Microsoft hinter ihn gestellt | |
hatten. | |
Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur | |
Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den | |
Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste | |
Sorgen aus, dass die Firma die Technologie ohne nötige | |
Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte. | |
Zuletzt geriet OpenAI unter Druck, nachdem [3][Schauspielerin Scarlett | |
Johansson von der Firma wissen wollte], wieso eine Stimme von ChatGPT ihrer | |
eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen | |
habe, Sprachdaten dafür zu liefern. | |
5 Jun 2024 | |
## LINKS | |
[1] https://righttowarn.ai/ | |
[2] /Zukunft-von-KI/!5979683 | |
[3] /Scarlett-Johansson-gegen-OpenAI/!6009030 | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Whistleblower | |
Offener Brief | |
Forschung | |
Schlagloch | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Zwischenbilanz einer neuen Technologie: Im KI-Taumel | |
Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange. | |
Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz. | |
EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter | |
Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und | |
der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt. | |
Chaos bei OpenAI: Künstliche Aufregung | |
Letzte Woche rausgeworfen, jetzt zurückgeholt: Sam Altman, CEO von OpenAI. | |
Wer ist der mächtigste Entwickler von künstlicher Intelligenz? |