| # taz.de -- Regulierung von künstlicher Intelligenz: Mehr Vorgaben für KI gef… | |
| > Die EU will ihr Regelwerk für künstliche Intelligenz fertig verhandeln. | |
| > Kurz vor Schluss gibt es nun Streit: Fachleute fordern mehr | |
| > Verbindlichkeit. | |
| Bild: Die EU-Gremien wollen sich bis Ende des Jahres auf die Details einer Regu… | |
| Berlin taz | In der entscheidenden Phase der Verhandlungen über eine | |
| Regulierung der künstlichen Intelligenz (KI) in Europa ist ein Streit um | |
| die Regeln für einen besonders wichtigen Teil der neuen Technologie | |
| ausgebrochen: die Basismodelle, zu denen beispielsweise auch GPT für das | |
| Erstellen von Texten gehört. | |
| In einem [1][offenen Brief] fordert eine Gruppe namhafter Forscher:innen | |
| sowie Vertreter:innen aus Wirtschaft und Zivilgesellschaft die | |
| Bundesregierung auf, sich dafür einzusetzen, dass diese Modelle verbindlich | |
| reguliert werden. Die Bundesregierung hatte sich zuletzt gemeinsam mit | |
| Frankreich und Italien dafür eingesetzt, dass es lediglich eine | |
| Selbstregulierung geben soll. „Wir glauben, dass die Regulierung von | |
| Grundlagenmodellen im AI Act für ein florierendes und sicheres KI-Ökosystem | |
| entscheidend ist“, heißt es in dem offenen Brief. Von einer | |
| Selbstregulierung sei abzuraten. | |
| Die EU-Gremien wollen sich bis spätestens Ende des Jahres auf die Details | |
| einer [2][Regulierung für KI] geeinigt haben. Derzeit laufen die | |
| Trilog-Verhandlungen zwischen EU-Kommission, Parlament und Rat. Der AI Act | |
| soll eine rechtliche Grundlage für die Entwicklung und den Einsatz von KI | |
| bilden und gleichermaßen ihren Einsatz ermöglichen, wie mögliche Schäden | |
| abwenden oder minimieren. | |
| Die [3][Probleme sind jetzt schon zahlreich]: von der Möglichkeit, schnell | |
| große Mengen an Fake News und Propaganda zu generieren über Diskriminierung | |
| durch KI-basierte Inhalte oder Entscheidungen bis hin zur ungeklärten | |
| Haftungsfrage – wenn also durch den Einsatz von einem KI-System Schaden | |
| entsteht. | |
| ## Brief warnt vor zahlreichen Gefahren | |
| Die Basis- oder Grundlagenmodelle („Foundation Models“), um die sich der | |
| Konflikt nun dreht, sind so etwas wie das Fundament der Technologie: Es | |
| sind sehr große KI-Modelle, die mit einem breiten Satz an Daten trainiert | |
| wurden. Basismodelle gibt es nicht nur für Text – wie GPT –, sondern auch | |
| für Bilder, Videos oder Sprache. Ein Basismodell kann die Grundlage für | |
| eine Vielzahl von Anwendungen sein. Welche Regeln für diese Modelle gelten | |
| oder nicht gelten, wird daher entscheidend sein für die weitere | |
| Entwicklung. | |
| Die Unterzeichner:innen des Briefes argumentieren folgendermaßen: KI | |
| berge zahlreiche Gefahren, unter anderem auch für die öffentliche | |
| Sicherheit – etwa durch KI-generierte Desinformation und Manipulation oder | |
| KI-gestützte Cyberangriffe. „Diese Risiken für die öffentliche Sicherheit | |
| sind Grundlagenmodellen inhärent“, heißt es in dem Schreiben. | |
| Daher sei es so wichtig, dass es hier verbindliche Regeln gebe. „Eine | |
| Selbstregulierung würde wahrscheinlich auf dramatische Weise hinter den | |
| Standards zurückbleiben, die für die Sicherheit von Grundlagenmodellen | |
| nötig sind.“ Schon ein einziges unsicheres Basismodell könne Risiken für | |
| die öffentliche Sicherheit bergen. | |
| Unter den Unterzeichnenden sind unter anderem die Turing-Preis-Gewinner | |
| Yoshua Bengio und Geoffrey Hinton sowie die Informatik-Professorin | |
| Katharina Morik, die als eine der Vorreiterinnen in der Forschung zum | |
| Maschinellen Lernen gilt. | |
| Digitalminister Volker Wissing (FDP) hatte dagegen nach einem Treffen mit | |
| Vertreter:innen baltischer Staaten in der vergangenen Woche die | |
| gegenteilige Position der Bundesregierung verteidigt: „Wir müssen alles | |
| tun, um zu verhindern, dass KI sich andere Orte sucht als Europa.“ Weniger | |
| Regulierung diene der Sicherheit, weil Europa dadurch attraktiver als | |
| Entwicklungsstandort würde und bei einer Entwicklung hierzulande eher | |
| europäische Werte berücksichtigt würden. | |
| 29 Nov 2023 | |
| ## LINKS | |
| [1] https://www.foundation-models.eu/ | |
| [2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487 | |
| [3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Digitalisierung | |
| EU-Kommission | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| wochentaz | |
| Digitalisierung | |
| ## ARTIKEL ZUM THEMA | |
| Nach Marathonsitzung: EU einigt sich auf Regeln für KI | |
| Verbote, Pflichten und Geldbußen sind vorgesehen. Doch Verbraucher- und | |
| Bürgerrechtsorganisationen sind besorgt. | |
| Einsatz von Künstlicher Intelligenz: EU einigt sich auf Gesetz | |
| Am Freitagabend wurden letzte Hürden beseitigt: Die EU bekommt nun einen | |
| Rechtsrahmen für die Nutzung von KI. Ursula von der Leyen freut sich, der | |
| BDI mosert. | |
| Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht | |
| Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das | |
| ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung. | |
| Mozilla-Chefin über KI: „Aufregend und beängstigend“ | |
| Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin | |
| Mitchell Baker über Chancen und warum Open Source ökologischer ist. | |
| Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI | |
| Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das | |
| schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt. |