# taz.de -- Regulierung von künstlicher Intelligenz: Mehr Vorgaben für KI gef… | |
> Die EU will ihr Regelwerk für künstliche Intelligenz fertig verhandeln. | |
> Kurz vor Schluss gibt es nun Streit: Fachleute fordern mehr | |
> Verbindlichkeit. | |
Bild: Die EU-Gremien wollen sich bis Ende des Jahres auf die Details einer Regu… | |
BERLIN taz | In der entscheidenden Phase der Verhandlungen über eine | |
Regulierung der künstlichen Intelligenz (KI) in Europa ist ein Streit um | |
die Regeln für einen besonders wichtigen Teil der neuen Technologie | |
ausgebrochen: die Basismodelle, zu denen beispielsweise auch GPT für das | |
Erstellen von Texten gehört. | |
In einem [1][offenen Brief] fordert eine Gruppe namhafter Forscher:innen | |
sowie Vertreter:innen aus Wirtschaft und Zivilgesellschaft die | |
Bundesregierung auf, sich dafür einzusetzen, dass diese Modelle verbindlich | |
reguliert werden. Die Bundesregierung hatte sich zuletzt gemeinsam mit | |
Frankreich und Italien dafür eingesetzt, dass es lediglich eine | |
Selbstregulierung geben soll. „Wir glauben, dass die Regulierung von | |
Grundlagenmodellen im AI Act für ein florierendes und sicheres KI-Ökosystem | |
entscheidend ist“, heißt es in dem offenen Brief. Von einer | |
Selbstregulierung sei abzuraten. | |
Die EU-Gremien wollen sich bis spätestens Ende des Jahres auf die Details | |
einer [2][Regulierung für KI] geeinigt haben. Derzeit laufen die | |
Trilog-Verhandlungen zwischen EU-Kommission, Parlament und Rat. Der AI Act | |
soll eine rechtliche Grundlage für die Entwicklung und den Einsatz von KI | |
bilden und gleichermaßen ihren Einsatz ermöglichen, wie mögliche Schäden | |
abwenden oder minimieren. | |
Die [3][Probleme sind jetzt schon zahlreich]: von der Möglichkeit, schnell | |
große Mengen an Fake News und Propaganda zu generieren über Diskriminierung | |
durch KI-basierte Inhalte oder Entscheidungen bis hin zur ungeklärten | |
Haftungsfrage – wenn also durch den Einsatz von einem KI-System Schaden | |
entsteht. | |
## Brief warnt vor zahlreichen Gefahren | |
Die Basis- oder Grundlagenmodelle („Foundation Models“), um die sich der | |
Konflikt nun dreht, sind so etwas wie das Fundament der Technologie: Es | |
sind sehr große KI-Modelle, die mit einem breiten Satz an Daten trainiert | |
wurden. Basismodelle gibt es nicht nur für Text – wie GPT –, sondern auch | |
für Bilder, Videos oder Sprache. Ein Basismodell kann die Grundlage für | |
eine Vielzahl von Anwendungen sein. Welche Regeln für diese Modelle gelten | |
oder nicht gelten, wird daher entscheidend sein für die weitere | |
Entwicklung. | |
Die Unterzeichner:innen des Briefes argumentieren folgendermaßen: KI | |
berge zahlreiche Gefahren, unter anderem auch für die öffentliche | |
Sicherheit – etwa durch KI-generierte Desinformation und Manipulation oder | |
KI-gestützte Cyberangriffe. „Diese Risiken für die öffentliche Sicherheit | |
sind Grundlagenmodellen inhärent“, heißt es in dem Schreiben. | |
Daher sei es so wichtig, dass es hier verbindliche Regeln gebe. „Eine | |
Selbstregulierung würde wahrscheinlich auf dramatische Weise hinter den | |
Standards zurückbleiben, die für die Sicherheit von Grundlagenmodellen | |
nötig sind.“ Schon ein einziges unsicheres Basismodell könne Risiken für | |
die öffentliche Sicherheit bergen. | |
Unter den Unterzeichnenden sind unter anderem die Turing-Preis-Gewinner | |
Yoshua Bengio und Geoffrey Hinton sowie die Informatik-Professorin | |
Katharina Morik, die als eine der Vorreiterinnen in der Forschung zum | |
Maschinellen Lernen gilt. | |
Digitalminister Volker Wissing (FDP) hatte dagegen nach einem Treffen mit | |
Vertreter:innen baltischer Staaten in der vergangenen Woche die | |
gegenteilige Position der Bundesregierung verteidigt: „Wir müssen alles | |
tun, um zu verhindern, dass KI sich andere Orte sucht als Europa.“ Weniger | |
Regulierung diene der Sicherheit, weil Europa dadurch attraktiver als | |
Entwicklungsstandort würde und bei einer Entwicklung hierzulande eher | |
europäische Werte berücksichtigt würden. | |
29 Nov 2023 | |
## LINKS | |
[1] https://www.foundation-models.eu/ | |
[2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487 | |
[3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Digitalisierung | |
EU-Kommission | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
wochentaz | |
Digitalisierung | |
## ARTIKEL ZUM THEMA | |
Einsatz von Künstlicher Intelligenz: EU einigt sich auf Gesetz | |
Am Freitagabend wurden letzte Hürden beseitigt: Die EU bekommt nun einen | |
Rechtsrahmen für die Nutzung von KI. Ursula von der Leyen freut sich, der | |
BDI mosert. | |
Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht | |
Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das | |
ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung. | |
Mozilla-Chefin über KI: „Aufregend und beängstigend“ | |
Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin | |
Mitchell Baker über Chancen und warum Open Source ökologischer ist. | |
Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI | |
Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das | |
schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt. |