# taz.de -- Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz | |
> KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch | |
> viel mehr Transparenz über ihren Einsatz und ihre Risiken geben. | |
Bild: Das Ziel: nachvollziehbar machen, in welchen Programmen KI verwendet wird | |
Nachrichtenagenturen wie dpa haben diese Woche [1][ein Foto des britischen | |
Königshauses zurückgezogen] – es enthielt digitale Nachbearbeitungen. | |
Parallel zu der Debatte darum hat das EU-Parlament [2][den AI Act], das | |
europäische Regelwerk für künstliche Intelligenz (KI), verabschiedet. | |
Was beides miteinander zu tun hat? Es scheint das Bewusstsein dafür zu | |
wachsen, dass es bestimmte Rahmenbedingungen braucht, wenn Gesellschaften | |
in einer zunehmend technologisierten Welt funktionieren sollen. Und dass | |
diese nicht einfach von selbst entstehen, sondern dass sie hart erarbeitet | |
werden müssen: durch klare Regeln der Gesetzgeber, durch faires und | |
regelkonformes Verhalten von Unternehmen und staatlichen Stellen, und ja, | |
auch durch ein Mindestmaß an Bewusstsein bei der Nutzung durch | |
Verbraucher:innen. | |
Die Basis dafür, dass Vertrauen in die Menschen oder Institutionen, die | |
hinter dem Einsatz der Technologie stehen, möglich ist: Transparenz. | |
Bleiben wir kurz bei der Bildbearbeitung. Das, was das britische Königshaus | |
mutmaßlich an dem Bild verändert hat – eine Haarlinie hier, einen Ärmel | |
dort und da hinten einen Türknauf –, ist Kleinkram, verglichen mit dem, was | |
eine übliche KI-Bildbearbeitungsapp heute schon kann. | |
## Was ist Realität? | |
Ein Gruppenfoto? Ein paar Mal abgedrückt und die KI sucht personenweise die | |
jeweils vorteilhaftesten Bilder heraus und fügt diese zusammen zu einem, | |
auf dem möglichst alle lachen und niemand die Augen zu hat. Bildet dieses | |
Foto die Realität ab? Das ist eine gleichermaßen philosophische wie | |
praktische Frage. Also: Wenn ein Ministerium ein so erstelltes Gruppenfoto | |
seiner frisch komplettierten Führungsriege auf seine Webseite stellt, doch | |
den Entstehungsweg geheim hält – würde es nicht Fragen dazu aufwerfen, wie | |
es die Hausleitung in wichtigeren Fragen hält mit Transparenz und | |
Integrität? | |
Während hobbymäßige Hochzeitsfotograf:innen vielleicht noch sagen: | |
„KI? Nehme ich, und es darf gerne ein bisschen mehr sein“, bekommt ihr | |
Einsatz gleich eine ganz andere Dimension, wenn es um sensiblere Bereiche | |
geht. Medizin zum Beispiel, Rechtsprechung, Personalauswahl, | |
Bonitätseinschätzung oder Einreise. Der AI Act trägt diesen Unterschieden | |
Rechnung, indem er verschiedene Bereiche [3][unterschiedlich streng regelt, | |
je nachdem, wie viel Risiko ihnen jeweils beigemessen wird]. Die Idee ist | |
gut, weil sie von der Zukunft her denkt und einschließt, nicht zu wissen, | |
was in zwei Jahren ist. | |
Wie schnell die Entwicklung geht, zeigt das Beispiel Videogeneratoren. Vor | |
drei Wochen hat der US-Konzern OpenAI Ergebnisse seines | |
Text-zu-Video-Modells Sora veröffentlicht. Mit ein paar Zeilen Prompt, das | |
sind die Anweisungen, erstellt er Videos mit bis zu einer Minute Länge. Und | |
auch wenn die durch den weiß leuchtenden Schnee trampelnden Mammuts einen | |
Tick zu sehr nach Videospiel aussehen – dass eine künstliche generierte | |
Kamerafahrt durch ein Museum eben nicht echt ist, ist praktisch nicht zu | |
erkennen. Das heißt: Die Portion Vorsicht, die jetzt schon bei Fotos gilt, | |
ist immer mehr auch bei Videos angebracht. | |
## Trainings-Daten, Haftung und Kontrolle | |
Für jede Einzelperson ist so eine Überprüfung nicht mehr leistbar. | |
Vertrauen in den Sender wird damit zum wichtigen Wert – und das ist nicht | |
möglich ohne Transparenz. Das gilt gleichermaßen für andere Einsatzzwecke: | |
wenn eine KI-Anwendung Ärzt:innen beim Operieren hilft, wenn ein | |
Unternehmen im Bewerbungsverfahren Lebensläufe mit KI scannt, wenn die Uni | |
Klausuren mit einer KI korrigieren lässt oder die zuständige Behörde | |
Visumsanträge per KI prüfen will. All das sind von der EU als „hochriskant�… | |
eingestufte, aber erlaubte Anwendungen. | |
Fragen, die heute noch abstrakt wirken, rücken dann ins Zentrum: Welche | |
Daten sind in das Training der KI eingeflossen? Gab es valide Tests, um | |
mögliche Verzerrungen zum Vorschein zu bringen? Wer haftet, wenn die KI | |
einen Fehler macht? Und nickt ein Mensch das Ergebnis der KI nur ab oder | |
überprüft er es? Bleiben solche Fragen ungeklärt, wird es schwierig mit dem | |
Vertrauen. | |
Das Problem ist, und daran [4][kranken auch Teile der AI Acts]: Selbst wenn | |
das Bewusstsein für die Notwendigkeit klarer Rahmenbedingungen wächst – es | |
stößt immer noch auf zu viele Vertreter:innen der wirtschaftsnahen | |
Maxime. Sie sind der Überzeugung, der Markt werde es schon richten. Zu viel | |
Regulierung schade nur der Innovation, dann leide der Wirtschaftsstandort | |
und damit der Wohlstand. Abgesehen davon, dass auch das Bild vom Wohlstand | |
als primär materiellem Wert immer mehr infrage gestellt werden muss – wenig | |
zu regeln, weil andere möglicherweise auch wenig regeln, ist ein | |
Unterbietungswettbewerb, bei dem alle verlieren. Alle, bis auf die wenigen | |
Konzerne, die es ganz nach oben schaffen. | |
15 Mar 2024 | |
## LINKS | |
[1] /Prinzessin-Kate-und-das-Foto/!5995991 | |
[2] /Neue-Regeln-fuer-KI/!5994919 | |
[3] https://www.europarl.europa.eu/news/de/press-room/20240308IPR19015/gesetz-u… | |
[4] /Gesetz-zur-kuenstlichen-Intelligenz/!5994905 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Transparenz | |
Kate Middleton | |
Virtuelle Realität | |
Realität | |
Vertrauen | |
Medizin | |
Technologie | |
Schwerpunkt Künstliche Intelligenz | |
Schlagloch | |
Schwerpunkt Künstliche Intelligenz | |
EU-Kommission | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Royals | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Deutschland muss KI-Regeln umsetzen: Streitpunkt Überwachung | |
Deutschland muss bald die neuen EU-Regeln zu künstlicher Intelligenz | |
umsetzen. Fachleute fordern Verschärfungen – etwa bei der | |
Gesichtserkennung. | |
Zwischenbilanz einer neuen Technologie: Im KI-Taumel | |
Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange. | |
Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz. | |
Künstliche Intelligenz und Vermüllung: KI killt das Web | |
Jetzt, wo nahezu alle KI benutzen können, gilt vor allem eins: Das Netz | |
quillt vor KI-generiertem Müll über. Ist das Internet noch zu retten? | |
Marktmacht der Internetkonzerne: EU geht gegen Tech-Riesen vor | |
Die EU-Kommission prüft, ob Apple, Meta und Alphabet ihre digitale | |
Marktmacht missbrauchen. Sie könnten gegen eine neue EU-Regel verstoßen. | |
Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher | |
Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft | |
rechtliche und ethische Probleme hervor. | |
Prinzessin Kate und das Foto: Als ginge es um ein Verbrechen | |
Die Aufregung um den „Photoshop-Fail“ der britischen Königsfamilie ist | |
gewaltig. Das verrät weniger über die Royals und mehr über den Pöbel. | |
Neue Regeln für KI: „Big Brother“ nicht gebannt | |
Die EU bekommt das weltweit erste Gesetz, das den Einsatz Künstlicher | |
Intelligenz regeln soll. Sicherheitsbehörden bekommen einige Freiheiten. | |
Gesetz zur künstlichen Intelligenz: Neue Technologie, neue Überwachung | |
Der AI Act ist beschlossen. Das überwachungs- und wirtschaftsfreundliche | |
Ergebnis ist kein Zufall. Doch es ist gut, dass das Regelwerk jetzt | |
durchkam. | |
Fotobearbeitung von Prinzessin Kate: Manipulation am Ärmel gepackt | |
Nach einer möglichen Bildmanipulation meldete sich Kate Middleton: Sie | |
experimentiere manchmal mit Fotobearbeitung. Wie gehen Fotoagenturen damit | |
um? | |
Vor finaler Abstimmung: Kann die Welt KI bändigen? | |
Diese Woche werden zwei entscheidende Weichen in Sachen KI gestellt. Doch | |
NGOs und Wissenschaftler:innen sehen problematische Parallelen. | |
AI-Verordnung der EU: Streit um KI-Training mit Artikeln | |
Der neue AI-Act der EU lässt Fragen nach dem Verhältnis von Medien und KI | |
offen. Zum Beispiel: Darf man KIs mit journalistischen Texten füttern? |