Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz
> KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch
> viel mehr Transparenz über ihren Einsatz und ihre Risiken geben.
Bild: Das Ziel: nachvollziehbar machen, in welchen Programmen KI verwendet wird
Nachrichtenagenturen wie dpa haben diese Woche [1][ein Foto des britischen
Königshauses zurückgezogen] – es enthielt digitale Nachbearbeitungen.
Parallel zu der Debatte darum hat das EU-Parlament [2][den AI Act], das
europäische Regelwerk für künstliche Intelligenz (KI), verabschiedet.
Was beides miteinander zu tun hat? Es scheint das Bewusstsein dafür zu
wachsen, dass es bestimmte Rahmenbedingungen braucht, wenn Gesellschaften
in einer zunehmend technologisierten Welt funktionieren sollen. Und dass
diese nicht einfach von selbst entstehen, sondern dass sie hart erarbeitet
werden müssen: durch klare Regeln der Gesetzgeber, durch faires und
regelkonformes Verhalten von Unternehmen und staatlichen Stellen, und ja,
auch durch ein Mindestmaß an Bewusstsein bei der Nutzung durch
Verbraucher:innen.
Die Basis dafür, dass Vertrauen in die Menschen oder Institutionen, die
hinter dem Einsatz der Technologie stehen, möglich ist: Transparenz.
Bleiben wir kurz bei der Bildbearbeitung. Das, was das britische Königshaus
mutmaßlich an dem Bild verändert hat – eine Haarlinie hier, einen Ärmel
dort und da hinten einen Türknauf –, ist Kleinkram, verglichen mit dem, was
eine übliche KI-Bildbearbeitungsapp heute schon kann.
## Was ist Realität?
Ein Gruppenfoto? Ein paar Mal abgedrückt und die KI sucht personenweise die
jeweils vorteilhaftesten Bilder heraus und fügt diese zusammen zu einem,
auf dem möglichst alle lachen und niemand die Augen zu hat. Bildet dieses
Foto die Realität ab? Das ist eine gleichermaßen philosophische wie
praktische Frage. Also: Wenn ein Ministerium ein so erstelltes Gruppenfoto
seiner frisch komplettierten Führungsriege auf seine Webseite stellt, doch
den Entstehungsweg geheim hält – würde es nicht Fragen dazu aufwerfen, wie
es die Hausleitung in wichtigeren Fragen hält mit Transparenz und
Integrität?
Während hobbymäßige Hochzeitsfotograf:innen vielleicht noch sagen:
„KI? Nehme ich, und es darf gerne ein bisschen mehr sein“, bekommt ihr
Einsatz gleich eine ganz andere Dimension, wenn es um sensiblere Bereiche
geht. Medizin zum Beispiel, Rechtsprechung, Personalauswahl,
Bonitätseinschätzung oder Einreise. Der AI Act trägt diesen Unterschieden
Rechnung, indem er verschiedene Bereiche [3][unterschiedlich streng regelt,
je nachdem, wie viel Risiko ihnen jeweils beigemessen wird]. Die Idee ist
gut, weil sie von der Zukunft her denkt und einschließt, nicht zu wissen,
was in zwei Jahren ist.
Wie schnell die Entwicklung geht, zeigt das Beispiel Videogeneratoren. Vor
drei Wochen hat der US-Konzern OpenAI Ergebnisse seines
Text-zu-Video-Modells Sora veröffentlicht. Mit ein paar Zeilen Prompt, das
sind die Anweisungen, erstellt er Videos mit bis zu einer Minute Länge. Und
auch wenn die durch den weiß leuchtenden Schnee trampelnden Mammuts einen
Tick zu sehr nach Videospiel aussehen – dass eine künstliche generierte
Kamerafahrt durch ein Museum eben nicht echt ist, ist praktisch nicht zu
erkennen. Das heißt: Die Portion Vorsicht, die jetzt schon bei Fotos gilt,
ist immer mehr auch bei Videos angebracht.
## Trainings-Daten, Haftung und Kontrolle
Für jede Einzelperson ist so eine Überprüfung nicht mehr leistbar.
Vertrauen in den Sender wird damit zum wichtigen Wert – und das ist nicht
möglich ohne Transparenz. Das gilt gleichermaßen für andere Einsatzzwecke:
wenn eine KI-Anwendung Ärzt:innen beim Operieren hilft, wenn ein
Unternehmen im Bewerbungsverfahren Lebensläufe mit KI scannt, wenn die Uni
Klausuren mit einer KI korrigieren lässt oder die zuständige Behörde
Visumsanträge per KI prüfen will. All das sind von der EU als „hochriskant�…
eingestufte, aber erlaubte Anwendungen.
Fragen, die heute noch abstrakt wirken, rücken dann ins Zentrum: Welche
Daten sind in das Training der KI eingeflossen? Gab es valide Tests, um
mögliche Verzerrungen zum Vorschein zu bringen? Wer haftet, wenn die KI
einen Fehler macht? Und nickt ein Mensch das Ergebnis der KI nur ab oder
überprüft er es? Bleiben solche Fragen ungeklärt, wird es schwierig mit dem
Vertrauen.
Das Problem ist, und daran [4][kranken auch Teile der AI Acts]: Selbst wenn
das Bewusstsein für die Notwendigkeit klarer Rahmenbedingungen wächst – es
stößt immer noch auf zu viele Vertreter:innen der wirtschaftsnahen
Maxime. Sie sind der Überzeugung, der Markt werde es schon richten. Zu viel
Regulierung schade nur der Innovation, dann leide der Wirtschaftsstandort
und damit der Wohlstand. Abgesehen davon, dass auch das Bild vom Wohlstand
als primär materiellem Wert immer mehr infrage gestellt werden muss – wenig
zu regeln, weil andere möglicherweise auch wenig regeln, ist ein
Unterbietungswettbewerb, bei dem alle verlieren. Alle, bis auf die wenigen
Konzerne, die es ganz nach oben schaffen.
15 Mar 2024
## LINKS
[1] /Prinzessin-Kate-und-das-Foto/!5995991
[2] /Neue-Regeln-fuer-KI/!5994919
[3] https://www.europarl.europa.eu/news/de/press-room/20240308IPR19015/gesetz-u…
[4] /Gesetz-zur-kuenstlichen-Intelligenz/!5994905
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
Transparenz
Kate Middleton
Virtuelle Realität
Realität
Vertrauen
Medizin
Technologie
Zukunft
Schwerpunkt Künstliche Intelligenz
Schlagloch
Blockchain
EU-Kommission
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Überwachung
Royals
Schwerpunkt Künstliche Intelligenz
Datenschutz
## ARTIKEL ZUM THEMA
Künstliche Intelligenz in der Medizin: Algorithmus auf Rezept
Künstliche Intelligenz wird Ärzt:innen nicht ersetzen. Die Technologie
kann sie aber entscheidend entlasten, sagt die Medizinethikerin Alena Buyx.
Deutschland muss KI-Regeln umsetzen: Streitpunkt Überwachung
Deutschland muss bald die neuen EU-Regeln zu künstlicher Intelligenz
umsetzen. Fachleute fordern Verschärfungen – etwa bei der
Gesichtserkennung.
Zwischenbilanz einer neuen Technologie: Im KI-Taumel
Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange.
Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz.
Künstliche Intelligenz und Vermüllung: KI killt das Web
Jetzt, wo nahezu alle KI benutzen können, gilt vor allem eins: Das Netz
quillt vor KI-generiertem Müll über. Ist das Internet noch zu retten?
Marktmacht der Internetkonzerne: EU geht gegen Tech-Riesen vor
Die EU-Kommission prüft, ob Apple, Meta und Alphabet ihre digitale
Marktmacht missbrauchen. Sie könnten gegen eine neue EU-Regel verstoßen.
Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher
Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft
rechtliche und ethische Probleme hervor.
Prinzessin Kate und das Foto: Als ginge es um ein Verbrechen
Die Aufregung um den „Photoshop-Fail“ der britischen Königsfamilie ist
gewaltig. Das verrät weniger über die Royals und mehr über den Pöbel.
Neue Regeln für KI: „Big Brother“ nicht gebannt
Die EU bekommt das weltweit erste Gesetz, das den Einsatz Künstlicher
Intelligenz regeln soll. Sicherheitsbehörden bekommen einige Freiheiten.
Gesetz zur künstlichen Intelligenz: Neue Technologie, neue Überwachung
Der AI Act ist beschlossen. Das überwachungs- und wirtschaftsfreundliche
Ergebnis ist kein Zufall. Doch es ist gut, dass das Regelwerk jetzt
durchkam.
Fotobearbeitung von Prinzessin Kate: Manipulation am Ärmel gepackt
Nach einer möglichen Bildmanipulation meldete sich Kate Middleton: Sie
experimentiere manchmal mit Fotobearbeitung. Wie gehen Fotoagenturen damit
um?
Vor finaler Abstimmung: Kann die Welt KI bändigen?
Diese Woche werden zwei entscheidende Weichen in Sachen KI gestellt. Doch
NGOs und Wissenschaftler:innen sehen problematische Parallelen.
AI-Verordnung der EU: Streit um KI-Training mit Artikeln
Der neue AI-Act der EU lässt Fragen nach dem Verhältnis von Medien und KI
offen. Zum Beispiel: Darf man KIs mit journalistischen Texten füttern?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.