Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht…
> Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
> Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von
> KI.
Bild: Lernfähig: In der Kunst-Performance „La Classe“ agieren KI-gesteue…
wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben
beeinflusst?
Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine
Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme
klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich
verwende. Daher wird sie immer besser darin, das, was ich sage, auch
richtig aufzuschreiben.
Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst?
Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie
aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist
diese Software eine große Hilfe für mich. Aber es gibt auch unzählige
unerfreuliche oder problematische Anwendungen.
An welche denken Sie da vor allem?
Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über
Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand
ins Gefängnis gehen muss oder [1][welche medizinische Diagnose gestellt
wird]. Das ist auch deshalb problematisch, weil KI aus den Daten der
Vergangenheit lernt.
Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit
bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch
in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die
Benachteiligung fort.
Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit
umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das
EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg?
Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift,
bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht
die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche
Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist
– zum Beispiel in der Arbeitswelt oder in der Rechtsprechung.
Was ist nicht gut am Gesetzesvorhaben?
Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass
Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen
Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls
vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko
der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu
minimieren.
Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in
der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen
wurde: Die Informatikerin Timnit Gebru etwa [2][musste Google verlassen],
nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen
Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich
eingestampft, etwa bei Twitter.
Wie ginge es besser?
Es müssten externe Audits vorgeschrieben werden, von Institutionen, die
nichts mit den Herstellern selbst zu tun haben.
Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die
Gesellschaft?
Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die
kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die
bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein
wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich
lernt KI aus Daten, die es schon gibt.
Ist KI strukturkonservativ?
Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken
verabschieden, dass KI irgendetwas objektiver machen würde als Menschen.
Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten
gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum
Menschen den Anschein von Objektivität.
Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias
hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein
Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden,
einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl
sie ebenso geeignet sind für den Job.
Wie lässt sich diesem Bias entgegenwirken?
Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der
Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel
um eine Gesichtserkennung geht – [3][was sind denn für Gesichter drin in
den Trainingsdaten], wie sehen die aus? Der zweite Schritt ist ein aktives
Entgegenwirken.
Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den
Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche
Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich
dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum
Bias-Testen und eines zum Bias-Reduzieren.
Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt?
Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat
und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann
muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI
Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und
beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung
bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch
schon im Einsatz, zum Beispiel bei Amazon.
In den vergangenen Wochen gab es zahlreiche [4][Warnungen vor KI]. Der
Politologe Ian Bremmer hält sie für eine der großen Gefahren für die
Demokratie.
Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem
Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich
etwa Bilder oder Texte generieren lassen. [5][Und die sind wahnsinnig gut
darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind.] Es
lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann
Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt
haben.
Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns
vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen
verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen
sein könnten, dann ist das eine Gefahr für die Demokratie.
Wie lässt sich dem entgegenwirken?
Das Verbreiten von Falschinformation, um den politischen Diskurs zu
beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit
Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und
Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit,
ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen.
Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung
haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht
verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten
ansetzen: Zum einen müssen wir herausfinden, warum heute so viel
Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf
fruchtbaren Boden fallen lässt, und wie wir das ändern können.
Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen.
Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch
verpflichtende Wasserzeichen für KI-generierte Inhalte.
Aber daran werden sich nicht alle halten.
Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein
Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele
geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und
anderen, die sie erstellen.
Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der
Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten
und Zeitaufwand verursachen.
Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten
wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil
eine schlecht durchdachte und unzureichend getestete KI viel Schaden
anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten
Fall die Gelegenheit gibt, Strukturen zu überdenken.
Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen?
Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden
schlechter bewertet werden.
Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gu…
für einen Jungen entspricht, dann kann ich das bei der Auswahl von
Mitarbeiter:innen in den Algorithmus einbauen und kriege am Ende gute
Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir
die Wirklichkeit. Und diese Chance, die müssen wir nutzen.
10 Jun 2023
## LINKS
[1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490
[2] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475
[3] /Ideologie-und-kuenstliche-Intelligenz/!5907912
[4] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
[5] /Kuenstliche-Intelligenz/!5905841
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Rassismus
Sexismus
Chancengleichheit
GNS
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Schwerpunkt Künstliche Intelligenz
Algorithmen
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Rassismus
Schwerpunkt Überwachung
EU-Parlament
EU-Parlament
Technik
Medien
Zukunft
## ARTIKEL ZUM THEMA
EU-Gesetzgebung zu KI: Kritik nach Marathonsitzung
Am Freitag sollte die EU-Einigung zu Künstlicher Intelligenz stehen. Doch
das Prozedere und die letzten Streitpunkte sorgen für Proteste.
Wie KI Sexismus produziert: Die Frau ist immer unter 35
Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht
Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das
ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.
Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien
Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen.
Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen.
Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI
Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das
schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.
Diskriminierung durch KI: Der Algorithmus sagt Nein
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter
anderem durch KI – und zeigt auf, was sich besser machen ließe.
Lieblingsfarben von Fliegen: Ein Algorithmus gegen Fliegen
Die Farbe Blau wirkt auf Fliegen anziehend – weshalb das so ist, macht nun
ein Algorithmus deutlich. Er soll auch bei der Schädlingsbekämpfung helfen.
Europarat verhandelt Abkommen: KI für die Milliarden
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
Die Konvention des Europarats würde Menschen auf mindestens drei
Kontinenten betreffen. Doch es gibt auch Kritik.
Nicole Anyomi über Rassismus im Fußball: „Das war erschreckend“
Die Nationalspielerin Nicole Anyomi äußert sich zum Rassismusvorfall bei
der U21-EM. Auch sie hat schon ähnliche Erfahrungen gemacht.
Debatte im EU-Parlament: Streit um Überwachung mit KI
Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es
Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung.
Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche
selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.
EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen
Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste
Regulierung von KI abstimmen. Expert:innen fordern schon
Nachbesserungen.
Folgen von Künstlicher Intelligenz: Ohnmacht durch KI
Künstliche Intelligenz dürfte die Menschheit schneller verändern als die
Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein?
Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen
Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der
Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.
Künstliche Intelligenz: Wer hat Angst vor ChatGPT?
Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald
von Maschinen übernommen werden. Warum das kein Albtraum sein muss.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.