# taz.de -- Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht… | |
> Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
> Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von | |
> KI. | |
Bild: Lernfähig: In der Kunst-Performance „La Classe“ agieren KI-gesteue… | |
wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben | |
beeinflusst? | |
Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine | |
Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme | |
klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich | |
verwende. Daher wird sie immer besser darin, das, was ich sage, auch | |
richtig aufzuschreiben. | |
Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst? | |
Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie | |
aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist | |
diese Software eine große Hilfe für mich. Aber es gibt auch unzählige | |
unerfreuliche oder problematische Anwendungen. | |
An welche denken Sie da vor allem? | |
Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über | |
Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand | |
ins Gefängnis gehen muss oder [1][welche medizinische Diagnose gestellt | |
wird]. Das ist auch deshalb problematisch, weil KI aus den Daten der | |
Vergangenheit lernt. | |
Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit | |
bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch | |
in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die | |
Benachteiligung fort. | |
Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit | |
umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das | |
EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg? | |
Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift, | |
bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht | |
die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche | |
Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist | |
– zum Beispiel in der Arbeitswelt oder in der Rechtsprechung. | |
Was ist nicht gut am Gesetzesvorhaben? | |
Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass | |
Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen | |
Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls | |
vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko | |
der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu | |
minimieren. | |
Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in | |
der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen | |
wurde: Die Informatikerin Timnit Gebru etwa [2][musste Google verlassen], | |
nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen | |
Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich | |
eingestampft, etwa bei Twitter. | |
Wie ginge es besser? | |
Es müssten externe Audits vorgeschrieben werden, von Institutionen, die | |
nichts mit den Herstellern selbst zu tun haben. | |
Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die | |
Gesellschaft? | |
Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die | |
kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die | |
bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein | |
wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich | |
lernt KI aus Daten, die es schon gibt. | |
Ist KI strukturkonservativ? | |
Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken | |
verabschieden, dass KI irgendetwas objektiver machen würde als Menschen. | |
Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten | |
gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum | |
Menschen den Anschein von Objektivität. | |
Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias | |
hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein | |
Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden, | |
einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl | |
sie ebenso geeignet sind für den Job. | |
Wie lässt sich diesem Bias entgegenwirken? | |
Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der | |
Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel | |
um eine Gesichtserkennung geht – [3][was sind denn für Gesichter drin in | |
den Trainingsdaten], wie sehen die aus? Der zweite Schritt ist ein aktives | |
Entgegenwirken. | |
Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den | |
Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche | |
Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich | |
dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum | |
Bias-Testen und eines zum Bias-Reduzieren. | |
Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt? | |
Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat | |
und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann | |
muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI | |
Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und | |
beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung | |
bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch | |
schon im Einsatz, zum Beispiel bei Amazon. | |
In den vergangenen Wochen gab es zahlreiche [4][Warnungen vor KI]. Der | |
Politologe Ian Bremmer hält sie für eine der großen Gefahren für die | |
Demokratie. | |
Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem | |
Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich | |
etwa Bilder oder Texte generieren lassen. [5][Und die sind wahnsinnig gut | |
darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind.] Es | |
lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann | |
Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt | |
haben. | |
Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns | |
vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen | |
verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen | |
sein könnten, dann ist das eine Gefahr für die Demokratie. | |
Wie lässt sich dem entgegenwirken? | |
Das Verbreiten von Falschinformation, um den politischen Diskurs zu | |
beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit | |
Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und | |
Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit, | |
ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen. | |
Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung | |
haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht | |
verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten | |
ansetzen: Zum einen müssen wir herausfinden, warum heute so viel | |
Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf | |
fruchtbaren Boden fallen lässt, und wie wir das ändern können. | |
Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen. | |
Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch | |
verpflichtende Wasserzeichen für KI-generierte Inhalte. | |
Aber daran werden sich nicht alle halten. | |
Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein | |
Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele | |
geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und | |
anderen, die sie erstellen. | |
Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der | |
Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten | |
und Zeitaufwand verursachen. | |
Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten | |
wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil | |
eine schlecht durchdachte und unzureichend getestete KI viel Schaden | |
anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten | |
Fall die Gelegenheit gibt, Strukturen zu überdenken. | |
Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen? | |
Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden | |
schlechter bewertet werden. | |
Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gu… | |
für einen Jungen entspricht, dann kann ich das bei der Auswahl von | |
Mitarbeiter:innen in den Algorithmus einbauen und kriege am Ende gute | |
Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir | |
die Wirklichkeit. Und diese Chance, die müssen wir nutzen. | |
10 Jun 2023 | |
## LINKS | |
[1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490 | |
[2] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475 | |
[3] /Ideologie-und-kuenstliche-Intelligenz/!5907912 | |
[4] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661 | |
[5] /Kuenstliche-Intelligenz/!5905841 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Rassismus | |
Sexismus | |
Chancengleichheit | |
GNS | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Digitalisierung | |
Schwerpunkt Künstliche Intelligenz | |
Algorithmen | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Rassismus | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schlagloch | |
künstliche Intelligenz | |
Zukunft | |
## ARTIKEL ZUM THEMA | |
EU-Gesetzgebung zu KI: Kritik nach Marathonsitzung | |
Am Freitag sollte die EU-Einigung zu Künstlicher Intelligenz stehen. Doch | |
das Prozedere und die letzten Streitpunkte sorgen für Proteste. | |
Wie KI Sexismus produziert: Die Frau ist immer unter 35 | |
Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein | |
misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen. | |
Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht | |
Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das | |
ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung. | |
Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien | |
Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen. | |
Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen. | |
Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI | |
Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das | |
schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt. | |
Diskriminierung durch KI: Der Algorithmus sagt Nein | |
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter | |
anderem durch KI – und zeigt auf, was sich besser machen ließe. | |
Lieblingsfarben von Fliegen: Ein Algorithmus gegen Fliegen | |
Die Farbe Blau wirkt auf Fliegen anziehend – weshalb das so ist, macht nun | |
ein Algorithmus deutlich. Er soll auch bei der Schädlingsbekämpfung helfen. | |
Europarat verhandelt Abkommen: KI für die Milliarden | |
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. | |
Die Konvention des Europarats würde Menschen auf mindestens drei | |
Kontinenten betreffen. Doch es gibt auch Kritik. | |
Nicole Anyomi über Rassismus im Fußball: „Das war erschreckend“ | |
Die Nationalspielerin Nicole Anyomi äußert sich zum Rassismusvorfall bei | |
der U21-EM. Auch sie hat schon ähnliche Erfahrungen gemacht. | |
Debatte im EU-Parlament: Streit um Überwachung mit KI | |
Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es | |
Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung. | |
Geplante EU-Regulierung von KI: Apokalyptische Ablenkung | |
Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche | |
selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln. | |
EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen | |
Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste | |
Regulierung von KI abstimmen. Expert:innen fordern schon | |
Nachbesserungen. | |
Folgen von Künstlicher Intelligenz: Ohnmacht durch KI | |
Künstliche Intelligenz dürfte die Menschheit schneller verändern als die | |
Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein? | |
Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen | |
Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der | |
Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist. | |
Künstliche Intelligenz: Wer hat Angst vor ChatGPT? | |
Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald | |
von Maschinen übernommen werden. Warum das kein Albtraum sein muss. |