| # taz.de -- Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht… | |
| > Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
| > Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von | |
| > KI. | |
| Bild: Lernfähig: In der Kunst-Performance „La Classe“ agieren KI-gesteue… | |
| wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben | |
| beeinflusst? | |
| Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine | |
| Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme | |
| klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich | |
| verwende. Daher wird sie immer besser darin, das, was ich sage, auch | |
| richtig aufzuschreiben. | |
| Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst? | |
| Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie | |
| aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist | |
| diese Software eine große Hilfe für mich. Aber es gibt auch unzählige | |
| unerfreuliche oder problematische Anwendungen. | |
| An welche denken Sie da vor allem? | |
| Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über | |
| Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand | |
| ins Gefängnis gehen muss oder [1][welche medizinische Diagnose gestellt | |
| wird]. Das ist auch deshalb problematisch, weil KI aus den Daten der | |
| Vergangenheit lernt. | |
| Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit | |
| bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch | |
| in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die | |
| Benachteiligung fort. | |
| Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit | |
| umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das | |
| EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg? | |
| Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift, | |
| bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht | |
| die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche | |
| Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist | |
| – zum Beispiel in der Arbeitswelt oder in der Rechtsprechung. | |
| Was ist nicht gut am Gesetzesvorhaben? | |
| Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass | |
| Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen | |
| Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls | |
| vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko | |
| der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu | |
| minimieren. | |
| Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in | |
| der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen | |
| wurde: Die Informatikerin Timnit Gebru etwa [2][musste Google verlassen], | |
| nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen | |
| Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich | |
| eingestampft, etwa bei Twitter. | |
| Wie ginge es besser? | |
| Es müssten externe Audits vorgeschrieben werden, von Institutionen, die | |
| nichts mit den Herstellern selbst zu tun haben. | |
| Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die | |
| Gesellschaft? | |
| Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die | |
| kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die | |
| bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein | |
| wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich | |
| lernt KI aus Daten, die es schon gibt. | |
| Ist KI strukturkonservativ? | |
| Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken | |
| verabschieden, dass KI irgendetwas objektiver machen würde als Menschen. | |
| Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten | |
| gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum | |
| Menschen den Anschein von Objektivität. | |
| Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias | |
| hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein | |
| Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden, | |
| einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl | |
| sie ebenso geeignet sind für den Job. | |
| Wie lässt sich diesem Bias entgegenwirken? | |
| Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der | |
| Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel | |
| um eine Gesichtserkennung geht – [3][was sind denn für Gesichter drin in | |
| den Trainingsdaten], wie sehen die aus? Der zweite Schritt ist ein aktives | |
| Entgegenwirken. | |
| Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den | |
| Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche | |
| Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich | |
| dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum | |
| Bias-Testen und eines zum Bias-Reduzieren. | |
| Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt? | |
| Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat | |
| und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann | |
| muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI | |
| Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und | |
| beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung | |
| bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch | |
| schon im Einsatz, zum Beispiel bei Amazon. | |
| In den vergangenen Wochen gab es zahlreiche [4][Warnungen vor KI]. Der | |
| Politologe Ian Bremmer hält sie für eine der großen Gefahren für die | |
| Demokratie. | |
| Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem | |
| Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich | |
| etwa Bilder oder Texte generieren lassen. [5][Und die sind wahnsinnig gut | |
| darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind.] Es | |
| lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann | |
| Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt | |
| haben. | |
| Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns | |
| vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen | |
| verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen | |
| sein könnten, dann ist das eine Gefahr für die Demokratie. | |
| Wie lässt sich dem entgegenwirken? | |
| Das Verbreiten von Falschinformation, um den politischen Diskurs zu | |
| beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit | |
| Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und | |
| Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit, | |
| ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen. | |
| Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung | |
| haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht | |
| verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten | |
| ansetzen: Zum einen müssen wir herausfinden, warum heute so viel | |
| Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf | |
| fruchtbaren Boden fallen lässt, und wie wir das ändern können. | |
| Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen. | |
| Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch | |
| verpflichtende Wasserzeichen für KI-generierte Inhalte. | |
| Aber daran werden sich nicht alle halten. | |
| Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein | |
| Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele | |
| geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und | |
| anderen, die sie erstellen. | |
| Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der | |
| Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten | |
| und Zeitaufwand verursachen. | |
| Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten | |
| wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil | |
| eine schlecht durchdachte und unzureichend getestete KI viel Schaden | |
| anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten | |
| Fall die Gelegenheit gibt, Strukturen zu überdenken. | |
| Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen? | |
| Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden | |
| schlechter bewertet werden. | |
| Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gu… | |
| für einen Jungen entspricht, dann kann ich das bei der Auswahl von | |
| Mitarbeiter:innen in den Algorithmus einbauen und kriege am Ende gute | |
| Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir | |
| die Wirklichkeit. Und diese Chance, die müssen wir nutzen. | |
| 10 Jun 2023 | |
| ## LINKS | |
| [1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490 | |
| [2] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475 | |
| [3] /Ideologie-und-kuenstliche-Intelligenz/!5907912 | |
| [4] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661 | |
| [5] /Kuenstliche-Intelligenz/!5905841 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Rassismus | |
| Sexismus | |
| Chancengleichheit | |
| GNS | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Digitalisierung | |
| Schwerpunkt Künstliche Intelligenz | |
| Algorithmen | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Rassismus | |
| Schwerpunkt Überwachung | |
| EU-Parlament | |
| EU-Parlament | |
| Technik | |
| Medien | |
| Zukunft | |
| ## ARTIKEL ZUM THEMA | |
| EU-Gesetzgebung zu KI: Kritik nach Marathonsitzung | |
| Am Freitag sollte die EU-Einigung zu Künstlicher Intelligenz stehen. Doch | |
| das Prozedere und die letzten Streitpunkte sorgen für Proteste. | |
| Wie KI Sexismus produziert: Die Frau ist immer unter 35 | |
| Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein | |
| misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen. | |
| Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht | |
| Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das | |
| ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung. | |
| Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien | |
| Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen. | |
| Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen. | |
| Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI | |
| Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das | |
| schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt. | |
| Diskriminierung durch KI: Der Algorithmus sagt Nein | |
| Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter | |
| anderem durch KI – und zeigt auf, was sich besser machen ließe. | |
| Lieblingsfarben von Fliegen: Ein Algorithmus gegen Fliegen | |
| Die Farbe Blau wirkt auf Fliegen anziehend – weshalb das so ist, macht nun | |
| ein Algorithmus deutlich. Er soll auch bei der Schädlingsbekämpfung helfen. | |
| Europarat verhandelt Abkommen: KI für die Milliarden | |
| Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. | |
| Die Konvention des Europarats würde Menschen auf mindestens drei | |
| Kontinenten betreffen. Doch es gibt auch Kritik. | |
| Nicole Anyomi über Rassismus im Fußball: „Das war erschreckend“ | |
| Die Nationalspielerin Nicole Anyomi äußert sich zum Rassismusvorfall bei | |
| der U21-EM. Auch sie hat schon ähnliche Erfahrungen gemacht. | |
| Debatte im EU-Parlament: Streit um Überwachung mit KI | |
| Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es | |
| Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung. | |
| Geplante EU-Regulierung von KI: Apokalyptische Ablenkung | |
| Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche | |
| selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln. | |
| EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen | |
| Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste | |
| Regulierung von KI abstimmen. Expert:innen fordern schon | |
| Nachbesserungen. | |
| Folgen von Künstlicher Intelligenz: Ohnmacht durch KI | |
| Künstliche Intelligenz dürfte die Menschheit schneller verändern als die | |
| Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein? | |
| Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen | |
| Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der | |
| Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist. | |
| Künstliche Intelligenz: Wer hat Angst vor ChatGPT? | |
| Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald | |
| von Maschinen übernommen werden. Warum das kein Albtraum sein muss. |