Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Diskriminierung durch KI: Der Algorithmus sagt Nein
> Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter
> anderem durch KI – und zeigt auf, was sich besser machen ließe.
Bild: Beim Schutz vor Diskriminierung durch algorithmische und KI-Systeme gibt …
Berlin taz | Durch Algorithmen getroffene Entscheidungen können Menschen
diskriminieren – und die aktuelle Rechtslage bietet keinen ausreichenden
Schutz dagegen. Das ist das Ergebnis eines Gutachtens, das die
Bundesbeauftragte für Antidiskriminierung, Ferda Ataman, am Mittwoch
vorgestellt hat.
„Wir sind nicht gut vorbereitet auf die Probleme, die algorithmische
Entscheidungssysteme machen können“, sagte Ataman. Menschen sollten darauf
vertrauen könnten, dass sie durch KI nicht diskriminiert werden – und sich
wehren können, wenn es doch passiere.
Algorithmische Entscheidungssysteme sind aktuell besonders im Zusammenhang
mit künstlicher Intelligenz (KI) in der Diskussion. So gibt es etwa
KI-Software, die Unternehmen bei der Auswahl geeigneter Bewerber:innen
oder bei der Betrugserkennung von Versicherungsfällen helfen soll. Doch
algorithmische Entscheidungen müssen nicht immer etwas mit KI zu tun haben,
wie etwa das Scoring, also die Beurteilung der Bonität durch Auskunfteien
wie die Schufa, zeigt.
Der Einsatz von algorithmischen Entscheidungssystemen im Allgemeinen und KI
im Speziellen wird absehbar in den kommenden Jahren zunehmen: Die [1][in
Arbeit befindliche EU-Regelung] erwähnt etwa Bereiche wie Strafverfolgung,
Grenzkontrollen und medizinische Anwendungen.
## Mehr Möglichkeiten für Betroffene
In Fällen von Diskriminierung durch Menschen greift in Deutschland das
Allgemeine Gleichbehandlungsgestz (AGG). Die am Mittwoch vorgestellte
Studie kommt jedoch zu dem Ergebnis: Beim Schutz vor Diskriminierung durch
algorithmische und KI-Systeme gibt es hier Lücken.
„Diese Systeme sind Black Boxen, wir wissen nicht, welche Daten dort
zugrunde liegen und wie die Algorithmen Korrelationen finden“, sagte der
Rechtsprofessor Emanuel V. Towfigh, einer der beiden Autor:innen der
Studie. Es brauche daher Auskunftsrechte für die Betroffenen und
Offenlegungspflichten für die Betreiber solcher Systeme.
Außerdem schlagen die beiden Autor:innen vor, in das AGG auch den
Diskriminierungsgrund „Beziehungen“ aufzunehmen. Bislang ist unter anderem
eine Diskriminierung wegen des Geschlechts oder der Religion verboten. Mit
dem Faktor „Beziehungen“ wäre es etwa untersagt, eine Person in eine
schlechte Bonitätsklasse einzuteilen, weil auch die Menschen in deren
Nachbarschaft eine schlechtere Bonität haben.
## Algorithmen mit Diskreminierungspotenzial
Darüber hinaus sprechen sich die Autor:innen für eine Beweislastumkehr
aus: Hätten Betroffene den Verdacht, von einem System diskriminiert worden
zu sein, müsse dessen Betreiber beweisen, dass das nicht der Fall sei. Auch
ein Verbandsklagerecht könne die Rechte von Betroffenen verbessern.
„Algorithmen haben ein besonderes Diskriminierungspotenzial“, sagt die
Rechtsprofessorin Indra Spiecker genannt Döhmann, die zweite Autorin der
Studie. Das liege daran, dass sie auf Statistiken basieren. [2][Diese
ziehen zum einen Daten aus der Vergangenheit heran, um basierend darauf
über die Zukunft zu entscheiden]. Und zum anderen würden sie häufig nur
Korrelationen und keine Kausalitäten, also Ursache-Wirkungs-Beziehungen
abbilden. Dazu kämen unklare Verantwortlichkeiten darüber, wer für den
Einsatz eines algorithmischen Systems einstehen muss – das mache es leicht,
Haftungsfragen abzuwehren.
Die Expertin warnte auch davor, sich in Sachen Schutz vor algorithmischer
Diskriminierung auf die in Arbeit befindliche EU-Regulierung zu verlassen.
Denn die sehe keinerlei Individualrechte, also etwa Klage- und
Auskunftsrechte für Betroffene, vor. Die EU-Gremien [3][arbeiten derzeit]
an einer Gesetzgebung, die den Einsatz von KI regeln soll. Bis Ende dieses
Jahres soll es eine Einigung geben. Es wäre die erste umfassende
transnationale und verbindliche Reglementierung der Technologie.
30 Aug 2023
## LINKS
[1] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487
[2] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210
[3] /EU-Regulierung-fuer-ChatGPT-und-Co/!5933999
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
Algorithmen
Diskriminierung
Spotify
Schufa
Mark Zuckerberg
Digitalisierung
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Ex-Spotify-Programmierer Glenn McDonald: „Regulierung kann viel bewirken“
Bei Spotify hieß Glenn McDonald „Daten-Alchemist“. Dort entwickelte er
Empfehlungs-Algorithmen und stellt sich eine ganz neue Musikindustrie vor.
Neuer Score geplant: Die Schufa räumt auf
Die Auskunftei will ihre Bewertung der Kreditwürdigkeit vereinheitlichen.
Doch komplette Transparenz ist nicht geplant.
Fake News zu Nahostkonflikt auf Facebook: EU-Kommission verwarnt Zuckerberg
Auf Meta sollen Fake News über Israel verbreitet worden sein. Nach Musks X
hat die EU-Kommission nun auch den Facebook-Mutterkonzern verwarnt.
Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI
Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das
schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.
Europarat verhandelt Abkommen: KI für die Milliarden
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
Die Konvention des Europarats würde Menschen auf mindestens drei
Kontinenten betreffen. Doch es gibt auch Kritik.
EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen
Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste
Regulierung von KI abstimmen. Expert:innen fordern schon
Nachbesserungen.
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�…
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.