# taz.de -- Zukunftsfähige Digitalität: Sind Algorithmen rassistisch? | |
> Künstliche-Intelligenz-Systeme sollen objektivere und ausgewogene | |
> Entscheidungen ermöglichen. Doch sie können scheitern. | |
Von FRIEDERIKE ROHDE und FELIX MASCHEWSKI | |
Immer mehr Entscheidungen in unserer Gesellschaft sollen künftig | |
automatisierten Systemen überlassen werden, die nicht nur beurteilen, ob | |
wir Jobs, Kredite oder eine Wohnung bekommen, sondern die auch Tumore | |
erkennen, Klimaprognosen machen oder Texte schreiben können. Diese Systeme | |
maschinellen Lernens, die häufig auf neuronalen Netzen beruhen und als | |
»künstliche Intelligenz« (KI) bezeichnet werden, können – so ihr | |
Versprechen – mehr Informationen verarbeiten, schneller und effizienter | |
prozessieren. Zukünftig sollen sie gar gerechtere Ergebnisse produzieren | |
als der Mensch – mit seinen »beschränkten« kognitiven Kapazitäten. | |
Um Maschinen aber beizubringen, vernunftorientierte und kontextspezifische | |
Entscheidungen zu treffen, bedarf es mehr als reiner Rechenleistung. Denn | |
das, was die KI und ihre Algorithmen mit der Realität menschlicher | |
Lebenswelten verbindet, sind vor allem die Daten. | |
So geht es heute darum, die KI-Modelle mit immer größeren Datensets zu | |
trainieren und die ›smarten‹ Algorithmen derart zu verbessern, dass sie aus | |
dem Meer an Daten jene herausfischen, die für das jeweilige | |
»Optimierungsproblem« – sei es eine Kreditvergabe oder der gerichtliche | |
Urteilsspruch – die angemessene Lösung finden. Detailliertere mathematische | |
Modelle mit unzähligen Parametern und Abermillionen Rechenoperationen | |
versprechen dabei die »Objektivierung des Subjektiven«, das heißt, klarere, | |
bessere Entscheidungen. Doch die Daten, die der Standardisierung von Werten | |
und Normen dienen sollen, entfalten nicht selten eine ganz eigene | |
Autorität, die mehr als bedenklich ist. | |
## Algorithmen können Diskriminierungen, Vorurteile und Ungerechtigkeiten | |
manifestieren | |
Das Datenmeer, aus denen die Modelle ihre Informationen extrahieren, bietet | |
keineswegs Gewähr für eine automatisierte Gerechtigkeit. Es kann, je nach | |
Datenset, auch voller Verzerrungen (englisch ‚Biases‘), diskriminierender | |
Spitzfindigkeiten und historischer Mucken stecken, sodass auch die | |
smartesten Algorithmen nicht selten der Reproduktion eines heiklen Status | |
quo Spalier stehen. So sind etwa KI-Systeme, die der Gesichtserkennung | |
dienen sollen, nicht selten fehlerhaft, wenn es um die Erkennung von | |
»People of Color« geht, weil sie mit Fotos von Weißen trainiert wurden. | |
Robert Julian-Borchak Williams wurde im Januar 2020 von der Detroiter | |
Polizei für 30 Stunden in Gewahrsam genommen, obwohl er nichts getan hatte. | |
Die KI hatte versagt, sein Gesicht verwechselt und die Polizei richtete | |
sich – zu lange – nach ihrem Urteil. | |
Auch KI-gestützte Bewertungssysteme offenbaren immer wieder problematische | |
Biases. Beim US-Konzern Amazon wurden über Jahre hinweg Frauen in | |
Bewerbungsprozessen benachteiligt, weil die Datensätze auf Männer | |
zugeschnitten waren. Algorithmen sind zwar mathematisch formalisiert, aber | |
weder objektiv noch neutral, insofern sie auf historischen Datensets | |
beruhen und von Menschen programmiert werden. Frei nach dem Motto ›Die | |
Grenzen meiner Daten sind die Grenzen meiner Welt‹ agieren sie niemals | |
unpolitisch, niemals ideologiefrei und können falsche Schlussfolgerungen | |
nicht nur fortschreiben, sondern rassistische Diskriminierungen, | |
sexistische Vorurteile und Ungerechtigkeiten sogar manifestieren – ganz | |
systematisch produzieren. | |
Ein immenser Aufwand wird daher betrieben, um den Algorithmen mittels | |
»kuratierter Datensets« oder aufwendiger Werkzeuge zur Bewertung der | |
Fairness eine gesellschaftlich vertretbare Entscheidungsfindung | |
beizubringen. Doch Daten allein können die Pluralität, Vielschichtigkeit | |
und Ambivalenzen unserer Gesellschaften nur sehr unzureichend abbilden. Wir | |
müssen heute mehr denn je kritisch hinterfragen, wo wir Entscheidungsmacht | |
an Algorithmen abgeben wollen. Denn die Idee, das Fischen im Meer der Daten | |
könne uns gesellschaftliche Aushandlungsprozesse oder vernunft- und | |
wertorientierte Entscheidungen abnehmen, erscheint heute vielleicht | |
ziemlich ›smart‹. Möglicherweise ist sie aber gar nicht immer so schlau. | |
FRIEDERIKE ROHDE und FELIX MASCHEWSKI gehören zum Arbeitskreis für | |
zukunftsfähige Digitalität, der mit dem Rat für digitale Ökologie | |
zusammenarbeitet. An dieser Stelle hinterfragt der Arbeitskreis digitale | |
Entwicklungen aus sozialökologischer Perspektive. | |
2 Dec 2021 | |
## ARTIKEL ZUM THEMA |