Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Einfluss auf den Algorithmus: Das System spinnt
> Menschen und Algorithmen beeinflussen sich gegenseitig.
> Ausnahmesituationen wie die Coronapandemie bringen die Systeme an ihre
> Grenzen.
Bild: Durch das neue Konsumverhalten ist der Algorithmus überfordert
Wer vor wenigen Wochen auf Amazon nach Handseife, Desinfektionsmittel oder
Toilettenpapier suchte, traute seinen Augen nicht. Da wurden von Händlern
Mondpreise für Hygieneartikel aufgerufen, die im Drogeriegeschäft für
gewöhnlich nur ein paar Euro kosten. Doch Coronazeiten sind eben keine
normalen Zeiten.
Weil die Supermarkt- und Drogeriemarktregale leergefegt waren und die
Produzenten mit der Lieferung kaum hinterherkamen, suchten die Leute im
Onlinehandel fieberhaft nach Toilettenpapier und Atemschutzmasken. Und das
ließen sich die Händler entsprechend bezahlen. Doch möglicherweise sind
diese sprunghaft gestiegenen Preise nicht allein auf den gewöhnlichen
Marktmechanismus von Angebot und Nachfrage zurückzuführen, sondern auf
Algorithmen.
Beim „Dynamic Pricing“, einer Preisbestimmungsstrategie, die schon länger
bei Online-Buchungsplattformen angewandt wird, ermitteln Algorithmen anhand
von Faktoren wie Wochentag, Tageszeit oder Wetter die Nachfrage und
berechnen daran angepasst die Preise. Machine-Learning-Algorithmen lernen
anhand historischer Daten, wann besonders viele Spielzeuge bestellt werden,
welche Produkte Menschen vor einem Hurrikan ordern usw.
Wenn beispielsweise im Sommer nach Badehosen gesucht wird, merkt sich der
Algorithmus: Aha, jetzt steigt die Nachfrage, jetzt muss ich die Preise
erhöhen! Das Problem dabei: Jedes Modell ist nur so gut wie seine
Datengrundlage. Garbage in, garbage out, lautet ein alter Spruch in der
Informatik. Wer Müll hineinwirft, bekommt Müll heraus. Wenn Menschen zu
stark von ihren Konsumgewohnheiten und Routinen abweichen, geraten die
lernenden Systeme ins Schlingern. In der Folge produzieren sie erratische
Daten, die dann zum Beispiel zu Mondpreisen führen können.
## Fehlendes Datenmaterial
Genau das war offenbar im April der Fall: Statt wie gewöhnlich nach
iPhone-Hüllen oder Ladekabeln suchten die Verbraucher plötzlich nach
Toilettenpapier und Masken – Produkten, die sonst kaum nachgefragt werden.
Dieses ungewöhnliche Verhalten irritierte die Vorhersage-Algorithmen
offenbar derart, dass sie Angebot und Nachfrage kaum noch sinnvoll
quantifizieren konnten.
Für das Konsumverhalten in den 48 Stunden vor einem Hurrikan gibt es recht
genaue Daten. So konnten Datenwissenschaftler von Walmart bereits vor
einigen Jahren in ihren Modellen sehen, dass die Verkaufszahlen von
Erdbeer-Pop-Tarts unmittelbar vor Wirbelstürmen um das Siebenfache höher
waren als normal. Die Logistiker können sich darauf einstellen, indem sie
den Lagerbestand erhöhen. Für eine globale Pandemie gibt es jedoch keine
historischen Daten, mit denen man eine Maschine trainieren könnte. Und das
hat Folgen. In Indien, so berichtet die Fachzeitschrift Technology Review,
brach ein automatisiertes Lagerhaltungssystem zusammen, weil die
Bestellmengen die Prognosealgorithmen verwirrten. So schnell, wie sich die
Kauflaunen manisch-panischer Verbraucher änderten, konnten
Softwareingenieure die Modelle nicht nachjustieren.
Die Fälle werfen ein Schlaglicht auf die Mensch-Maschine-Interaktion, die
in den nächsten Jahren zur zentralen Schnittstelle sozialer Systeme werden
wird. Bei der Diskussion um intelligente Algorithmen wird oft verkannt, wie
abhängig diese Systeme von ihrer Umwelt sind. Das Verhalten des Menschen
beeinflusst die Maschine – und umgekehrt.
## Zu viel zum Verarbeiten
Die entscheidende Frage ist deshalb, in welche Richtung die Kausalkette
jeweils wirkt, ob also die Maschine rotiert, weil der Mensch durchdreht,
oder ob der Mensch auch deshalb irrational handelt, weil ihn erratische
Systeme bei seinen Entscheidungen beeinflussen – und sich die
Wirkungszusammenhänge über automatisierte Feedbackloops wechselseitig
verstärken. Wurden die Panikkäufe etwa durch die Algorithmen von
News-Aggregatoren befeuert, die alarmistisch-katastrophistische Meldungen
über Engpässe priorisierten, weil sie so oft geklickt wurden? Die
Volatilität der Preise könnte ein Indiz für die Schwächen eines immer
börsenähnlicheren Informationssystems sein, wo (etwa bei Google oder
Amazon) in Millisekunden Auktionen um die besten Anzeigenplätze
stattfinden.
Am 6. Mai 2010 brach der Dow Jones binnen weniger Minuten um 1.000 Punkte
ein, um sich kurz darauf zu erholen. Über die Ursache des plötzlichen
Kurseinbruchs herrscht bis heute Unklarheit. Eine Hypothese: Der Flash
Crash wurde durch Trading-Bots, hochleistungsfähige Algorithmen, ausgelöst,
die beim Unterschreiten eines Aktienkurses automatisch eine Verkaufsorder
ausführten – eine Art programmierter Panikverkauf. In den darauffolgenden
Jahren kam es immer wieder zu solchen rätselhaften Einbrüchen, die zum Teil
auch durch bloße Tippfehler induziert wurden.
An Börsen werden seit einigen Jahren „nachrichtenlesende Algorithmen“
(news-reading algos) eingesetzt, die Überschriften von Meldungen oder
Tweets scannen, um daraus Marktsignale abzuleiten. Rund um die
Brexit-Abstimmung im britischen Parlament 2019 produzierten
Nachrichtenagenturen so viele Headlines, dass die Computer diese Datenmenge
nicht mehr verarbeiten konnten. Befeuert durch den Schlingerkurs des
Parlaments und der Regierung erzeugten Nachrichtenagenturen irreführende
Marktsignale, ein statistisches Rauschen, das zu verzerrten
Marktentscheidungen führte und Rückkopplungen auf das politische System
erzeugte. Und womöglich auch dort irrationale Entscheidungen produzierte.
## Stabilisierung von Systemen
Der frühere FAZ-Herausgeber Frank Schirrmacher hat in seinem letzten Buch,
„Ego – Spiel des Lebens“ (2013), genau ausbuchstabiert, wie beinahe
identische Modelle in Börsenalgorithmen, Auktions- und Werbealgorithmen
sowie in sozialen Netzwerken Eingang fanden.
Schirrmacher schrieb in dem ihm eigenen, raunenden und zu Verschwörung
neigenden Duktus von einer „mathematischen Weltformel“. Was, fragte
Schirrmacher, wenn die Welt zum Automaten würde? „Das Problem sind nicht
die simplifizierten Modelle. Das Problem ist, dass wir Zeugen eines
Umbruchs werden, in dem diese Modelle die Wirklichkeit codieren und dadurch
selbst wirklich werden. Und nicht nur das: sie entscheiden darüber, was
rational ist und was nicht.“ Die Börsen- oder Auktionsalgorithmen, so seine
düstere Vorahnung, schaffen eine Wirklichkeit, die sie selbst modellieren.
Algorithmen sind, wie Bürokratien im Allgemeinen, strukturkonservative
Apparate, das heißt, sie stabilisieren zunächst bestimmte Werte- und
Verhaltenssysteme in der Gesellschaft. Nach der Lehre der Kybernetik ist
ein System umso stabiler, je deterministischer und prognostizierbarer das
Verhalten seiner Elemente ist – sprich, wenn der Nutzer sich so verhält,
wie er es gestern auch getan hat, bleibt alles beim Alten.
## Lernfähige Algorithmen
Was aber passiert, wenn plötzlich Milliarden Nutzer von einem auf den
anderen Tag ihr Verhalten ändern und nicht mehr nach Pornos und Fußball
googeln, lässt sich nicht nur an plötzlichen Preissprüngen in
Pandemiezeiten, sondern schon länger bei sogenannten „Google-Bomben“
beobachten.
So riefen Aktivisten dazu auf, auf Reddit ein Foto von Donald Trump mit der
Ergänzung „idiot“ zu liken, damit bei der Google-Bildersuche nach eben
jenem Begriff das Konterfei des US-Präsidenten ganz oben aufpoppt. Mit
Erfolg: Der Google-Algorithmus wurde überlistet. Zwar werden die Modelle
der Suchmaschine ständig gewartet und verfeinert.
Wenn aber Algorithmen von ihren Nutzern und Programmierern lernen,
verzerrte Ergebnisse zu produzieren – bei der Google-Suche nach „CEO“
wurden bis vor kurzer Zeit nur Männer und eine Barbie angezeigt –,
zementieren sie genau jene Zerrbilder und Stereotype, mit denen sie dann
wieder trainiert werden. Solange die Nachfrage nach Vorurteilen und
Toilettenpapier stabil ist, sind es auch die zugrunde liegenden Modelle.
11 Jun 2020
## AUTOREN
Adrian Lobe
## TAGS
Schwerpunkt Künstliche Intelligenz
Algorithmus
Schwerpunkt Rassismus
Schwerpunkt Rassismus
Amazon
Schwerpunkt Meta
Black Lives Matter
Datenschutz
Bundesregierung
China
## ARTIKEL ZUM THEMA
Dekolonialisierung von Algorithmen: Programmierter Rassismus
In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund:
Auch künstliche Intelligenz wird von Menschen gemacht.
Facebooks Algorithmen werden geprüft: Diskriminierung im System
Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen
rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.
Kampf um bessere Arbeitsbedingungen: Streiks bei Amazon
An mehreren Standorten haben Beschäftigte des Versandhändlers die Arbeit
niedergelegt. Sie fordern einen Tarifvertrag und besseren Schutz vor dem
Coronavirus.
Filter bei Facebook und Microsoft: Beim Livetest versagt
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
zeigen zwei im „Guardian“ dokumentierte Fälle.
Amazon beendet Kooperation: Polizei vorläufig ohne Amazon
Amazon erlaubt der US-Polizei nicht mehr, eine Software zur
Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh
nicht.
Neue Strategie vorgestellt: Europa träumt digital
Die EU will künstliche Intelligenz fördern und die Menschen vor ihren
Auswirkungen schützen. Beides gleichzeitig ist aber schwer machbar.
Bayerische KI-Strategie: Pack ma's
Bayern richtet 100 neue Lehrstühle für künstliche Intelligenz ein – und
sorgt damit für Euphorie an bayerischen Hochschulen.
Regeln für Tech-Firmen: Kapitalismus mit Streuseln
Was Europa im Wettbewerb um Software und KI-Lösungen braucht, ist: Profil.
Es braucht Regeln, die den Datenschutz und die Menschenrechte hochhalten.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.