Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- KI und freies Handeln: Der berechnete Mensch
> Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
> nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
Bild: Soll die KI entscheiden, womit der Kühlschrank gefüllt ist?
Fisch oder Fleisch? Auto oder Rad? Berge oder Meer? Jeden Tag muss der
Mensch Entscheidungen treffen. Sehr viele sogar. 35.000 sollen es im
Durchschnitt am Tag sein. Oft sind es sehr banale Entscheidungen wie die
Wahl des Essens oder Outfits. Andere Fragen wiederum, etwa
Wahlentscheidungen oder Patientenverfügungen, sind sehr schwerwiegend und
folgenreich. Auf die Frage, warum er immer blaue oder graue Anzüge trage,
antwortete der ehemalige US-Präsident Barack Obama in einem Interview: „Ich
möchte keine Entscheidungen darüber treffen, was ich esse oder anziehe. Ich
habe viele andere Entscheidungen zu treffen.“
Gewiss, nicht jeder ist US-Präsident und muss die großen Fragen von Krieg
oder Frieden beantworten. Doch in einer Welt, wo es von All inclusive bis
zur Zahnzusatzversicherung extrem diverse Optionen gibt, fällt es vielen
Menschen schwer, Entscheidungen zu treffen. Was ist das Richtige für mich?
Was kann ich mir leisten? Welche Folgen hat mein Handeln für andere?
Auf dieses kollektive Gefühl der Überforderung [1][antworten KI-Systeme]
mit dem Basta-Rigorismus von gestern. „Mach dir keinen Kopf, wir nehmen dir
die Entscheidung ab“ – das ist die unterschwellige Botschaft, die viele
Apps und elektronische Helferlein vermitteln. „Manage dein Leben“, so
bewirbt der chinesische Technologie-Konzern Huawei seinen persönlichen
Assistenten Today. Die Künstliche Intelligenz sendet Updates über die
Lieblingsmannschaft, informiert über Verkehrsstörungen und erinnert an das
nächste Meeting. Dank digitaler Assistenz kann sich der Nutzer stärker auf
die Arbeit fokussieren.
Nun kann man sich generell fragen, ob der tägliche Wahnsinn zwischen Kita,
Schulausfall und Zugverspätungen überhaupt managementfähig ist und nicht
viel eher eines Neustarts bedürfte. Doch ganz unabhängig von solchen Fragen
sind in den Alltag bereits sehr viele subtile Entscheidungshilfen
eingebaut.
Algorithmen entscheiden, welche Nachrichten wir morgens auf unserem Handy
lesen, über welches Tinder-Profil wir wischen und welchen Heimweg wir
nehmen. Mit dieser Vorauswahl erhalten automatisierte Systeme
[2][Entscheidungsmacht über das Leben]. Bloß: Entscheiden sie im Interesse
derer, die sie nutzen? Oder im Interesse der Entwickler und Werbekunden?
Klar, wir geben nicht gleich unsere Autonomie preis, nur weil wir auf den
Textbaustein klicken, den die Autovervollständigung aufgrund des Such- und
Schreibverhaltens errechnet hat. Auch im analogen Leben trifft man
Entscheidungen nicht frei von Zwängen, zum Beispiel, wenn man in der
Schlange an der Supermarktkasse doch noch den Schokoriegel aufs Band legt
und den Tricks der Industrie auf den Leim geht. Zur Freiheit gehört auch,
gegen die eigene Vernunft handeln zu können. Wenn uns aber digitale
Spurhalteassistenten zielstrebig von einem Geschäft zum nächsten lotsen,
wird aus dem vermeintlich freiheitsstiftenden Konsumerlebnis schnell eine
manipulative Kaffeefahrt – eine Art embedded shopping.
Künftig könnten Black-Box-Algorithmen in ethischen Dilemmasituationen sogar
zum Richter über Leben und Tod werden. Wenn ein Roboterfahrzeug auf eine
Kreuzung zufährt und die Abstandssensoren feststellen, dass es für einen
Bremsvorgang zu spät ist, muss der Fahrcomputer entscheiden: Nach links
ziehen und den SUV-Fahrer mit der schwangeren Frau auf dem Beifahrersitz
rammen? Oder nach rechts ausweichen und den Radfahrer ohne Helm mitnehmen?
Auf welcher Grundlage werden solche Entscheidungen getroffen?
Die Ökonomen Ajay Agrawal, Joshua Gans und Avi Goldfarb schreiben in ihrem
aktuellen Buch „Power and Prediction“, dass [3][KI als Prognosetechnik]
dazu diene, alte Regeln durch neue Entscheidungen zu ersetzen. Regeln – die
Autoren nennen beispielhaft Obamas Garderobe – seien auch Entscheidungen,
die man präemptiv treffe, um die kognitiven Kosten zu senken. Wer vorab die
Farben grau und blau festlegt, muss sich keine Gedanken um das Outfit
machen. Es gebe aber auch jede Menge implizite Verhaltensregeln, zum
Beispiel, einige Stunden früher am Flughafen zu sein, um in Erwartung
längerer Wartezeiten bei der Sicherheitskontrolle und Gepäckaufgabe seinen
Flieger nicht zu verpassen. Wenn nun mit Apps die genaue Wartezeit
vorhergesagt werden könnte, würden Fluggäste weniger Zeit am Gate
verbringen und ergo weniger Geld ausgeben.
## Stetige Simulation
In den Rechenzentren von Konzernen laufen ständig Simulationen über
zukünftige Ereignisse: Staus, Einkäufe, Wetterphänomene. Amazon hat vor
einigen Jahren ein Patent für ein vorausschauendes Logistiksystem
(„anticipatory shipping“) angemeldet. Die Idee: Waren werden verschickt,
noch bevor der Kunde auf den Bestellknopf gedrückt hat. Eine KI würde
anhand von Daten wie Kaufhistorie, Wunschlisten und Suchverhalten den
nächsten Kauf vorhersagen und proaktiv den Versand des Produkts
veranlassen. Während der Kunde gerade noch im Sortiment stöbert, ist die
Ware längst im Lieferwagen.
Zwar wurde das Patent bislang noch nicht umgesetzt. Trotzdem lohnt es sich,
darüber nachzudenken, weil es hier um grundlegende technikphilosophische
Fragen von Autonomie und Handlungsfreiheit geht. Ist man noch handelndes
Subjekt, wenn die Handlungsfolge dessen, was man als nächstes tun wird,
bereits eingetreten ist? Oder schon berechenbares Datenpaket? Ist man noch
frei, Nein zu sagen? Oder ist man gezwungen, das Tun zu akzeptieren, weil
das, was der Algorithmus errechnet hat, eben „Ich“ ist und man schlecht
gegen das Selbst agieren kann, ohne seine Subjektivität zu verleugnen?
## Außer Konsum nichts mehr wollen
Der französische Philosoph Gilles Deleuze vertrat die These, dass in der
Kontrollgesellschaft Individuen zu Dividuen zerfallen, zu digital
steuerbaren, teilbaren Ichs, die in Computern immer wieder neu berechnet
und zusammengesetzt werden. Die „numerische Sprache der Kontrolle“, von der
Deleuze schrieb, sprechen auch internetfähige Objekte wie [4][der smarte
Kühlschrank]. Das Gerät betreibt nicht nur permanente Marktforschung,
sondern übt auch eine Form der Sozialkontrolle aus. Wer holt morgens schon
eine Flasche Bier raus? Wer achtet auf kalorienarme Kost? Wer isst viel
Fett? Amazon hat vor Jahren eine Technologie patentieren lassen, die
mithilfe von Kameras und Sensoren sogar verdorbene Waren aufspürt.
Der smarte Kühlschrank basiert auf der kybernetischen Idee eines Systems,
das sich selbst reguliert. Der Kunde braucht nichts mehr zu entscheiden, er
braucht außer Konsum auch nichts mehr zu wollen – er muss nur ein paar
Soll-Werte angeben, dann hält sich das System im Gleichgewicht. Beispiel:
Der Kühlschrank darf nie weniger als einen Liter Hafermilch und 200 Gramm
Käse enthalten. Den Rest erledigt das automatisierte Bestellsystem.
## Amazon für die Politik
Unter dem Stichwort „anticipatory government“ werden solche
Steuerungsmodelle auch für die Politik diskutiert. Der Gedanke: Die
Regierung erlässt in Erwartung einer Nachfrage nach Sicherheit oder
Wohnraum proaktiv Maßnahmen, damit man sich die „politics“-Dimension, wie
Politikwissenschaftler sagen, also den mühsamen Prozess der Aushandlungen,
„spart“. Ein Amazon für die Politik quasi: Das Volk bestellt, die Regierung
liefert. Warum auf die Straße gehen, wenn das Hilfspaket schon auf dem Weg
ist?
Eine Kybernetisierung des Gemeinwesens liefe jedoch auf ein Ende des
Politischen hinaus, weil das, was Politik ausmacht – der Streit, das Ringen
um das beste Argument, Streiks – letztlich bloß technische Störungen wären.
Dass der smarte Kühlschrank, der seit Jahren auf Technikmessen angepriesen
wird, sich bis heute nicht durchsetzen konnte, beweist aber, dass sich die
Verbraucher doch noch einen Rest von Entscheidungsmacht vorbehalten.
26 Feb 2023
## LINKS
[1] /Experte-ueber-KI-Textgeneratoren/!5912420
[2] /Zukunftsfaehige-Digitalitaet/!vn5819700
[3] /Algorithmen-in-der-Kunst/!5896480
[4] /Umweltproblem-smarte-Haushaltsgeraete/!5501503
## AUTOREN
Adrian Lobe
## TAGS
Konsum
Konsumverhalten
Roboter
Autonomie
Schwerpunkt Künstliche Intelligenz
Interview
Transparenz
Lesestück Recherche und Reportage
Buch
Polizei Hessen
Bot
## ARTIKEL ZUM THEMA
Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“
Sucht, Schulden, Kindererziehung – bei vielen Problemen können
Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI?
OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
problematischer.
ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch
etwas Zentrales verlorengeht. Stimmt das?
ChatGPT als Sci-Fi-Autor: Wer die Zukunft schreibt
Unsere Autorin schreibt Science-Fiction, Text-KIs können das mittlerweile
auch. Davor, bald überflüssig zu sein, hat sie aber keine Angst.
Karlsruhe zu hessischem Polizeigesetz: Polizei-KI wird etwas eingeschränkt
Das Bundesverfassungsgericht beanstandet das hessische Polizeigesetz, lässt
aber eine Neuregelung zu. Bis Herbst hat die Landesregierung dafür Zeit.
Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“
Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz
spricht über Chancen, Risiken und die Bewusstseinsfrage.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.