# taz.de -- KI und freies Handeln: Der berechnete Mensch | |
> Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme | |
> nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie? | |
Bild: Soll die KI entscheiden, womit der Kühlschrank gefüllt ist? | |
Fisch oder Fleisch? Auto oder Rad? Berge oder Meer? Jeden Tag muss der | |
Mensch Entscheidungen treffen. Sehr viele sogar. 35.000 sollen es im | |
Durchschnitt am Tag sein. Oft sind es sehr banale Entscheidungen wie die | |
Wahl des Essens oder Outfits. Andere Fragen wiederum, etwa | |
Wahlentscheidungen oder Patientenverfügungen, sind sehr schwerwiegend und | |
folgenreich. Auf die Frage, warum er immer blaue oder graue Anzüge trage, | |
antwortete der ehemalige US-Präsident Barack Obama in einem Interview: „Ich | |
möchte keine Entscheidungen darüber treffen, was ich esse oder anziehe. Ich | |
habe viele andere Entscheidungen zu treffen.“ | |
Gewiss, nicht jeder ist US-Präsident und muss die großen Fragen von Krieg | |
oder Frieden beantworten. Doch in einer Welt, wo es von All inclusive bis | |
zur Zahnzusatzversicherung extrem diverse Optionen gibt, fällt es vielen | |
Menschen schwer, Entscheidungen zu treffen. Was ist das Richtige für mich? | |
Was kann ich mir leisten? Welche Folgen hat mein Handeln für andere? | |
Auf dieses kollektive Gefühl der Überforderung [1][antworten KI-Systeme] | |
mit dem Basta-Rigorismus von gestern. „Mach dir keinen Kopf, wir nehmen dir | |
die Entscheidung ab“ – das ist die unterschwellige Botschaft, die viele | |
Apps und elektronische Helferlein vermitteln. „Manage dein Leben“, so | |
bewirbt der chinesische Technologie-Konzern Huawei seinen persönlichen | |
Assistenten Today. Die Künstliche Intelligenz sendet Updates über die | |
Lieblingsmannschaft, informiert über Verkehrsstörungen und erinnert an das | |
nächste Meeting. Dank digitaler Assistenz kann sich der Nutzer stärker auf | |
die Arbeit fokussieren. | |
Nun kann man sich generell fragen, ob der tägliche Wahnsinn zwischen Kita, | |
Schulausfall und Zugverspätungen überhaupt managementfähig ist und nicht | |
viel eher eines Neustarts bedürfte. Doch ganz unabhängig von solchen Fragen | |
sind in den Alltag bereits sehr viele subtile Entscheidungshilfen | |
eingebaut. | |
Algorithmen entscheiden, welche Nachrichten wir morgens auf unserem Handy | |
lesen, über welches Tinder-Profil wir wischen und welchen Heimweg wir | |
nehmen. Mit dieser Vorauswahl erhalten automatisierte Systeme | |
[2][Entscheidungsmacht über das Leben]. Bloß: Entscheiden sie im Interesse | |
derer, die sie nutzen? Oder im Interesse der Entwickler und Werbekunden? | |
Klar, wir geben nicht gleich unsere Autonomie preis, nur weil wir auf den | |
Textbaustein klicken, den die Autovervollständigung aufgrund des Such- und | |
Schreibverhaltens errechnet hat. Auch im analogen Leben trifft man | |
Entscheidungen nicht frei von Zwängen, zum Beispiel, wenn man in der | |
Schlange an der Supermarktkasse doch noch den Schokoriegel aufs Band legt | |
und den Tricks der Industrie auf den Leim geht. Zur Freiheit gehört auch, | |
gegen die eigene Vernunft handeln zu können. Wenn uns aber digitale | |
Spurhalteassistenten zielstrebig von einem Geschäft zum nächsten lotsen, | |
wird aus dem vermeintlich freiheitsstiftenden Konsumerlebnis schnell eine | |
manipulative Kaffeefahrt – eine Art embedded shopping. | |
Künftig könnten Black-Box-Algorithmen in ethischen Dilemmasituationen sogar | |
zum Richter über Leben und Tod werden. Wenn ein Roboterfahrzeug auf eine | |
Kreuzung zufährt und die Abstandssensoren feststellen, dass es für einen | |
Bremsvorgang zu spät ist, muss der Fahrcomputer entscheiden: Nach links | |
ziehen und den SUV-Fahrer mit der schwangeren Frau auf dem Beifahrersitz | |
rammen? Oder nach rechts ausweichen und den Radfahrer ohne Helm mitnehmen? | |
Auf welcher Grundlage werden solche Entscheidungen getroffen? | |
Die Ökonomen Ajay Agrawal, Joshua Gans und Avi Goldfarb schreiben in ihrem | |
aktuellen Buch „Power and Prediction“, dass [3][KI als Prognosetechnik] | |
dazu diene, alte Regeln durch neue Entscheidungen zu ersetzen. Regeln – die | |
Autoren nennen beispielhaft Obamas Garderobe – seien auch Entscheidungen, | |
die man präemptiv treffe, um die kognitiven Kosten zu senken. Wer vorab die | |
Farben grau und blau festlegt, muss sich keine Gedanken um das Outfit | |
machen. Es gebe aber auch jede Menge implizite Verhaltensregeln, zum | |
Beispiel, einige Stunden früher am Flughafen zu sein, um in Erwartung | |
längerer Wartezeiten bei der Sicherheitskontrolle und Gepäckaufgabe seinen | |
Flieger nicht zu verpassen. Wenn nun mit Apps die genaue Wartezeit | |
vorhergesagt werden könnte, würden Fluggäste weniger Zeit am Gate | |
verbringen und ergo weniger Geld ausgeben. | |
## Stetige Simulation | |
In den Rechenzentren von Konzernen laufen ständig Simulationen über | |
zukünftige Ereignisse: Staus, Einkäufe, Wetterphänomene. Amazon hat vor | |
einigen Jahren ein Patent für ein vorausschauendes Logistiksystem | |
(„anticipatory shipping“) angemeldet. Die Idee: Waren werden verschickt, | |
noch bevor der Kunde auf den Bestellknopf gedrückt hat. Eine KI würde | |
anhand von Daten wie Kaufhistorie, Wunschlisten und Suchverhalten den | |
nächsten Kauf vorhersagen und proaktiv den Versand des Produkts | |
veranlassen. Während der Kunde gerade noch im Sortiment stöbert, ist die | |
Ware längst im Lieferwagen. | |
Zwar wurde das Patent bislang noch nicht umgesetzt. Trotzdem lohnt es sich, | |
darüber nachzudenken, weil es hier um grundlegende technikphilosophische | |
Fragen von Autonomie und Handlungsfreiheit geht. Ist man noch handelndes | |
Subjekt, wenn die Handlungsfolge dessen, was man als nächstes tun wird, | |
bereits eingetreten ist? Oder schon berechenbares Datenpaket? Ist man noch | |
frei, Nein zu sagen? Oder ist man gezwungen, das Tun zu akzeptieren, weil | |
das, was der Algorithmus errechnet hat, eben „Ich“ ist und man schlecht | |
gegen das Selbst agieren kann, ohne seine Subjektivität zu verleugnen? | |
## Außer Konsum nichts mehr wollen | |
Der französische Philosoph Gilles Deleuze vertrat die These, dass in der | |
Kontrollgesellschaft Individuen zu Dividuen zerfallen, zu digital | |
steuerbaren, teilbaren Ichs, die in Computern immer wieder neu berechnet | |
und zusammengesetzt werden. Die „numerische Sprache der Kontrolle“, von der | |
Deleuze schrieb, sprechen auch internetfähige Objekte wie [4][der smarte | |
Kühlschrank]. Das Gerät betreibt nicht nur permanente Marktforschung, | |
sondern übt auch eine Form der Sozialkontrolle aus. Wer holt morgens schon | |
eine Flasche Bier raus? Wer achtet auf kalorienarme Kost? Wer isst viel | |
Fett? Amazon hat vor Jahren eine Technologie patentieren lassen, die | |
mithilfe von Kameras und Sensoren sogar verdorbene Waren aufspürt. | |
Der smarte Kühlschrank basiert auf der kybernetischen Idee eines Systems, | |
das sich selbst reguliert. Der Kunde braucht nichts mehr zu entscheiden, er | |
braucht außer Konsum auch nichts mehr zu wollen – er muss nur ein paar | |
Soll-Werte angeben, dann hält sich das System im Gleichgewicht. Beispiel: | |
Der Kühlschrank darf nie weniger als einen Liter Hafermilch und 200 Gramm | |
Käse enthalten. Den Rest erledigt das automatisierte Bestellsystem. | |
## Amazon für die Politik | |
Unter dem Stichwort „anticipatory government“ werden solche | |
Steuerungsmodelle auch für die Politik diskutiert. Der Gedanke: Die | |
Regierung erlässt in Erwartung einer Nachfrage nach Sicherheit oder | |
Wohnraum proaktiv Maßnahmen, damit man sich die „politics“-Dimension, wie | |
Politikwissenschaftler sagen, also den mühsamen Prozess der Aushandlungen, | |
„spart“. Ein Amazon für die Politik quasi: Das Volk bestellt, die Regierung | |
liefert. Warum auf die Straße gehen, wenn das Hilfspaket schon auf dem Weg | |
ist? | |
Eine Kybernetisierung des Gemeinwesens liefe jedoch auf ein Ende des | |
Politischen hinaus, weil das, was Politik ausmacht – der Streit, das Ringen | |
um das beste Argument, Streiks – letztlich bloß technische Störungen wären. | |
Dass der smarte Kühlschrank, der seit Jahren auf Technikmessen angepriesen | |
wird, sich bis heute nicht durchsetzen konnte, beweist aber, dass sich die | |
Verbraucher doch noch einen Rest von Entscheidungsmacht vorbehalten. | |
26 Feb 2023 | |
## LINKS | |
[1] /Experte-ueber-KI-Textgeneratoren/!5912420 | |
[2] /Zukunftsfaehige-Digitalitaet/!vn5819700 | |
[3] /Algorithmen-in-der-Kunst/!5896480 | |
[4] /Umweltproblem-smarte-Haushaltsgeraete/!5501503 | |
## AUTOREN | |
Adrian Lobe | |
## TAGS | |
Konsum | |
Konsumverhalten | |
Roboter | |
Autonomie | |
Schwerpunkt Künstliche Intelligenz | |
Interview | |
Transparenz | |
Lesestück Recherche und Reportage | |
Buch | |
Polizei Hessen | |
Bot | |
## ARTIKEL ZUM THEMA | |
Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“ | |
Sucht, Schulden, Kindererziehung – bei vielen Problemen können | |
Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI? | |
OpenAI in der Kritk: Transparent gewaschen | |
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf | |
ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso | |
problematischer. | |
ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine | |
Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen | |
Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch | |
etwas Zentrales verlorengeht. Stimmt das? | |
ChatGPT als Sci-Fi-Autor: Wer die Zukunft schreibt | |
Unsere Autorin schreibt Science-Fiction, Text-KIs können das mittlerweile | |
auch. Davor, bald überflüssig zu sein, hat sie aber keine Angst. | |
Karlsruhe zu hessischem Polizeigesetz: Polizei-KI wird etwas eingeschränkt | |
Das Bundesverfassungsgericht beanstandet das hessische Polizeigesetz, lässt | |
aber eine Neuregelung zu. Bis Herbst hat die Landesregierung dafür Zeit. | |
Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“ | |
Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz | |
spricht über Chancen, Risiken und die Bewusstseinsfrage. |