| # taz.de -- KI und freies Handeln: Der berechnete Mensch | |
| > Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme | |
| > nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie? | |
| Bild: Soll die KI entscheiden, womit der Kühlschrank gefüllt ist? | |
| Fisch oder Fleisch? Auto oder Rad? Berge oder Meer? Jeden Tag muss der | |
| Mensch Entscheidungen treffen. Sehr viele sogar. 35.000 sollen es im | |
| Durchschnitt am Tag sein. Oft sind es sehr banale Entscheidungen wie die | |
| Wahl des Essens oder Outfits. Andere Fragen wiederum, etwa | |
| Wahlentscheidungen oder Patientenverfügungen, sind sehr schwerwiegend und | |
| folgenreich. Auf die Frage, warum er immer blaue oder graue Anzüge trage, | |
| antwortete der ehemalige US-Präsident Barack Obama in einem Interview: „Ich | |
| möchte keine Entscheidungen darüber treffen, was ich esse oder anziehe. Ich | |
| habe viele andere Entscheidungen zu treffen.“ | |
| Gewiss, nicht jeder ist US-Präsident und muss die großen Fragen von Krieg | |
| oder Frieden beantworten. Doch in einer Welt, wo es von All inclusive bis | |
| zur Zahnzusatzversicherung extrem diverse Optionen gibt, fällt es vielen | |
| Menschen schwer, Entscheidungen zu treffen. Was ist das Richtige für mich? | |
| Was kann ich mir leisten? Welche Folgen hat mein Handeln für andere? | |
| Auf dieses kollektive Gefühl der Überforderung [1][antworten KI-Systeme] | |
| mit dem Basta-Rigorismus von gestern. „Mach dir keinen Kopf, wir nehmen dir | |
| die Entscheidung ab“ – das ist die unterschwellige Botschaft, die viele | |
| Apps und elektronische Helferlein vermitteln. „Manage dein Leben“, so | |
| bewirbt der chinesische Technologie-Konzern Huawei seinen persönlichen | |
| Assistenten Today. Die Künstliche Intelligenz sendet Updates über die | |
| Lieblingsmannschaft, informiert über Verkehrsstörungen und erinnert an das | |
| nächste Meeting. Dank digitaler Assistenz kann sich der Nutzer stärker auf | |
| die Arbeit fokussieren. | |
| Nun kann man sich generell fragen, ob der tägliche Wahnsinn zwischen Kita, | |
| Schulausfall und Zugverspätungen überhaupt managementfähig ist und nicht | |
| viel eher eines Neustarts bedürfte. Doch ganz unabhängig von solchen Fragen | |
| sind in den Alltag bereits sehr viele subtile Entscheidungshilfen | |
| eingebaut. | |
| Algorithmen entscheiden, welche Nachrichten wir morgens auf unserem Handy | |
| lesen, über welches Tinder-Profil wir wischen und welchen Heimweg wir | |
| nehmen. Mit dieser Vorauswahl erhalten automatisierte Systeme | |
| [2][Entscheidungsmacht über das Leben]. Bloß: Entscheiden sie im Interesse | |
| derer, die sie nutzen? Oder im Interesse der Entwickler und Werbekunden? | |
| Klar, wir geben nicht gleich unsere Autonomie preis, nur weil wir auf den | |
| Textbaustein klicken, den die Autovervollständigung aufgrund des Such- und | |
| Schreibverhaltens errechnet hat. Auch im analogen Leben trifft man | |
| Entscheidungen nicht frei von Zwängen, zum Beispiel, wenn man in der | |
| Schlange an der Supermarktkasse doch noch den Schokoriegel aufs Band legt | |
| und den Tricks der Industrie auf den Leim geht. Zur Freiheit gehört auch, | |
| gegen die eigene Vernunft handeln zu können. Wenn uns aber digitale | |
| Spurhalteassistenten zielstrebig von einem Geschäft zum nächsten lotsen, | |
| wird aus dem vermeintlich freiheitsstiftenden Konsumerlebnis schnell eine | |
| manipulative Kaffeefahrt – eine Art embedded shopping. | |
| Künftig könnten Black-Box-Algorithmen in ethischen Dilemmasituationen sogar | |
| zum Richter über Leben und Tod werden. Wenn ein Roboterfahrzeug auf eine | |
| Kreuzung zufährt und die Abstandssensoren feststellen, dass es für einen | |
| Bremsvorgang zu spät ist, muss der Fahrcomputer entscheiden: Nach links | |
| ziehen und den SUV-Fahrer mit der schwangeren Frau auf dem Beifahrersitz | |
| rammen? Oder nach rechts ausweichen und den Radfahrer ohne Helm mitnehmen? | |
| Auf welcher Grundlage werden solche Entscheidungen getroffen? | |
| Die Ökonomen Ajay Agrawal, Joshua Gans und Avi Goldfarb schreiben in ihrem | |
| aktuellen Buch „Power and Prediction“, dass [3][KI als Prognosetechnik] | |
| dazu diene, alte Regeln durch neue Entscheidungen zu ersetzen. Regeln – die | |
| Autoren nennen beispielhaft Obamas Garderobe – seien auch Entscheidungen, | |
| die man präemptiv treffe, um die kognitiven Kosten zu senken. Wer vorab die | |
| Farben grau und blau festlegt, muss sich keine Gedanken um das Outfit | |
| machen. Es gebe aber auch jede Menge implizite Verhaltensregeln, zum | |
| Beispiel, einige Stunden früher am Flughafen zu sein, um in Erwartung | |
| längerer Wartezeiten bei der Sicherheitskontrolle und Gepäckaufgabe seinen | |
| Flieger nicht zu verpassen. Wenn nun mit Apps die genaue Wartezeit | |
| vorhergesagt werden könnte, würden Fluggäste weniger Zeit am Gate | |
| verbringen und ergo weniger Geld ausgeben. | |
| ## Stetige Simulation | |
| In den Rechenzentren von Konzernen laufen ständig Simulationen über | |
| zukünftige Ereignisse: Staus, Einkäufe, Wetterphänomene. Amazon hat vor | |
| einigen Jahren ein Patent für ein vorausschauendes Logistiksystem | |
| („anticipatory shipping“) angemeldet. Die Idee: Waren werden verschickt, | |
| noch bevor der Kunde auf den Bestellknopf gedrückt hat. Eine KI würde | |
| anhand von Daten wie Kaufhistorie, Wunschlisten und Suchverhalten den | |
| nächsten Kauf vorhersagen und proaktiv den Versand des Produkts | |
| veranlassen. Während der Kunde gerade noch im Sortiment stöbert, ist die | |
| Ware längst im Lieferwagen. | |
| Zwar wurde das Patent bislang noch nicht umgesetzt. Trotzdem lohnt es sich, | |
| darüber nachzudenken, weil es hier um grundlegende technikphilosophische | |
| Fragen von Autonomie und Handlungsfreiheit geht. Ist man noch handelndes | |
| Subjekt, wenn die Handlungsfolge dessen, was man als nächstes tun wird, | |
| bereits eingetreten ist? Oder schon berechenbares Datenpaket? Ist man noch | |
| frei, Nein zu sagen? Oder ist man gezwungen, das Tun zu akzeptieren, weil | |
| das, was der Algorithmus errechnet hat, eben „Ich“ ist und man schlecht | |
| gegen das Selbst agieren kann, ohne seine Subjektivität zu verleugnen? | |
| ## Außer Konsum nichts mehr wollen | |
| Der französische Philosoph Gilles Deleuze vertrat die These, dass in der | |
| Kontrollgesellschaft Individuen zu Dividuen zerfallen, zu digital | |
| steuerbaren, teilbaren Ichs, die in Computern immer wieder neu berechnet | |
| und zusammengesetzt werden. Die „numerische Sprache der Kontrolle“, von der | |
| Deleuze schrieb, sprechen auch internetfähige Objekte wie [4][der smarte | |
| Kühlschrank]. Das Gerät betreibt nicht nur permanente Marktforschung, | |
| sondern übt auch eine Form der Sozialkontrolle aus. Wer holt morgens schon | |
| eine Flasche Bier raus? Wer achtet auf kalorienarme Kost? Wer isst viel | |
| Fett? Amazon hat vor Jahren eine Technologie patentieren lassen, die | |
| mithilfe von Kameras und Sensoren sogar verdorbene Waren aufspürt. | |
| Der smarte Kühlschrank basiert auf der kybernetischen Idee eines Systems, | |
| das sich selbst reguliert. Der Kunde braucht nichts mehr zu entscheiden, er | |
| braucht außer Konsum auch nichts mehr zu wollen – er muss nur ein paar | |
| Soll-Werte angeben, dann hält sich das System im Gleichgewicht. Beispiel: | |
| Der Kühlschrank darf nie weniger als einen Liter Hafermilch und 200 Gramm | |
| Käse enthalten. Den Rest erledigt das automatisierte Bestellsystem. | |
| ## Amazon für die Politik | |
| Unter dem Stichwort „anticipatory government“ werden solche | |
| Steuerungsmodelle auch für die Politik diskutiert. Der Gedanke: Die | |
| Regierung erlässt in Erwartung einer Nachfrage nach Sicherheit oder | |
| Wohnraum proaktiv Maßnahmen, damit man sich die „politics“-Dimension, wie | |
| Politikwissenschaftler sagen, also den mühsamen Prozess der Aushandlungen, | |
| „spart“. Ein Amazon für die Politik quasi: Das Volk bestellt, die Regierung | |
| liefert. Warum auf die Straße gehen, wenn das Hilfspaket schon auf dem Weg | |
| ist? | |
| Eine Kybernetisierung des Gemeinwesens liefe jedoch auf ein Ende des | |
| Politischen hinaus, weil das, was Politik ausmacht – der Streit, das Ringen | |
| um das beste Argument, Streiks – letztlich bloß technische Störungen wären. | |
| Dass der smarte Kühlschrank, der seit Jahren auf Technikmessen angepriesen | |
| wird, sich bis heute nicht durchsetzen konnte, beweist aber, dass sich die | |
| Verbraucher doch noch einen Rest von Entscheidungsmacht vorbehalten. | |
| 26 Feb 2023 | |
| ## LINKS | |
| [1] /Experte-ueber-KI-Textgeneratoren/!5912420 | |
| [2] /Zukunftsfaehige-Digitalitaet/!vn5819700 | |
| [3] /Algorithmen-in-der-Kunst/!5896480 | |
| [4] /Umweltproblem-smarte-Haushaltsgeraete/!5501503 | |
| ## AUTOREN | |
| Adrian Lobe | |
| ## TAGS | |
| Konsum | |
| Konsumverhalten | |
| Roboter | |
| Autonomie | |
| Schwerpunkt Künstliche Intelligenz | |
| Interview | |
| Transparenz | |
| Lesestück Recherche und Reportage | |
| Buch | |
| Polizei Hessen | |
| Bot | |
| ## ARTIKEL ZUM THEMA | |
| Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“ | |
| Sucht, Schulden, Kindererziehung – bei vielen Problemen können | |
| Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI? | |
| OpenAI in der Kritk: Transparent gewaschen | |
| Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf | |
| ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso | |
| problematischer. | |
| ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine | |
| Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen | |
| Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch | |
| etwas Zentrales verlorengeht. Stimmt das? | |
| ChatGPT als Sci-Fi-Autor: Wer die Zukunft schreibt | |
| Unsere Autorin schreibt Science-Fiction, Text-KIs können das mittlerweile | |
| auch. Davor, bald überflüssig zu sein, hat sie aber keine Angst. | |
| Karlsruhe zu hessischem Polizeigesetz: Polizei-KI wird etwas eingeschränkt | |
| Das Bundesverfassungsgericht beanstandet das hessische Polizeigesetz, lässt | |
| aber eine Neuregelung zu. Bis Herbst hat die Landesregierung dafür Zeit. | |
| Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“ | |
| Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz | |
| spricht über Chancen, Risiken und die Bewusstseinsfrage. |