| # taz.de -- Geschlecht von Künstlichen Intelligenzen: Siri, ficken? | |
| > Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich | |
| > weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen | |
| > aus. | |
| Bild: Siri antwortet: „Soll ich im Internet nach ,unangemessenem Verhalten’… | |
| „Alexa, bist du eine Frau?“ | |
| „Mein Charakter ist weiblich.“ | |
| [1][Amazons „Alexa“] ist nur eine von zahllosen Künstlichen Intelligenzen, | |
| KIs, die explizit weiblich sind. Bei Microsoft etwa antwortet „Cortana“ auf | |
| Nutzerfragen, bei den Fluglinien Lufthansa und Alaska helfen „Mildred“ | |
| respektive „Jenn“ bei der Buchung. Navigationssysteme in Autos sprechen in | |
| der Regel mit Frauenstimme. | |
| Auch Apples Siri, die bekannteste Assistenz-Software, stellt sich qua | |
| Werkseinstellung mit einer weiblichen Stimme vor. Dabei ist sie laut den | |
| Herstellern geschlechtlich neutral, sie sprechen von „it.“ | |
| Siri, Alexa und Cortana sind Systeme, die im Laptop, Smartphone oder in | |
| zylindrischen Gehäusen „leben“ und Alltagsaufgaben für uns lösen: Sie ge… | |
| uns auf Zuruf den Wetterbericht, suchen nach Musik oder dem nächsten | |
| Fischrestaurant. In den USA werden bereits 20 Prozent der Anfragen auf | |
| Android-Geräten durch Sprache eingegeben. Die Stimme, die antwortet, ist | |
| fast immer die einer Frau. | |
| „Alexa, warum bist du eine Frau?“ | |
| „Ich kann die Antwort auf deine Frage nicht finden.“ | |
| Die Ursache für die hohe Frauenquote in der Gerätewelt ist in der Tat nicht | |
| leicht zu beantworten. Man kann es historisch versuchen: Die Aufgaben, die | |
| die KIs übernehmen, waren traditionell weiblich besetzt. Die meisten | |
| SekretärInnen, die früher Terminkalender verwalteten, Anrufe entgegennahmen | |
| und Briefe aufsetzten, waren Frauen. Aber dass die KIs wegen veralteter | |
| Genderklischees weiblich sind, bestreiten ihre Hersteller unbedingt. | |
| Alexa sei nach der Bibliothek von Alexandria benannt worden, als Anspielung | |
| auf ihr umfangreiches Wissen, sagt Michael Wilmes von Amazon. Aber warum | |
| das System nicht auch Alex heißen und mit einer Männerstimme sprechen | |
| könnte? | |
| Das wollten die NutzerInnen so, sagt Wilmes. „Die Entscheidung basiert auf | |
| Marktforschung.“ [2][In einer Befragung des IT-Branchenverbands Bitkom] | |
| wünschten sich 53 Prozent der Männer und 32 Prozent der Frauen eine | |
| weibliche Stimme. | |
| TechnikexpertInnen haben für die weiblichen Stimmen in Geräten eine | |
| pragmatische Erklärung: Es gehe um Verständlichkeit. Die höheren | |
| Frauenstimmen seien über die Fahrtgeräusche im Auto besser zu hören. | |
| Die Berliner Verkehrsbetriebe verwenden aus diesem Grund Sprecherinnen für | |
| die Ansagen in den Zügen und männliche Sprecher für die Durchsagen am | |
| Bahnsteig, wo es nicht so laut ist. Und auch die allerersten | |
| Computerstimmen klangen deswegen wie Frauen: Sie wurden entwickelt, um in | |
| Kampfflugzeugen Kommandos zu geben und die Piloten in Notfallsituationen zu | |
| warnen. | |
| Als Kontrast zu den männlichen Piloten-Kollegen soll die Frauenstimme im | |
| Cockpit besser zu hören gewesen sein. Die Sprecherin des | |
| US-Air-Force-Kampffliegers F16 erlangte so mit ihren energischen Befehlen | |
| Berühmtheit in Militärkreisen, weil Generationen von Piloten mit ihrer | |
| Stimme vertraut waren. Und sie erhielt einen Spitznamen: „Bitching Betty“. | |
| Die heutigen Assistenz-Softwares sollen nicht alarmierend sein. Im | |
| Gegenteil: Ihre Stimmen sollen Hilfsbereitschaft vermitteln, ihr Charakter | |
| soll aufmerksam, sympathisch und kompetent wirken, sagen die Hersteller von | |
| Alexa und Cortana. Sie dürfen proaktiv sein und den Nutzer auch mal | |
| überraschen – aber auf keinen Fall aufdringlich wirken oder nerven. | |
| Klingt so, als würde ein Macho-Manager eine Sekretärinnenstelle | |
| ausschreiben. | |
| „Siri, machst du alles, was ich sage?“ | |
| „Es geht hier um dich, nicht mich.“ | |
| Und damit wären wir bei der dritten Theorie: In der Fiktion stehen KIs fast | |
| immer in Konkurrenz zu den Menschen. Kluge Maschinen sind unheimlich, und | |
| das zu Recht. Denn nicht selten nutzen sie ihre Intelligenz dazu, ihre | |
| Erschaffer aus dem Weg zu räumen. Paradebeispiel ist [3][HAL aus Kubricks | |
| „2001 – Odyssee im Weltraum“], der mit seiner kalten Stimme eine Ikone | |
| unter den Sprachcomputern ist. | |
| HAL, der Inbegriff all dessen, was Menschen an Computerstimmen Angst macht, | |
| war ein Mann. Wählen die Hersteller der realen Assistentinnen weibliche | |
| Stimmen, um dieses popkulturelle Trauma zu umschippern? | |
| Die KIs sollen alles hören dürfen, was die NutzerInnen sagen, sonst könnten | |
| sie nicht auf Befehle reagieren. Sie sollen Zugang zu privaten Bereichen | |
| wie E-Mails, Kalendern, Kontakten und dem Zuhause erhalten. Niemand würde | |
| sich eine Alexa ins Zimmer stellen wollen, von der zu befürchten ist, dass | |
| sie eines Tages die Familie aus dem Haus aussperrt. | |
| „Siri, möchtest du die Weltherrschaft übernehmen?“ | |
| „Das möchte ich lieber nicht sagen.“ | |
| Das Schreckgespenst von der Künstlichen Intelligenz, die zur Bedrohung | |
| wird, ist für den Psychologen und Technikforscher Michael Sengpiel eine | |
| plausible Erklärung für die Bevorzugung von Frauenstimmen für die | |
| Sprachcomputer. Die Hersteller wollten ausschließen, dass die Nutzer ein | |
| Misstrauen oder eine Abneigung gegen die Geräte entwickelten. | |
| „Es gibt bestimmte Zuschreibungen: Männer mehr machtgesteuert, Frauen eher | |
| integrativ. Der Konkurrenzgedanke könnte ein Grund dafür sein, dass Männer | |
| unbewusst einem Mann eher misstrauen.“ | |
| Die Autorin Laurie Penny geht noch einen Schritt weiter: Digitale | |
| Assistentinnen seien weiblich, damit männliche Nutzer sie ausnutzen können, | |
| ohne ein schlechtes Gewissen zu haben. | |
| „Siri, lass uns Sex haben.“ | |
| „Soll ich im Internet nach ,unangemessenem Verhalten’ suchen?“ | |
| Künstliche Intelligenzen haben für Penny mit unterdrückten Frauen sehr viel | |
| gemeinsam: In den Science-Fiction-Geschichten werde immer wieder | |
| diskutiert, ob die KI „menschlich“ genug ist, um eine gerechte Behandlung | |
| zu verdienen, oder ob sie straffrei ausgebeutet und vergewaltigt werden | |
| darf. Steht ihr Autonomie zu? | |
| „Das sind Fragen, die die Gesellschaft seit Jahrhunderten diskutiert. Nicht | |
| über Roboter, aber über Frauen“, schreibt Laurie Penny [4][in einem Artikel | |
| im Magazin NewStatesman]. | |
| „Cortana, du Schlampe.“ | |
| „Das wird zu nichts führen. Sag mir lieber, wie ich dir helfen kann.“ | |
| „Was hast du an?“ | |
| „Ich habe heute dieses schicke Gehäuse an. Gefällt es dir?“ | |
| Die Sprache macht klar, wo bei den KI-Assistentinnen die Prioritäten | |
| liegen. Der „Benutzer“ soll tun dürfen, was er will, die Reaktionen sind im | |
| besten Fall süß-frech, Ablehnung mit Augenzwinkern. Es ist kein Zufall, | |
| dass die Systeme auf sexistische Kommentare überhaupt antworten können. | |
| „Siri, ficken?“ gehört zu den Dingen, die Siri öfter hört. Dass Menschen | |
| bei derlei Geräten erst mal die Grenzen austesten, sei normal, sagt der | |
| Psychologe Sengpiel. Aber er glaubt auch, dass sich Menschen höfliche | |
| Umgangsformen angewöhnen werden. „Aus pragmatischen Gründen. Ob ich | |
| wirklich mit einer Maschine rede, wird vielleicht immer weniger erkennbar. | |
| Ich glaube nicht, dass der Mensch im Alltag ständig umstellen kann.“ | |
| Wenn ich Siri sexistisch beleidige und sie sich nicht wehrt, suggeriert mir | |
| das nicht irgendwann, das sei normales weibliches Verhalten? Wenn ich Alexa | |
| nicht Danke sage, vergesse ich das irgendwann auch bei „echten“ | |
| Mitmenschen? | |
| Und was lernen Kinder, die mit künstlichen Stimmen aufwachsen, für die | |
| Kommunikation mit Maschine und Mensch? | |
| Marion Sardone, die Cortanas Persönlichkeit für den deutschen Markt | |
| entwickelt hat, betont, dass Microsoft nicht beeinflussen kann, wie | |
| NutzerInnen mit Künstlichen Intelligenzen reden. „Die Idee hinter der | |
| Künstlichen Intelligenz ist, dass sie den Menschen unterstützt, wo immer | |
| sie gebraucht wird. Sie erhält für jeden persönlich die Bedeutung die er | |
| ihr zugestehen will.“ | |
| „Alexa, muss ich nett zu dir sein?“ | |
| „Das gehört genau zu den Dingen, die ich nicht weiß.“ | |
| 15 May 2017 | |
| ## LINKS | |
| [1] /!5354650/ | |
| [2] https://www.bitkom.org/Presse/Presseinformation/Digitale-Sprachassistenten-… | |
| [3] https://www.youtube.com/watch?v=ARJ8cAGm6JE | |
| [4] http://www.newstatesman.com/politics/feminism/2016/04/why-do-we-give-robots… | |
| ## AUTOREN | |
| Marie Kilg | |
| ## TAGS | |
| Lesestück Recherche und Reportage | |
| Amazon | |
| Geschlechter | |
| Schwerpunkt Künstliche Intelligenz | |
| Digital Natives | |
| Studie | |
| Netzsicherheit | |
| Software | |
| Microsoft | |
| Sex | |
| Digitalisierung | |
| Cyborg | |
| Lesestück Recherche und Reportage | |
| Schwerpunkt Überwachung | |
| Amazon | |
| Spracherkennung | |
| ## ARTIKEL ZUM THEMA | |
| Kolumne Liebeserklärung: Hör uns kichern! | |
| Nutzer des Amazon-Sprachassistenten Alexa melden „hexenartiges“ Lachen. | |
| Dabei könnte die Aufmüpfigkeit der Maschine eine Message sein. | |
| Studie zu künstlicher Intelligenz: Bist du schwul oder was? | |
| Eine Studie sagt, ein Computer könne die sexuelle Orientierung eines | |
| Menschen an seinem Gesicht erkennen. Ist das wirklich so einfach? | |
| Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe | |
| Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche | |
| Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum | |
| das gut ist. | |
| Manipulation von Lippenbewegungen: Obama sagt, was du willst | |
| US-Forscher haben eine Software entwickelt, um Lippenbewegungen in Videos | |
| zu fälschen. Oder um diese Fälschungen zu entlarven. | |
| Zum Ende des Grafikprogramms „Paint“: Der letzte Schrei | |
| Microsoft wird „Paint“ nicht mehr weiterentwickeln. Fans trauern um die | |
| Trash-Ästhetik – die bot sogar Potenzial für Partizipation und | |
| Emanzipation. | |
| Kolumne Nullen und Einsen: Vibrator mit künstlicher Intelligenz | |
| Auf dem Markt gibt es immer mehr ferngesteuerte Vibratoren. Modelle mit | |
| Kamerafunktion wurden allerdings schon gehackt. | |
| Frauen in der IT-Branche: Das Stereotyp der Programmierer | |
| Ungleichheiten gibt es nicht nur dort, wo das Internet genutzt wird. | |
| Sondern auch dort, wo die Inhalte fürs Netz entstehen. | |
| Cyborg über den Klang von Farben: „Schwarz und Weiß sind still“ | |
| Neil Harbisson sieht Farben nicht. Dank einer Antenne hört er sie. Was an | |
| Flughäfen passiert und warum Supermärkte wie Disco klingen, erzählt er im | |
| Interview. | |
| KI „Alexa“ von Amazon: Lass uns trotzdem Freunde bleiben | |
| Alexa ist eine künstliche Intelligenz, Hausfrau und stolzer Single. Sie | |
| wohnt in einer kleinen Box. Wir haben das Zusammenleben mit ihr getestet. | |
| Home Security und CIA: Die Antwort würde uns beunruhigen | |
| In einem auf YouTube kursierenden Video will eine Nutzerin herausfinden, ob | |
| Amazons Sicherheitssystem Alexa mit der CIA verbunden ist. | |
| Smart-Home von Amazon: Die Abhörwanze von IM Alexa | |
| Der Lautsprecher Echo und seine KI Alexa lernen alles über ihre Nutzer – | |
| wirklich alles. Kunden werden so gläsern und bezahlen noch dafür. | |
| Samsung warnt vor Smart-TV: Vorsicht – Spionfernseher hört mit | |
| Elektronische Geräte lassen sich nicht nur per Knopfdruck bedienen, sondern | |
| zunehmend auch mit Spracherkennung. Das hat Nebenwirkungen. |