Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Internetnutzung und KI: Antrainierte Vorurteile
> Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung
> Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.
Bild: So etwas kann dabei heraus kommen, wenn man eine KI bittet, das Bild eine…
Dass [1][Menschen mit Behinderung das Internet nutzen], ist keine
Neuigkeit: Schon seit den Neunzigern gibt es assistive Technologien, die
ihnen den Zugang dazu ermöglichen.
Und trotzdem begegnen mir immer wieder technisch versierte Menschen, die
davon zum ersten Mal hören und völlig überrascht sind, dass ich als blinde
Person zum Beispiel in den sozialen Netzwerken aktiv bin. Noch überraschter
sind sie, wenn ich ihnen erzähle, dass ich als Software-Entwicklerin mein
Geld verdiene. Ich muss dann oft erklären, dass ich auf die
Barrierefreiheit von Programmen und Inhalten angewiesen bin und das auch im
Jahr 2024 leider nur selten wirklich reibungslos funktioniert.
„Was kann ich denn da machen, um dir zu helfen?“, werde ich dann gefragt.
„Achte darauf, eine Bildbeschreibung bei deinen Fotos hinzuzufügen, wenn du
sie mir schickst oder online postest“, antworte ich mittlerweile
roboterhaft, denn das, was darauf folgt, ist häufig Unwillen bei den
anderen: „Bildbeschreibung? Ich glaube, ich bin dafür zu faul. Kann das
nicht eine KI machen?“.
In der Tat gibt es mittlerweile Technologien auf der Basis von künstlicher
Intelligenz, die brauchbar gut darin sind, verschiedene Arten von Bildern
automatisch und mit ausreichend hohem Detailgrad beschreiben zu können. Das
sogenannte „Sprachmodell“ ChatGPT der Firma OpenAI nur ist ein Beispiel
dafür. Diese und weitere Technologien haben in den letzten Jahren immer
stärker Einzug in mein Leben gehalten.
## Völlig neuer Zugang
Nicht nur Bildbeschreibungen kann dieses Sprachmodell erstellen, sondern
mir auch bei einer Vielzahl von anderen Aufgaben behilflich sein, zum
Beispiel einfache Online-Recherchen zu Fragestellungen wie „Wie heißt der
Synchronsprecher von Viktor Hargreeves in ‚The Umbrella Academy?‘ “ oder
„Welche Spielerinnen haben gestern die Tore beim FC Bayern München
geschossen?“.
Diese Art der Informationsgewinnung gestaltet sich für mich ohne diese
Technologie oft schwierig und zeitintensiv, da ich dafür Websites besuchen
muss, deren Programmierung so kompliziert ist, dass sie mit meinem
Vorleseprogramm nicht funktionieren. Mit dieser Technologie bekomme ich
also einen völlig neuen, einfacheren Zugang zu Kultur und damit
einhergehend auch mehr gesellschaftliche Teilhabemöglichkeiten.
Auch bei schwierigeren Aufgaben hilft mir das Sprachmodell: Beim
Programmieren kann es mir schwierige Routinen zusammenfassen oder die
passende Stelle im Code für eine Optimierung suchen, was sonst, verglichen
mit meinen sehenden Kolleg*innen, sehr lange dauern würde. Also bekomme ich
auch beruflich immer mehr Möglichkeiten, in extrem spezialisierten Jobs auf
dem ersten Arbeitsmarkt mitzuhalten. Im Hinblick auf die hohe
[2][Arbeitslosigkeit unter Menschen mit Behinderung] sind das doch endlich
einmal gute Nachrichten.
Aufmerksame Leser*innen haben sicher festgestellt, dass das alles
klassische Assistenz-Aufgaben sind, die genau so auch ein anderer Mensch
übernehmen könnte. Der Unterschied ist, dass diese Assistenz nun immer
verfügbar ist und nie müde wird. Die Erleichterung durch die KI hat einen
hohen Preis, den auch die Weiterentwicklung dieser Technologien nicht
senken wird: Die KI ist nicht rechenschaftsfähig. Macht sie Fehler, können
wir sie nicht verklagen. Wir können uns oft nicht mal wirklich für eine
alternative KI entscheiden, da es derzeit nur wenige dieser sogenannten
„Foundation Models“ gibt, die, wie der Name schon sagt, die Grundlage für
viele Anwendungen darstellen.
## Behinderte Menschen werden häufig bemitleidet
Die künstliche Intelligenz macht Fehler, die teilweise so gravierend sind,
dass sie mir einen großen finanziellen oder persönlichen Schaden zufügen
können. Lasse ich mir beispielsweise die Bedienung meiner Waschmaschine von
ChatGPT erklären, indem ich Fotos davon zur Verfügung stelle, dann passiert
es schnell mal, dass ich eine Wäsche viel zu heiß wasche, weil der Chatbot
nicht wirklich denkt, sondern nur eine statistische Wahrscheinlichkeit
dafür abgibt, wie weit ich das Einstellungsrad an meinem Gerät drehen soll.
Die Wäsche läuft dann vielleicht ein, verfärbt sich und ist danach nicht
mehr zu gebrauchen. Ebenfalls finanziell dramatisch könnte es sein, wenn
die KI zum Beispiel bei einer Recherche nach Wechselkursen oder nach
Details zu Versicherungen falsche Informationen ausgibt. Genau wie bei
einem anderen Menschen eben – deswegen muss ich sehr genau aufpassen, denn
als blinde Person bemerke ich mögliche Fehler, die die KI macht, oft gar
nicht oder viel später als Sehende.
Auch auf der persönlichen Ebene muss ich beim Umgang mit der KI besonders
aufpassen, denn sie unterliegt antrainierten Vorurteilen. Diese sind gerade
im Bezug auf behinderte Menschen besonders stark ausgeprägt, denn diese
Gruppe wird in den Medien, von denen die KI lernt, immer noch überwiegend
von Nichtbehinderten repräsentiert. Behinderte Menschen werden häufig
bemitleidet, gerne für alltägliche Dinge, Inspiration Porn wird das auch
genannt, und auch Bevormundung erleben sie.
Das alles widerstrebt mir als emanzipierte junge Frau. Frage ich DALL-E 3 –
das ist ein [3][KI-Bildgenerator] – nach Fotos einer blinden Person,
bewusst ohne weitere Details, dann entscheidet er fast immer, einen gut
gekleideten Mann abzubilden, der eine Sonnenbrille trägt und mit
Blindenstock an Hochhäusern vorbeiläuft. Den Stock hält er dabei immer sehr
unnatürlich – aus Mangel an Daten, und weil behinderte Menschen so wenig
sichtbar in unserem alltäglichen Leben sind, dass die KI gar nicht wissen
kann, wie es richtig wäre. Die Realität ist deutlich vielfältiger, ich
selbst bin das beste Beispiel dafür.
Solche Vorurteile und Diskriminierungen kommen bei jeder Antwort einer KI
zum Tragen – also auch überall da, wo sie Entscheidungen über mich trifft.
Und das wird in der Zukunft immer häufiger passieren. Wie netzpolitik.org
berichtet, gibt es seit Neuestem bei der Job-Beratung in Österreich einen
Chatbot, der zum Beispiel Frauen eher typisch weibliche Berufe empfiehlt,
obwohl das Qualifikationsprofil ganz andere Stärken offenbart. Bei Menschen
mit Behinderung ist es ähnlich.
Und es geht noch weiter:Sprachmodelle werden auch dazu eingesetzt,
Posts in sozialen Netzwerken zu moderieren. So hat beispielsweise eine KI
bei der Videoplattform TikTok die Reichweite von Menschen mit Behinderung
massiv eingeschränkt – angeblich zum Schutz vor Mobbing. Das macht eine
Selbstrepräsentation, die frei von Vorurteilen Nichtbehinderter ist, noch
schwieriger. So entstehen dann auch keine neuen Daten, die die KI weniger
[4][ableistisch] machen könnten.
Außerdem müssen wir dringend darauf achten, dass sich Unternehmen diese
Technologien als Hilfsmittel nicht auf ableistische Weise aneignen und die
Selbstbestimmung dabei auf der Strecke bleibt.
Letztendlich möchte ich die Vielfalt der Welt selbst durch meine eigenen
Eindrücke erfahren. Das funktioniert aber nur, wenn Menschen ihre Bilder
selbst beschreiben und ich weiterhin ohne die Hilfe von KI-Werkzeugen eine
Recherche selbstständig durchführen kann – mit allen Mühen, die damit
verbunden sind. Natürlich möchte ich auch wissen, welche Entscheidungen
über mich aus welchem Grund getroffen werden – das ist aber bei KI
technisch unmöglich. Wir können Inklusion nicht den Maschinen allein
überlassen. Sie haben keine Ahnung, was das ist, wie ein großer Teil
unserer Gesellschaft auch.
27 Jan 2024
## LINKS
[1] /Zukunft-von-KI/!5979683
[2] /Jobsuche-bei-Menschen-mit-Behinderung/!5770173
[3] /Wie-KI-Sexismus-produziert/!5976975
[4] /Diskriminierung-durch-Ableismus/!5973246
## AUTOREN
Casey Kreer
## TAGS
Leben mit Behinderung
Schwerpunkt Künstliche Intelligenz
Internetnutzung
GNS
Digitalisierung
Schlagloch
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Digitalisierung deutscher Kommunen: Von wegen barrierefreier Staat
Menschen mit Beeinträchtigungen haben die Webseiten der etwa 11.000
deutschen Kommunen auf Barrieren geprüft. Schön ist das Ergebnis nicht.
Gesetz für Kinderschutz auf Social Media: Wenn öffentlicher Raum zersplittert
Der „Kids Online Safety Act“ (Kosa) soll Social-Media-Plattformen zu
Maßnahmen zum Schutz Minderjähriger zwingen. Wie effektiv ist das?
Bündnis fordert KI-Regeln: Bundesregierung soll handeln
Das europäische KI-Gesetz kippelt auf den letzten Metern vor der
Verabschiedung. Nun fordert eine breite Allianz die Bundesregierung zum
Handeln auf.
Zukunft von KI: Habt keine Angst
2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der
Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß.
EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter
Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und
der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt.
Chaos bei OpenAI: Künstliche Aufregung
Letzte Woche rausgeworfen, jetzt zurückgeholt: Sam Altman, CEO von OpenAI.
Wer ist der mächtigste Entwickler von künstlicher Intelligenz?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.