Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- KI-Expertin über Daten und Macht: „Die Branche ist eine Monokult…
> Meredith Whittaker ist Expertin für Künstliche Intelligenz und wechselte
> von Google zur Signal Foundation. Ein Gespräch über das
> Überwachungs-Geschäftsmodell.
Bild: Ein von KI erstelltes Katzenbild. Die Software DALL-E erstellt Bilder üb…
taz: An einem ganz normalen Tag – wir nutzen beispielsweise den
öffentlichen Nahverkehr und gehen in Läden, wir verwenden Apps und
vielleicht den Sprachassistenten des Smartphones –, wie häufig kommen wir
mit [1][Künstlicher Intelligenz (KI)] in Kontakt?
Meredith Whittaker: Das ist sehr, sehr schwierig zu sagen, weil wir es in
den allermeisten Fällen gar nicht merken. Es gibt nicht einmal eine
Pflicht, gegenüber Nutzer:innen offenzulegen, wenn sie es mit einer KI
zu tun haben. Man beantragt also eine Ratenzahlung, meldet einen
Versicherungsfall, läuft an einer Überwachungskamera vorbei oder schickt
eine Bewerbung – und bekommt überhaupt nicht mit, dass im Hintergrund eine
Entscheidung mittels KI getroffen wird.
Wie können wir dann wissen, wie groß die Rolle ist, die diese Technologie
in unserer Gesellschaft spielt?
Genau das ist das Problem: Wir können es nicht mit Sicherheit sagen. Wir
können aber auf Basis der Anwendungen, die es schon auf dem Markt gibt,
Vermutungen anstellen. Und wir wissen, dass KI in vielerlei Hinsicht die
Möglichkeiten, die wir im Leben haben, und unseren Zugriff auf Ressourcen
beeinflusst. Zum Beispiel, wenn es darum geht, ob man die Chance auf einen
Job hat oder auf einen Kredit, um ein Haus zu bauen oder ein Unternehmen zu
starten.
Wenn es um KI geht, haben viele Menschen Angst vor Autos, die Amok fahren,
oder Robotern, die sich gegen Menschen richten. Sind diese Ängste
berechtigt?
Ich würde nicht sagen, dass sie komplett falsch sind. Selbstfahrende Autos
etwa haben momentan noch eine recht zweifelhafte Erfolgsbilanz. Aber mir
machen andere Aspekte größere Sorgen. Vor allem dieser: Es sind nur einige
wenige Konzerne, in deren Händen sich KI-Anwendungen befinden. Nur diese
wenigen Konzerne haben die finanziellen und personellen Ressourcen, um die
großen Modelle zu bauen, die es für KI braucht. Wir haben also eine immense
Marktkonzentration. Und das, was sie programmieren, bildet ein
Machtzentrum, das sich über unsere sozialen und politischen Institutionen
stellt.
Wie meinen Sie das?
Für die Konzerne dient die KI dazu, das Überwachungs-Geschäftsmodell zu
vermarkten. Und so Marktmacht und Profite weiter zu steigern. Man kann auch
historisch gut erkennen, dass große Konzerne wie Google oder Facebook genau
in dem Moment eingestiegen sind, in dem sie erkannt haben, dass KI eine
großartige Möglichkeit ist, ihre Überwachungsdaten zu nutzen und noch
profitabler zu vermarkten. Diese Akkumulation von Daten gibt den
Unternehmen eine einzigartige Macht, die jenseits dessen ist, was wir
bislang von staatlichen Institutionen kannten.
Wenn wir über Macht sprechen, sprechen wir auch über Personen, die diese
Macht besitzen. Um welche Menschen geht es da?
In den USA haben wir in der Tech-Branche lauter weiße Männer, die in
Stanford studiert haben. Das spiegelt die Machtdynamiken innerhalb der
Gesellschaft wider, inklusive ihrer rassistischen und sexistischen
Ausgrenzungen. In dieser Monokultur mit ihrem begrenzten Horizont wird die
Diversität der realen Welt übersehen und stattdessen in den technischen
Entwicklungen der enge eigene Erfahrungshorizont weiter reproduziert.
Eine bekannte Geschichte ist etwa der automatische Seifenspender, aus dem
keine Seife kam, wenn eine Person of Color ihre Hand darunterhielt.
Und solche Fälle wird es geben, solange Unternehmen dafür keine Strafen
bekommen, die sich ernsthaft auf ihre Gewinne auswirken. Wir müssen also
aus vielen Gründen auch über die kapitalistischen Strukturen sprechen. Denn
wenn ein profitorientiertes Unternehmen ein Vertragsangebot vom US-Militär
bekommt und der Geschäftsführer es ablehnt, dann war er die längste Zeit
Geschäftsführer.
Kann es in diesem Kontext trotzdem KI-Anwendungen geben, die gewinnbringend
für eine Gesellschaft sind?
Vorstellbar ist das, ja. Die Frage ist: Wenn wir uns so eine Anwendung
ausdenken – wird sie gewinnbringend genug sein für ein Geschäftsmodell? Da
habe ich meine Zweifel.
In Frankreich gibt es eine KI-Anwendung, mit der Steuerbehörden an Hand von
Luftbildern illegale private Pools entdecken. In Zeiten von Wasserknappheit
spielt das eine Rolle.
Hm. Ich weiß nicht. Wäre es nicht besser, das Geld in die
Wasseraufbereitung zu stecken? In funktionierende Grauwassersysteme? Ich
verstehe den Ansatz. Aber anstelle etwa unsere globale Abhängigkeit von
fossilen Energien zu beenden, trainieren wir ein gigantisches Modell, um
private Pool-Besitzer:innen zu bestrafen. Klingt für mich eher nach
Theater.
Wie kommen wir aus der Situation von Überwachung und Machtkonzentration
wieder raus?
Ich wünschte, ich hätte eine gute Antwort auf diese Frage. Ich habe keine
Lösung für eine regulatorische Struktur oder eine technische Idee, wie sich
dieser Knoten aus wahnsinnig komplexen Problemen auflösen lässt. Ich denke,
dass ein Unternehmen wie Signal und seine Messenger-App existiert, ist
schon mal wichtig. Es gibt Menschen die Möglichkeit, außerhalb des
Überwachungsapparates zu kommunizieren. Aber es ist natürlich nur ein
kleiner Aspekt des ganz großen Bildes.
Haben Sie den Eindruck, dass die Politiker:innen das Bild überblicken?
Mein Eindruck ist: Es wird besser. Aber IT-Systeme bleiben immer noch so
etwas wie eine Fremdsprache für die meisten Menschen und das wird sich auch
nicht über Nacht ändern. Bildung ist daher wichtig, dieser Aspekt wird
systematisch unterschätzt.
Nun sind Sie Präsidentin der Signal Foundation. Was sind Ihre Pläne?
Ich glaube, erst einmal werde ich sehr viel zuhören und lernen. Und dann
wird mein Schwerpunkt darauf liegen, eine Art Leitstrategie zu erarbeiten:
Wohin gehen wir? Wie gehen wir? Wie können wir eine Kommunikations-App
etablieren, die ähnlich wie die anderen Messenger-Apps funktioniert, aber
nicht am Geschäftsmodell der Überwachung teilnimmt?
Es geht also um Geld?
Ja, die finanzielle Frage ist eine existenziell wichtige. Seit Kurzem
experimentieren wir in der Signal-App mit einem kleinen freiwilligen
Spendenmodell. Die Rückmeldungen sind ermutigend und vielleicht ist das ein
Weg, den wir weitergehen können. Aber die Frage, wie in diesem Korsett aus
Überwachung und Gewinn eine Software gebaut werden kann, die sich diesen
Strukturen entzieht, die ist bislang unbeantwortet.
Aber es gibt doch auch andere Unternehmen, die Ähnliches machen.
Ja? Vielleicht übersehe ich etwas, aber ich sehe keine andere massiv
genutzte Software, die die Erwartungen der Nutzer:innen erfüllt und
nicht in irgendeiner Form durch ein traditionelles Geschäftsmodell der
Technologiebranche finanziert wird.
Mozilla mit ihrem Browser Firefox?
Die sind stark gefördert durch Google. Und so etwas wollen wir nicht.
Es gibt Menschen, die argumentieren, man dürfe die Verantwortung nicht auf
die Nutzer:innen verlagern, sondern brauche eine politische Lösung des
Problems. Wie sehen Sie das?
Ich finde es wichtig, dass Nutzer:innen eine Wahl haben. Denn wie wollen
wir ein Unternehmen wie Facebook in seiner jetzigen Form ernsthaft
regulieren? Nehmen wir ihnen die Daten weg, bricht das Geschäftsmodell
zusammen. Wie ein Facebook ohne Überwachung funktionieren kann, hat noch
niemand beantwortet.
In der EU müssen große Messenger wie Whatsapp in Zukunft Schnittstellen für
kleine Messenger-Dienste anbieten – damit Nutzer:innen verschiedener
Apps untereinander Nachrichten austauschen können. Ist das ein Fortschritt?
Grundsätzlich finde ich Interoperabilität gut. Was aber nicht geht: dass
Signal seine Standards senkt, um mit [2][Messengern wie Whatsapp, die
niedrigere Standards haben], kompatibel zu sein. Whatsapp nutzt zwar die
gleiche inhaltliche Verschlüsselung wie Signal. Aber Whatsapp sammelt
beispielsweise Metadaten. Also wer mit wem wann kommuniziert hat, wer mit
wem in welchen Gruppen ist, Profilbilder und noch einiges mehr. Das macht
Signal nicht. Und wollen wir Whatsapp die Metadaten der Signal-Nutzer:innen
geben? Whatsapp, das zu [3][Facebook] gehört? Auf gar keinen Fall.
12 Sep 2022
## LINKS
[1] /Debatte-Kuenstliche-Intelligenz/!5493197
[2] /Jurist-ueber-WhatsApp-Ueberwachung/!5841468
[3] /Social-Media-Posts-zu-Abtreibungspillen/!5864490
## AUTOREN
Svenja Bergt
## TAGS
Google
Schwerpunkt Überwachung
Privatsphäre
Schwerpunkt Meta
GNS
Soziale Netzwerke
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Google
Roboter
Podcast „Vorgelesen“
Wissenschaft
## ARTIKEL ZUM THEMA
Mozilla-Chef Mark Surman über KI: „Wir wissen nicht, was kaputtgeht“
In Kürze treten die neuen EU-Regeln zu KI in Kraft. Mark Surman, Präsident
der Mozilla-Stiftung, über einflussreiche Tech-Konzerne und lustige Hüte.
Selbstfahrende Taxis in San Francisco: Grünes Licht für Robotaxis
Trotz aller Bedenken dürfen Firmen mit selbstfahrenden Autos in San
Francisco nun Geld verdienen. Manche finden's gruselig, andere wittern das
große Geschäft.
Milliardenstrafe bleibt: Google scheitert vor EU-Gericht
Nach Bloatware-Skandal: Nur ganz leicht haben Richter:innen das Bußgeld
gesenkt, das die EU-Kommission an Google verhängt hatte.
Philosophin über Robotherethik: „Technik ist nicht neutral“
Wie und warum wir Roboter bauen und was wir sie tun lassen, ist immer auch
eine moralische Frage: Janina Loh spricht in Hamburg über Roboterethik.
Essay über Dämonisierung von Technik: Was mit dem Teufel zugeht
Die Angst, dass die Technik uns dazu verführt, von Gott abzufallen, ist
sehr alt. Wirkt sie auch noch heute, etwa beim Thema Künstliche
Intelligenz?
Mit KI gegen Wolfsrisse: Rotkäppchens Roboter
Trotz vorhandener Elektrozäune reißen Wölfe oft Schafe. Forscher*innen
der Uni Bremen wollen die Gatter mit Künstlicher Intelligenz verbessern.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.