# taz.de -- KI-Expertin über Daten und Macht: „Die Branche ist eine Monokult… | |
> Meredith Whittaker ist Expertin für Künstliche Intelligenz und wechselte | |
> von Google zur Signal Foundation. Ein Gespräch über das | |
> Überwachungs-Geschäftsmodell. | |
Bild: Ein von KI erstelltes Katzenbild. Die Software DALL-E erstellt Bilder üb… | |
taz: An einem ganz normalen Tag – wir nutzen beispielsweise den | |
öffentlichen Nahverkehr und gehen in Läden, wir verwenden Apps und | |
vielleicht den Sprachassistenten des Smartphones –, wie häufig kommen wir | |
mit [1][Künstlicher Intelligenz (KI)] in Kontakt? | |
Meredith Whittaker: Das ist sehr, sehr schwierig zu sagen, weil wir es in | |
den allermeisten Fällen gar nicht merken. Es gibt nicht einmal eine | |
Pflicht, gegenüber Nutzer:innen offenzulegen, wenn sie es mit einer KI | |
zu tun haben. Man beantragt also eine Ratenzahlung, meldet einen | |
Versicherungsfall, läuft an einer Überwachungskamera vorbei oder schickt | |
eine Bewerbung – und bekommt überhaupt nicht mit, dass im Hintergrund eine | |
Entscheidung mittels KI getroffen wird. | |
Wie können wir dann wissen, wie groß die Rolle ist, die diese Technologie | |
in unserer Gesellschaft spielt? | |
Genau das ist das Problem: Wir können es nicht mit Sicherheit sagen. Wir | |
können aber auf Basis der Anwendungen, die es schon auf dem Markt gibt, | |
Vermutungen anstellen. Und wir wissen, dass KI in vielerlei Hinsicht die | |
Möglichkeiten, die wir im Leben haben, und unseren Zugriff auf Ressourcen | |
beeinflusst. Zum Beispiel, wenn es darum geht, ob man die Chance auf einen | |
Job hat oder auf einen Kredit, um ein Haus zu bauen oder ein Unternehmen zu | |
starten. | |
Wenn es um KI geht, haben viele Menschen Angst vor Autos, die Amok fahren, | |
oder Robotern, die sich gegen Menschen richten. Sind diese Ängste | |
berechtigt? | |
Ich würde nicht sagen, dass sie komplett falsch sind. Selbstfahrende Autos | |
etwa haben momentan noch eine recht zweifelhafte Erfolgsbilanz. Aber mir | |
machen andere Aspekte größere Sorgen. Vor allem dieser: Es sind nur einige | |
wenige Konzerne, in deren Händen sich KI-Anwendungen befinden. Nur diese | |
wenigen Konzerne haben die finanziellen und personellen Ressourcen, um die | |
großen Modelle zu bauen, die es für KI braucht. Wir haben also eine immense | |
Marktkonzentration. Und das, was sie programmieren, bildet ein | |
Machtzentrum, das sich über unsere sozialen und politischen Institutionen | |
stellt. | |
Wie meinen Sie das? | |
Für die Konzerne dient die KI dazu, das Überwachungs-Geschäftsmodell zu | |
vermarkten. Und so Marktmacht und Profite weiter zu steigern. Man kann auch | |
historisch gut erkennen, dass große Konzerne wie Google oder Facebook genau | |
in dem Moment eingestiegen sind, in dem sie erkannt haben, dass KI eine | |
großartige Möglichkeit ist, ihre Überwachungsdaten zu nutzen und noch | |
profitabler zu vermarkten. Diese Akkumulation von Daten gibt den | |
Unternehmen eine einzigartige Macht, die jenseits dessen ist, was wir | |
bislang von staatlichen Institutionen kannten. | |
Wenn wir über Macht sprechen, sprechen wir auch über Personen, die diese | |
Macht besitzen. Um welche Menschen geht es da? | |
In den USA haben wir in der Tech-Branche lauter weiße Männer, die in | |
Stanford studiert haben. Das spiegelt die Machtdynamiken innerhalb der | |
Gesellschaft wider, inklusive ihrer rassistischen und sexistischen | |
Ausgrenzungen. In dieser Monokultur mit ihrem begrenzten Horizont wird die | |
Diversität der realen Welt übersehen und stattdessen in den technischen | |
Entwicklungen der enge eigene Erfahrungshorizont weiter reproduziert. | |
Eine bekannte Geschichte ist etwa der automatische Seifenspender, aus dem | |
keine Seife kam, wenn eine Person of Color ihre Hand darunterhielt. | |
Und solche Fälle wird es geben, solange Unternehmen dafür keine Strafen | |
bekommen, die sich ernsthaft auf ihre Gewinne auswirken. Wir müssen also | |
aus vielen Gründen auch über die kapitalistischen Strukturen sprechen. Denn | |
wenn ein profitorientiertes Unternehmen ein Vertragsangebot vom US-Militär | |
bekommt und der Geschäftsführer es ablehnt, dann war er die längste Zeit | |
Geschäftsführer. | |
Kann es in diesem Kontext trotzdem KI-Anwendungen geben, die gewinnbringend | |
für eine Gesellschaft sind? | |
Vorstellbar ist das, ja. Die Frage ist: Wenn wir uns so eine Anwendung | |
ausdenken – wird sie gewinnbringend genug sein für ein Geschäftsmodell? Da | |
habe ich meine Zweifel. | |
In Frankreich gibt es eine KI-Anwendung, mit der Steuerbehörden an Hand von | |
Luftbildern illegale private Pools entdecken. In Zeiten von Wasserknappheit | |
spielt das eine Rolle. | |
Hm. Ich weiß nicht. Wäre es nicht besser, das Geld in die | |
Wasseraufbereitung zu stecken? In funktionierende Grauwassersysteme? Ich | |
verstehe den Ansatz. Aber anstelle etwa unsere globale Abhängigkeit von | |
fossilen Energien zu beenden, trainieren wir ein gigantisches Modell, um | |
private Pool-Besitzer:innen zu bestrafen. Klingt für mich eher nach | |
Theater. | |
Wie kommen wir aus der Situation von Überwachung und Machtkonzentration | |
wieder raus? | |
Ich wünschte, ich hätte eine gute Antwort auf diese Frage. Ich habe keine | |
Lösung für eine regulatorische Struktur oder eine technische Idee, wie sich | |
dieser Knoten aus wahnsinnig komplexen Problemen auflösen lässt. Ich denke, | |
dass ein Unternehmen wie Signal und seine Messenger-App existiert, ist | |
schon mal wichtig. Es gibt Menschen die Möglichkeit, außerhalb des | |
Überwachungsapparates zu kommunizieren. Aber es ist natürlich nur ein | |
kleiner Aspekt des ganz großen Bildes. | |
Haben Sie den Eindruck, dass die Politiker:innen das Bild überblicken? | |
Mein Eindruck ist: Es wird besser. Aber IT-Systeme bleiben immer noch so | |
etwas wie eine Fremdsprache für die meisten Menschen und das wird sich auch | |
nicht über Nacht ändern. Bildung ist daher wichtig, dieser Aspekt wird | |
systematisch unterschätzt. | |
Nun sind Sie Präsidentin der Signal Foundation. Was sind Ihre Pläne? | |
Ich glaube, erst einmal werde ich sehr viel zuhören und lernen. Und dann | |
wird mein Schwerpunkt darauf liegen, eine Art Leitstrategie zu erarbeiten: | |
Wohin gehen wir? Wie gehen wir? Wie können wir eine Kommunikations-App | |
etablieren, die ähnlich wie die anderen Messenger-Apps funktioniert, aber | |
nicht am Geschäftsmodell der Überwachung teilnimmt? | |
Es geht also um Geld? | |
Ja, die finanzielle Frage ist eine existenziell wichtige. Seit Kurzem | |
experimentieren wir in der Signal-App mit einem kleinen freiwilligen | |
Spendenmodell. Die Rückmeldungen sind ermutigend und vielleicht ist das ein | |
Weg, den wir weitergehen können. Aber die Frage, wie in diesem Korsett aus | |
Überwachung und Gewinn eine Software gebaut werden kann, die sich diesen | |
Strukturen entzieht, die ist bislang unbeantwortet. | |
Aber es gibt doch auch andere Unternehmen, die Ähnliches machen. | |
Ja? Vielleicht übersehe ich etwas, aber ich sehe keine andere massiv | |
genutzte Software, die die Erwartungen der Nutzer:innen erfüllt und | |
nicht in irgendeiner Form durch ein traditionelles Geschäftsmodell der | |
Technologiebranche finanziert wird. | |
Mozilla mit ihrem Browser Firefox? | |
Die sind stark gefördert durch Google. Und so etwas wollen wir nicht. | |
Es gibt Menschen, die argumentieren, man dürfe die Verantwortung nicht auf | |
die Nutzer:innen verlagern, sondern brauche eine politische Lösung des | |
Problems. Wie sehen Sie das? | |
Ich finde es wichtig, dass Nutzer:innen eine Wahl haben. Denn wie wollen | |
wir ein Unternehmen wie Facebook in seiner jetzigen Form ernsthaft | |
regulieren? Nehmen wir ihnen die Daten weg, bricht das Geschäftsmodell | |
zusammen. Wie ein Facebook ohne Überwachung funktionieren kann, hat noch | |
niemand beantwortet. | |
In der EU müssen große Messenger wie Whatsapp in Zukunft Schnittstellen für | |
kleine Messenger-Dienste anbieten – damit Nutzer:innen verschiedener | |
Apps untereinander Nachrichten austauschen können. Ist das ein Fortschritt? | |
Grundsätzlich finde ich Interoperabilität gut. Was aber nicht geht: dass | |
Signal seine Standards senkt, um mit [2][Messengern wie Whatsapp, die | |
niedrigere Standards haben], kompatibel zu sein. Whatsapp nutzt zwar die | |
gleiche inhaltliche Verschlüsselung wie Signal. Aber Whatsapp sammelt | |
beispielsweise Metadaten. Also wer mit wem wann kommuniziert hat, wer mit | |
wem in welchen Gruppen ist, Profilbilder und noch einiges mehr. Das macht | |
Signal nicht. Und wollen wir Whatsapp die Metadaten der Signal-Nutzer:innen | |
geben? Whatsapp, das zu [3][Facebook] gehört? Auf gar keinen Fall. | |
12 Sep 2022 | |
## LINKS | |
[1] /Debatte-Kuenstliche-Intelligenz/!5493197 | |
[2] /Jurist-ueber-WhatsApp-Ueberwachung/!5841468 | |
[3] /Social-Media-Posts-zu-Abtreibungspillen/!5864490 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Überwachung | |
Privatsphäre | |
Schwerpunkt Facebook | |
GNS | |
Soziale Netzwerke | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Roboter | |
Technik | |
Wissenschaft | |
## ARTIKEL ZUM THEMA | |
Selbstfahrende Taxis in San Francisco: Grünes Licht für Robotaxis | |
Trotz aller Bedenken dürfen Firmen mit selbstfahrenden Autos in San | |
Francisco nun Geld verdienen. Manche finden's gruselig, andere wittern das | |
große Geschäft. | |
Milliardenstrafe bleibt: Google scheitert vor EU-Gericht | |
Nach Bloatware-Skandal: Nur ganz leicht haben Richter:innen das Bußgeld | |
gesenkt, das die EU-Kommission an Google verhängt hatte. | |
Philosophin über Robotherethik: „Technik ist nicht neutral“ | |
Wie und warum wir Roboter bauen und was wir sie tun lassen, ist immer auch | |
eine moralische Frage: Janina Loh spricht in Hamburg über Roboterethik. | |
Essay über Dämonisierung von Technik: Was mit dem Teufel zugeht | |
Die Angst, dass die Technik uns dazu verführt, von Gott abzufallen, ist | |
sehr alt. Wirkt sie auch noch heute, etwa beim Thema Künstliche | |
Intelligenz? | |
Mit KI gegen Wolfsrisse: Rotkäppchens Roboter | |
Trotz vorhandener Elektrozäune reißen Wölfe oft Schafe. Forscher*innen | |
der Uni Bremen wollen die Gatter mit Künstlicher Intelligenz verbessern. |