Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Mozilla-Chef Mark Surman über KI: „Wir wissen nicht, was kaputtg…
> In Kürze treten die neuen EU-Regeln zu KI in Kraft. Mark Surman,
> Präsident der Mozilla-Stiftung, über einflussreiche Tech-Konzerne und
> lustige Hüte.
Bild: „Die Technologie so nutzen, dass sie gut für uns ist“
taz: Herr Surman, welches KI-Werkzeug haben Sie als letztes verwendet?
Mark Surman: (denkt nach)
taz: Nutzen Sie KI so wenig?
Surman: Nein, im Gegenteil, ständig. Und ich hätte jetzt gerne eine
amüsante Geschichte erzählt, die etwas über den Stand der Technik und
unseren Umgang damit aussagt. Etwa als ich versucht habe, mit ChatGPT ein
Foto von mir zu generieren mit einem lustigen Hut. Die 4oer-Version kann ja
eigentlich Bilder erzeugen. Aber es war komplett hoffnungslos. Ja, die Hüte
waren lustig, aber die Person auf den ersten Bildern sah mir nicht im
entferntesten ähnlich, vielleicht abgesehen von dem Bart. Also habe ich ein
Bild von mir hochgeladen – und die KI hat einfach einen roten Kreis auf
meinen Kopf gesetzt. Nun ja, die Wahrheit ist: Das KI-Tool, das ich als
letztes, also wahrscheinlich vor etwa 15 Minuten genutzt habe, war Siri.
Das nutze ich ständig.
taz: Siri ist das KI-Assistenzwerkzeug von Apple. Würden Sie Siri als
vertrauenswürdige KI bezeichnen?
Surman: Für die Zwecke, für die ich Siri verwende – um kurze Sprachnotizen
aufzunehmen zum Beispiel –, ist es ausreichend vertrauenswürdig. Ich will
keine Apple-Werbung machen, aber immerhin bekommt Apple es hin, dass nicht
alle Daten ständig in die Cloud geschickt werden. Privatsphäre hat bei
Apple schon einen Wert, und das ist etwas, das wir bei Mozilla mit Apple
teilen.
taz: Ist Vertrauen ein Thema bei der Nutzung von [1][KI]?
Surman: Ja, absolut. Zum Thema Vertrauen gehören zwei wichtige Punkte:
Wirkung und Verantwortung. Man kann sich also verschiedene Fragen stellen:
Macht die KI, was ich will? Kann ich sie an die eigenen Bedürfnisse
anpassen? Ist ihre Funktionsweise transparent? Und wenn etwas schiefgeht:
Ist klar, wer haftet? Wendet man diese Definition auf Siri an, kommt man zu
dem Ergebnis, dass Siri eigentlich wenig vertrauenswürdig ist. Man kann da
nichts anpassen, und das System ist eine ziemliche Blackbox. Wie sie
funktioniert – keine Ahnung. Andererseits ist ihr Einsatz nicht besonders
risikobehaftet. Wenn also etwas schiefgeht, ist es extrem unwahrscheinlich,
dass jemand zu Schaden kommt. Anders sieht das bei dem Einsatz von KI in
der Gesundheitsbranche oder bei Versicherungen aus.
taz: Von Siri bis ChatGPT – die meisten der bekannten KI-Tools sind in der
Hand großer Techkonzerne. Vergrößert die junge Technologie die Macht von
[2][Big Tech]?
Surman: Danach sieht es leider derzeit aus. Die größten sechs Konzerne –
Apple, Google, Meta, Amazon, Microsoft und der Chiphersteller Nvidia –
kontrollieren den überwiegenden Teil des Markts. Das ist etwas, das mich
sehr beunruhigt.
taz: Dabei wäre eine neue Technologie ja eigentlich eine Chance, bestehende
Marktstrukturen aufzubrechen. Warum passiert das nicht?
Surman: Ich weiß nicht, ob es diese theoretische Chance wirklich gibt oder
ob die Macht von Big Tech dafür nicht schon viel zu groß ist. Der Markt
wird sich hier nicht mehr selbst regeln. Das muss die Politik machen mit
Gesetzen, die für Wettbewerb sorgen, aber auch dafür, dass ein Gegengewicht
zu den gewinnorientierten KI-Entwicklungen der großen Konzerne entsteht.
taz: Was meinen Sie damit?
Surman: Zwei Beispiele: In gut funktionierenden Demokratien gibt es
üblicherweise öffentliche oder nicht kommerzielle Medien. Das ist das
Gegengewicht zu den kommerziellen Anbietern. Und erinnert sich noch jemand
daran, dass es vor Wikipedia ein kommerzielles Onlinenachschlagwerk von
Microsoft gab? Hier zeigt sich also: Die nicht kommerzielle Entwicklung
kann sogar erfolgreicher sein.
taz: Und wie soll dieses Gegengewicht bei KI entstehen?
Surman: Ich glaube, die Basis ist schon da. Es gibt bereits ganz viel nicht
kommerzielle Forschung rund um KI, zum Beispiel an Universitäten, aber auch
an unabhängigen Institutionen. Und der nächste Schritt ist, dass wir ein
ganzes Ökosystem von Open-Source-KI brauchen: von der Datenbasis über die
Modelle bis zu der Software, die am Ende rauskommt. Und Open Source meint
tatsächlich offen in all seinen Facetten: Es muss transparent sein, man
muss es ändern, anpassen und kostenlos nutzen können. Und, ebenso wichtig:
Es muss gemeinwohlorientiert sein.
taz: Und wenn wir von den Funktionen her denken?
Surman: Ich glaube, das Wichtigste ist, dass die KI-Modelle Open Source
sind.
taz: Ein Modell ist quasi der Algorithmus, der beispielsweise dafür sorgt,
dass auf Basis einer Texteingabe ein Bild generiert wird.
Surman: Ist ein Modell Open Source, lässt es sich verändern, anpassen oder
auf Basis anderer Daten trainieren – wenn zum Beispiel die ursprünglichen
Trainingsdaten dazu geführt haben, dass das Modell rassistische Stereotype
reproduziert. Viele Regierungsvertreter sprechen derzeit, und das ist auch
wichtig angesichts der Weltlage, über digitale Souveränität. Und mit
Open-Source-KI ist das machbar: Sie ist transparent, man kann sie mit der
eigenen Sprache oder Informationen über das eigene politische System
trainieren.
taz: Wo soll das Geld herkommen?
Surman: Ich glaube nicht, dass wir ein Finanzierungsproblem haben. Fast
alle Regierungen stecken jetzt schon Milliarden in IT-Projekte und
-Forschung. Klar, mit mehr Geld ließe sich immer noch mehr machen. Aber
wichtiger ist, dass das Geld, was jetzt schon fließt, dort ankommt, wo es
dieses Gegengewicht stützen kann.
taz: Das große [3][Gesetzeswerk der EU zu KI] tritt Anfang August in Kraft.
Während der Gesetzgebung wurde debattiert, ob Open-Source-KI weniger streng
reguliert werden sollte. In der Community sorgt man sich, dass strenge
Auflagen sie unmöglich machen würden. Zugleich könnten Ausnahmen auch von
den großen Techkonzernen ausgenutzt werden. Was meinen Sie?
Surman: Es gibt da keine perfekte Lösung. Aber am Ende des Tages ist es
doch so, dass jedes KI-System, egal ob Open Source oder nicht, für extrem
risikoreiche Anwendungen genutzt und missbraucht werden kann. Ich finde
daher den Weg, den die EU gegangen ist, sehr nachvollziehbar: Das Gros der
Vorgaben gilt für jene, die die Software in den Verkehr bringen. Wenn eine
Versicherungsgesellschaft oder die Polizei ein KI-System nutzt, müssen sie
sicherstellen, dass es mit dem Gesetz vereinbar ist.
taz: Reicht das? Schließlich kann man nicht bei allen, die KI einsetzen,
von guten Absichten ausgehen.
Surman: Fürs Erste würde ich sagen, es ist okay. Natürlich muss man in den
kommenden Jahren bewerten, ob es ausreicht. Aber: Wie lange, nachdem die
ersten Autos auf den Straßen waren, hat es gedauert, bis Gurte
verpflichtend wurden? Das waren Jahrzehnte.
taz: Was halten Sie für die größten [4][Gefahren], die von KI ausgehen?
Surman: Ich glaube, die dadurch noch steigende Machtkonzentration der
Techkonzerne ist eine große Gefahr. Egal, ob ich Deutscher bin oder
Kanadier – es ist keine gute Nachricht, wenn vieles von dem, was ich online
tue, in der Kontrolle weniger Konzerne an der US-Westküste liegt. Und
meine zweite große Sorge ist die Haltung, mit der manche Konzerne oder
Akteure KI entwickeln. Nicht immer steht hier Sorgfalt im Vordergrund. Oft
ist es auch eine Move-fast-and-break-things-Haltung.
taz: Schnell sein, auch wenn dabei Dinge kaputtgehen.
Surman: Und wir wissen nicht, was dabei kaputtgeht. Die Demokratie?
Menschen?
taz: Kann die EU mit ihrem KI-Gesetz hier überhaupt etwas tun?
Surman: Es wird interessant sein, das zu sehen. Die EU spekuliert
natürlich, dass sie als Markt groß genug ist, dass Unternehmen sie nicht
einfach verlassen, sondern sich den Regeln beugen. Und dass die daraus
resultierenden Verbesserungen weltweit gelten. Ob das funktioniert, werden
wir sehen.
taz: Was halten sie für das größte Potenzial von KI?
Surman: Dass wir als Gesellschaften gemeinsam einen Weg finden, wie wir die
Technologie so nutzen können, dass sie gut für uns ist. Für unsere
Demokratie, für die Wirtschaft, für das Gesundheitssystem, für die
Steuerung erneuerbarer Energien und im Kampf gegen den Klimawandel.
taz: Wo werden wir in zehn Jahren stehen?
Surman: Wenn ich mal optimistisch bin, was die politische Entwicklung
angeht, und wir immer noch in demokratischen pluralistischen Gesellschaften
leben …
taz: … es kommt also vor allem auf die Politik an und die, die sie wählen?
Surman: Ja, wahrscheinlich. Ein autokratisches Regime wird auch in guter
Absicht entwickelte Technologie missbrauchen. Aber wenn wir optimistisch
bleiben, dann sind in zehn Jahren allerhand KI-Systeme niedrigschwellig und
stehen einfach zugänglich zur Verfügung, sie helfen Menschen bei allem
Möglichen: beim Zugang zu Wissen, bei kreativen Prozessen, beim
Kommunizieren mit Menschen, die eine andere Sprache sprechen, bei der
Früherkennung von Krankheiten, beim Gründen von Unternehmen. Wir müssen
aber immer daran denken, den Menschen ins Zentrum zu stellen – und nicht
die Gewinninteressen privater Unternehmen.
25 Jul 2024
## LINKS
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[2] /Ausgaben-fuer-EU-Lobbyismus-steigen/!5958975
[3] /Vor-Inkrafttreten-der-EU-Regeln/!6010291
[4] /Deutschland-muss-KI-Regeln-umsetzen/!6007821
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Mozilla
Mozilla Foundation
Firefox
Open Source
GNS
Wir retten die Welt
Google
wochentaz
Schwerpunkt Künstliche Intelligenz
Google
## ARTIKEL ZUM THEMA
Ende des Mozilla-Dienstes „Pocket“: Die Tasche ist zu
„Pocket“ war mehr als nur eine private Artikelliste, es war ein kuratiertes
Empfehlungssystem. Nun schließt Mozilla den Online-Dienst.
Was Technik besser macht als Menschen: KI, bitte übernehmen Sie!
Ein bisschen mehr Intelligenz könnte im Kampf gegen den Klimawandel nicht
schaden, findet unser Autor. Notfalls auch künstliche.
US-Gericht urteilt: Google ist Monopolist
Ein US-Gericht fällt ein wichtiges Urteil: Google habe ein Internet-Monopol
– und verteidige es auf unfaire Weise. Der Techgigant will sich wehren.
Mozilla-Chefin über KI: „Aufregend und beängstigend“
Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin
Mitchell Baker über Chancen und warum Open Source ökologischer ist.
Künstliche Intelligenz und Datenschutz: Wer die KI füttert
Mit den persönlichen Daten von Nutzer:innen eine KI trainieren? Das
erlauben sich immer mehr Tech-Konzerne. Doch es gibt noch eine Chance.
KI-Expertin über Daten und Macht: „Die Branche ist eine Monokultur“
Meredith Whittaker ist Expertin für Künstliche Intelligenz und wechselte
von Google zur Signal Foundation. Ein Gespräch über das
Überwachungs-Geschäftsmodell.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.