# taz.de -- Mozilla-Chef Mark Surman über KI: „Wir wissen nicht, was kaputtg… | |
> In Kürze treten die neuen EU-Regeln zu KI in Kraft. Mark Surman, | |
> Präsident der Mozilla-Stiftung, über einflussreiche Tech-Konzerne und | |
> lustige Hüte. | |
Bild: „Die Technologie so nutzen, dass sie gut für uns ist“ | |
taz: Herr Surman, welches KI-Werkzeug haben Sie als letztes verwendet? | |
Mark Surman: (denkt nach) | |
taz: Nutzen Sie KI so wenig? | |
Surman: Nein, im Gegenteil, ständig. Und ich hätte jetzt gerne eine | |
amüsante Geschichte erzählt, die etwas über den Stand der Technik und | |
unseren Umgang damit aussagt. Etwa als ich versucht habe, mit ChatGPT ein | |
Foto von mir zu generieren mit einem lustigen Hut. Die 4oer-Version kann ja | |
eigentlich Bilder erzeugen. Aber es war komplett hoffnungslos. Ja, die Hüte | |
waren lustig, aber die Person auf den ersten Bildern sah mir nicht im | |
entferntesten ähnlich, vielleicht abgesehen von dem Bart. Also habe ich ein | |
Bild von mir hochgeladen – und die KI hat einfach einen roten Kreis auf | |
meinen Kopf gesetzt. Nun ja, die Wahrheit ist: Das KI-Tool, das ich als | |
letztes, also wahrscheinlich vor etwa 15 Minuten genutzt habe, war Siri. | |
Das nutze ich ständig. | |
taz: Siri ist das KI-Assistenzwerkzeug von Apple. Würden Sie Siri als | |
vertrauenswürdige KI bezeichnen? | |
Surman: Für die Zwecke, für die ich Siri verwende – um kurze Sprachnotizen | |
aufzunehmen zum Beispiel –, ist es ausreichend vertrauenswürdig. Ich will | |
keine Apple-Werbung machen, aber immerhin bekommt Apple es hin, dass nicht | |
alle Daten ständig in die Cloud geschickt werden. Privatsphäre hat bei | |
Apple schon einen Wert, und das ist etwas, das wir bei Mozilla mit Apple | |
teilen. | |
taz: Ist Vertrauen ein Thema bei der Nutzung von [1][KI]? | |
Surman: Ja, absolut. Zum Thema Vertrauen gehören zwei wichtige Punkte: | |
Wirkung und Verantwortung. Man kann sich also verschiedene Fragen stellen: | |
Macht die KI, was ich will? Kann ich sie an die eigenen Bedürfnisse | |
anpassen? Ist ihre Funktionsweise transparent? Und wenn etwas schiefgeht: | |
Ist klar, wer haftet? Wendet man diese Definition auf Siri an, kommt man zu | |
dem Ergebnis, dass Siri eigentlich wenig vertrauenswürdig ist. Man kann da | |
nichts anpassen, und das System ist eine ziemliche Blackbox. Wie sie | |
funktioniert – keine Ahnung. Andererseits ist ihr Einsatz nicht besonders | |
risikobehaftet. Wenn also etwas schiefgeht, ist es extrem unwahrscheinlich, | |
dass jemand zu Schaden kommt. Anders sieht das bei dem Einsatz von KI in | |
der Gesundheitsbranche oder bei Versicherungen aus. | |
taz: Von Siri bis ChatGPT – die meisten der bekannten KI-Tools sind in der | |
Hand großer Techkonzerne. Vergrößert die junge Technologie die Macht von | |
[2][Big Tech]? | |
Surman: Danach sieht es leider derzeit aus. Die größten sechs Konzerne – | |
Apple, Google, Meta, Amazon, Microsoft und der Chiphersteller Nvidia – | |
kontrollieren den überwiegenden Teil des Markts. Das ist etwas, das mich | |
sehr beunruhigt. | |
taz: Dabei wäre eine neue Technologie ja eigentlich eine Chance, bestehende | |
Marktstrukturen aufzubrechen. Warum passiert das nicht? | |
Surman: Ich weiß nicht, ob es diese theoretische Chance wirklich gibt oder | |
ob die Macht von Big Tech dafür nicht schon viel zu groß ist. Der Markt | |
wird sich hier nicht mehr selbst regeln. Das muss die Politik machen mit | |
Gesetzen, die für Wettbewerb sorgen, aber auch dafür, dass ein Gegengewicht | |
zu den gewinnorientierten KI-Entwicklungen der großen Konzerne entsteht. | |
taz: Was meinen Sie damit? | |
Surman: Zwei Beispiele: In gut funktionierenden Demokratien gibt es | |
üblicherweise öffentliche oder nicht kommerzielle Medien. Das ist das | |
Gegengewicht zu den kommerziellen Anbietern. Und erinnert sich noch jemand | |
daran, dass es vor Wikipedia ein kommerzielles Onlinenachschlagwerk von | |
Microsoft gab? Hier zeigt sich also: Die nicht kommerzielle Entwicklung | |
kann sogar erfolgreicher sein. | |
taz: Und wie soll dieses Gegengewicht bei KI entstehen? | |
Surman: Ich glaube, die Basis ist schon da. Es gibt bereits ganz viel nicht | |
kommerzielle Forschung rund um KI, zum Beispiel an Universitäten, aber auch | |
an unabhängigen Institutionen. Und der nächste Schritt ist, dass wir ein | |
ganzes Ökosystem von Open-Source-KI brauchen: von der Datenbasis über die | |
Modelle bis zu der Software, die am Ende rauskommt. Und Open Source meint | |
tatsächlich offen in all seinen Facetten: Es muss transparent sein, man | |
muss es ändern, anpassen und kostenlos nutzen können. Und, ebenso wichtig: | |
Es muss gemeinwohlorientiert sein. | |
taz: Und wenn wir von den Funktionen her denken? | |
Surman: Ich glaube, das Wichtigste ist, dass die KI-Modelle Open Source | |
sind. | |
taz: Ein Modell ist quasi der Algorithmus, der beispielsweise dafür sorgt, | |
dass auf Basis einer Texteingabe ein Bild generiert wird. | |
Surman: Ist ein Modell Open Source, lässt es sich verändern, anpassen oder | |
auf Basis anderer Daten trainieren – wenn zum Beispiel die ursprünglichen | |
Trainingsdaten dazu geführt haben, dass das Modell rassistische Stereotype | |
reproduziert. Viele Regierungsvertreter sprechen derzeit, und das ist auch | |
wichtig angesichts der Weltlage, über digitale Souveränität. Und mit | |
Open-Source-KI ist das machbar: Sie ist transparent, man kann sie mit der | |
eigenen Sprache oder Informationen über das eigene politische System | |
trainieren. | |
taz: Wo soll das Geld herkommen? | |
Surman: Ich glaube nicht, dass wir ein Finanzierungsproblem haben. Fast | |
alle Regierungen stecken jetzt schon Milliarden in IT-Projekte und | |
-Forschung. Klar, mit mehr Geld ließe sich immer noch mehr machen. Aber | |
wichtiger ist, dass das Geld, was jetzt schon fließt, dort ankommt, wo es | |
dieses Gegengewicht stützen kann. | |
taz: Das große [3][Gesetzeswerk der EU zu KI] tritt Anfang August in Kraft. | |
Während der Gesetzgebung wurde debattiert, ob Open-Source-KI weniger streng | |
reguliert werden sollte. In der Community sorgt man sich, dass strenge | |
Auflagen sie unmöglich machen würden. Zugleich könnten Ausnahmen auch von | |
den großen Techkonzernen ausgenutzt werden. Was meinen Sie? | |
Surman: Es gibt da keine perfekte Lösung. Aber am Ende des Tages ist es | |
doch so, dass jedes KI-System, egal ob Open Source oder nicht, für extrem | |
risikoreiche Anwendungen genutzt und missbraucht werden kann. Ich finde | |
daher den Weg, den die EU gegangen ist, sehr nachvollziehbar: Das Gros der | |
Vorgaben gilt für jene, die die Software in den Verkehr bringen. Wenn eine | |
Versicherungsgesellschaft oder die Polizei ein KI-System nutzt, müssen sie | |
sicherstellen, dass es mit dem Gesetz vereinbar ist. | |
taz: Reicht das? Schließlich kann man nicht bei allen, die KI einsetzen, | |
von guten Absichten ausgehen. | |
Surman: Fürs Erste würde ich sagen, es ist okay. Natürlich muss man in den | |
kommenden Jahren bewerten, ob es ausreicht. Aber: Wie lange, nachdem die | |
ersten Autos auf den Straßen waren, hat es gedauert, bis Gurte | |
verpflichtend wurden? Das waren Jahrzehnte. | |
taz: Was halten Sie für die größten [4][Gefahren], die von KI ausgehen? | |
Surman: Ich glaube, die dadurch noch steigende Machtkonzentration der | |
Techkonzerne ist eine große Gefahr. Egal, ob ich Deutscher bin oder | |
Kanadier – es ist keine gute Nachricht, wenn vieles von dem, was ich online | |
tue, in der Kontrolle weniger Konzerne an der US-Westküste liegt. Und | |
meine zweite große Sorge ist die Haltung, mit der manche Konzerne oder | |
Akteure KI entwickeln. Nicht immer steht hier Sorgfalt im Vordergrund. Oft | |
ist es auch eine Move-fast-and-break-things-Haltung. | |
taz: Schnell sein, auch wenn dabei Dinge kaputtgehen. | |
Surman: Und wir wissen nicht, was dabei kaputtgeht. Die Demokratie? | |
Menschen? | |
taz: Kann die EU mit ihrem KI-Gesetz hier überhaupt etwas tun? | |
Surman: Es wird interessant sein, das zu sehen. Die EU spekuliert | |
natürlich, dass sie als Markt groß genug ist, dass Unternehmen sie nicht | |
einfach verlassen, sondern sich den Regeln beugen. Und dass die daraus | |
resultierenden Verbesserungen weltweit gelten. Ob das funktioniert, werden | |
wir sehen. | |
taz: Was halten sie für das größte Potenzial von KI? | |
Surman: Dass wir als Gesellschaften gemeinsam einen Weg finden, wie wir die | |
Technologie so nutzen können, dass sie gut für uns ist. Für unsere | |
Demokratie, für die Wirtschaft, für das Gesundheitssystem, für die | |
Steuerung erneuerbarer Energien und im Kampf gegen den Klimawandel. | |
taz: Wo werden wir in zehn Jahren stehen? | |
Surman: Wenn ich mal optimistisch bin, was die politische Entwicklung | |
angeht, und wir immer noch in demokratischen pluralistischen Gesellschaften | |
leben … | |
taz: … es kommt also vor allem auf die Politik an und die, die sie wählen? | |
Surman: Ja, wahrscheinlich. Ein autokratisches Regime wird auch in guter | |
Absicht entwickelte Technologie missbrauchen. Aber wenn wir optimistisch | |
bleiben, dann sind in zehn Jahren allerhand KI-Systeme niedrigschwellig und | |
stehen einfach zugänglich zur Verfügung, sie helfen Menschen bei allem | |
Möglichen: beim Zugang zu Wissen, bei kreativen Prozessen, beim | |
Kommunizieren mit Menschen, die eine andere Sprache sprechen, bei der | |
Früherkennung von Krankheiten, beim Gründen von Unternehmen. Wir müssen | |
aber immer daran denken, den Menschen ins Zentrum zu stellen – und nicht | |
die Gewinninteressen privater Unternehmen. | |
25 Jul 2024 | |
## LINKS | |
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174 | |
[2] /Ausgaben-fuer-EU-Lobbyismus-steigen/!5958975 | |
[3] /Vor-Inkrafttreten-der-EU-Regeln/!6010291 | |
[4] /Deutschland-muss-KI-Regeln-umsetzen/!6007821 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Digitalisierung | |
Mozilla | |
Mozilla Foundation | |
Firefox | |
Open Source | |
GNS | |
Wir retten die Welt | |
wochentaz | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Ende des Mozilla-Dienstes „Pocket“: Die Tasche ist zu | |
„Pocket“ war mehr als nur eine private Artikelliste, es war ein kuratiertes | |
Empfehlungssystem. Nun schließt Mozilla den Online-Dienst. | |
Was Technik besser macht als Menschen: KI, bitte übernehmen Sie! | |
Ein bisschen mehr Intelligenz könnte im Kampf gegen den Klimawandel nicht | |
schaden, findet unser Autor. Notfalls auch künstliche. | |
US-Gericht urteilt: Google ist Monopolist | |
Ein US-Gericht fällt ein wichtiges Urteil: Google habe ein Internet-Monopol | |
– und verteidige es auf unfaire Weise. Der Techgigant will sich wehren. | |
Mozilla-Chefin über KI: „Aufregend und beängstigend“ | |
Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin | |
Mitchell Baker über Chancen und warum Open Source ökologischer ist. | |
Künstliche Intelligenz und Datenschutz: Wer die KI füttert | |
Mit den persönlichen Daten von Nutzer:innen eine KI trainieren? Das | |
erlauben sich immer mehr Tech-Konzerne. Doch es gibt noch eine Chance. | |
KI-Expertin über Daten und Macht: „Die Branche ist eine Monokultur“ | |
Meredith Whittaker ist Expertin für Künstliche Intelligenz und wechselte | |
von Google zur Signal Foundation. Ein Gespräch über das | |
Überwachungs-Geschäftsmodell. |