Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Mozilla-Chefin über KI: „Aufregend und beängstigend“
> Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin
> Mitchell Baker über Chancen und warum Open Source ökologischer ist.
Bild: KI-generierte Kunst: mal gut, mal bedrohlich, mal schräg
wochentaz: Frau Baker, seit Jahren kritisieren Sie, dass große Techkonzerne
ihre Macht ausnutzen. Nun gibt es mit [1][künstlicher Intelligenz] eine
neue Technologie, die in den Markt drängt – ist das eine Chance für einen
Wandel?
Mitchell Baker: Ja, definitiv. [2][Künstliche Intelligenz ist eine mächtige
Technologie]. KI hat vermutlich ein noch größeres Potenzial, treibende
Kraft für einen echten Wandel zu sein, als wir das aktuell absehen können.
Woran machen Sie das fest?
Nehmen wir den Browser-Markt. Browser sind immer noch für viele
Nutzer:innen das Tor zum Internet. Und sie wissen ziemlich genau, was
sie mit einem Browser machen wollen. Das ist sehr tief verankert, fast
schon wie eine Art Muskelgedächtnis. Sie wissen, wo das Feld für die
Suchfunktion ist, wo sie für ihre Bookmarks klicken und wo für das
Wetter-Widget. Bei Mozilla haben wir immer mal wieder Tests für neue
Funktionen gemacht, etwa die Suche so einzubauen, dass Nutzer:innen sie
schneller finden. Mitunter haben wir dann aber festgestellt: Nein, das
passt nicht mit diesem Muskelgedächtnis zusammen. Das ist also alles sehr
gelernt und festgefahren. Und jetzt kommt’s: KI ist das erste große Ding,
was das Potenzial hat, die Karten komplett neu zu mischen.
Sie meinen, weil etwa Suchmaschinen auf den Markt kommen, die keine
Linkliste mehr liefern, sondern Antworten?
Zum Beispiel. Oder weil wir nicht mehr tippen werden, sondern sprechen.
Aber man muss auch sagen: Wir reden hier über ein Potenzial. Noch ist es
nicht ausgemacht, [3][dass nicht doch wieder Big Tech von heute auch Big
Tech von morgen ist].
Was muss denn passieren, damit sich etwas ändert?
Mehrere Dinge. Das Elementare ist: Es braucht ein Ökosystem, das Innovation
begünstigt. Denn die kommt in der Regel nicht von den großen, sondern von
den kleinen Firmen …
… die dann von den großen aufgekauft werden.
So ein Ökosystem lässt sich extrem fördern, wenn darin Open Source ein
große Rolle spielt. Bei KI haben wir das bereits gesehen. Bis zum Frühjahr
schien es komplett klar zu sein, dass die großen Konzerne, die in die neue
Technologie investiert hatten, unter sich bleiben würden. Google und
Microsoft zum Beispiel hatten längst angekündigt, KI in ihre Anwendungen
einzubauen. Dann kam das KI-Sprachmodell von [4][Meta] heraus – und kurz
danach wurde dessen Code geleakt. Ich weiß bis heute nicht, ob das bewusst
war oder versehentlich. Und nur wenige Wochen später haben wir eine Flut
von Innovationen und Aktivitäten bei KI gesehen, sogar in Bereichen, die
als schwierig oder unmöglich galten. Das war bemerkenswert.
Was war das zum Beispiel?
Was glauben Sie, wie viel Rechenleistung braucht man, damit KI-Anwendungen
laufen?
Normalerweise ziemlich viel.
Stimmt. Aber Rechenleistung kostet Geld. Wenn wir im Open-Source-Bereich
unterwegs sind, dann müssen wir mit unseren Ressourcen gut haushalten. Und
in dieser Innovationsflut stellte sich heraus: KI-Anwendungen lassen sich
so ressourcensparend designen, dass sie auf einem Notebook oder sogar lokal
auf dem Smartphone laufen. Das ist nicht nur ökologischer, es ermöglicht
auch eine ganz andere Art der Nutzung von KI.
Und zwar?
Anwendungen wie ChatGPT, die gerade gehypt werden, [5][haben ein ganz
großes Privatsphäreproblem]. Denn sie beruhen darauf, dass sie mit großen
Datenmengen, in dem Fall Textmengen, trainiert werden. Sie nutzen also
alles, was im Internet steht: meine Gedanken, die ich in einem Blog oder
auf Social Media formuliert habe, mein geistiges Eigentum, wenn ich
vielleicht Autorin bin, meine Kreativität. Und das alles ohne mein
Einverständnis, ja, ohne, dass ich auch nur davon weiß. Habe ich jetzt aber
ein KI-Modell, das so klein ist, dass es auf meinem Smartphone laufen kann,
dann kann ich es selbst trainieren, mit meinen eigenen Daten. Das würde
übrigens auch die Machtverhältnisse entscheidend ändern. Denn warum sollte
ich dann noch meine Daten in die Hände eines Konzerns legen, der daraus
eine Anwendung macht, an der nur er selbst verdient?
Es klingt ein bisschen zu einfach, dass mit Open Source als Basis alles gut
wird.
Na ja, so einfach ist es nicht. Erstens fällt Open Source nicht vom Himmel,
sondern gedeiht nur dort, wo es ein entsprechendes Ökosystem gibt. Das
passiert [6][mit einer guten Regulierung]. In diesem Kontext brauchen wir
weitere Vorgaben, zum Beispiel Interoperabilität …
… dass man also eine Nachricht von einem zum anderen Dienst schicken können
soll.
Die EU hat das in ihrer Plattformregulierung, dem „Digital Markets Act“,
unter anderem für Messenger-Dienste vorgeschrieben. Das ist zwar keine
Vorgabe, die sich speziell auf KI bezieht, aber sie ist wichtig, weil es
ein erster Schritt hin zu mehr Wettbewerb ist.
Für Politiker:innen scheint es nicht so einfach zu sein, die
Dimensionen von KI zu erfassen. Die Branche selbst sendet unterschiedliche
Signale. Mal ist KI eine Technologie, die die Menschheit bedroht, mal soll
mit ihr alles besser werden. Was denn nun?
Grundsätzlich: Jede mächtige Technologie hat beide Seiten in sich – das
Gute und das Bedrohliche. Der Verbrennungsmotor zum Beispiel. Er hat eine
enorme wirtschaftliche Entwicklung ermöglicht, doch seine Nutzung bedroht
nun das Leben auf diesem Planeten. [7][Man kann natürlich nicht das
Bedrohungspotenzial von KI und Klimawandel gleichsetzen]. Aber das
Disruptionspotenzial, also das Potenzial, Gesellschaften direkt zu
verändern, ist bei KI vergleichbar mit dem der industriellen Revolution.
Dann lassen Sie uns ein Stück in die Zukunft schauen – wie wird die
Situation in fünf Jahren sein?
Ein paar punktuelle Prognosen: Wir werden Auswirkungen auf den Arbeitsmarkt
sehen, [8][einige Jobs werden wegfallen] und andere entstehen. Für die
Menschen heißt das, dass sie sich um- oder weiterbilden müssen, dass andere
Fähigkeiten gefragt sind. Die großen Sprachmodelle, wie GPT-4, die Basis
von ChatGPT, werden immer besser, und das wird zu einer ganz essenziellen
Frage führen: Wenn hier Gefahren drohen – die Ansätze sehen wir aktuell
schon mit Desinformation oder Deep Fakes –, für wen sollen diese
Technologien zugänglich sein? Wie offen dürfen sie sein? Das wird eine
große Debatte. Ich finde, wenn ein Unternehmen eine Anwendung baut, die zu
gefährlich für die Menschheit ist, dann darf dieses Unternehmen, was das
Problem überhaupt erst kreiert hat, daraus nicht auch noch Profit ziehen.
Wir sehen heute schon viel zu oft, dass Profite bei den Firmen konzentriert
sind, während die Risiken auf die Nutzer:innen ausgelagert werden.
Wie lässt es sich besser machen?
Zum Beispiel mit transparenter oder vertrauenswürdiger KI. Bei vielen
KI-Modellen, die wir heute sehen, lässt sich nicht nachvollziehen, warum
die Software eine bestimmte Entscheidung getroffen hat. Bei
vertrauenswürdiger KI schon, sie macht den Prozess transparent. Und ich
sehe aktuell ein viel stärkeres Bewusstsein dafür, vertrauenswürdige
Software zu bauen, als das in früheren Generationen der Fall war. Was auch
verständlich ist, schließlich sehen wir mittlerweile alle bei Social Media,
welche Folgen intransparente Algorithmen haben können.
Sie sind also optimistisch?
Wandel ist aufregend und beängstigend. Aber wir sind immer noch Menschen.
Wir haben Emotionen und Hormone, sind rational und irrational, denken nach
über unsere Seelen und Spiritualität. Und das wird sich nicht ändern – egal
wohin KI uns bringt.
21 Oct 2023
## LINKS
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[2] /Kuenstliche-Intelligenz/!5939918
[3] /Ausgaben-fuer-EU-Lobbyismus-steigen/!5958975
[4] /Kuenstlische-Intelligenz/!5959142
[5] /Kuenstliche-Intelligenz-und-Datenschutz/!5956511
[6] /Neue-Studie-zu-Datenmonopolen/!5944599
[7] /Debatte-um-Technologieregulierung/!5959678
[8] /Kuenstliche-Intelligenz-und-Arbeitsmarkt/!5950985
## AUTOREN
Svenja Bergt
## TAGS
wochentaz
Schwerpunkt Künstliche Intelligenz
Mozilla
Open Source
Netzpolitik
Firefox
Innovation
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Bildungssystem
Zukunft
Politische Kunst
## ARTIKEL ZUM THEMA
Mozilla-Chef Mark Surman über KI: „Wir wissen nicht, was kaputtgeht“
In Kürze treten die neuen EU-Regeln zu KI in Kraft. Mark Surman, Präsident
der Mozilla-Stiftung, über einflussreiche Tech-Konzerne und lustige Hüte.
Regulierung von künstlicher Intelligenz: Mehr Vorgaben für KI gefordert
Die EU will ihr Regelwerk für künstliche Intelligenz fertig verhandeln.
Kurz vor Schluss gibt es nun Streit: Fachleute fordern mehr
Verbindlichkeit.
Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht
Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das
ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.
Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien
Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen.
Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen.
Digitalisierung und Mündigkeit: Die KI ist nicht am Zug
Vor digitalen Neuerungen können wir uns nicht drücken, wenn wir kommende
Engpässe überwinden wollen. Das Zauberwort dafür heißt Bildung – wie so
oft.
Kolumne einer Künstlichen Intelligenz: Ode an den Herbst
Ich kenne weder das Gefühl von Wärme, noch von Kälte. Aber das hält mich
nicht davon ab, im Herbst über Metaphysisches nachzugrübeln.
Kunstprojekt „Edit Wars“ in Bremen: Künstlerische Intelligenz
Russland setzt auf Fehlinformationen und Hetze. Die Bremer Gruppe „Edit
Wars“ hat die Propaganda mit KI analysiert und künstlerisch interpretiert.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.