Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“
> Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang
> Schulz spricht über Chancen, Risiken und die Bewusstseinsfrage.
Bild: Schafft KI wenigstens die Bürozellen ab? Das wäre ein Fortschritt
taz: Herr Schulz, der Textgenerator ChatGPT hatte nur fünf Tage nach seinem
Start eine Million Nutzer:innen – Facebook oder Instagram haben für
solche Zahlen Monate gebraucht. Vergangene Woche hat nun Google mit seinem
KI-Bot Bard nachgelegt. Ist gerade tatsächlich der „[1][iPhone-Moment der
Künstlichen Intelligenz]“, wie manche Beobachter:innen meinen?
Wolfgang Schulz: Es hat auf alle Fälle einen extremen Entwicklungssprung
gegeben – und der wird jetzt gerade offensichtlich. Insofern ist das
tatsächlich ein wichtiger Moment – auch, weil wir uns als Gesellschaft erst
mal bewusst werden müssen, was da eigentlich passiert. Ob es tatsächlich
ein iPhone-Moment ist, hängt davon ab, wie sich die Technologie
weiterentwickelt. Und zwar sowohl im Hinblick auf Geschäftsmodelle als auch
auf den konkreten Nutzen in den unterschiedlichen Anwendungsfeldern.
Wenn Sie sagen, die Gesellschaft muss sich bewusst werden, was da passiert:
Was passiert denn da gerade?
Positiv betrachtet: Wir sehen gerade das unglaubliche Potenzial von
Automatisierungen, viel stärker noch, als wir das bisher erlebt haben. Dass
also Maschinen Dinge übernehmen, die vorher durch Menschen gemacht werden
mussten. Gleichzeitig werden aber auch die Risiken sichtbar: Die
Einfachheit, mit der so ein Textgenerator Lügen erzeugt, die ohne Kenntnis
des Themas oder weitere Recherche nicht zu bemerken sind. Und die dann
weiterverbreitet werden können. Der Missbrauch dieser Technologien, die
Desinformation, das wird uns noch sehr beschäftigen. Wir befinden uns also
jetzt in der Situation, in der wir überlegen müssen: In welche sozialen
Praktiken, in welche Kulturtechniken binden wir diese neue Technologie ein?
Wo brauchen wir Regulierung? Und welche?
Welche brauchen wir denn?
Das Wichtigste ist Transparenz. Wenn eine KI am Erstellen eines Textes
beteiligt war, ganz egal welcher Art, dann muss das ersichtlich sein.
Das dürfte in der Praxis kaum durchsetzbar sein.
Es gibt bereits technische Entwicklungen, die mit einer gewissen
Wahrscheinlichkeit sagen können, ob ein Text durch eine KI erstellt wurde.
Aber klar, das kann natürlich ein Katz-und-Maus-Spiel werden. Es gibt auch
schon Menschen, die der KI den Auftrag erteilen, einen Text zu schreiben,
der nicht als KI-Text identifiziert wird. Aber die schwierige
Durchsetzbarkeit darf nicht davon ablenken, dass das Interesse daran zu
wissen, ob das, was uns gegenübertritt, ein menschlicher Kommunikator oder
ein menschliches Produkt ist oder nicht, bleibt.
Microsoft will ChatGPT in seine Suchmaschine einbauen und setzt Google mit
seinem Suchmaschinenmonopol unter Druck. Nun [2][zieht Google mit Bard
nach]. Was bedeutet dieses Wettrennen?
Grundsätzlich hat eine neue Technologie immer ein großes Potenzial für den
Markt. Denn kleine Unternehmen bekommen eine Chance, die großen mit ihren
teilweise monopolartigen Strukturen in Bedrängnis zu bringen. Es ist also
eine Chance auf Wettbewerb, und das ist gut für die Gesellschaft und die
Wirtschaft.
Mit Microsofts Einstieg bei OpenAI, dem Unternehmen hinter ChatGPT, sieht
es eher aus, als würde Big Tech wieder gewinnen.
Ja, das ist eine bedenkliche Entwicklung. Hier brauchen wir dringend
wirksame rechtliche Instrumente. Diese müssen verhindern, dass alle
Innovationen sofort von den großen Playern aufgekauft werden und der Markt
doch so konzentriert bleibt und die Innovationskraft insgesamt schwindet.
OpenAI ist zwar ein wichtiger Akteur, aber im Bereich der KI-Suchmaschinen
gibt es auch andere Unternehmen, die innovative Lösungen entwickeln. Und
damit haben wir, seitdem Google seine Suchmaschine auf den Markt gebracht
hat, das erste Mal die Situation, dass diese als Marktführer ernsthaft
infrage gestellt werden könnte.
Wie könnte KI die Suche revolutionieren?
Auf zweierlei Ebenen: Erstens könnten künftige Suchmaschinen durch
Konversation noch besser prognostizieren, was der Nutzer eigentlich wissen
will. Denn Suchanfragen sind ja längst nicht immer optimal formuliert und
bestehen meist nur aus wenigen Worten. Und zweitens könnten Suchmaschinen
dann das machen, was die Nutzenden eigentlich von ihnen erwarten: Antworten
liefern. Und zwar als lesbaren Text. Und nicht eine ganze Sammlung von
Links, aus denen man sich die Antwort dann selbst heraussuchen muss – und
die auch nicht unbedingt findet. Im Ansatz ist das auch jetzt schon zu
sehen: Google beispielsweise bietet bei manchen Suchanfragen bereits
Infoboxen, die zu den Links führen. Das sind Abschnitte, die bereits eine
direkte Antwort auf die Frage liefern könnten.
Aber wenn eine Suchmaschine nur noch Text und keine Links mehr liefert,
gibt es wieder das Transparenzproblem. Eigentlich wäre es also ein
Nachteil.
Ja und nein. Eine lesbare und schnelle Antwort zu bekommen, ohne
weiterklicken zu müssen, ist ja erst mal gut. Gleichzeitig ist es natürlich
ein Nachteil, weil man die Angaben als Nutzer entweder überprüfen – oder
ihnen vertrauen muss. Und Vertrauen ist eine gefährliche Sache. Denn, um es
mit dem Soziologen Niklas Luhmann zu sagen, wenn man vertraut, überzieht
man seine Wissensbasis. Man macht etwas, ohne eigentlich das Wissen zu
haben, das man bräuchte, um diese Entscheidung zu treffen. Insofern ist das
tatsächlich eine Verschlechterung.
Google baut seinen neuen Bot auf seinem Modell Lambda auf, einem
KI-Programm, dem einer der Beteiligten ein Bewusstsein zugesprochen hat.
Wie bewerten Sie das?
Das hängt davon ab, wie man Bewusstsein versteht. Das ist eine
philosophische Frage, die ich nicht bewerten kann. Noch interessanter finde
ich aber ohnehin die Aufregung, die das verursacht hat – weil man auf
einmal vor der Frage steht, ob da etwas Menschenähnliches erschaffen wurde.
Die Gedankenwelt der Informatik spielt eine große Rolle. Es ist genau das,
was die KI-Forschung und -Entwicklung auch stark vorantreibt: Entwicklungen
zu schaffen, die menschliche Fähigkeiten haben. Das zeigt alleine schon der
Begriff Intelligenz – die ja als etwas genuin Menschliches gilt. Aber auch
das Wort „trainieren“, das wir für die neuronalen Netze verwenden, die oft
hinter KI stecken, ist eigentlich etwas, das Menschen tun. Technische
Systeme sind immer noch technische Systeme und keine Menschen. Da müssen
wir uns als Wissenschaft auch selbstkritisch fragen, welche Begriffe wir
verwenden.
Die Angst, dass eine KI eines Tages die Menschheit unterdrücken könnte,
wird ja auch von großen wissenschaftlichen Denkern aufgeworfen.
Das ist eine Debatte, die ich nur begrenzt für sinnvoll halte. Aber aus
meiner Sicht muss man zwei zentrale Punkte festhalten, wenn man sich auf
den Vergleich Mensch-Maschine überhaupt einlassen und ihr Verhältnis klären
will. Das eine ist die Körpergebundenheit menschlicher Intelligenz, also
dass sie immer auch mit unserem Fühlen, Leiden, mit unserer Körperlichkeit
verbunden ist. Und das Zweite: Wir sind soziale Wesen und vieles von dem,
was wir machen, hat mit Erfahrungen zu tun, die wir mit anderen Menschen
gemacht haben. Was daraus an Handlungen resultiert, kann ein technisches
System vielleicht versuchen vorherzusagen. Aber ihnen fehlt diese
Erfahrung. Ich habe im Augenblick wenig Anhaltspunkte für
Weltuntergangsdystopien. Ich glaube aber auch grundsätzlich eher an
positive Effekte neuer Technologien.
Trotz Desinformation und intransparenter Entscheidungsprozesse?
Na ja, wir stehen neuen Technologien, auch KI, nicht machtlos gegenüber.
Die EU-Regulierung zu KI etwa enthält schon wichtige und richtige Ansätze.
Zum Beispiel ein Impact-Assessment. Damit müssen bei der Einführung von
Technologien verschiedene Fragen sehr genau überlegt werden: Welche
Menschenrechte oder Rechte von Arbeitnehmer:innen könnten betroffen
sein? Was sind mögliche Diskriminierungspotenziale und Auswirkungen auf die
Meinungsfreiheit?
Was glauben Sie, wird die nächste gesellschaftsverändernde KI-Entwicklung
sein?
Bei Bildgeneratoren sehen wir gerade auch einen großen Sprung. Ich kann mir
vorstellen, dass hier in den kommenden Jahren noch einiges geschieht. Auch
könnten zum Beispiel Apps überflüssig werden, die wir momentan noch als
Schnittstelle zwischen Mensch und Maschine brauchen. Vielleicht entstehen
die Lösungen, die wir auf dem Smartphone oder einem anderen Gerät bekommen,
dann einfach aus der Beobachtung unseres normalen Verhaltens.
15 Feb 2023
## LINKS
[1] https://app.handelsblatt.com/meinung/kommentare/kommentar-der-neue-iphone-m…
[2] https://blog.google/technology/ai/bard-google-ai-search-updates/
## AUTOREN
Svenja Bergt
## TAGS
Bot
Google
Schwerpunkt Künstliche Intelligenz
iPhone
Google
Schwerpunkt Künstliche Intelligenz
Roboter
Konsum
Polizei Hessen
Google
Bot
Bot
## ARTIKEL ZUM THEMA
Entscheidung des Bundesgerichtshofs: Google muss Fake News entfernen
Zum „Recht auf Vergessenwerden“ bei Falschinformationen hat der
Bundesgerichtshof entschieden und die Rechtsprechung des EuGH bestätigt.
EU-Regulierung für ChatGPT und Co.: Keine Massenüberwachung
EU-Abgeordnete stimmen für Auflagen für Künstliche Intelligenz.
Bürgerrechtler:innen äußern sich positiv. Das war beim Vorschlag des Rats
noch anders.
ChatGPT mit Tücken: Kein Entkommen vor der KI
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
Anfang einer rasanten Entwicklung – die auch Risiken birgt.
KI und freies Handeln: Der berechnete Mensch
Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
Urteil zu Hessendata: Kein generelles Verbot
Das Karlsruher Gericht sieht Nachholbedarf bei der Regelung für den Einsatz
von Hessendata. Für die Zukunft bleibt das Gericht gnädig mit der Polizei.
Chatbots und Google: Kommen jetzt die KI-Suchmaschinen?
Nach dem Erfolg des Textgenerators ChatGPT hat Google nun einen eigenen
Chatbot vorgestellt, der mit Künstlicher Intelligenz arbeitet. Was heißt
das?
Chat-KI und Sexualität: Tadelnde Bots
Maschinen sind nur so gut wie ihre Macher:innen. Bei erotischen Themen
erweist sich ChatGPT als Spielverderberin. Woran liegt das?
Konkurrenz zu ChatGPT: Volle Macht der Sprache ausschöpfen
Google hat einen eigenen KI-Chatbot entwickelt. Die Konkurrenz zum Bot
ChatGPT der US-Firma OpenAI soll in den kommenden Wochen zugänglich werden.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.