Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe
> Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche
> Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum
> das gut ist.
Bild: Soll das menschliche Gehirn nicht ersetzen, sondern die Arbeit erleichter…
taz: Frau Bryson, immer mehr Unternehmen wollen in ihrer Arbeit vermehrt
auf künstliche Intelligenz setzen: Facebook und Google, um extremistische
Inhalte einzudämmen, die New York Times, um ihre Kommentarfunktion zu
moderieren. Was ist damit gemeint?
Joanna Bryson: Manche Dinge, die im Internet geteilt werden, sind so
schrecklich, dass sie nie ein Mensch zu Gesicht bekommen sollte.
Irgendjemand muss diese Inhalte aber prüfen und entfernen. Künstliche
Intelligenz ist sehr gut darin, große Mengen von Inhalten zu durchsuchen –
die Suchmaschine Google tut schließlich nichts anderes. Maschinen für diese
Aufgabe zu benutzen hat also zwei Vorteile: Erstens sind sie schnell und
effektiv. Zweitens ersparen sie Menschen eine schreckliche Aufgabe.
Wie kann die künstliche Intelligenz erkennen, welche Inhalte unerwünscht
sind?
Sie kann ziemlich gut raten, um was für eine Art von Post es sich handelt.
Bei Kommentaren kann sie prüfen, ob Schimpfwörter enthalten sind. Oder –
was für die New York Times wichtig sein könnte, bei der Masse an
Kommentaren –, wie qualitativ hochwertig ein Beitrag ist. Es gibt schon
Programme, die mit Hilfe von Machine-Learning-Methoden Highschool-Aufsätze
benoten können.
Beim Machine Learning identifiziert die Maschine anhand vieler Beispiele
komplexe Regeln, die sie dann auf neue Inhalte anwenden kann. Für Google
und Facebook geht es zum Beispiel darum, terroristische Videos zu finden.
Genau, mit Videos funktioniert das sehr gut, vor allem bei Terrorismus:
Denn der ist eine einzige riesige Propagandamaschine. Die Terroristen
wollen Menschen überzeugen, sich ihnen anzuschließen, also dreht sich in
ihren Videos viel um Identifikation mit einer Gruppe. Diese wird wiederum
gestärkt durch bestimmte Stilmittel, Sprüche, Symbole, die sich ständig
wiederholen. Das macht es einer Maschine ziemlich leicht, sie zu erkennen.
Trotzdem machen die Maschinen Fehler. Es sollte also immer die Möglichkeit
geben, Einspruch gegen die Entscheidung einzulegen.
Die meistens sozialen Netzwerke haben bereits solche Revisionsmechanismen.
Die New York Times betont außerdem, dass die Maschinen nur beim groben
Vorsortieren helfen sollen. In einem zweiten Schritt soll ein Mensch die
Entscheidung prüfen.
Auch Menschen sind nicht perfekt. So oder so ist es eine gruselige
Vorstellung: Einerseits sollen die Betreiber der Plattformen Verantwortung
für die Inhalte übernehmen. Andererseits: Möchte man wirklich, dass ein
soziales Netzwerk entscheiden kann, was gesagt werden darf und was nicht?
Sollte die Regierung das entscheiden? Wir müssen uns als internationale
Gemeinschaft überlegen, wer in welchem Ausmaß diese Kontrollfunktion
übernehmen soll.
Forscherinnen von Google und Microsoft haben gerade eine Initiative
gegründet, um diskriminierender künstlicher Intelligenz auf die Schliche zu
kommen. Ist es nicht eigentlich besser, wenn solche Entscheidungen von
Algorithmen getroffen werden, weil sie objektiver sind?
Sie stellen die Frage genau falsch herum. Sie dürfen sich die Maschine
nicht als objektiv vorstellen, nicht einmal als Akteur. Die Maschine ist
nichts als ein Werkzeug. Jemand schreibt ein Programm und damit auch
Regeln, die die Maschine anwendet. Und wenn die Maschine anhand
menschlicher Entscheidungen lernt, übernimmt sie die Vorurteile. Mein Team
und ich haben in einem Aufsatz in der Science gezeigt, dass Algorithmen die
selben Vorurteile reproduzieren wie Menschen. Sie benachteiligen etwa
Menschen mit fremd klingenden Namen. Der Unterschied zum Menschen ist: Die
Mechanismen sind leichter zu überprüfen.
Es gibt aber ExpertInnen, die die Prüfbarkeit mancher Algorithmen in Frage
stellen. Gerade wenn eine Maschine selbstständig lernt, sind die Regeln,
die sie identifiziert, oft so komplex, dass sie für Menschen schwer
zugänglich sind.
In gewisser Weise ist das richtig, aber die große Aufregung darüber ist
nicht gerechtfertigt. Es stimmt, dass bei manchen Lernverfahren viele
Details zusammenspielen, die für Menschen nicht immer zugänglich sind. In
diesen Fällen kann die Entscheidung der Maschine etwa so undurchschaubar
werden wie die eines Menschen. Das heißt aber nicht, dass man die Maschine
nicht prüfen kann. Man kann ihre Arbeit beobachten und ihre Ergebnisse
überprüfen. Und man kann den zugrunde liegenden Programmcode betrachten und
gewisse Einstellungen verändern, um sich anzusehen, wie das die Resultate
beeinflusst. Das kann man bei menschlichen Entscheidungen nicht.
Der deutsche Justizminister Heiko Maas hat ein Transparenzgebot für
Algorithmen vorgeschlagen. Halten Sie es für sinnvoll, dass Unternehmen
ihre Algorithmen offenlegen?
Europa ist definitiv ein Vorreiter, was die Gesetzgebung im Technikbereich
angeht, und ich halte es für sehr wichtig, sich darüber Gedanken zu machen.
Ob man die Algorithmen für alle zugänglich machen sollte, ist eine andere
Frage. Schließlich sind sie für viele Firmen so etwas wie Geheimrezepte,
die sie von anderen Wettbewerbern abheben. Aber das heißt nicht, dass man
sie nicht regulieren sollte. Ich stelle mir eher einen
Verifizierungsprozess wie im Medizinbereich vor. Auch Medikamente brauchen
eine Zulassung, bevor sie auf den Markt kommen. Künstliche Intelligenz hat
auf unsere Gesellschaft einen Einfluss, der mindestens so groß ist wie der
von Medikamenten.
Halten Sie künstliche Intelligenz für eine Bedrohung?
Die Menschen verwechseln Technologie mit Mathematik. Mathematik ist etwas,
das perfekt und unendlich sein kann, eine Abstraktion wie in Platons
Höhlengleichnis. Technologie ist ein physischer Prozess in der echten Welt,
sie braucht Zeit, sie braucht Energie, sie braucht Platz, Serverkapazität,
Arbeitsspeicher für die Berechnungen. Deswegen werden wir nie eine perfekte
künstliche Intelligenz haben. Es gibt in der Evolution ja auch nicht das
perfekte Tier.
Einige bekannte UnternehmerInnen, darunter Elon Musk und Stephen Hawking,
warnen vor einer „Singularität“, davor, dass der Moment kommen wird, ab dem
Maschinen klüger werden als der Mensch und selbst noch schlauere Maschinen
erschaffen können, womit ihre Intelligenz exponentiell ansteigt.
Ja, es gibt ein paar wirklich kluge Menschen, die davon total überzeugt
sind. Ich weiß nicht, was da los ist, vielleicht ist es nur ein guter Weg,
Aufmerksamkeit zu erzeugen. Ich glaube jedenfalls nicht, dass eine
übermächtige künstliche Intelligenz entstehen wird, die uns alle umbringen
will. Aber es gibt natürlich Gefahren: Vielleicht muss ein Computer einmal
eine Aufgabe lösen, und die Lösung scheint uns völlig akzeptabel zu sein;
aber der Lösungsweg, den er errechnet, beinhaltet Zwischenschritte, deren
Risiko wir gar nicht abschätzen können. Das ist übrigens eine ziemlich
akkurate Beschreibung dessen, was auf der Erde geschehen ist, seit wir
Menschen aufgetaucht sind.
Wie meinen Sie das?
Sehen Sie sich die letzten zehntausend Jahre der Menschheitsgeschichte an.
Bis zu dem Zeitpunkt, als die Schrift erfunden wurde, gab es mehr Makaken
als Hominiden auf dem Planeten. Jetzt haben wir dieses exponentielle
Wachstum, plötzlich sind wir sieben Milliarden Menschen. Das ist eigentlich
großartig, denn es zeigt, dass wir sehr gut darin sind, zusammenzuarbeiten.
Das Problem ist nur: Niemand hat sich je hingesetzt und gesagt: „Hey, lasst
uns alle anderen Säugetiere ausrotten.“
Aber genau das tun wir, und für die längste Zeit wussten wir es nicht
einmal. Künstliche Intelligenz ist nicht das Problem, wir sind das Problem.
Es gibt auch keinen Kampf zwischen Mensch und Maschine, denn Maschinen sind
ein Teil von uns. Wir müssen einfach lernen, uns über unser Handeln bewusst
zu werden. Von daher: Die Argumentationslinie, dass Intelligenz immer
gefährlicher wird, ist richtig. Aber die Singularität ist schon vor
zehntausend Jahren passiert.
5 Aug 2017
## AUTOREN
Marie Kilg
## TAGS
Netzsicherheit
Hate Speech
Schwerpunkt Künstliche Intelligenz
Algorithmus
Wahlmanipulation
Fake News
Studie
Lesestück Recherche und Reportage
Algorithmen
Selbstfahrendes Auto
Lesestück Recherche und Reportage
## ARTIKEL ZUM THEMA
Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“
Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien
selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler
darauf hinweisen.
„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
Studie zu künstlicher Intelligenz: Bist du schwul oder was?
Eine Studie sagt, ein Computer könne die sexuelle Orientierung eines
Menschen an seinem Gesicht erkennen. Ist das wirklich so einfach?
Big Data und Überwachung in China: Ihr werdet schon sehen
Kein Land ist so avanciert, wenn es um Datennutzung geht – inklusive der
Verknüpfung diverser Datenbanken. Die Regierung hat Zugriff.
Die Macht der Algorithmen: Heiko Maas will das Internet bändigen
Algorithmen beeinflussen Menschen im Netz. Der Justizminister will diesen
Einfluss per Gesetz einschränken. Sein Nutzen ist umstritten.
Ethik des autonomen Fahrens: Regeln für den Algorithmus
Eine vom Verkehrsministerium eingesetzte Kommission fordert: keine
Aufrechnung von Menschenleben und besseren Datenschutz.
Geschlecht von Künstlichen Intelligenzen: Siri, ficken?
Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich
weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen aus.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.