# taz.de -- Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe | |
> Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche | |
> Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum | |
> das gut ist. | |
Bild: Soll das menschliche Gehirn nicht ersetzen, sondern die Arbeit erleichter… | |
taz: Frau Bryson, immer mehr Unternehmen wollen in ihrer Arbeit vermehrt | |
auf künstliche Intelligenz setzen: Facebook und Google, um extremistische | |
Inhalte einzudämmen, die New York Times, um ihre Kommentarfunktion zu | |
moderieren. Was ist damit gemeint? | |
Joanna Bryson: Manche Dinge, die im Internet geteilt werden, sind so | |
schrecklich, dass sie nie ein Mensch zu Gesicht bekommen sollte. | |
Irgendjemand muss diese Inhalte aber prüfen und entfernen. Künstliche | |
Intelligenz ist sehr gut darin, große Mengen von Inhalten zu durchsuchen – | |
die Suchmaschine Google tut schließlich nichts anderes. Maschinen für diese | |
Aufgabe zu benutzen hat also zwei Vorteile: Erstens sind sie schnell und | |
effektiv. Zweitens ersparen sie Menschen eine schreckliche Aufgabe. | |
Wie kann die künstliche Intelligenz erkennen, welche Inhalte unerwünscht | |
sind? | |
Sie kann ziemlich gut raten, um was für eine Art von Post es sich handelt. | |
Bei Kommentaren kann sie prüfen, ob Schimpfwörter enthalten sind. Oder – | |
was für die New York Times wichtig sein könnte, bei der Masse an | |
Kommentaren –, wie qualitativ hochwertig ein Beitrag ist. Es gibt schon | |
Programme, die mit Hilfe von Machine-Learning-Methoden Highschool-Aufsätze | |
benoten können. | |
Beim Machine Learning identifiziert die Maschine anhand vieler Beispiele | |
komplexe Regeln, die sie dann auf neue Inhalte anwenden kann. Für Google | |
und Facebook geht es zum Beispiel darum, terroristische Videos zu finden. | |
Genau, mit Videos funktioniert das sehr gut, vor allem bei Terrorismus: | |
Denn der ist eine einzige riesige Propagandamaschine. Die Terroristen | |
wollen Menschen überzeugen, sich ihnen anzuschließen, also dreht sich in | |
ihren Videos viel um Identifikation mit einer Gruppe. Diese wird wiederum | |
gestärkt durch bestimmte Stilmittel, Sprüche, Symbole, die sich ständig | |
wiederholen. Das macht es einer Maschine ziemlich leicht, sie zu erkennen. | |
Trotzdem machen die Maschinen Fehler. Es sollte also immer die Möglichkeit | |
geben, Einspruch gegen die Entscheidung einzulegen. | |
Die meistens sozialen Netzwerke haben bereits solche Revisionsmechanismen. | |
Die New York Times betont außerdem, dass die Maschinen nur beim groben | |
Vorsortieren helfen sollen. In einem zweiten Schritt soll ein Mensch die | |
Entscheidung prüfen. | |
Auch Menschen sind nicht perfekt. So oder so ist es eine gruselige | |
Vorstellung: Einerseits sollen die Betreiber der Plattformen Verantwortung | |
für die Inhalte übernehmen. Andererseits: Möchte man wirklich, dass ein | |
soziales Netzwerk entscheiden kann, was gesagt werden darf und was nicht? | |
Sollte die Regierung das entscheiden? Wir müssen uns als internationale | |
Gemeinschaft überlegen, wer in welchem Ausmaß diese Kontrollfunktion | |
übernehmen soll. | |
Forscherinnen von Google und Microsoft haben gerade eine Initiative | |
gegründet, um diskriminierender künstlicher Intelligenz auf die Schliche zu | |
kommen. Ist es nicht eigentlich besser, wenn solche Entscheidungen von | |
Algorithmen getroffen werden, weil sie objektiver sind? | |
Sie stellen die Frage genau falsch herum. Sie dürfen sich die Maschine | |
nicht als objektiv vorstellen, nicht einmal als Akteur. Die Maschine ist | |
nichts als ein Werkzeug. Jemand schreibt ein Programm und damit auch | |
Regeln, die die Maschine anwendet. Und wenn die Maschine anhand | |
menschlicher Entscheidungen lernt, übernimmt sie die Vorurteile. Mein Team | |
und ich haben in einem Aufsatz in der Science gezeigt, dass Algorithmen die | |
selben Vorurteile reproduzieren wie Menschen. Sie benachteiligen etwa | |
Menschen mit fremd klingenden Namen. Der Unterschied zum Menschen ist: Die | |
Mechanismen sind leichter zu überprüfen. | |
Es gibt aber ExpertInnen, die die Prüfbarkeit mancher Algorithmen in Frage | |
stellen. Gerade wenn eine Maschine selbstständig lernt, sind die Regeln, | |
die sie identifiziert, oft so komplex, dass sie für Menschen schwer | |
zugänglich sind. | |
In gewisser Weise ist das richtig, aber die große Aufregung darüber ist | |
nicht gerechtfertigt. Es stimmt, dass bei manchen Lernverfahren viele | |
Details zusammenspielen, die für Menschen nicht immer zugänglich sind. In | |
diesen Fällen kann die Entscheidung der Maschine etwa so undurchschaubar | |
werden wie die eines Menschen. Das heißt aber nicht, dass man die Maschine | |
nicht prüfen kann. Man kann ihre Arbeit beobachten und ihre Ergebnisse | |
überprüfen. Und man kann den zugrunde liegenden Programmcode betrachten und | |
gewisse Einstellungen verändern, um sich anzusehen, wie das die Resultate | |
beeinflusst. Das kann man bei menschlichen Entscheidungen nicht. | |
Der deutsche Justizminister Heiko Maas hat ein Transparenzgebot für | |
Algorithmen vorgeschlagen. Halten Sie es für sinnvoll, dass Unternehmen | |
ihre Algorithmen offenlegen? | |
Europa ist definitiv ein Vorreiter, was die Gesetzgebung im Technikbereich | |
angeht, und ich halte es für sehr wichtig, sich darüber Gedanken zu machen. | |
Ob man die Algorithmen für alle zugänglich machen sollte, ist eine andere | |
Frage. Schließlich sind sie für viele Firmen so etwas wie Geheimrezepte, | |
die sie von anderen Wettbewerbern abheben. Aber das heißt nicht, dass man | |
sie nicht regulieren sollte. Ich stelle mir eher einen | |
Verifizierungsprozess wie im Medizinbereich vor. Auch Medikamente brauchen | |
eine Zulassung, bevor sie auf den Markt kommen. Künstliche Intelligenz hat | |
auf unsere Gesellschaft einen Einfluss, der mindestens so groß ist wie der | |
von Medikamenten. | |
Halten Sie künstliche Intelligenz für eine Bedrohung? | |
Die Menschen verwechseln Technologie mit Mathematik. Mathematik ist etwas, | |
das perfekt und unendlich sein kann, eine Abstraktion wie in Platons | |
Höhlengleichnis. Technologie ist ein physischer Prozess in der echten Welt, | |
sie braucht Zeit, sie braucht Energie, sie braucht Platz, Serverkapazität, | |
Arbeitsspeicher für die Berechnungen. Deswegen werden wir nie eine perfekte | |
künstliche Intelligenz haben. Es gibt in der Evolution ja auch nicht das | |
perfekte Tier. | |
Einige bekannte UnternehmerInnen, darunter Elon Musk und Stephen Hawking, | |
warnen vor einer „Singularität“, davor, dass der Moment kommen wird, ab dem | |
Maschinen klüger werden als der Mensch und selbst noch schlauere Maschinen | |
erschaffen können, womit ihre Intelligenz exponentiell ansteigt. | |
Ja, es gibt ein paar wirklich kluge Menschen, die davon total überzeugt | |
sind. Ich weiß nicht, was da los ist, vielleicht ist es nur ein guter Weg, | |
Aufmerksamkeit zu erzeugen. Ich glaube jedenfalls nicht, dass eine | |
übermächtige künstliche Intelligenz entstehen wird, die uns alle umbringen | |
will. Aber es gibt natürlich Gefahren: Vielleicht muss ein Computer einmal | |
eine Aufgabe lösen, und die Lösung scheint uns völlig akzeptabel zu sein; | |
aber der Lösungsweg, den er errechnet, beinhaltet Zwischenschritte, deren | |
Risiko wir gar nicht abschätzen können. Das ist übrigens eine ziemlich | |
akkurate Beschreibung dessen, was auf der Erde geschehen ist, seit wir | |
Menschen aufgetaucht sind. | |
Wie meinen Sie das? | |
Sehen Sie sich die letzten zehntausend Jahre der Menschheitsgeschichte an. | |
Bis zu dem Zeitpunkt, als die Schrift erfunden wurde, gab es mehr Makaken | |
als Hominiden auf dem Planeten. Jetzt haben wir dieses exponentielle | |
Wachstum, plötzlich sind wir sieben Milliarden Menschen. Das ist eigentlich | |
großartig, denn es zeigt, dass wir sehr gut darin sind, zusammenzuarbeiten. | |
Das Problem ist nur: Niemand hat sich je hingesetzt und gesagt: „Hey, lasst | |
uns alle anderen Säugetiere ausrotten.“ | |
Aber genau das tun wir, und für die längste Zeit wussten wir es nicht | |
einmal. Künstliche Intelligenz ist nicht das Problem, wir sind das Problem. | |
Es gibt auch keinen Kampf zwischen Mensch und Maschine, denn Maschinen sind | |
ein Teil von uns. Wir müssen einfach lernen, uns über unser Handeln bewusst | |
zu werden. Von daher: Die Argumentationslinie, dass Intelligenz immer | |
gefährlicher wird, ist richtig. Aber die Singularität ist schon vor | |
zehntausend Jahren passiert. | |
5 Aug 2017 | |
## AUTOREN | |
Marie Kilg | |
## TAGS | |
Netzsicherheit | |
Hate Speech | |
Schwerpunkt Künstliche Intelligenz | |
Algorithmus | |
Wahlmanipulation | |
Fake News | |
Studie | |
Lesestück Recherche und Reportage | |
Algorithmen | |
Selbstfahrendes Auto | |
Lesestück Recherche und Reportage | |
## ARTIKEL ZUM THEMA | |
Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“ | |
Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien | |
selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler | |
darauf hinweisen. | |
„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt? | |
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. | |
Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war. | |
Studie zu künstlicher Intelligenz: Bist du schwul oder was? | |
Eine Studie sagt, ein Computer könne die sexuelle Orientierung eines | |
Menschen an seinem Gesicht erkennen. Ist das wirklich so einfach? | |
Big Data und Überwachung in China: Ihr werdet schon sehen | |
Kein Land ist so avanciert, wenn es um Datennutzung geht – inklusive der | |
Verknüpfung diverser Datenbanken. Die Regierung hat Zugriff. | |
Die Macht der Algorithmen: Heiko Maas will das Internet bändigen | |
Algorithmen beeinflussen Menschen im Netz. Der Justizminister will diesen | |
Einfluss per Gesetz einschränken. Sein Nutzen ist umstritten. | |
Ethik des autonomen Fahrens: Regeln für den Algorithmus | |
Eine vom Verkehrsministerium eingesetzte Kommission fordert: keine | |
Aufrechnung von Menschenleben und besseren Datenschutz. | |
Geschlecht von Künstlichen Intelligenzen: Siri, ficken? | |
Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich | |
weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen aus. |