| # taz.de -- Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe | |
| > Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche | |
| > Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum | |
| > das gut ist. | |
| Bild: Soll das menschliche Gehirn nicht ersetzen, sondern die Arbeit erleichter… | |
| taz: Frau Bryson, immer mehr Unternehmen wollen in ihrer Arbeit vermehrt | |
| auf künstliche Intelligenz setzen: Facebook und Google, um extremistische | |
| Inhalte einzudämmen, die New York Times, um ihre Kommentarfunktion zu | |
| moderieren. Was ist damit gemeint? | |
| Joanna Bryson: Manche Dinge, die im Internet geteilt werden, sind so | |
| schrecklich, dass sie nie ein Mensch zu Gesicht bekommen sollte. | |
| Irgendjemand muss diese Inhalte aber prüfen und entfernen. Künstliche | |
| Intelligenz ist sehr gut darin, große Mengen von Inhalten zu durchsuchen – | |
| die Suchmaschine Google tut schließlich nichts anderes. Maschinen für diese | |
| Aufgabe zu benutzen hat also zwei Vorteile: Erstens sind sie schnell und | |
| effektiv. Zweitens ersparen sie Menschen eine schreckliche Aufgabe. | |
| Wie kann die künstliche Intelligenz erkennen, welche Inhalte unerwünscht | |
| sind? | |
| Sie kann ziemlich gut raten, um was für eine Art von Post es sich handelt. | |
| Bei Kommentaren kann sie prüfen, ob Schimpfwörter enthalten sind. Oder – | |
| was für die New York Times wichtig sein könnte, bei der Masse an | |
| Kommentaren –, wie qualitativ hochwertig ein Beitrag ist. Es gibt schon | |
| Programme, die mit Hilfe von Machine-Learning-Methoden Highschool-Aufsätze | |
| benoten können. | |
| Beim Machine Learning identifiziert die Maschine anhand vieler Beispiele | |
| komplexe Regeln, die sie dann auf neue Inhalte anwenden kann. Für Google | |
| und Facebook geht es zum Beispiel darum, terroristische Videos zu finden. | |
| Genau, mit Videos funktioniert das sehr gut, vor allem bei Terrorismus: | |
| Denn der ist eine einzige riesige Propagandamaschine. Die Terroristen | |
| wollen Menschen überzeugen, sich ihnen anzuschließen, also dreht sich in | |
| ihren Videos viel um Identifikation mit einer Gruppe. Diese wird wiederum | |
| gestärkt durch bestimmte Stilmittel, Sprüche, Symbole, die sich ständig | |
| wiederholen. Das macht es einer Maschine ziemlich leicht, sie zu erkennen. | |
| Trotzdem machen die Maschinen Fehler. Es sollte also immer die Möglichkeit | |
| geben, Einspruch gegen die Entscheidung einzulegen. | |
| Die meistens sozialen Netzwerke haben bereits solche Revisionsmechanismen. | |
| Die New York Times betont außerdem, dass die Maschinen nur beim groben | |
| Vorsortieren helfen sollen. In einem zweiten Schritt soll ein Mensch die | |
| Entscheidung prüfen. | |
| Auch Menschen sind nicht perfekt. So oder so ist es eine gruselige | |
| Vorstellung: Einerseits sollen die Betreiber der Plattformen Verantwortung | |
| für die Inhalte übernehmen. Andererseits: Möchte man wirklich, dass ein | |
| soziales Netzwerk entscheiden kann, was gesagt werden darf und was nicht? | |
| Sollte die Regierung das entscheiden? Wir müssen uns als internationale | |
| Gemeinschaft überlegen, wer in welchem Ausmaß diese Kontrollfunktion | |
| übernehmen soll. | |
| Forscherinnen von Google und Microsoft haben gerade eine Initiative | |
| gegründet, um diskriminierender künstlicher Intelligenz auf die Schliche zu | |
| kommen. Ist es nicht eigentlich besser, wenn solche Entscheidungen von | |
| Algorithmen getroffen werden, weil sie objektiver sind? | |
| Sie stellen die Frage genau falsch herum. Sie dürfen sich die Maschine | |
| nicht als objektiv vorstellen, nicht einmal als Akteur. Die Maschine ist | |
| nichts als ein Werkzeug. Jemand schreibt ein Programm und damit auch | |
| Regeln, die die Maschine anwendet. Und wenn die Maschine anhand | |
| menschlicher Entscheidungen lernt, übernimmt sie die Vorurteile. Mein Team | |
| und ich haben in einem Aufsatz in der Science gezeigt, dass Algorithmen die | |
| selben Vorurteile reproduzieren wie Menschen. Sie benachteiligen etwa | |
| Menschen mit fremd klingenden Namen. Der Unterschied zum Menschen ist: Die | |
| Mechanismen sind leichter zu überprüfen. | |
| Es gibt aber ExpertInnen, die die Prüfbarkeit mancher Algorithmen in Frage | |
| stellen. Gerade wenn eine Maschine selbstständig lernt, sind die Regeln, | |
| die sie identifiziert, oft so komplex, dass sie für Menschen schwer | |
| zugänglich sind. | |
| In gewisser Weise ist das richtig, aber die große Aufregung darüber ist | |
| nicht gerechtfertigt. Es stimmt, dass bei manchen Lernverfahren viele | |
| Details zusammenspielen, die für Menschen nicht immer zugänglich sind. In | |
| diesen Fällen kann die Entscheidung der Maschine etwa so undurchschaubar | |
| werden wie die eines Menschen. Das heißt aber nicht, dass man die Maschine | |
| nicht prüfen kann. Man kann ihre Arbeit beobachten und ihre Ergebnisse | |
| überprüfen. Und man kann den zugrunde liegenden Programmcode betrachten und | |
| gewisse Einstellungen verändern, um sich anzusehen, wie das die Resultate | |
| beeinflusst. Das kann man bei menschlichen Entscheidungen nicht. | |
| Der deutsche Justizminister Heiko Maas hat ein Transparenzgebot für | |
| Algorithmen vorgeschlagen. Halten Sie es für sinnvoll, dass Unternehmen | |
| ihre Algorithmen offenlegen? | |
| Europa ist definitiv ein Vorreiter, was die Gesetzgebung im Technikbereich | |
| angeht, und ich halte es für sehr wichtig, sich darüber Gedanken zu machen. | |
| Ob man die Algorithmen für alle zugänglich machen sollte, ist eine andere | |
| Frage. Schließlich sind sie für viele Firmen so etwas wie Geheimrezepte, | |
| die sie von anderen Wettbewerbern abheben. Aber das heißt nicht, dass man | |
| sie nicht regulieren sollte. Ich stelle mir eher einen | |
| Verifizierungsprozess wie im Medizinbereich vor. Auch Medikamente brauchen | |
| eine Zulassung, bevor sie auf den Markt kommen. Künstliche Intelligenz hat | |
| auf unsere Gesellschaft einen Einfluss, der mindestens so groß ist wie der | |
| von Medikamenten. | |
| Halten Sie künstliche Intelligenz für eine Bedrohung? | |
| Die Menschen verwechseln Technologie mit Mathematik. Mathematik ist etwas, | |
| das perfekt und unendlich sein kann, eine Abstraktion wie in Platons | |
| Höhlengleichnis. Technologie ist ein physischer Prozess in der echten Welt, | |
| sie braucht Zeit, sie braucht Energie, sie braucht Platz, Serverkapazität, | |
| Arbeitsspeicher für die Berechnungen. Deswegen werden wir nie eine perfekte | |
| künstliche Intelligenz haben. Es gibt in der Evolution ja auch nicht das | |
| perfekte Tier. | |
| Einige bekannte UnternehmerInnen, darunter Elon Musk und Stephen Hawking, | |
| warnen vor einer „Singularität“, davor, dass der Moment kommen wird, ab dem | |
| Maschinen klüger werden als der Mensch und selbst noch schlauere Maschinen | |
| erschaffen können, womit ihre Intelligenz exponentiell ansteigt. | |
| Ja, es gibt ein paar wirklich kluge Menschen, die davon total überzeugt | |
| sind. Ich weiß nicht, was da los ist, vielleicht ist es nur ein guter Weg, | |
| Aufmerksamkeit zu erzeugen. Ich glaube jedenfalls nicht, dass eine | |
| übermächtige künstliche Intelligenz entstehen wird, die uns alle umbringen | |
| will. Aber es gibt natürlich Gefahren: Vielleicht muss ein Computer einmal | |
| eine Aufgabe lösen, und die Lösung scheint uns völlig akzeptabel zu sein; | |
| aber der Lösungsweg, den er errechnet, beinhaltet Zwischenschritte, deren | |
| Risiko wir gar nicht abschätzen können. Das ist übrigens eine ziemlich | |
| akkurate Beschreibung dessen, was auf der Erde geschehen ist, seit wir | |
| Menschen aufgetaucht sind. | |
| Wie meinen Sie das? | |
| Sehen Sie sich die letzten zehntausend Jahre der Menschheitsgeschichte an. | |
| Bis zu dem Zeitpunkt, als die Schrift erfunden wurde, gab es mehr Makaken | |
| als Hominiden auf dem Planeten. Jetzt haben wir dieses exponentielle | |
| Wachstum, plötzlich sind wir sieben Milliarden Menschen. Das ist eigentlich | |
| großartig, denn es zeigt, dass wir sehr gut darin sind, zusammenzuarbeiten. | |
| Das Problem ist nur: Niemand hat sich je hingesetzt und gesagt: „Hey, lasst | |
| uns alle anderen Säugetiere ausrotten.“ | |
| Aber genau das tun wir, und für die längste Zeit wussten wir es nicht | |
| einmal. Künstliche Intelligenz ist nicht das Problem, wir sind das Problem. | |
| Es gibt auch keinen Kampf zwischen Mensch und Maschine, denn Maschinen sind | |
| ein Teil von uns. Wir müssen einfach lernen, uns über unser Handeln bewusst | |
| zu werden. Von daher: Die Argumentationslinie, dass Intelligenz immer | |
| gefährlicher wird, ist richtig. Aber die Singularität ist schon vor | |
| zehntausend Jahren passiert. | |
| 5 Aug 2017 | |
| ## AUTOREN | |
| Marie Kilg | |
| ## TAGS | |
| Netzsicherheit | |
| Hate Speech | |
| Schwerpunkt Künstliche Intelligenz | |
| Algorithmus | |
| Wahlmanipulation | |
| Fake News | |
| Studie | |
| Lesestück Recherche und Reportage | |
| Algorithmen | |
| Selbstfahrendes Auto | |
| Lesestück Recherche und Reportage | |
| ## ARTIKEL ZUM THEMA | |
| Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“ | |
| Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien | |
| selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler | |
| darauf hinweisen. | |
| „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt? | |
| Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. | |
| Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war. | |
| Studie zu künstlicher Intelligenz: Bist du schwul oder was? | |
| Eine Studie sagt, ein Computer könne die sexuelle Orientierung eines | |
| Menschen an seinem Gesicht erkennen. Ist das wirklich so einfach? | |
| Big Data und Überwachung in China: Ihr werdet schon sehen | |
| Kein Land ist so avanciert, wenn es um Datennutzung geht – inklusive der | |
| Verknüpfung diverser Datenbanken. Die Regierung hat Zugriff. | |
| Die Macht der Algorithmen: Heiko Maas will das Internet bändigen | |
| Algorithmen beeinflussen Menschen im Netz. Der Justizminister will diesen | |
| Einfluss per Gesetz einschränken. Sein Nutzen ist umstritten. | |
| Ethik des autonomen Fahrens: Regeln für den Algorithmus | |
| Eine vom Verkehrsministerium eingesetzte Kommission fordert: keine | |
| Aufrechnung von Menschenleben und besseren Datenschutz. | |
| Geschlecht von Künstlichen Intelligenzen: Siri, ficken? | |
| Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich | |
| weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen aus. |