| # taz.de -- Philosophin Judith Simon über IT-Ethik: „Wer bestimmt, wie Dinge… | |
| > Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr | |
| > von Diskriminierung – ein Thema für die Hamburger Computerethikerin | |
| > Judith Simon. | |
| Bild: Wenn Technik auf Diversität trifft: Automatischer Seifenspender, der dun… | |
| taz: Frau Simon, Sie bekleiden eine Professur für „Ethik in der | |
| Informationstechnologie“. Hat das mehr mit den [1][Gesetzen für Roboter] zu | |
| tun, die der SF-Autor Isaac Asimov einmal formulierte – oder mit dem | |
| [2][Datenschutz bei Facebook]? | |
| Judith Simon: Tatsächlich eigentlich mit beidem. Im Moment arbeite ich mehr | |
| zu Big Data und Künstlicher Intelligenz und dementsprechend auch zu | |
| Datenschutz und Privatsphäre, aber auch zu Gleichheit und Schutz vor | |
| Diskriminierung und ähnlichen Fragen. Und da ist Facebook natürlich einer | |
| der Akteure, die da immer im Zentrum stehen. Zu Robotern arbeiten Kollegen | |
| von mir, das ist nicht mein eigener Schwerpunkt, aber auch ein großes Thema | |
| in der Computerethik. | |
| So etwas wie der – oder eigentlich: der jüngste – [3][Nutzerdaten-Skandal | |
| bei Facebook], erleichtert Ihnen das die Arbeit? | |
| Für Leute, sie sich ein bisschen auskennen, war es keine Überraschung. Weil | |
| man ja wusste, wie das funktioniert, welches die ökonomischen Modelle | |
| hinter Facebook sind, wie die Apps funktionieren. Ein Skandal war es – aber | |
| das war es auch schon vorher. Was die Sache nun nochmal in die Medien | |
| gebracht hat, war wohl die schiere Menge der betroffenen Nutzer. Der | |
| eigentliche Skandal sind diese Geschäftsmodelle, nicht unbedingt, dass es | |
| jetzt raus gekommen ist. Aber wenn so etwas ein solches Ausmaß hat, rückt | |
| es Themen für Ethik und IT oder Ethik und Digitalisierung nochmal stärker | |
| ins Zentrum. | |
| Das heißt, Sie müssen in Zeiten der [4][Cambridge-Analytica-Enthüllungen] | |
| seltener erklären, was Ihr Job ist? | |
| Genau. Es kommen aber auch viel mehr Anfragen an unsere Gruppe. | |
| Seit wann gibt es denn Ihre Professur eigentlich? | |
| Die ist ziemlich neu. Die Professur habe ich im Februar 2017 übernommen, | |
| und die Mitarbeiter sind alle im Lauf des letzten Jahres dazu gestoßen. | |
| Und wie steht es um Menschen mit vergleichbaren Gebieten in der deutschen | |
| Hochschullandschaft insgesamt? | |
| Da ist noch Luft nach oben. Meine Professur ist, so weit ich weiß, die | |
| erste und einzige für Ethik in der Informationstechnologie an einem | |
| Informatik-Institut. Es gibt natürlich noch mehr Institut und Orte, an den | |
| zu IT und Gesellschaft geforscht wird, unter anderem in Berlin und München, | |
| es gibt auch Institute für Medienethik, in Stuttgart etwa. In Holland gibt | |
| es gerade an den technischen Universitäten einige Philosophie-Professuren, | |
| die schon seit einigen Jahren stark interagieren mit Kollegen aus der | |
| Informatik, aber auch anderen Ingenieurswissenschaften; dann gibt es noch | |
| das Oxford Internet Institute, und in den USA gibt es eine doch schon 20 | |
| Jahre alte Tradition der „Values in Design“, wo eben auch Philosophen mit | |
| Informatikern zusammenarbeiten. | |
| Kann – oder muss – es eigentlich eine neue Ethik geben fürs Digitale? Geht | |
| es da nicht im Kern um vertraute Zutaten, nämlich darum, wie der Mensch mit | |
| dem Menschen umgeht? | |
| Das ist eine alte Debatte auch in der Computerethik: Ist es nur die | |
| Anwendung von hergebrachten Ethiken – der Tugendethik, der Pflichtethik, | |
| des Utilitarismus – auf neue Fragen? Oder muss eine neue Ethik her? Ich | |
| glaube, es ist eine Mischung aus beidem. Einerseits werden im Digitalen | |
| bestimmte Fragen nur verstärkt, es stellen sich gleiche Fragen unter | |
| anderen Vorzeichen: nach Gleichheit, nach Freiheit, nach Gerechtigkeit. Die | |
| sind insofern natürlich nicht neu. | |
| Aber? | |
| Was sich verändert hat, ist, dass andere Akteure ins Spiel gekommen sind: | |
| Die klassischen Ethiken beziehen sich ja auf den menschlichen | |
| Individual-Akteur, auf das Individuum, das handelt und in seinem Handeln | |
| sich leiten lassen soll. Und nun hat man, bis zu einem gewissen Grad | |
| zumindest, auch nicht-menschliche Akteure, Künstliche Intelligenz; die ist | |
| natürlich nur in bedingtem Maße handlungsfähig oder intelligent. Aber | |
| trotzdem sind das neue Akteure, und man hat es etwa mit verteilten | |
| Entscheidungen in soziotechnischen Netzwerken zu tun. Und da braucht man | |
| vielleicht eine Ethik, die auch Handeln jenseits von Individuen in den | |
| Blick nimmt. | |
| Bei meinen Recherchen zu diesem Gespräch bin ich auf einen interessanten, | |
| wenn auch etwas nebulösen Satz gestoßen: [5][„Digitale Ethik gerät unter | |
| den generellen Verdacht der Zensur.“] | |
| Mir ist nicht ganz klar, was damit gemeint sein soll. | |
| Mein Verdacht ist, dass es da um Redefreiheit und angebliche Sprechverbote | |
| geht. Wiederum ja eine Debatte, für die es des Internets nicht erst bedurft | |
| hätte. | |
| Das sind natürlich heiße Debatten, aber es gibt da auch die Tendenz, die | |
| Mitte zu vergessen und sich sozusagen radikal zu positionieren: also | |
| entweder für totale Redefreiheit, als würde es die immer geben; bestimmte | |
| Dinge sind ja gesetzlich schon abgedeckt, nationalsozialistische | |
| Wiederbetätigung oder Hassrede etwa, und da gibt es ja auch gute Gründe | |
| dafür, dass man nicht alles überall äußern kann. Bestimmte Dinge sind | |
| tatsächlich nicht neu. | |
| Zum Beispiel? | |
| Die Frage, zum Beispiel, wo die Freiheit des einen endet, wann sie einen | |
| anderen verletzt. Aber man muss die Dynamiken online mitdenken und im | |
| Detailfall entscheiden, was das heißt, wie es zu regulieren ist und von | |
| wem. Ich bin kein Freund von einfachen Antworten, und Begriffe wie Zensur | |
| werden da ja auch sehr schnell als Kampfbegriffe missbraucht. Sich auf die | |
| Seite derjenigen zu schlagen, die sagen: Jedes Löschen ist Zensur – das ist | |
| leicht, wenn man nicht betroffen ist von Hassrede. | |
| Oder Schlimmerem. | |
| In Sri Lanka hat Facebook gerade erst [6][dazu beigetragen, dass Gewalt | |
| zwischen Buddhisten und Muslimen eskaliert ist] – nicht absichtsvoll | |
| natürlich, aber durch die Art, wie Menschen Dinge widergespiegelt werden, | |
| die sie gerne hören. Das hat zu Gewalt geführt, ohne dass das irgend jemand | |
| bewusst so gewünscht hätte – einfach weil Algorithmen oft das optimieren, | |
| den Leuten das zu zeigen, das sie in Bann hält. Und diese Dynamik ist | |
| differenzierter zu betrachten als durch so eine banale „Freie Rede versus | |
| Zensur“-Debatte. | |
| Sie nehmen in dieser Woche Platz auf einem Podium der Akademie der | |
| Nordkirche über das Thema „Gewinner und Verlierer im digitalen Zeitalter“ … | |
| wer ist denn heute wer, aus Ihrer Sicht? | |
| Es ist wie so oft: Die, die schon viel haben, kriegen noch mehr, und die, | |
| die wenig haben, geht es möglicherweise schlechter. Das muss nicht, aber | |
| kann sich verstärken durch Digitalisierung. | |
| Hat das auch etwas zu tun mit den „jungen, reichen, weißen Männern“, die … | |
| [7][der Wissenschaftlerin Kate Crawford zufolge] – vorrangig die | |
| Digitalisierung betreiben? | |
| Wer Software entwickelt, trifft bestimmte Entscheidungen darüber, wie sie | |
| funktioniert. Und da kann es zu bewussten oder unbewussten Verzerrungen | |
| kommen. Es gab dieses [8][Video, in dem ein automatischer Seifenspender | |
| einer schwarzen Hand, sozusagen, keine Seife gespendet hat] – weil die | |
| Sensoren nur auf weiße Haut reagieren. Das ist ein erhellendes Beispiel | |
| dafür, wie überhaupt nicht böse gemeinte oder einfach Design-Entscheidungen | |
| dazu führen, dass Menschen diskriminiert werden. Und je weniger divers | |
| Entwicklungsteams sind, umso eher passiert so etwas; je mehr weiße, reiche | |
| Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr. | |
| Andererseits ist das Problem selten die digitale Technologie selbst, | |
| sondern der ökonomische Kontext, in dem Technologien entwickelt werden. | |
| Was heißt das? | |
| Wenn ich eine Art von Aufmerksamkeitsökonomie habe und versuche, Menschen | |
| so lange wie möglich auf den Plattformen zu halten, kann das Segregierung | |
| verstärken. Und die Frage ist immer: Wer bestimmt, wie Dinge funktionieren? | |
| Wer ist Leidtragender? | |
| 29 May 2018 | |
| ## LINKS | |
| [1] https://de.wikipedia.org/wiki/Robotergesetze | |
| [2] /!5502609/ | |
| [3] /!5489555/ | |
| [4] /!5494576/ | |
| [5] https://www.zukunftsinstitut.de/artikel/moral-im-netz-wir-brauchen-eine-dig… | |
| [6] http://fortune.com/2018/04/22/facebook-ignored-sri-lanka-hate-speech/ | |
| [7] https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-… | |
| [8] https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931… | |
| ## AUTOREN | |
| Alexander Diehl | |
| ## TAGS | |
| Digitalisierung | |
| Ethik | |
| Informationstechnologie | |
| Diskriminierung | |
| Netzkultur | |
| Big Data | |
| Datenschutz | |
| Geschichte | |
| Internet | |
| Mithulogie | |
| Datenschutz | |
| Datenschutzgrundverordnung | |
| Schwerpunkt Meta | |
| Datenschutzgrundverordnung | |
| DSGVO | |
| ## ARTIKEL ZUM THEMA | |
| Saalecker Werkstätten: Design für eine andere Zukunft | |
| In Saaleck in Sachsen-Anhalt ist eine neue Design Akademie entstanden. In | |
| dem alten Gebäudekomplex arbeitete früher ein nationalsozialistischer | |
| Thinktank. | |
| Digitalisierung in der Kirche: Ausflug ins Neuland | |
| Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der | |
| Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber | |
| beinahe. | |
| Kolumne Mithulogie: Sex ist nicht sexistisch! | |
| Immer mehr Webseiten blockieren sexuelle Inhalte, um uns vor Sexismus zu | |
| schützen. Doch das Gegenteil von gut ist gut zensiert. | |
| Nicht notwendiger Zugriff auf Daten: „Das ist Erpressung“ | |
| Facebook und Google verstoßen gegen die neue Datenschutzgrundverordnung, | |
| meint Netzaktivist Max Schrems. Er fordert Milliardenstrafen. | |
| Kommentar Datenschutz und DSGVO: Ein Schwert zur rechten Zeit | |
| Schluss mit Hetze und Manipulation: Mit der Verordnung hat Europa ein | |
| Mittel gegen die Machtposition der Techkonzerne gefunden. | |
| Facebook-Datenskandal: Nun doch keine Europäer betroffen? | |
| Facebook verwirrt mit der Nachricht, dass im Cambridge-Analytica-Fall | |
| womöglich doch keine Daten von europäischen Nutzern geteilt wurden. | |
| taz-Serie Datenschutz in der EU: Vergiss mich, Internet! | |
| Firmen müssen künftig Daten löschen, wenn Kunden das möchten. Aber ob und | |
| wie das umgesetzt wird, entscheiden wohl Gerichte. | |
| taz-Serie Datenschutz in der EU: Er hat's erfunden | |
| Jan Philipp Albrecht ist der Vordenker der neuen Datenschutzgesetze in | |
| Europa. Jetzt wird der grüne Überflieger Minister in Schleswig-Holstein. |