# taz.de -- Philosophin Judith Simon über IT-Ethik: „Wer bestimmt, wie Dinge… | |
> Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr | |
> von Diskriminierung – ein Thema für die Hamburger Computerethikerin | |
> Judith Simon. | |
Bild: Wenn Technik auf Diversität trifft: Automatischer Seifenspender, der dun… | |
taz: Frau Simon, Sie bekleiden eine Professur für „Ethik in der | |
Informationstechnologie“. Hat das mehr mit den [1][Gesetzen für Roboter] zu | |
tun, die der SF-Autor Isaac Asimov einmal formulierte – oder mit dem | |
[2][Datenschutz bei Facebook]? | |
Judith Simon: Tatsächlich eigentlich mit beidem. Im Moment arbeite ich mehr | |
zu Big Data und Künstlicher Intelligenz und dementsprechend auch zu | |
Datenschutz und Privatsphäre, aber auch zu Gleichheit und Schutz vor | |
Diskriminierung und ähnlichen Fragen. Und da ist Facebook natürlich einer | |
der Akteure, die da immer im Zentrum stehen. Zu Robotern arbeiten Kollegen | |
von mir, das ist nicht mein eigener Schwerpunkt, aber auch ein großes Thema | |
in der Computerethik. | |
So etwas wie der – oder eigentlich: der jüngste – [3][Nutzerdaten-Skandal | |
bei Facebook], erleichtert Ihnen das die Arbeit? | |
Für Leute, sie sich ein bisschen auskennen, war es keine Überraschung. Weil | |
man ja wusste, wie das funktioniert, welches die ökonomischen Modelle | |
hinter Facebook sind, wie die Apps funktionieren. Ein Skandal war es – aber | |
das war es auch schon vorher. Was die Sache nun nochmal in die Medien | |
gebracht hat, war wohl die schiere Menge der betroffenen Nutzer. Der | |
eigentliche Skandal sind diese Geschäftsmodelle, nicht unbedingt, dass es | |
jetzt raus gekommen ist. Aber wenn so etwas ein solches Ausmaß hat, rückt | |
es Themen für Ethik und IT oder Ethik und Digitalisierung nochmal stärker | |
ins Zentrum. | |
Das heißt, Sie müssen in Zeiten der [4][Cambridge-Analytica-Enthüllungen] | |
seltener erklären, was Ihr Job ist? | |
Genau. Es kommen aber auch viel mehr Anfragen an unsere Gruppe. | |
Seit wann gibt es denn Ihre Professur eigentlich? | |
Die ist ziemlich neu. Die Professur habe ich im Februar 2017 übernommen, | |
und die Mitarbeiter sind alle im Lauf des letzten Jahres dazu gestoßen. | |
Und wie steht es um Menschen mit vergleichbaren Gebieten in der deutschen | |
Hochschullandschaft insgesamt? | |
Da ist noch Luft nach oben. Meine Professur ist, so weit ich weiß, die | |
erste und einzige für Ethik in der Informationstechnologie an einem | |
Informatik-Institut. Es gibt natürlich noch mehr Institut und Orte, an den | |
zu IT und Gesellschaft geforscht wird, unter anderem in Berlin und München, | |
es gibt auch Institute für Medienethik, in Stuttgart etwa. In Holland gibt | |
es gerade an den technischen Universitäten einige Philosophie-Professuren, | |
die schon seit einigen Jahren stark interagieren mit Kollegen aus der | |
Informatik, aber auch anderen Ingenieurswissenschaften; dann gibt es noch | |
das Oxford Internet Institute, und in den USA gibt es eine doch schon 20 | |
Jahre alte Tradition der „Values in Design“, wo eben auch Philosophen mit | |
Informatikern zusammenarbeiten. | |
Kann – oder muss – es eigentlich eine neue Ethik geben fürs Digitale? Geht | |
es da nicht im Kern um vertraute Zutaten, nämlich darum, wie der Mensch mit | |
dem Menschen umgeht? | |
Das ist eine alte Debatte auch in der Computerethik: Ist es nur die | |
Anwendung von hergebrachten Ethiken – der Tugendethik, der Pflichtethik, | |
des Utilitarismus – auf neue Fragen? Oder muss eine neue Ethik her? Ich | |
glaube, es ist eine Mischung aus beidem. Einerseits werden im Digitalen | |
bestimmte Fragen nur verstärkt, es stellen sich gleiche Fragen unter | |
anderen Vorzeichen: nach Gleichheit, nach Freiheit, nach Gerechtigkeit. Die | |
sind insofern natürlich nicht neu. | |
Aber? | |
Was sich verändert hat, ist, dass andere Akteure ins Spiel gekommen sind: | |
Die klassischen Ethiken beziehen sich ja auf den menschlichen | |
Individual-Akteur, auf das Individuum, das handelt und in seinem Handeln | |
sich leiten lassen soll. Und nun hat man, bis zu einem gewissen Grad | |
zumindest, auch nicht-menschliche Akteure, Künstliche Intelligenz; die ist | |
natürlich nur in bedingtem Maße handlungsfähig oder intelligent. Aber | |
trotzdem sind das neue Akteure, und man hat es etwa mit verteilten | |
Entscheidungen in soziotechnischen Netzwerken zu tun. Und da braucht man | |
vielleicht eine Ethik, die auch Handeln jenseits von Individuen in den | |
Blick nimmt. | |
Bei meinen Recherchen zu diesem Gespräch bin ich auf einen interessanten, | |
wenn auch etwas nebulösen Satz gestoßen: [5][„Digitale Ethik gerät unter | |
den generellen Verdacht der Zensur.“] | |
Mir ist nicht ganz klar, was damit gemeint sein soll. | |
Mein Verdacht ist, dass es da um Redefreiheit und angebliche Sprechverbote | |
geht. Wiederum ja eine Debatte, für die es des Internets nicht erst bedurft | |
hätte. | |
Das sind natürlich heiße Debatten, aber es gibt da auch die Tendenz, die | |
Mitte zu vergessen und sich sozusagen radikal zu positionieren: also | |
entweder für totale Redefreiheit, als würde es die immer geben; bestimmte | |
Dinge sind ja gesetzlich schon abgedeckt, nationalsozialistische | |
Wiederbetätigung oder Hassrede etwa, und da gibt es ja auch gute Gründe | |
dafür, dass man nicht alles überall äußern kann. Bestimmte Dinge sind | |
tatsächlich nicht neu. | |
Zum Beispiel? | |
Die Frage, zum Beispiel, wo die Freiheit des einen endet, wann sie einen | |
anderen verletzt. Aber man muss die Dynamiken online mitdenken und im | |
Detailfall entscheiden, was das heißt, wie es zu regulieren ist und von | |
wem. Ich bin kein Freund von einfachen Antworten, und Begriffe wie Zensur | |
werden da ja auch sehr schnell als Kampfbegriffe missbraucht. Sich auf die | |
Seite derjenigen zu schlagen, die sagen: Jedes Löschen ist Zensur – das ist | |
leicht, wenn man nicht betroffen ist von Hassrede. | |
Oder Schlimmerem. | |
In Sri Lanka hat Facebook gerade erst [6][dazu beigetragen, dass Gewalt | |
zwischen Buddhisten und Muslimen eskaliert ist] – nicht absichtsvoll | |
natürlich, aber durch die Art, wie Menschen Dinge widergespiegelt werden, | |
die sie gerne hören. Das hat zu Gewalt geführt, ohne dass das irgend jemand | |
bewusst so gewünscht hätte – einfach weil Algorithmen oft das optimieren, | |
den Leuten das zu zeigen, das sie in Bann hält. Und diese Dynamik ist | |
differenzierter zu betrachten als durch so eine banale „Freie Rede versus | |
Zensur“-Debatte. | |
Sie nehmen in dieser Woche Platz auf einem Podium der Akademie der | |
Nordkirche über das Thema „Gewinner und Verlierer im digitalen Zeitalter“ … | |
wer ist denn heute wer, aus Ihrer Sicht? | |
Es ist wie so oft: Die, die schon viel haben, kriegen noch mehr, und die, | |
die wenig haben, geht es möglicherweise schlechter. Das muss nicht, aber | |
kann sich verstärken durch Digitalisierung. | |
Hat das auch etwas zu tun mit den „jungen, reichen, weißen Männern“, die … | |
[7][der Wissenschaftlerin Kate Crawford zufolge] – vorrangig die | |
Digitalisierung betreiben? | |
Wer Software entwickelt, trifft bestimmte Entscheidungen darüber, wie sie | |
funktioniert. Und da kann es zu bewussten oder unbewussten Verzerrungen | |
kommen. Es gab dieses [8][Video, in dem ein automatischer Seifenspender | |
einer schwarzen Hand, sozusagen, keine Seife gespendet hat] – weil die | |
Sensoren nur auf weiße Haut reagieren. Das ist ein erhellendes Beispiel | |
dafür, wie überhaupt nicht böse gemeinte oder einfach Design-Entscheidungen | |
dazu führen, dass Menschen diskriminiert werden. Und je weniger divers | |
Entwicklungsteams sind, umso eher passiert so etwas; je mehr weiße, reiche | |
Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr. | |
Andererseits ist das Problem selten die digitale Technologie selbst, | |
sondern der ökonomische Kontext, in dem Technologien entwickelt werden. | |
Was heißt das? | |
Wenn ich eine Art von Aufmerksamkeitsökonomie habe und versuche, Menschen | |
so lange wie möglich auf den Plattformen zu halten, kann das Segregierung | |
verstärken. Und die Frage ist immer: Wer bestimmt, wie Dinge funktionieren? | |
Wer ist Leidtragender? | |
29 May 2018 | |
## LINKS | |
[1] https://de.wikipedia.org/wiki/Robotergesetze | |
[2] /!5502609/ | |
[3] /!5489555/ | |
[4] /!5494576/ | |
[5] https://www.zukunftsinstitut.de/artikel/moral-im-netz-wir-brauchen-eine-dig… | |
[6] http://fortune.com/2018/04/22/facebook-ignored-sri-lanka-hate-speech/ | |
[7] https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-… | |
[8] https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931… | |
## AUTOREN | |
Alexander Diehl | |
## TAGS | |
Digitalisierung | |
Ethik | |
Informationstechnologie | |
Diskriminierung | |
Netzkultur | |
Big Data | |
Datenschutz | |
Geschichte | |
Internet | |
Mithulogie | |
Datenschutz | |
Datenschutzgrundverordnung | |
Schwerpunkt Meta | |
Datenschutzgrundverordnung | |
DSGVO | |
## ARTIKEL ZUM THEMA | |
Saalecker Werkstätten: Design für eine andere Zukunft | |
In Saaleck in Sachsen-Anhalt ist eine neue Design Akademie entstanden. In | |
dem alten Gebäudekomplex arbeitete früher ein nationalsozialistischer | |
Thinktank. | |
Digitalisierung in der Kirche: Ausflug ins Neuland | |
Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der | |
Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber | |
beinahe. | |
Kolumne Mithulogie: Sex ist nicht sexistisch! | |
Immer mehr Webseiten blockieren sexuelle Inhalte, um uns vor Sexismus zu | |
schützen. Doch das Gegenteil von gut ist gut zensiert. | |
Nicht notwendiger Zugriff auf Daten: „Das ist Erpressung“ | |
Facebook und Google verstoßen gegen die neue Datenschutzgrundverordnung, | |
meint Netzaktivist Max Schrems. Er fordert Milliardenstrafen. | |
Kommentar Datenschutz und DSGVO: Ein Schwert zur rechten Zeit | |
Schluss mit Hetze und Manipulation: Mit der Verordnung hat Europa ein | |
Mittel gegen die Machtposition der Techkonzerne gefunden. | |
Facebook-Datenskandal: Nun doch keine Europäer betroffen? | |
Facebook verwirrt mit der Nachricht, dass im Cambridge-Analytica-Fall | |
womöglich doch keine Daten von europäischen Nutzern geteilt wurden. | |
taz-Serie Datenschutz in der EU: Vergiss mich, Internet! | |
Firmen müssen künftig Daten löschen, wenn Kunden das möchten. Aber ob und | |
wie das umgesetzt wird, entscheiden wohl Gerichte. | |
taz-Serie Datenschutz in der EU: Er hat's erfunden | |
Jan Philipp Albrecht ist der Vordenker der neuen Datenschutzgesetze in | |
Europa. Jetzt wird der grüne Überflieger Minister in Schleswig-Holstein. |