Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Philosophin Judith Simon über IT-Ethik: „Wer bestimmt, wie Dinge…
> Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr
> von Diskriminierung – ein Thema für die Hamburger Computerethikerin
> Judith Simon.
Bild: Wenn Technik auf Diversität trifft: Automatischer Seifenspender, der dun…
taz: Frau Simon, Sie bekleiden eine Professur für „Ethik in der
Informationstechnologie“. Hat das mehr mit den [1][Gesetzen für Roboter] zu
tun, die der SF-Autor Isaac Asimov einmal formulierte – oder mit dem
[2][Datenschutz bei Facebook]?
Judith Simon: Tatsächlich eigentlich mit beidem. Im Moment arbeite ich mehr
zu Big Data und Künstlicher Intelligenz und dementsprechend auch zu
Datenschutz und Privatsphäre, aber auch zu Gleichheit und Schutz vor
Diskriminierung und ähnlichen Fragen. Und da ist Facebook natürlich einer
der Akteure, die da immer im Zentrum stehen. Zu Robotern arbeiten Kollegen
von mir, das ist nicht mein eigener Schwerpunkt, aber auch ein großes Thema
in der Computerethik.
So etwas wie der – oder eigentlich: der jüngste – [3][Nutzerdaten-Skandal
bei Facebook], erleichtert Ihnen das die Arbeit?
Für Leute, sie sich ein bisschen auskennen, war es keine Überraschung. Weil
man ja wusste, wie das funktioniert, welches die ökonomischen Modelle
hinter Facebook sind, wie die Apps funktionieren. Ein Skandal war es – aber
das war es auch schon vorher. Was die Sache nun nochmal in die Medien
gebracht hat, war wohl die schiere Menge der betroffenen Nutzer. Der
eigentliche Skandal sind diese Geschäftsmodelle, nicht unbedingt, dass es
jetzt raus gekommen ist. Aber wenn so etwas ein solches Ausmaß hat, rückt
es Themen für Ethik und IT oder Ethik und Digitalisierung nochmal stärker
ins Zentrum.
Das heißt, Sie müssen in Zeiten der [4][Cambridge-Analytica-Enthüllungen]
seltener erklären, was Ihr Job ist?
Genau. Es kommen aber auch viel mehr Anfragen an unsere Gruppe.
Seit wann gibt es denn Ihre Professur eigentlich?
Die ist ziemlich neu. Die Professur habe ich im Februar 2017 übernommen,
und die Mitarbeiter sind alle im Lauf des letzten Jahres dazu gestoßen.
Und wie steht es um Menschen mit vergleichbaren Gebieten in der deutschen
Hochschullandschaft insgesamt?
Da ist noch Luft nach oben. Meine Professur ist, so weit ich weiß, die
erste und einzige für Ethik in der Informationstechnologie an einem
Informatik-Institut. Es gibt natürlich noch mehr Institut und Orte, an den
zu IT und Gesellschaft geforscht wird, unter anderem in Berlin und München,
es gibt auch Institute für Medienethik, in Stuttgart etwa. In Holland gibt
es gerade an den technischen Universitäten einige Philosophie-Professuren,
die schon seit einigen Jahren stark interagieren mit Kollegen aus der
Informatik, aber auch anderen Ingenieurswissenschaften; dann gibt es noch
das Oxford Internet Institute, und in den USA gibt es eine doch schon 20
Jahre alte Tradition der „Values in Design“, wo eben auch Philosophen mit
Informatikern zusammenarbeiten.
Kann – oder muss – es eigentlich eine neue Ethik geben fürs Digitale? Geht
es da nicht im Kern um vertraute Zutaten, nämlich darum, wie der Mensch mit
dem Menschen umgeht?
Das ist eine alte Debatte auch in der Computerethik: Ist es nur die
Anwendung von hergebrachten Ethiken – der Tugendethik, der Pflichtethik,
des Utilitarismus – auf neue Fragen? Oder muss eine neue Ethik her? Ich
glaube, es ist eine Mischung aus beidem. Einerseits werden im Digitalen
bestimmte Fragen nur verstärkt, es stellen sich gleiche Fragen unter
anderen Vorzeichen: nach Gleichheit, nach Freiheit, nach Gerechtigkeit. Die
sind insofern natürlich nicht neu.
Aber?
Was sich verändert hat, ist, dass andere Akteure ins Spiel gekommen sind:
Die klassischen Ethiken beziehen sich ja auf den menschlichen
Individual-Akteur, auf das Individuum, das handelt und in seinem Handeln
sich leiten lassen soll. Und nun hat man, bis zu einem gewissen Grad
zumindest, auch nicht-menschliche Akteure, Künstliche Intelligenz; die ist
natürlich nur in bedingtem Maße handlungsfähig oder intelligent. Aber
trotzdem sind das neue Akteure, und man hat es etwa mit verteilten
Entscheidungen in soziotechnischen Netzwerken zu tun. Und da braucht man
vielleicht eine Ethik, die auch Handeln jenseits von Individuen in den
Blick nimmt.
Bei meinen Recherchen zu diesem Gespräch bin ich auf einen interessanten,
wenn auch etwas nebulösen Satz gestoßen: [5][„Digitale Ethik gerät unter
den generellen Verdacht der Zensur.“]
Mir ist nicht ganz klar, was damit gemeint sein soll.
Mein Verdacht ist, dass es da um Redefreiheit und angebliche Sprechverbote
geht. Wiederum ja eine Debatte, für die es des Internets nicht erst bedurft
hätte.
Das sind natürlich heiße Debatten, aber es gibt da auch die Tendenz, die
Mitte zu vergessen und sich sozusagen radikal zu positionieren: also
entweder für totale Redefreiheit, als würde es die immer geben; bestimmte
Dinge sind ja gesetzlich schon abgedeckt, nationalsozialistische
Wiederbetätigung oder Hassrede etwa, und da gibt es ja auch gute Gründe
dafür, dass man nicht alles überall äußern kann. Bestimmte Dinge sind
tatsächlich nicht neu.
Zum Beispiel?
Die Frage, zum Beispiel, wo die Freiheit des einen endet, wann sie einen
anderen verletzt. Aber man muss die Dynamiken online mitdenken und im
Detailfall entscheiden, was das heißt, wie es zu regulieren ist und von
wem. Ich bin kein Freund von einfachen Antworten, und Begriffe wie Zensur
werden da ja auch sehr schnell als Kampfbegriffe missbraucht. Sich auf die
Seite derjenigen zu schlagen, die sagen: Jedes Löschen ist Zensur – das ist
leicht, wenn man nicht betroffen ist von Hassrede.
Oder Schlimmerem.
In Sri Lanka hat Facebook gerade erst [6][dazu beigetragen, dass Gewalt
zwischen Buddhisten und Muslimen eskaliert ist] – nicht absichtsvoll
natürlich, aber durch die Art, wie Menschen Dinge widergespiegelt werden,
die sie gerne hören. Das hat zu Gewalt geführt, ohne dass das irgend jemand
bewusst so gewünscht hätte – einfach weil Algorithmen oft das optimieren,
den Leuten das zu zeigen, das sie in Bann hält. Und diese Dynamik ist
differenzierter zu betrachten als durch so eine banale „Freie Rede versus
Zensur“-Debatte.
Sie nehmen in dieser Woche Platz auf einem Podium der Akademie der
Nordkirche über das Thema „Gewinner und Verlierer im digitalen Zeitalter“ …
wer ist denn heute wer, aus Ihrer Sicht?
Es ist wie so oft: Die, die schon viel haben, kriegen noch mehr, und die,
die wenig haben, geht es möglicherweise schlechter. Das muss nicht, aber
kann sich verstärken durch Digitalisierung.
Hat das auch etwas zu tun mit den „jungen, reichen, weißen Männern“, die …
[7][der Wissenschaftlerin Kate Crawford zufolge] – vorrangig die
Digitalisierung betreiben?
Wer Software entwickelt, trifft bestimmte Entscheidungen darüber, wie sie
funktioniert. Und da kann es zu bewussten oder unbewussten Verzerrungen
kommen. Es gab dieses [8][Video, in dem ein automatischer Seifenspender
einer schwarzen Hand, sozusagen, keine Seife gespendet hat] – weil die
Sensoren nur auf weiße Haut reagieren. Das ist ein erhellendes Beispiel
dafür, wie überhaupt nicht böse gemeinte oder einfach Design-Entscheidungen
dazu führen, dass Menschen diskriminiert werden. Und je weniger divers
Entwicklungsteams sind, umso eher passiert so etwas; je mehr weiße, reiche
Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr.
Andererseits ist das Problem selten die digitale Technologie selbst,
sondern der ökonomische Kontext, in dem Technologien entwickelt werden.
Was heißt das?
Wenn ich eine Art von Aufmerksamkeitsökonomie habe und versuche, Menschen
so lange wie möglich auf den Plattformen zu halten, kann das Segregierung
verstärken. Und die Frage ist immer: Wer bestimmt, wie Dinge funktionieren?
Wer ist Leidtragender?
29 May 2018
## LINKS
[1] https://de.wikipedia.org/wiki/Robotergesetze
[2] /!5502609/
[3] /!5489555/
[4] /!5494576/
[5] https://www.zukunftsinstitut.de/artikel/moral-im-netz-wir-brauchen-eine-dig…
[6] http://fortune.com/2018/04/22/facebook-ignored-sri-lanka-hate-speech/
[7] https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-…
[8] https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931…
## AUTOREN
Alexander Diehl
## TAGS
Digitalisierung
Ethik
Informationstechnologie
Diskriminierung
Netzkultur
Big Data
Datenschutz
Geschichte
Internet
Mithulogie
Datenschutz
Datenschutzgrundverordnung
Schwerpunkt Meta
Datenschutzgrundverordnung
DSGVO
## ARTIKEL ZUM THEMA
Saalecker Werkstätten: Design für eine andere Zukunft
In Saaleck in Sachsen-Anhalt ist eine neue Design Akademie entstanden. In
dem alten Gebäudekomplex arbeitete früher ein nationalsozialistischer
Thinktank.
Digitalisierung in der Kirche: Ausflug ins Neuland
Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der
Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber
beinahe.
Kolumne Mithulogie: Sex ist nicht sexistisch!
Immer mehr Webseiten blockieren sexuelle Inhalte, um uns vor Sexismus zu
schützen. Doch das Gegenteil von gut ist gut zensiert.
Nicht notwendiger Zugriff auf Daten: „Das ist Erpressung“
Facebook und Google verstoßen gegen die neue Datenschutzgrundverordnung,
meint Netzaktivist Max Schrems. Er fordert Milliardenstrafen.
Kommentar Datenschutz und DSGVO: Ein Schwert zur rechten Zeit
Schluss mit Hetze und Manipulation: Mit der Verordnung hat Europa ein
Mittel gegen die Machtposition der Techkonzerne gefunden.
Facebook-Datenskandal: Nun doch keine Europäer betroffen?
Facebook verwirrt mit der Nachricht, dass im Cambridge-Analytica-Fall
womöglich doch keine Daten von europäischen Nutzern geteilt wurden.
taz-Serie Datenschutz in der EU: Vergiss mich, Internet!
Firmen müssen künftig Daten löschen, wenn Kunden das möchten. Aber ob und
wie das umgesetzt wird, entscheiden wohl Gerichte.
taz-Serie Datenschutz in der EU: Er hat's erfunden
Jan Philipp Albrecht ist der Vordenker der neuen Datenschutzgesetze in
Europa. Jetzt wird der grüne Überflieger Minister in Schleswig-Holstein.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.