| # taz.de -- Facebook-Algorithmen sollen Leben retten: Geht es dir gut? | |
| > Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz | |
| > werden Posts überprüft. Nebenbei greift das Unternehmen sehr private | |
| > Daten ab. | |
| Bild: Die Farben trüb, das Motiv heiter – das könnte den Algorithmus verwir… | |
| Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine | |
| 18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Facebook | |
| Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und | |
| beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu | |
| spät. Allein im Jahr 2017 berichteten englischsprachige Medien über | |
| mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen | |
| Trend“; genaue Zahlen sind nicht bekannt. | |
| Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen, | |
| ist für das Unternehmen vor allem eines: ein Imageschaden. Im November | |
| letzten Jahres hat Facebook deswegen eine neue Technologie eingeführt, die | |
| mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der | |
| Nutzer*innen frühzeitig erkennen und Suizide verhindern soll. | |
| Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt | |
| Facebook nicht nur gute PR, sondern auch [1][viele neue Daten] über seine | |
| Nutzer*innen. Nur ein böser Vorwurf? Oder kann diese neue Technologie | |
| wirklich Menschenleben retten? | |
| Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos | |
| aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich | |
| darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten. | |
| Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen | |
| dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauc… | |
| diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder | |
| das Video wird an ein Team aus geschulten Moderator*innen | |
| weitergeleitet. Diese können mit der möglicherweise suizidgefährdeten | |
| Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freund*innen, | |
| Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook | |
| noch viel mehr über uns als ohnehin schon. | |
| ## Facebook fürchtet wohl die EU-Datenschutzverordnung | |
| Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur | |
| Suizidvorbeugung. Bisher konnten Nutzer*innen suizidgefährdete | |
| Freund*innen melden, und Facebook sendete dann verschiedene | |
| Hilfsangebote. Nun soll KI die Präventionsarbeit übernehmen. Nach | |
| monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt | |
| werden – außer in der EU. Auf Anfrage der taz antwortete Facebook vage, | |
| ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle. | |
| Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die | |
| Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet. | |
| „Facebook weiß aus der Vergangenheit, dass nicht nur der europäische | |
| Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv | |
| sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Facebook | |
| schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten | |
| wurde es in der EU und in Kanada wieder abgeschafft. | |
| Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu | |
| verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch | |
| Nachahmungstaten verhindert werden könnten? | |
| Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool | |
| funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis | |
| ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die | |
| Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung | |
| angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren | |
| aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen | |
| Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“ | |
| ## Tool könnte das Thema Suizid enttabuisieren | |
| 10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die | |
| Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es | |
| die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25], | |
| einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er | |
| sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema | |
| Suizid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt | |
| er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber | |
| kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein | |
| Helfender über Facebook eine Person anspricht, kann das dazu führen, dass | |
| Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das | |
| Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber | |
| Hilfe suchen, stellt gleichzeitig eine große Gefahr dar. | |
| Wenn Facebook eine als suizidgefährdet eingestufte Person nicht erreichen | |
| kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein | |
| falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die | |
| Polizei vor der Haustür. Vor allem, wenn die Person gar nicht | |
| suizidgefährdet ist, kann das folgenschwere Auswirkungen für die | |
| Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“, | |
| sagt Spielkamp. | |
| Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr. | |
| „Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die | |
| Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das | |
| Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon | |
| abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu | |
| teilen, befürchtet Brockerhoff. | |
| Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die | |
| Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können | |
| alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren | |
| Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten | |
| Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25] | |
| speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das | |
| verschafft uns das Vertrauen der Klienten.“ | |
| ## Selbst der Schutz hat seinen Preis | |
| Mark Zuckerberg postete auf Facebook, dass allein im ersten Monat Kontakt | |
| mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele | |
| Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese | |
| Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus | |
| Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt | |
| werden. | |
| Die Wissenschaftler Christopher Danforth und Andrew Reece von den | |
| Universitäten Harvard und Vermont fanden im Rahmen ihrer Studie heraus, | |
| dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv | |
| ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter | |
| benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten | |
| und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der | |
| Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven | |
| erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven | |
| fälschlicherweise als psychisch krank markiert. | |
| Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So | |
| funktioniert das soziale Netzwerk. Facebook verfolgt das Verhalten seiner | |
| Nutzer*innen sehr genau und will nun daraus auf Suizidgefährdung | |
| schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der | |
| Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das | |
| entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende | |
| Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp. | |
| Ähnlich wie der Umgang mit Hate Speech stellt der Umgang mit Suiziden | |
| Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden | |
| Nutzer*innen und den Unmengen gesammelter Daten hat das soziale Netzwerk | |
| viel Macht. Spielkamp wünscht sich, dass sich Facebook mit | |
| Wissenschaftler*innen für eine Begleitforschung zusammentut. Diese | |
| könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert | |
| und welche positiven, aber auch negativen Effekte sie hat. „Dann kann | |
| Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder | |
| eingestellt werden“, meint Spielkamp. | |
| ## Too big to fail? | |
| Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der | |
| Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den | |
| eigenen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich | |
| nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche | |
| Schutz Einzelner auf Kosten vieler. Die Frage des Datenschutzes rückt in | |
| den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum | |
| Vorschein: Wie viel ist ein Menschenleben wert? | |
| 1 Feb 2018 | |
| ## LINKS | |
| [1] /!5363681/ | |
| ## AUTOREN | |
| Carolina Schwarz | |
| ## TAGS | |
| Schwerpunkt Meta | |
| Schwerpunkt Meta | |
| Daten | |
| Datenschutz | |
| Suizid | |
| Online-Werbung | |
| Suizid | |
| Suizid | |
| Lesestück Meinung und Analyse | |
| Schwerpunkt Meta | |
| Schwerpunkt Meta | |
| Digitalisierung | |
| ## ARTIKEL ZUM THEMA | |
| Gruppe für Angehörige nach Suizid: Wenn der Abschied fehlt | |
| Bei Agus e.V. treffen sich Menschen, die einen Angehörigen durch Suizid | |
| verloren haben. Hier können sie über ihre Gefühle sprechen. | |
| Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Komplex | |
| Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche | |
| Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google. | |
| Berichterstattung zum Tod von Avicii: Jetzt mit krassen Details!!! | |
| Die Art, wie verschiedene Medien über den möglichen Suizid des DJs Avicii | |
| berichten, ist nicht nur pietätlos, sondern auch gefährlich. | |
| Debatte Künstliche Intelligenz: Wir können noch Frühstück machen | |
| Stelbstfahrende Autos und Pflegeroboter – KIs machen oft Angst. Dem können | |
| wir entgegenwirken: mit Regeln und dem Fokus auf menschliche Fähigkeiten. | |
| Urteil des Landgerichts Berlin: Schlappe für Facebook | |
| Firmen dürfen personenbezogene Daten nur verwenden, wenn die Betroffenen | |
| zugestimmt haben. Das Berliner Gericht sieht Facebook in der Pflicht, | |
| nachzubessern. | |
| Big Data für die Forschung: Bringschuld für Datenspenden | |
| Bei Big Data sieht der Deutsche Ethikrat Chancen für die Wissenschaft. Die | |
| Mehrheit des Rats möchte möglichst freien Zugang für Forscher. | |
| Max Schrems über das Facebook-Urteil: „Von allen guten Geistern verlassen“ | |
| Der Jurist Max Schrems darf zwar keine Sammelklage gegen Facebook in Wien | |
| einreichen, aber eine einzelne. Damit sei ein wichtiger Punkt geklärt, so | |
| der Österreicher. | |
| Theaterfestival „Spy on me“ in Berlin: Wer sich nackig macht, wird belohnt | |
| Apps und Geräte sammeln Daten. Am besten nutzt man sie nicht. Nur: Sie sind | |
| praktisch und machen Spaß. Das HAU hat diesen Zwiespalt erkundet. |