# taz.de -- Facebook-Algorithmen sollen Leben retten: Geht es dir gut? | |
> Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz | |
> werden Posts überprüft. Nebenbei greift das Unternehmen sehr private | |
> Daten ab. | |
Bild: Die Farben trüb, das Motiv heiter – das könnte den Algorithmus verwir… | |
Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine | |
18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Facebook | |
Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und | |
beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu | |
spät. Allein im Jahr 2017 berichteten englischsprachige Medien über | |
mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen | |
Trend“; genaue Zahlen sind nicht bekannt. | |
Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen, | |
ist für das Unternehmen vor allem eines: ein Imageschaden. Im November | |
letzten Jahres hat Facebook deswegen eine neue Technologie eingeführt, die | |
mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der | |
Nutzer*innen frühzeitig erkennen und Suizide verhindern soll. | |
Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt | |
Facebook nicht nur gute PR, sondern auch [1][viele neue Daten] über seine | |
Nutzer*innen. Nur ein böser Vorwurf? Oder kann diese neue Technologie | |
wirklich Menschenleben retten? | |
Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos | |
aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich | |
darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten. | |
Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen | |
dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauc… | |
diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder | |
das Video wird an ein Team aus geschulten Moderator*innen | |
weitergeleitet. Diese können mit der möglicherweise suizidgefährdeten | |
Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freund*innen, | |
Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook | |
noch viel mehr über uns als ohnehin schon. | |
## Facebook fürchtet wohl die EU-Datenschutzverordnung | |
Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur | |
Suizidvorbeugung. Bisher konnten Nutzer*innen suizidgefährdete | |
Freund*innen melden, und Facebook sendete dann verschiedene | |
Hilfsangebote. Nun soll KI die Präventionsarbeit übernehmen. Nach | |
monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt | |
werden – außer in der EU. Auf Anfrage der taz antwortete Facebook vage, | |
ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle. | |
Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die | |
Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet. | |
„Facebook weiß aus der Vergangenheit, dass nicht nur der europäische | |
Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv | |
sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Facebook | |
schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten | |
wurde es in der EU und in Kanada wieder abgeschafft. | |
Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu | |
verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch | |
Nachahmungstaten verhindert werden könnten? | |
Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool | |
funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis | |
ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die | |
Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung | |
angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren | |
aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen | |
Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“ | |
## Tool könnte das Thema Suizid enttabuisieren | |
10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die | |
Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es | |
die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25], | |
einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er | |
sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema | |
Suizid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt | |
er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber | |
kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein | |
Helfender über Facebook eine Person anspricht, kann das dazu führen, dass | |
Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das | |
Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber | |
Hilfe suchen, stellt gleichzeitig eine große Gefahr dar. | |
Wenn Facebook eine als suizidgefährdet eingestufte Person nicht erreichen | |
kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein | |
falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die | |
Polizei vor der Haustür. Vor allem, wenn die Person gar nicht | |
suizidgefährdet ist, kann das folgenschwere Auswirkungen für die | |
Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“, | |
sagt Spielkamp. | |
Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr. | |
„Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die | |
Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das | |
Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon | |
abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu | |
teilen, befürchtet Brockerhoff. | |
Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die | |
Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können | |
alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren | |
Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten | |
Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25] | |
speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das | |
verschafft uns das Vertrauen der Klienten.“ | |
## Selbst der Schutz hat seinen Preis | |
Mark Zuckerberg postete auf Facebook, dass allein im ersten Monat Kontakt | |
mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele | |
Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese | |
Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus | |
Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt | |
werden. | |
Die Wissenschaftler Christopher Danforth und Andrew Reece von den | |
Universitäten Harvard und Vermont fanden im Rahmen ihrer Studie heraus, | |
dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv | |
ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter | |
benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten | |
und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der | |
Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven | |
erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven | |
fälschlicherweise als psychisch krank markiert. | |
Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So | |
funktioniert das soziale Netzwerk. Facebook verfolgt das Verhalten seiner | |
Nutzer*innen sehr genau und will nun daraus auf Suizidgefährdung | |
schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der | |
Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das | |
entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende | |
Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp. | |
Ähnlich wie der Umgang mit Hate Speech stellt der Umgang mit Suiziden | |
Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden | |
Nutzer*innen und den Unmengen gesammelter Daten hat das soziale Netzwerk | |
viel Macht. Spielkamp wünscht sich, dass sich Facebook mit | |
Wissenschaftler*innen für eine Begleitforschung zusammentut. Diese | |
könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert | |
und welche positiven, aber auch negativen Effekte sie hat. „Dann kann | |
Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder | |
eingestellt werden“, meint Spielkamp. | |
## Too big to fail? | |
Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der | |
Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den | |
eigenen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich | |
nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche | |
Schutz Einzelner auf Kosten vieler. Die Frage des Datenschutzes rückt in | |
den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum | |
Vorschein: Wie viel ist ein Menschenleben wert? | |
1 Feb 2018 | |
## LINKS | |
[1] /!5363681/ | |
## AUTOREN | |
Carolina Schwarz | |
## TAGS | |
Schwerpunkt Meta | |
Schwerpunkt Meta | |
Daten | |
Datenschutz | |
Suizid | |
Online-Werbung | |
Suizid | |
Suizid | |
Lesestück Meinung und Analyse | |
Schwerpunkt Meta | |
Schwerpunkt Meta | |
Digitalisierung | |
## ARTIKEL ZUM THEMA | |
Gruppe für Angehörige nach Suizid: Wenn der Abschied fehlt | |
Bei Agus e.V. treffen sich Menschen, die einen Angehörigen durch Suizid | |
verloren haben. Hier können sie über ihre Gefühle sprechen. | |
Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Komplex | |
Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche | |
Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google. | |
Berichterstattung zum Tod von Avicii: Jetzt mit krassen Details!!! | |
Die Art, wie verschiedene Medien über den möglichen Suizid des DJs Avicii | |
berichten, ist nicht nur pietätlos, sondern auch gefährlich. | |
Debatte Künstliche Intelligenz: Wir können noch Frühstück machen | |
Stelbstfahrende Autos und Pflegeroboter – KIs machen oft Angst. Dem können | |
wir entgegenwirken: mit Regeln und dem Fokus auf menschliche Fähigkeiten. | |
Urteil des Landgerichts Berlin: Schlappe für Facebook | |
Firmen dürfen personenbezogene Daten nur verwenden, wenn die Betroffenen | |
zugestimmt haben. Das Berliner Gericht sieht Facebook in der Pflicht, | |
nachzubessern. | |
Big Data für die Forschung: Bringschuld für Datenspenden | |
Bei Big Data sieht der Deutsche Ethikrat Chancen für die Wissenschaft. Die | |
Mehrheit des Rats möchte möglichst freien Zugang für Forscher. | |
Max Schrems über das Facebook-Urteil: „Von allen guten Geistern verlassen“ | |
Der Jurist Max Schrems darf zwar keine Sammelklage gegen Facebook in Wien | |
einreichen, aber eine einzelne. Damit sei ein wichtiger Punkt geklärt, so | |
der Österreicher. | |
Theaterfestival „Spy on me“ in Berlin: Wer sich nackig macht, wird belohnt | |
Apps und Geräte sammeln Daten. Am besten nutzt man sie nicht. Nur: Sie sind | |
praktisch und machen Spaß. Das HAU hat diesen Zwiespalt erkundet. |