Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Facebook-Algorithmen sollen Leben retten: Geht es dir gut?
> Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz
> werden Posts überprüft. Nebenbei greift das Unternehmen sehr private
> Daten ab.
Bild: Die Farben trüb, das Motiv heiter – das könnte den Algorithmus verwir…
Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine
18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Facebook
Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und
beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu
spät. Allein im Jahr 2017 berichteten englischsprachige Medien über
mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen
Trend“; genaue Zahlen sind nicht bekannt.
Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen,
ist für das Unternehmen vor allem eines: ein Imageschaden. Im November
letzten Jahres hat Facebook deswegen eine neue Technologie eingeführt, die
mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der
Nutzer*innen frühzeitig erkennen und Suizide verhindern soll.
Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt
Facebook nicht nur gute PR, sondern auch [1][viele neue Daten] über seine
Nutzer*innen. Nur ein böser Vorwurf? Oder kann diese neue Technologie
wirklich Menschenleben retten?
Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos
aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich
darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten.
Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen
dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauc…
diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder
das Video wird an ein Team aus geschulten Moderator*innen
weitergeleitet. Diese können mit der möglicherweise suizidgefährdeten
Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freund*innen,
Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook
noch viel mehr über uns als ohnehin schon.
## Facebook fürchtet wohl die EU-Datenschutzverordnung
Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur
Suizidvorbeugung. Bisher konnten Nutzer*innen suizidgefährdete
Freund*innen melden, und Facebook sendete dann verschiedene
Hilfsangebote. Nun soll KI die Präventionsarbeit übernehmen. Nach
monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt
werden – außer in der EU. Auf Anfrage der taz antwortete Facebook vage,
ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle.
Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die
Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet.
„Facebook weiß aus der Vergangenheit, dass nicht nur der europäische
Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv
sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Facebook
schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten
wurde es in der EU und in Kanada wieder abgeschafft.
Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu
verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch
Nachahmungstaten verhindert werden könnten?
Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool
funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis
ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die
Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung
angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren
aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen
Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“
## Tool könnte das Thema Suizid enttabuisieren
10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die
Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es
die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25],
einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er
sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema
Suizid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt
er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber
kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein
Helfender über Facebook eine Person anspricht, kann das dazu führen, dass
Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das
Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber
Hilfe suchen, stellt gleichzeitig eine große Gefahr dar.
Wenn Facebook eine als suizidgefährdet eingestufte Person nicht erreichen
kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein
falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die
Polizei vor der Haustür. Vor allem, wenn die Person gar nicht
suizidgefährdet ist, kann das folgenschwere Auswirkungen für die
Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“,
sagt Spielkamp.
Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr.
„Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die
Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das
Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon
abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu
teilen, befürchtet Brockerhoff.
Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die
Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können
alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren
Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten
Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25]
speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das
verschafft uns das Vertrauen der Klienten.“
## Selbst der Schutz hat seinen Preis
Mark Zuckerberg postete auf Facebook, dass allein im ersten Monat Kontakt
mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele
Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese
Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus
Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt
werden.
Die Wissenschaftler Christopher Danforth und Andrew Reece von den
Universitäten Harvard und Vermont fanden im Rahmen ihrer Studie heraus,
dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv
ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter
benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten
und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der
Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven
erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven
fälschlicherweise als psychisch krank markiert.
Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So
funktioniert das soziale Netzwerk. Facebook verfolgt das Verhalten seiner
Nutzer*innen sehr genau und will nun daraus auf Suizidgefährdung
schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der
Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das
entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende
Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp.
Ähnlich wie der Umgang mit Hate Speech stellt der Umgang mit Suiziden
Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden
Nutzer*innen und den Unmengen gesammelter Daten hat das soziale Netzwerk
viel Macht. Spielkamp wünscht sich, dass sich Facebook mit
Wissenschaftler*innen für eine Begleitforschung zusammentut. Diese
könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert
und welche positiven, aber auch negativen Effekte sie hat. „Dann kann
Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder
eingestellt werden“, meint Spielkamp.
## Too big to fail?
Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der
Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den
eigenen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich
nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche
Schutz Einzelner auf Kosten vieler. Die Frage des Datenschutzes rückt in
den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum
Vorschein: Wie viel ist ein Menschenleben wert?
1 Feb 2018
## LINKS
[1] /!5363681/
## AUTOREN
Carolina Schwarz
## TAGS
Schwerpunkt Meta
Schwerpunkt Meta
Daten
Datenschutz
Suizid
Online-Werbung
Suizid
Google
Suizid
Lesestück Meinung und Analyse
Schwerpunkt Meta
Schwerpunkt Meta
Digitalisierung
## ARTIKEL ZUM THEMA
Gruppe für Angehörige nach Suizid: Wenn der Abschied fehlt
Bei Agus e.V. treffen sich Menschen, die einen Angehörigen durch Suizid
verloren haben. Hier können sie über ihre Gefühle sprechen.
Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Komplex
Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche
Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google.
Berichterstattung zum Tod von Avicii: Jetzt mit krassen Details!!!
Die Art, wie verschiedene Medien über den möglichen Suizid des DJs Avicii
berichten, ist nicht nur pietätlos, sondern auch gefährlich.
Debatte Künstliche Intelligenz: Wir können noch Frühstück machen
Stelbstfahrende Autos und Pflegeroboter – KIs machen oft Angst. Dem können
wir entgegenwirken: mit Regeln und dem Fokus auf menschliche Fähigkeiten.
Urteil des Landgerichts Berlin: Schlappe für Facebook
Firmen dürfen personenbezogene Daten nur verwenden, wenn die Betroffenen
zugestimmt haben. Das Berliner Gericht sieht Facebook in der Pflicht,
nachzubessern.
Big Data für die Forschung: Bringschuld für Datenspenden
Bei Big Data sieht der Deutsche Ethikrat Chancen für die Wissenschaft. Die
Mehrheit des Rats möchte möglichst freien Zugang für Forscher.
Max Schrems über das Facebook-Urteil: „Von allen guten Geistern verlassen“
Der Jurist Max Schrems darf zwar keine Sammelklage gegen Facebook in Wien
einreichen, aber eine einzelne. Damit sei ein wichtiger Punkt geklärt, so
der Österreicher.
Theaterfestival „Spy on me“ in Berlin: Wer sich nackig macht, wird belohnt
Apps und Geräte sammeln Daten. Am besten nutzt man sie nicht. Nur: Sie sind
praktisch und machen Spaß. Das HAU hat diesen Zwiespalt erkundet.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.