Die Sicherheit und das Wohlbefinden der Nutzer*innen auf allen unseren Plattformen liegen uns sehr am Herzen. Deshalb arbeiten wir bereits seit 2006 mit Expert*innen auf dem Gebiet der Suizidprävention zusammen, um die Community auf Meta zu unterstützen.
Meta bietet Technologien, die den Menschen den Weg zu hilfreichen Ressourcen und kompetenten Fachleuten weisen. In unserem Informationszentrum für emotionale Gesundheit findest du zahlreiche fachkundige Ratschläge und Aufklärungsmaterialien rund um das Thema mentale Gesundheit. Dort stehen dir und deinen Mitmenschen hilfreiche Tools zur Verfügung, die bei Suizidgedanken, Angst, Depression und der Bewältigung von Problemen Unterstützung bieten.
Expert*innen sind davon überzeugt, dass der Kontakt zu engagierten Menschen dazu beitragen kann, einen Suizid zu verhindern. Meta kann bei der Herstellung solcher Kontakte helfen und dich auf Ressourcen aufmerksam machen, in denen du Unterstützung und Fachwissen zur Suizidprävention findest. Wir hoffen, dass dir diese Ressourcen weiterhelfen können, ganz gleich, ob du selbst mit Schwierigkeiten zu kämpfen hast oder du dir Sorgen um eine andere Person machst.

Wenn du gerade eine schwierige Zeit durchlebst, dann vergiss nicht: Du bist nicht allein. Wir bringen dich gerne mit Menschen in Kontakt, die dir helfen können.

Du kannst eine wichtige Stütze für eine*n Freund*in oder ein Familienmitglied in Not sein. Sieh dir Tipps von Expert*innen zur Suizidprävention an und finde heraus, was du unternehmen kannst.
Helplines für Suizidgefährdete bieten dir oder einem*einer Freund*in sofortige Unterstützung. Der Kontakt zu einem*einer Expert*in kann im Notfall entscheidend sein. Rufe eine lokale Notrufnummer in deinem Land an und hol dir Hilfe.
Dank der Beziehungen, die über Meta entstehen, können wir verzweifelte Menschen mit hilfsbereiten Freund*innen und kompetenten Expert*innen zusammenbringen. Weltweit stirbt alle 40 Sekunden ein Mensch durch Suizid. Er ist die zweithäufigste Todesursache in der Altersgruppe von 15 bis 29 Jahren. Das effektivste Mittel, um einen Suizid zu verhindern, sind bedeutsame Verbindungen zu anderen Menschen. Hier kann Meta seinen Teil zur Lösung beitragen.
Um die Communitys in den Meta-Apps zu unterstützen, arbeiten wir mit Expert*innen in den Bereichen Suizidprävention und Sicherheit zusammen. Diese Partnerschaft begann bereits 2006, also nur zwei Jahre nachdem das damals noch als Facebook bekannte Unternehmen gegründet wurde. Wir tauschen uns auch weiterhin regelmäßig mit diesen Expert*innen aus und holen von ihnen Input zur aktuellen Forschung und zu Best Practices ein. So möchten wir sicherstellen, dass die Sicherheit und das Wohlbefinden unserer Nutzer*innen immer im Mittelpunkt stehen.
Die Sicherheit unserer Community ist uns eine Herzensangelegenheit. Unter Berücksichtigung der Empfehlungen von Expert*innen legen wir Richtlinien dazu fest, was auf Facebook und Instagram erlaubt ist und was nicht. Wir gestatten unter keinen Umständen, selbstverletzendes Verhalten oder Suizid zu verherrlichen oder zu befürworten. Darüber hinaus entfernen wir fiktive Darstellungen von Suizid und Selbstverletzung sowie Inhalte zu Methoden oder Hilfsmitteln. Wir erlauben aber, dass Nutzer*innen Unterhaltungen über Suizid oder Selbstverletzung führen, denn Facebook und Instagram sollen Orte sein, an denen Menschen ihre Erfahrungen austauschen, andere für solche ernsten Themen sensibilisieren und sich gegenseitig unterstützen können. Auch wenn wir es den Nutzer*innen gestatten, Inhalte zu teilen, in denen sie ihre eigenen Erfahrungen mit diesen Themen schildern, sorgen wir mithilfe von Technologie dafür, diese Beiträge möglichst nicht zu empfehlen. Außerdem zeigen wir allen, die nach Begriffen suchen, die im Zusammenhang mit Suizid oder Selbstverletzung stehen, eine Nachricht mit Hilfsangeboten an. Wenn wir feststellen, dass jemand Beiträge zu diesen Themen veröffentlicht hat, stellen wir der Personen Ressourcen zur Verfügung und empfehlen ihr lokale Organisationen, die Unterstützung bieten können.
Wir arbeiten auf der ganzen Welt fortlaufend mit Expert*innen zusammen, um den Balanceakt zu vollbringen, Menschen einen Raum zu bieten, in dem sie ihre Erfahrungen teilen und Unterstützung suchen können, und gleichzeitig andere davor zu schützen, potenziell gefährliche Inhalte zu sehen.
Bei Meta ist die Sicherheit ein zentraler Aspekt bei der Entwicklung von KI. Wir haben strenge Sicherheitsvorkehrungen entwickelt, um Nutzer*innen vor schädlichen Inhalten zum Thema Suizid und Selbstverletzung zu schützen. Unsere Richtlinien untersagen unseren KIs außerdem, Inhalte zu generieren, die Suizid oder Selbstverletzung in irgendeiner Form ermöglichen, dazu ermutigen oder dies befürworten. Für Teenager haben wir noch strengere Sicherheitsmaßnahmen getroffen, darunter einen verbesserten Content-Filter.
Wir trainieren unsere KI-Modelle, bestimmte Anzeichen zu erkennen, die darauf hindeuten, dass eine Person Suizidgedanken hegt oder selbstverletzendes Verhalten in Erwägung zieht. Wenn das passiert, sind unsere KIs so konzipiert, dass sie die Sicherheit der Nutzer*innen priorisieren und sie zu vertrauenswürdigen Ressourcen weiterleiten, wie z. B. Krisenhotlines und professionellen Organisationen, damit sie dort Unterstützung erhalten können. Diese Schutzmaßnahmen gelten immer, wenn Nutzer*innen in unseren Apps mit KI interagieren. Außerdem lassen wir sie von Expert*innen für psychische Gesundheit überprüfen, um sicherzustellen, dass sie so effektiv wie möglich sind.
Wenn jemand Suizidgedanken äußert, dann ist es extrem wichtig, so schnell wie möglich Hilfe zu holen. Ressourcen zur Suizidprävention sind sowohl auf Facebook als auch auf Instagram verfügbar. Zur kontinuierlichen Verbesserung unserer Maßnahmen setzen wir auf Ressourcen, die in Zusammenarbeit mit führenden Organisationen im Bereich der mentalen Gesundheit entwickelt wurden, sowie auf Input von Personen mit persönlichen Erfahrungen.
Instagram benachrichtigt Eltern, die die Elternaufsicht nutzen, wenn ihr Teenager wiederholt in einem kurzen Zeitraum nach Begriffen mit Bezug zu Suizid oder Selbstverletzung sucht. Die allermeisten Teenager suchen auf Instagram nicht nach Inhalten zu Suizid und Selbstverletzung. Wenn sie es doch tun, blockieren wir diese Suchen gemäß unseren Richtlinien und verweisen sie stattdessen auf Ressourcen und Hotlines, die ihnen Unterstützung anbieten können. Diese Warnhinweise sollen Eltern darauf aufmerksam machen, dass ihr Kind wiederholt versucht, nach solchen Inhalten zu suchen, und ihnen Ressourcen dazu an die Hand geben, wie sie ihren Teens helfen können.
Durch den Einsatz von Technologien für maschinelles Lernen ist Meta mittlerweile noch besser in der Lage, Content zum Thema Suizid oder Selbstverletzung zu erkennen. In vielen Ländern können wir mithilfe dieser Technologie Menschen in Not rechtzeitig Hilfe zukommen lassen. Maschinelles Lernen nutzt Signale zur Mustererkennung, wie etwa bedenkliche Formulierungen und Kommentare, um mögliche Notsituationen zu ermitteln.
Wir nutzen künstliche Intelligenz, um die Priorität für die Prüfung der gemeldeten Beiträge, Videos und Livestreams durch unser Team festzulegen. Auf diese Weise können wir unsere Richtlinien effizient durchsetzen und den Menschen schnell Ressourcen zur Verfügung stellen. Außerdem können unsere Reviewer*innen dringliche Beiträge einordnen und priorisieren und gegebenenfalls die Notfalldienste verständigen, wenn Mitglieder unserer Community möglicherweise in Gefahr sind. Schnelligkeit ist entscheidend.
Mithilfe von Technologie können wir Meldungen ganz einfach priorisieren und die betreffenden Inhalte an unser Community Operations-Team weitergeben. Dieses kann dann umgehend entscheiden, ob es sich um einen Verstoß gegen die Richtlinien handelt und ob es ratsam ist, die lokalen Notdienste zu verständigen. Wir investieren weiterhin in Technologie, um unsere Community noch besser unterstützen zu können.
Meta-Nutzer*innen können Beiträge melden, die darauf hindeuten, dass jemand über Suizid nachdenkt. Geschulte Mitglieder unseres Community Operations-Teams prüfen diese Meldungen und wenden sich gegebenenfalls an die Person, die den Beitrag verfasst hat, um sie zu unterstützen und die entsprechenden Ressourcen bereitzustellen. Wenn wir befürchten, dass eine unmittelbare Gefahr besteht, alarmieren wir Ersthelfer*innen bzw. Notfalldienste, damit die Unversehrtheit der Person geprüft werden kann. Durch diese Maßnahmen konnten bereits Leben gerettet werden.
Metas Technologie zur Erkennung von Inhalten zu den Themen Suizid und Selbstverletzung funktioniert sowohl für Facebook- und Instagram-Beiträge als auch für Facebook Live und Instagram Live. Wenn es den Anschein hat, dass jemand in einem Live-Video eine Selbstverletzung in Erwägung zieht, können sich die Zuschauer*innen direkt an die Person wenden und das Video an uns melden.
Unabhängig davon, ob ein Beitrag von einem*einer besorgten Freund*in oder einem Familienmitglied gemeldet oder durch maschinelles Lernen identifiziert wird, erfolgt als Nächstes immer eine Überprüfung. Ein Mitglied des Community Operations-Teams prüft die Meldung auf eine unmittelbare Gefahr der Selbstverletzung bzw. auf Verstöße gegen die Richtlinien. In ernsten Fällen arbeiten wir mit den Notfalldiensten zusammen, um die Unversehrtheit der Person sicherzustellen. Dank der Meta-Technologie konnten bereits viele Ersthelfer*innen verzweifelte Menschen schnell erreichen.
„Wenn jemand Suizidabsichten äußert, haben Familie, Freund*innen und auch Facebook und Instagram die Möglichkeit, einzugreifen. Wenn Menschen ihr Leid nicht teilen können oder sie solche Meinungsäußerungen teilen und diese dann wieder entfernt werden, haben wir die Chance verpasst, das Leben eines Menschen zu retten. Wir schulen Menschen, in solchen Unterhaltungen zuzuhören und auf Anzeichen zu achten, und lassen Gespräche darüber zu, denn wir wissen, dass das eine Möglichkeit ist, Betroffenen durch die Krise hindurchzuhelfen. Social-Media-Plattformen sorgen dafür, dass viele Menschen in kürzester Zeit Unterstützung anbieten können.“
– Daniel J. Reidenberg, Psy. D., FAPA, Executive Director, Save.org
„Psychische Erkrankungen und Suizidgedanken sind nichts, worüber wir einfach OFFEN sprechen. Allerdings sind Gespräche und Verbindungen enorm wichtig, um Depressionen und Suizid zu verhindern. Die Tools, die Facebook einführt, richten sich nicht nur an die Menschen, die Suizidgedanken äußern, sondern leiten auch besorgte Freund*innen oder Familienmitglieder zu Ressourcen und Alternativen sowie geeigneten Maßnahmen.“
– Anna Chandy, Vorsitzende von Trustees, The Live Love Laugh Foundation, Indien
„Die Finnish Association for Mental Health arbeitet gerne mit Facebook zusammen, um Unterstützung und Ressourcen für Menschen bereitzustellen, die sich gefährdet sehen und über Suizid nachdenken, sowie für deren Angehörige und Freund*innen. Es ist wichtig, solche Unterstützung anzubieten, denn Menschen in einer Krise haben oft nicht die Kraft oder den Mut, selbst um Hilfe zu bitten. Manche realisieren auch gar nicht, dass sie Hilfe brauchen. Ressourcen und Kontaktinformationen von Expert*innen in der Sprache verfügbar zu haben, die die Menschen sprechen, ist ausgesprochen wichtig.“
– Satu Raappana-Jokinen, Manager of Online Crises Services, Finnish Association for Mental Health
„Laut Statistiken nimmt sich in Brasilien alle 45 Minuten ein Mensch das Leben. Jede Initiative, die dabei hilft, auf dieses tragische Thema aufmerksam zu machen und Suizid zu verhindern, ist enorm wichtig. Manche Menschen erkennen vielleicht Signale, dass ein*e Freund*in Suizidgedanken hegt, wissen aber nicht, wie sie helfen können. In solchen Fällen können Hilfsmittel wie das von Facebook in Brasilien eingeführte Tool direkt und indirekt helfen, das Thema anzugehen, an dem das CVV schon seit mehr als 50 Jahren arbeitet. Es kann außerdem anderen Organisationen als Modell dafür dienen, wie Tabus überwunden und weitere Maßnahmen in diesem Bereich implementiert werden können.“
– Carlos Correia, ehrenamtlicher Mitarbeiter, Centro de Valorização da Vida, Brasilien