Nous sommes très soucieux de la sécurité et du bien-être des utilisateur·ices sur nos plateformes. Depuis 2006, nous collaborons avec des spécialistes de la prévention contre le suicide pour offrir notre soutien à la communauté Meta.
Les technologies Meta permettent aux utilisateur·ices d’accéder à des ressources et de contacter des spécialistes qui peuvent les aider. Notre hub Santé émotionnelle propose une multitude d’informations et de conseils de spécialistes sur la santé mentale. Vous y trouverez des outils pertinents qui peuvent vous aider à lutter contre le suicide, l’anxiété et la dépression, et à mieux gérer votre bien-être et celui de vos proches.
Selon certain·es spécialistes, les interactions avec des personnes qui se soucient de votre situation peuvent renforcer la prévention contre le suicide. Meta peut faciliter ces interactions pour ses utilisateur·ices et leur fournir des ressources utiles pour obtenir du soutien et des conseils de spécialistes en matière de prévention contre le suicide. Que vous vous fassiez du souci pour une personne de votre entourage ou que vous traversiez vous-même une mauvaise passe, nous espérons que ces ressources vous seront utiles.

Si vous traversez une période difficile, sachez que vous n’êtes pas seul·e. Nous pouvons vous mettre en relation avec des personnes capables de vous aider.

Vous êtes peut-être un maillon essentiel pour soutenir un ami·e ou un membre de votre famille en détresse. Consultez des conseils de spécialistes en prévention contre le suicide et découvrez comment apporter votre aide.
Une ligne d’écoute dédiée à la prévention contre le suicide permet d’établir un lien immédiat avec vous ou un ami·e en difficulté. Dans ce genre de situation, contacter un·e spécialiste peut s’avérer crucial. Appelez une ligne d’assistance locale de votre pays pour obtenir de l’aide.
Grâce aux relations que Meta permet d’instaurer, nous pouvons aider les personnes potentiellement en difficulté à prendre contact avec des ami·es solidaires et des spécialistes chevronné·es. Dans le monde entier, on dénombre une mort par suicide toutes les 40 secondes. Le suicide arrive au deuxième rang des causes de décès chez les 15 - 29 ans. Le meilleur moyen pour lutter contre le suicide consiste à tisser des liens forts. Meta souhaite apporter sa contribution.
Dès 2006, deux ans seulement après le lancement de Facebook en 2004, nous avons collaboré avec des spécialistes de la prévention contre le suicide et de la sécurité pour soutenir les communautés sur les applications Meta. Nous continuons de consulter régulièrement ces spécialistes afin d’obtenir leur point de vue sur les recherches et les recommandations actuelles dans ce domaine, afin de nous assurer que nous faisons notre maximum pour préserver la santé et la sécurité des membres de notre communauté.
Nous nous soucions énormément de la sécurité de notre communauté et, avec les conseils de spécialistes, nous avons élaboré des politiques sur ce qui est autorisé ou non sur Facebook et Instagram. Nous n’avons jamais autorisé les utilisateur·ices à glorifier, ni à promouvoir l’automutilation ou le suicide. Par ailleurs, nous supprimons toute représentation fictive de suicide ou d’automutilation, ainsi que tout contenu qui présente des informations ou des méthodes associées à ces pratiques. Toutefois, nous autorisons les discussions portant sur le suicide et l’automutilation, car nous souhaitons faire de Facebook et d’Instagram des espaces où chacun·e peut partager ses expériences, sensibiliser les autres et rechercher un soutien mutuel. Et même si nous permettons aux utilisateur·ices de partager du contenu visant à discuter d’expériences relatives à ces situations difficiles, nous utilisons nos outils technologiques pour essayer de ne pas recommander ce type de contenu. Nous affichons également un message proposant un soutien à toute personne qui recherche des termes liés au suicide ou à l’automutilation. Lorsque nous découvrons qu’un·e utilisateur·ice a publié sur ces sujets, nous lui indiquons des ressources utiles et l’aiguillons vers des organisations locales qui peuvent l’aider.
Nous travaillons en permanence avec des spécialistes du monde entier pour trouver un équilibre délicat entre laisser les utilisateur·ices partager leurs expériences et chercher de l’aide, et protéger les autres des contenus potentiellement nuisibles.
Chez Meta, la sécurité est au cœur de nos préoccupations en matière de développement de l’IA. Nous avons mis en place des mesures de sécurité renforcées afin de protéger les utilisateur·ices des contenus nuisibles sur le suicide et l’automutilation. De plus, nos politiques interdisent strictement à nos IA de générer des contenus qui permettent, encouragent ou soutiennent le suicide ou l’automutilation sous toute forme. Nous avons mis en place des mesures de sécurité renforcées pour les ados, y compris un filtrage de contenu amélioré.
Nous entraînons nos modèles d’IA à reconnaître lorsqu’une personne est susceptible de penser au suicide ou à l’automutilation. Dans ce cas, nous avons conçu nos IA pour donner la priorité à la sécurité des utilisateur·ices en les orientant vers des ressources de confiance, telles que des lignes d’assistance en cas de crise et des organisations professionnelles, afin qu’elles et ils puissent obtenir de l’aide. Ces mesures de protection s’appliquent dès que les utilisateur·ices interagissent avec l’IA dans nos applications. Nous les examinons en consultation avec des spécialistes de la santé mentale pour nous assurer qu’elles sont aussi efficaces que possible.
Lorsqu’une personne exprime des pensées suicidaires, il est essentiel de lui venir en aide le plus tôt possible. Des ressources de prévention contre le suicide sont disponibles sur Facebook et Instagram. Les ressources élaborées avec des organisations de premier plan spécialisées en santé mentale et les informations transmises par des personnes partageant leur expérience personnelle nous aident à améliorer continuellement notre réponse.
Instagram informe les parents qui utilisent la supervision parentale si leur ado tente de rechercher à plusieurs reprises des termes relatifs au suicide ou aux blessures intentionnelles sur une courte période. La grande majorité des ados n’essaient pas de rechercher du contenu relatif au suicide et au blessures intentionnelles sur Instagram, et quand elles et ils le font, notre politique est de bloquer ces recherches pour les rediriger vers des ressources et des lignes d’assistance qui peuvent leur venir en aide. Ces alertes sont conçues pour informer les parents si leur ado tente à plusieurs reprises de rechercher ce contenu, et pour leur donner les ressources nécessaires pour accompagner leur ado.
Grâce au machine learning, Meta a renforcé sa capacité à identifier du contenu concernant potentiellement le suicide et l’automutilation. De plus, nous pouvons utiliser cette technologie dans de nombreux pays pour offrir rapidement de l’aide aux personnes en détresse. Cette technologie s’appuie sur des signaux de reconnaissance de modèles (phrases ou commentaires suggérant une inquiétude, par exemple) pour identifier les personnes potentiellement en danger.
Nous utilisons l’intelligence artificielle pour établir des priorités dans l’ordre d’examen des publications, des vidéos et des streams en direct. Cela nous permet de garantir une application efficace de nos politiques et la fourniture rapide des bonnes ressources aux personnes qui en ont besoin. L’utilisation de l’intelligence artificielle permet également à nos examinateur·ices d’évaluer les publications urgentes et de leur donner la priorité, et de contacter les services d’urgence lorsque des membres de notre communauté sont possiblement en danger. Car il est essentiel d’agir rapidement.
Grâce à cette technologie qui établit des priorités dans les signalements et les simplifie, nous sommes en mesure de faire remonter le contenu à notre équipe Community Operations. Cette dernière peut ainsi déterminer rapidement si la personne à l’origine de la publication a enfreint nos politiques et s’il convient de lui recommander de contacter les services d’urgence locaux. Nous poursuivrons notre recherche technologique pour mieux répondre aux besoins de notre communauté.
Les utilisateur·ices de Meta peuvent signaler les publications qui leur semblent indiquer qu’une personne a des pensées suicidaires. Les membres spécialement formés de notre équipe Community Operations examinent ces signalements et, si nécessaire, orientent l’auteur·e de la publication vers des ressources d’aide. Lorsque nous estimons qu’une personne court un risque immédiat de se faire du mal, nous alertons les premiers secours/services d’urgence pour qu’ils vérifient que cette personne est bien saine et sauve. Ces mesures ont permis de sauver des vies.
La technologie de Meta qui permet d’identifier du contenu concernant potentiellement le suicide et l’automutilation s’intègre aux publications Facebook et Instagram, et à Facebook Live et Instagram Live. Si une personne semble envisager de s’automutiler dans une vidéo en direct, les utilisateur·ices qui la regardent ont la possibilité de contacter directement la personne et de nous signaler la vidéo.
Si une publication est signalée par un·e ami·e ou un membre de la famille inquiet, ou si elle est identifiée par le machine learning, l’étape suivante reste l’examen de ce signalement. Un membre de l’équipe Community Operations détermine si cette publication a enfreint nos politiques et si la personne à l’origine de cette dernière est en danger imminent. Dans les cas graves, nous collaborons avec les services d’urgence pour réaliser un contrôle de l’état de santé de la personne concernée. Grâce aux technologies Meta, nous avons aidé les premiers secours à contacter rapidement les personnes en détresse.
« Lorsqu’une personne fait part de sa détresse et de ses pensées suicidaires, elle offre à sa famille, ses ami·es et même Facebook et Instagram l’opportunité d’intervenir. Si les personnes ne peuvent pas partager leur souffrance, ou si leur publication est supprimée après avoir été partagée, nous perdons l’opportunité de sauver une vie. Nous apprenons aux personnes à être à l’écoute de cette détresse dans les conversations et nous offrons aux personnes affectées la possibilité de continuer à s’exprimer, car nous savons que cela peut les aider à surmonter une crise. Les réseaux sociaux nous permettent de mobiliser de nombreuses personnes prêtes à offrir de l’aide très rapidement. »
- Daniel J. Reidenberg, docteur en psychologie clinique, membre de l’American Psychological Association, directeur général, Save.org
« Il est difficile de parler OUVERTEMENT des maladies mentales et des pensées suicidaires. Pourtant le dialogue et la communication sont essentiels pour aider à lutter contre la dépression et le suicide. Les outils lancés par Facebook sont destinés aussi bien aux personnes exprimant des pensées suicidaires qu’à leurs ami·es et leur famille, pour les guider vers les ressources, solutions et démarches adéquates. »
- Anna Chandy, présidente et administratrice, The Live Love Laugh Foundation - Inde
« La Finnish Association for Mental Health se félicite de travailler avec Facebook pour offrir de l’aide et des ressources aux personnes qui se sentent vulnérables et exposées au suicide, ainsi qu’à leurs proches. L’existence de ce soutien est importante, car les personnes qui traversent une mauvaise passe n’ont souvent pas la force ou le courage de demander de l’aide et ont parfois tendance à ne pas vouloir admettre qu’elles en ont besoin. Il est décisif de pouvoir compter sur des ressources et les coordonnées de spécialistes dans la langue des intéressé·es ».
- Satu Raappana-Jokinen, directrice des services de prise en charge en ligne, The Finnish Association for Mental Health
« Toutes les initiatives de sensibilisation et de lutte contre le suicide sont essentielles pour réduire la triste statistique selon laquelle un·e Brésilien·ne meurt par suicide toutes les 45 minutes. Il arrive que l’entourage identifie des signes de pensées suicidaires chez une personne, mais sans savoir comment lui venir en aide. Dans ce cas, des outils comme celui lancé par Facebook au Brésil peuvent directement et indirectement contribuer à cette cause, défendue par CVV depuis plus de 50 ans, et servir de modèle pour d’autres organisations en vue de lever les tabous et lancer par la suite d’autres actions en la matière. »
- Carlos Correia, bénévole, Centro de Valorização da Vida - Brésil