Nous avons à cœur votre sécurité et votre bien-être, et ce, dans l’ensemble de nos plateformes. Depuis 2006, nous travaillons en collaboration avec des spécialistes en prévention du suicide afin d’aider la communauté Meta.
Meta fournit des technologies qui permettent aux utilisateurs de trouver des ressources et des spécialistes qui peuvent les aider. Notre Centre de santé émotionnelle offre un éventail de conseils d’expert et de ressources éducatives sur la santé mentale. Vous y trouverez des outils utiles sur le suicide, l’anxiété, la dépression et la gestion du bien-être, aussi bien pour vous que pour votre entourage.
Les spécialistes croient que le contact avec une personne qui se soucie du bien-être de l’autre peut contribuer à prévenir le suicide. Meta peut aider à établir ce contact et vous diriger vers des ressources qui offrent un soutien et une expertise en matière de prévention du suicide. Que vous éprouviez vous-même des difficultés ou que vous vous fassiez du souci pour quelqu’un d’autre, nous espérons que ces ressources vous seront utiles.

Si vous vivez une période difficile, sachez que vous n’êtes pas seul(e). Nous pouvons vous mettre en contact avec des personnes en mesure de vous aider.

Vous pouvez être d’une aide indispensable pour un(e) ami(e) ou un membre de votre famille qui est en détresse. Consultez les conseils de spécialistes en prévention du suicide et déterminez ce que vous êtes en mesure de faire.
Une ligne d’assistance pour la prévention du suicide permet de trouver une oreille immédiate. En situation de détresse, la prise de contact avec un spécialiste peut faire une énorme différence. Appelez une ligne d’assistance locale de votre pays pour obtenir de l’aide.
Grâce aux relations que Meta contribue à établir, nous pouvons mettre en communication les personnes qui sont peut-être en détresse avec des amis qui les soutiendront et des spécialistes compétents. À l’échelle mondiale, il y a un décès par suicide toutes les 40 secondes. Cette cause de décès est la deuxième en importance chez les personnes âgées de 15 à 29 ans. Les relations significatives sont le meilleur outil pour prévenir le suicide. Chez Meta, nous voulons faire partie de la solution.
Depuis 2006, deux ans seulement après le lancement de Facebook en 2004, nous travaillons en collaboration avec des spécialistes en prévention du suicide et en sécurité afin d’aider les communautés de l’ensemble des applications de Meta. Nous consultons régulièrement ces spécialistes et demandons leur opinion sur les recherches et les pratiques exemplaires actuelles, afin de nous assurer de toujours accorder la priorité à la sécurité et au bien-être de notre communauté.

Nous avons profondément à cœur la sécurité de notre communauté. Voilà pourquoi, sur les conseils de spécialistes, nous établissons des politiques dans lesquelles nous indiquons ce qui est autorisé sur Facebook et Instagram. Nous n’avons jamais autorisé les utilisateurs à glorifier ou à promouvoir l’automutilation ou le suicide. Par ailleurs, nous supprimons les représentations fictives de suicide et d’automutilation, de même que le contenu dans lequel des méthodes ou du matériel s’y rattachant sont présentés. Nous autorisons toutefois les utilisateurs à discuter du suicide et de l’automutilation, car nous voulons que Facebook et Instagram soient des plateformes où il est possible de partager ses expériences, de sensibiliser les autres à ces questions et de s’entraider. Bien que nous autorisions les utilisateurs à partager du contenu portant sur leurs propres expériences à ces égards, nous utilisons la technologie pour essayer de ne pas le recommander. De plus, nous présentons un message dans lequel une aide est offerte à quiconque tente de rechercher des termes liés au suicide ou à l’automutilation. Lorsque nous apprenons qu’une personne a publié du contenu sur ces questions, nous lui offrons des ressources et la dirigeons vers des organisations locales outillées pour l’aider.
Nous continuons à travailler avec des spécialistes internationaux afin de trouver le juste équilibre entre le fait de donner aux gens la possibilité de partager leurs expériences et de rechercher du soutien, et celui de protéger les autres des contenus potentiellement nuisibles.
Chez Meta, la sécurité est au cœur de notre façon de développer l’IA. Nous avons mis en place de solides mesures de protection pour aider à protéger les utilisateurs contre les contenus nuisibles liés au suicide et à l’automutilation. Nos politiques interdisent strictement à nos systèmes d’IA de générer tout contenu qui facilite, encourage ou cautionne le suicide ou l’automutilation, sous quelque forme que ce soit. Nous avons instauré des mesures de sécurité encore plus rigoureuses pour les adolescents, notamment un filtrage de contenu renforcé.
Nous entraînons nos modèles d’IA à reconnaître les situations où une personne pourrait envisager le suicide ou l’automutilation. Lorsque cela se produit, nos systèmes d’IA sont conçus pour prioriser la sécurité des utilisateurs en orientant les personnes vers des ressources fiables, comme des lignes d’aide en situation de crise et des organismes professionnels, afin d’obtenir du soutien. Ces mesures de protection s’appliquent chaque fois que les utilisateurs interagissent avec l’IA dans nos applications. Nous les évaluons en consultation avec des spécialistes de la santé mentale afin d’en assurer l’efficacité maximale.
Lorsqu’une personne exprime des pensées suicidaires, il est primordial qu’elle reçoive de l’aide le plus rapidement possible. Des ressources de prévention du suicide sont accessibles sur Facebook et Instagram. Les ressources élaborées avec les principaux organismes de santé mentale et l’avis de personnes qui ont une expérience personnelle de ces questions nous aident à améliorer continuellement notre réponse.
Grâce à la technologie de l’apprentissage automatique, Meta a renforcé sa capacité de détecter le contenu qui peut traiter du suicide ou de l’automutilation, Dans de nombreux pays, nous pouvons utiliser cette technologie pour offrir rapidement une aide aux personnes dans le besoin. Cette technologie utilise des signaux de reconnaissance des formes, comme des phrases et des commentaires inquiétants, pour détecter une détresse possible.
Nous utilisons l’intelligence artificielle pour établir l’ordre de priorité dans lequel notre équipe examine les publications, les vidéos et les diffusions en direct signalées. Ainsi, nous sommes certains de pouvoir appliquer nos politiques efficacement et de fournir rapidement les ressources nécessaires. Cette démarche permet également à nos examinateurs d’évaluer les publications urgentes en priorité et de communiquer avec les services d’urgence lorsque des membres de notre communauté peuvent être en danger. La rapidité est cruciale.
En utilisant la technologie pour établir les priorités et simplifier les signalements, nous pouvons transmettre le contenu à notre équipe d’aide à la communauté, qui peut déterminer rapidement si une politique a été enfreinte et s’il est recommandé de communiquer avec les intervenants d’urgence. Nous continuerons d’investir dans la technologie afin de mieux servir notre communauté.
Les utilisateurs Meta peuvent signaler les publications qui les portent à croire qu’une personne pense au suicide. Des membres qualifiés de notre équipe d’aide à la communauté passent en revue ces signalements et peuvent mettre les personnes concernées en communication avec des ressources d’assistance. Si nous jugeons qu’il y a un danger imminent, nous alertons les premiers répondants ou les services d’urgence pour qu’ils puissent effectuer une vérification du bien-être. Des vies ont été sauvées de cette façon.
La technologie que Meta utilise pour détecter les cas possibles de suicide et d’automutilation est intégrée aux publications Facebook et Instagram, ainsi qu’à Facebook et Instagram Live. Si une personne dans une vidéo en direct semble penser à l’automutilation, les spectateurs peuvent communiquer directement avec elle et nous signaler la vidéo.
Que la publication soit signalée par un(e) ami(e) ou un membre de la famille qui s’inquiète ou qu’elle soit détectée par l’apprentissage automatique, l’étape suivante est la même : l’examen. Un membre de l’équipe d’aide à la communauté examine le signalement afin de déterminer s’il y a un risque imminent d’automutilation ou une infraction aux politiques. Dans les cas graves, nous collaborons avec les services d’urgence pour effectuer une vérification du bien-être. Grâce à la technologie de Meta, nous avons aidé des premiers répondants à joindre rapidement des personnes en détresse.
« Lorsqu’une personne exprime des pensées suicidaires, elle donne à sa famille, à ses amis et même à Facebook et Instagram la possibilité d’intervenir. Si la personne ne peut pas exprimer sa douleur, ou qu’elle en fait part et que sa publication est ensuite supprimée, nous laissons passer la chance de lui sauver la vie. Nous formons des gens pour être à l’écoute des personnes qui traversent une crise, car nous savons que leur donner la possibilité de s’exprimer est une façon de les aider. Les plateformes de médias sociaux permettent d’intervenir très rapidement. »
– Daniel J. Reidenberg, D. Ps., FAPA, directeur général, Save.org
« La santé mentale et les pensées suicidaires sont des sujets desquels nous ne parlons pas OUVERTEMENT. Les discussions et les relations sont pourtant des éléments essentiels de la prévention de la dépression et du suicide. Facebook met des outils en place afin de faciliter l’expression des pensées suicidaires et d’orienter les amis ou les membres de la famille qui s’inquiètent vers des ressources, des solutions de rechange et des moyens d’intervention appropriés. »
– Anna Chandy, présidente du conseil d’administration, fondation Live Love Laugh, Inde
« L’association finlandaise de la santé mentale est ravie de collaborer avec Facebook afin d’offrir un soutien et des ressources aux personnes qui se sentent vulnérables et à risque de se suicider, ainsi qu’à leurs proches. Il est important que ce soutien soit offert, car les personnes qui traversent une crise n’ont souvent ni la force ni le courage de demander de l’aide et peuvent même trouver difficile de prendre conscience qu’elles ont besoin d’aide. Il est crucial qu’elles aient accès, dans leur langue, aux ressources et aux coordonnées de spécialistes. »
– Satu Raappana-Jokinen, gestionnaire des services d’intervention en ligne en cas de crise, association finlandaise de la santé mentale
« Toute initiative permettant de sensibiliser la population et de prévenir le suicide est essentielle pour faire baisser cette statistique tragique, à savoir qu’un Brésilien ou une Brésilienne meurt toutes les 45 minutes. Certains peuvent détecter des signaux chez un ami qui pense au suicide, sans toutefois savoir comment l’aider. Dans ces cas, des outils comme celui que Facebook a lancé au Brésil peuvent aider directement ou indirectement cette cause à laquelle le CVV s’est rallié depuis plus de 50 ans, et ils servent de modèle pour d’autres organisations afin de faire tomber les tabous et de prendre d’autres mesures à cet égard. »
– Carlos Correia, bénévole, Centro de Valorização da Vida, Brésil