Nos preocupamos profundamente por la seguridad y el bienestar en nuestras plataformas. Desde 2006, trabajamos con expertos en prevención de suicidios para respaldar a la comunidad de Meta.
Meta proporciona tecnología que ayuda a las personas a conectarse con recursos y expertos que pueden ofrecer ayuda. Nuestro centro de salud emocional brinda un amplio abanico de contenido educativo y consejos sobre salud mental proporcionados por expertos. Encontrarás herramientas que pueden resultarte útiles para abordar el suicidio, la ansiedad, la depresión y el bienestar, ya sea que necesites ayuda para ti o para las personas que te rodean.
Los expertos creen que el contacto con las personas que se interesan por quienes atraviesan una crisis puede contribuir a la prevención de suicidios. Meta puede ayudar a facilitar esa conexión y guiarte hacia recursos que ofrecen apoyo y asesoramiento vinculados a la prevención de suicidios. Ya sea que estés pasando por un momento difícil o sientas preocupación por otra persona, esperamos que estos recursos puedan servirte de ayuda.

Si estás pasando por un momento difícil, queremos que sepas que no tienes que atravesarlo en soledad. Podemos conectarte con personas que pueden ayudarte.

Puedes ser un vínculo de ayuda esencial para un amigo o familiar que está atravesando una crisis. Consulta los consejos de los expertos en prevención de suicidios y conoce qué puedes hacer.
Una línea de ayuda para la prevención de suicidios ofrece una conexión inmediata tanto a ti como a un amigo. Ponerse en contacto con un experto en una crisis puede marcar una gran diferencia. Llama a una línea de ayuda local de tu país para recibir asistencia.
Gracias a las relaciones que Meta ayuda a crear, podemos conectar a las personas que quizá estén atravesando una crisis con amigos dispuestos a ayudar y expertos capacitados. En el mundo, se produce una muerte por suicidio cada 40 segundos. Es la segunda causa principal de muerte en las personas de entre 15 y 29 años. La mejor herramienta para prevenir los suicidios son las conexiones significativas. En Meta, queremos formar parte de la solución.
Desde 2006, apenas dos años después de que Facebook se lanzara en 2004, colaboramos con expertos en seguridad y prevención de suicidios para respaldar a las comunidades en las apps de Meta. Seguimos consultando de forma periódica a estos expertos y solicitamos su opinión sobre las prácticas recomendadas y los avances actuales en investigación a fin de garantizar que siempre prioricemos la seguridad y el bienestar de nuestra comunidad.
Nos preocupamos profundamente por la seguridad de nuestra comunidad, por eso, con el asesoramiento de expertos, definimos políticas sobre lo que está permitido y lo que no lo está en Facebook e Instagram. Nunca permitimos que las personas celebraran o fomentaran las autolesiones ni el suicidio. Además, eliminamos las representaciones ficticias de suicidios o autolesiones, así como también todo el contenido que muestre métodos o materiales destinados a dichos fines. Sin embargo, permitimos que se debata sobre el suicidio y las autolesiones porque queremos que Facebook e Instagram sean lugares donde las personas puedan compartir sus experiencias, generar conciencia sobre estos problemas y buscar apoyo mutuo. Si bien permitimos que las personas compartan contenido sobre sus propias experiencias con estos temas, usamos tecnología para intentar no recomendarlo. Además, mostramos un mensaje para ofrecer ayuda a todas las personas que intentan buscar términos relacionados con el suicidio o las autolesiones. Asimismo, cuando detectamos que una persona realizó una publicación sobre estos temas, le ofrecemos recursos y la dirigimos a organizaciones locales que pueden brindarle asistencia.
Trabajamos continuamente con expertos de todo el mundo para lograr el equilibrio adecuado entre dar espacio a las personas para que compartan sus experiencias y busquen ayuda, y evitar que otros vean contenido que podría resultarles dañino.
En Meta, la seguridad es un aspecto central a la hora de desarrollar IA. Creamos protecciones estrictas para proteger a los usuarios de contenido dañino sobre suicidio y autolesiones. Por otra parte, nuestras políticas prohíben estrictamente a nuestras IA generar contenido que permita, fomente o respalde el suicidio o las autolesiones en cualquier forma. Además, implementamos medidas de seguridad aún más estrictas para los adolescentes, como un mejor filtrado de contenido.
Entrenamos nuestros modelos de IA para reconocer cuando alguien podría estar considerando suicidarse o autolesionarse. Si esto ocurre, diseñamos nuestras IA para priorizar la seguridad de los usuarios. Con este fin, dirigen a las personas a recursos de confianza, como líneas de ayuda y organizaciones profesionales, para que puedan obtener asistencia. Estas protecciones se aplican cuando los usuarios interactúan con la IA en nuestras apps, y las revisamos en colaboración con expertos en salud mental para garantizar que sean lo más eficaces posible.
Cuando alguien expresa pensamientos suicidas, es fundamental que obtenga ayuda lo antes posible. En Facebook e Instagram, hay recursos disponibles para la prevención de suicidios. Los recursos desarrollados con organizaciones líderes en salud mental y los aportes de quienes pasaron personalmente por situaciones similares nos ayudan a mejorar constantemente nuestra respuesta.
Instagram envía una notificación a los padres que usan la función de supervisión si su hijo(a) adolescente intenta buscar términos relacionados con el suicidio o la autoagresión reiteradamente en un período corto. La gran mayoría de los adolescentes no busca contenido sobre suicidio y autoagresión en Instagram. Sin embargo, cuando lo hacen, nuestra política es bloquear estas búsquedas y dirigirlos a recursos y líneas de ayuda que puedan brindarles asistencia. Estas alertas están diseñadas para que los padres sepan si su hijo(a) adolescente está intentando buscar este tipo de contenido de forma reiterada y para brindarles los recursos que necesitan para ayudar a sus hijos(as).
Mediante la tecnología de aprendizaje automático, Meta expandió su capacidad para identificar contenido potencialmente vinculado al suicidio o las autolesiones. En muchos países, podemos aplicar esta tecnología para brindar ayuda oportuna a quienes la necesitan. Esta tecnología usa señales de reconocimiento de patrones, como frases y comentarios de preocupación, para identificar una posible crisis.
Usamos inteligencia artificial para priorizar el orden en el que nuestro equipo revisa las publicaciones, los videos y los streams en vivo reportados. Esto garantiza que podamos aplicar nuestras políticas de forma eficiente y brindar recursos a las personas de manera rápida. Además, permite que nuestros revisores prioricen y evalúen las publicaciones urgentes, y se pongan en contacto con los servicios de emergencia cuando existe la posibilidad de que los miembros de nuestra comunidad corran riesgo de sufrir daños. La rapidez es un aspecto clave.
El uso de tecnología para priorizar y optimizar los reportes nos permite derivar el contenido a nuestro equipo de operaciones comunitarias, que puede decidir rápidamente si se infringe alguna política y si es necesario recomendar ponerse en contacto con los servicios de emergencia locales. Seguiremos invirtiendo en tecnología a fin de brindar un mejor servicio a nuestra comunidad.
Los usuarios de Meta pueden reportar las publicaciones que creen que indican que alguien está pensando en el suicidio. Los miembros capacitados de nuestro equipo de operaciones comunitarias revisan estos reportes y pueden conectar a la persona que hizo la publicación con recursos de ayuda. Cuando consideramos que hay un riesgo inminente de que alguien sufra daños, alertamos a los servicios de emergencia para que verifiquen si esta persona se encuentra bien. Estas acciones han salvado vidas.
La tecnología de Meta que permite identificar posibles suicidios y autolesiones está integrada en las publicaciones y los videos en vivo tanto de Facebook como de Instagram. Si parece que alguien en un video en vivo está pensando en autolesionarse, las personas que están mirando el video pueden comunicarse directamente con esa persona y reportar el video.
Independientemente de si el reporte de la publicación proviene de un amigo o familiar preocupado, o se identificó mediante aprendizaje automático, el paso que sigue es el mismo: una revisión. Un miembro del equipo de operaciones comunitarias revisa el reporte para determinar si la persona corre riesgo inminente de autolesionarse o de infringir alguna política. En los casos más graves, colaboramos con los servicios de emergencia para que verifiquen si la persona se encuentra bien. Gracias a la tecnología de Meta, ayudamos a los servicios de emergencia a llegar rápidamente a las personas en crisis.
"Cuando alguien expresa angustia relacionada con el suicidio, les brinda a sus familiares, a sus amigos e, incluso, a Facebook e Instagram la posibilidad de intervenir. Si una persona no puede compartir su dolor o si lo comparte y, luego, elimina la publicación, no tendremos oportunidad de salvarle la vida. Capacitamos a las personas para que detecten esto en las conversaciones y permitan que el otro siga hablando porque sabemos que es una manera de ayudarlo a atravesar una crisis. Gracias a las plataformas de medios sociales, muchas personas pueden brindar ayuda rápidamente en ese tipo de situaciones".
-Daniel J. Reidenberg, doctor en psicología, FAPA, director ejecutivo de Save.org
"No solemos hablar ABIERTAMENTE sobre las enfermedades mentales y los pensamientos suicidas. Sin embargo, hablar y conectarse es fundamental para ayudar a prevenir la depresión y el suicidio. Las herramientas que Facebook implementa están dirigidas a personas que expresan pensamientos suicidas y también orientan a amigos o familiares preocupados para que accedan a recursos y alternativas, además de intervenciones adecuadas".
-Anna Chandy, presidenta del consejo de The Live Love Laugh Foundation, India
"La organización Finnish Association for Mental Health se enorgullece de trabajar con Facebook para brindar asistencia y recursos tanto a personas que se sienten vulnerables y están considerando suicidarse como a sus seres queridos. Es importante que esta asistencia esté disponible, ya que, en momentos de crisis, las personas no suelen tener la fuerza o el valor para buscar ayuda y hasta les puede resultar difícil darse cuenta de que la necesitan. Es fundamental contar con recursos e información de contacto de expertos disponible en un idioma que las personas comprendan".
- Satu Raappana-Jokinen, gerente de servicios para crisis online de Finnish Association for Mental Health
"Cualquier iniciativa que ayude a generar conciencia y a prevenir el suicidio es fundamental para reducir las trágicas estadísticas que indican que un brasileño muere cada 45 minutos por esta causa. Algunas personas pueden identificar señales que indican que un amigo está pensando en suicidarse, pero no saben cómo ayudarlo. En estos casos, las herramientas como la que Facebook lanzó en Brasil pueden respaldar de manera directa e indirecta esta causa por la que el CVV lucha hace más de 50 años. Sirven como modelo para que otras organizaciones superen los 'tabúes' y tomen más medidas al respecto".
- Carlos Correia, voluntario del Centro de Valorização da Vida, Brasil