Tu seguridad y bienestar en nuestras plataformas son aspectos muy importantes para nosotros. Desde 2006 trabajamos con especialistas en la prevención del suicidio para ofrecer asistencia a la comunidad de Meta.
Meta ofrece tecnología que permite a las personas acceder a recursos y especialistas que pueden ayudarles. Nuestro centro Salud emocional cuenta con una amplia variedad de sugerencias e información de especialistas en salud mental. Allí encontrarás herramientas útiles relacionadas con el suicidio, la ansiedad, la depresión y la gestión del bienestar, tanto para ti como para los que te rodean.
Según los especialistas, tener contacto con seres queridos puede contribuir a prevenir el suicidio. Meta puede hacer posible ese contacto y ofrecer acceso a recursos que proporcionan asistencia y conocimientos sobre la prevención del suicidio. Si estás pasando por una situación difícil o hay alguien que te preocupa, esperamos que estos recursos puedan serte de ayuda.

Si estás pasando por un momento difícil, debes saber que hay gente que puede ayudarte y que podemos ponerte en contacto con ella.

Puedes enviar un enlace de asistencia a un amigo o familiar que esté viviendo una situación complicada. Revisa las sugerencias de especialistas en prevención del suicidio y descubre qué puedes hacer.
Si tú o un amigo os encontráis en una situación difícil, las líneas de ayuda os pueden ofrecer contacto inmediato. con un especialista, y eso puede marcar la diferencia. Llama a una línea de ayuda local de tu país para pedir ayuda.
Gracias a las relaciones que se pueden construir en Meta, podemos conectar a gente que esté viviendo un momento complicado con amigos o especialistas que puedan ayudarle. En el mundo se produce una muerte por suicidio cada 40 segundos. Es la segunda mayor causa de muerte entre las personas de 15 y 29 años. Establecer conexiones significativas es la mejor herramienta para prevenirlo. En Meta queremos formar parte de la solución.
Desde 2006, tan solo dos años después del lanzamiento de Facebook en 2004, trabajamos con especialistas en seguridad y la prevención del suicidio para ofrecer asistencia a las comunidades en las aplicaciones de Meta. Seguimos consultando a estos expertos periódicamente y recabando opiniones sobre prácticas recomendadas y estudios actuales porque la seguridad y el bienestar de nuestra comunidad continúan siendo nuestra prioridad.
Para nosotros es muy importante la seguridad de nuestra comunidad. Con el asesoramiento de especialistas, definimos políticas sobre lo que está permitido y lo que no en Facebook e Instagram. Nunca hemos permitido que se ensalcen ni promuevan el suicidio o las autolesiones, y eliminamos todas las representaciones ficticias que tengan que ver con estos problemas, así como el contenido que muestre métodos o recursos para llevar a cabo estas prácticas. No obstante, sí permitimos que se hable sobre estos asuntos, porque queremos que Facebook e Instagram sean lugares en los que la gente pueda compartir sus experiencias, concienciar sobre estos problemas y buscar apoyo. Sin embargo, aunque permitimos compartir contenido para hablar sobre experiencias propias, utilizamos tecnología para intentar no recomendarlo. Además, mostramos un mensaje de apoyo a quienes buscan términos relacionados con el suicidio o las autolesiones. Cuando tenemos constancia de que alguien ha publicado contenido sobre estos temas, le ofrecemos recursos y le dirigimos a organizaciones locales que puedan ayudarle.
Trabajamos con especialistas internacionales permanentemente con el fin de encontrar el difícil equilibrio entre dar espacio a las personas para que compartan sus experiencias y busquen apoyo y evitar que otras personas se expongan a contenido potencialmente dañino.
En Meta nos tomamos muy en serio la seguridad a la hora de desarrollar la IA. Hemos creado medidas de seguridad fiables para proteger a los usuarios del contenido dañino sobre suicidio y autolesiones, y nuestras políticas prohíben estrictamente a nuestras IA generar contenido que permita, fomente o apoye el suicidio o las autolesiones en cualquier forma. Hemos implementado medidas de seguridad aún más estrictas para los adolescentes, como una mejora en el filtro de contenido.
Entrenamos nuestros modelos de IA para que reconozcan cuando alguien está pensando en suicidarse o autolesionarse. Si esto ocurre, nuestras IA están diseñadas para priorizar la seguridad de los usuarios dirigiéndolos a recursos de confianza, como líneas de ayuda en casos de crisis y organizaciones profesionales, de forma que puedan obtener asistencia. Estas protecciones se aplican cada vez que los usuarios interactúan con la IA en nuestras aplicaciones, y las revisamos colaborando con especialistas en salud mental para garantizar que sean lo más eficaces posible.
Cuando alguien expresa pensamientos suicidas, es fundamental que obtenga ayuda lo antes posible. En Facebook e Instagram hay disponibles recursos de prevención del suicidio. Se trata de herramientas desarrolladas con ayuda de las principales organizaciones de salud mental y de las experiencias propias que aportan las personas. Estos recursos nos permiten seguir trabajando para mejorar nuestra respuesta.
Instagram envía una notificación a los padres, madres o tutores que usan la supervisión cuando su hijo o hija adolescente intenta buscar de forma reiterada términos relacionados con el suicidio o las conductas autodestructivas en un periodo de tiempo breve. La gran mayoría de los adolescentes no intenta buscar contenido sobre suicidio y autolesiones en Instagram. Sin embargo, cuando lo hacen, nuestra política es bloquear esas búsquedas y dirigirlos a recursos y líneas de ayuda que puedan ofrecerles asistencia. Estas alertas se han diseñado para que los padres, madres o tutores estén al tanto de si sus hijos o hijas intentan buscar este tipo de contenido reiteradamente, y para ofrecerles recursos que puedan ayudarles.
Gracias al uso de la tecnología de aprendizaje automático, Meta ha mejorado su capacidad de identificar posible contenido sobre suicidio o autolesiones. En muchos países podemos utilizar esta tecnología para ofrecer ayuda a tiempo a quienes la necesitan. Esta tecnología utiliza señales de detección de patrones, como frases y comentarios que muestran preocupación, a fin de identificar posibles situaciones delicadas.
Utilizamos inteligencia artificial para priorizar el orden en el que nuestro equipo revisa las publicaciones, las transmisiones en directo y los vídeos que se han denunciado, lo que nos ayuda a aplicar nuestras políticas de forma eficiente y ofrecer recursos rápidamente. También permite a nuestros revisores priorizar y evaluar las publicaciones más urgentes y, en consecuencia, contactar con los servicios de emergencia si consideran que algún miembro de nuestra comunidad está en peligro. Actuar con rapidez es crucial.
Usar tecnología para priorizar y facilitar el proceso de denuncia hace posible que podamos remitir el contenido a nuestro equipo de Asistencia a la comunidad, que puede decidir rápidamente si se han cometido infracciones de nuestras políticas y si es recomendable contactar con los servicios de emergencia locales. Seguiremos invirtiendo en tecnología para ofrecer un servicio aún mejor a nuestra comunidad.
Los usuarios de Meta pueden denunciar publicaciones si consideran que estas indican que el autor tiene pensamientos suicidas. Miembros capacitados de nuestro equipo de Asistencia a la comunidad revisan estas denuncias y pueden contactar con la persona autora de la publicación y proporcionarle recursos de ayuda. Si creemos que existe un riesgo inminente de lesiones, lo primero que hacemos es avisar a los servicios de emergencia para que analicen la situación. Gracias a esta estrategia hemos logrado salvar vidas.
La tecnología que Meta emplea para identificar posibles casos de suicidio y autolesiones está integrada en las publicaciones de Facebook e Instagram, así como en Facebook e Instagram Live. Si parece que alguien que transmite en directo está pensando en autolesionarse, los espectadores pueden contactar directamente con esa persona y denunciar el vídeo.
Independientemente de que una publicación la haya denunciado un familiar o amigo preocupado o se haya identificado mediante aprendizaje automático, el siguiente paso siempre es el mismo: la revisión. Un miembro del equipo de Asistencia a la comunidad revisa el contenido denunciado para comprobar si existe un riesgo inminente de autolesión o si se han cometido infracciones de nuestras políticas. En los casos de gravedad, colaboramos con los servicios de emergencia para evaluar la situación. Gracias a la tecnología de Meta, ayudamos al personal de los servicios de emergencia a contactar rápidamente con la gente que lo necesita.
“Cuando alguien expresa angustia relacionada con pensamientos suicidas, ofrece a los familiares, a los amigos e incluso a Facebook e Instagram la posibilidad de intervenir. Si las personas no pueden compartir su dolor, o si lo comparten y su contenido se elimina, no tendremos la oportunidad de salvar vidas. Formamos a la gente para que detecte este tipo de situaciones en las conversaciones y para que permita que la persona siga hablando, porque sabemos que es una manera de ayudarla en momentos críticos. Las plataformas de redes sociales hacen posible que mucha gente pueda ofrecer ayuda rápidamente”.
- Daniel J. Reidenberg, doctor en Psicología, FAPA, director ejecutivo de Save.org
“No solemos hablar ABIERTAMENTE sobre las enfermedades mentales y los pensamientos suicidas. Sin embargo, hablar y conectar es fundamental para prevenir la depresión y el suicidio. Las herramientas que Facebook está implementando están dirigidas a personas que manifiestan pensamientos suicidas. También ofrecen acceso a los amigos o familiares preocupados a recursos y alternativas para que sepan cómo intervenir de manera adecuada”.
- Anna Chandy, presidenta del consejo de The Live Love Laugh Foundation, India
“Para la Finnish Association for Mental Health es un orgullo trabajar con Facebook para brindar asistencia y recursos a personas que se sienten vulnerables y que están en riesgo de suicidarse y a sus seres queridos. Es importante garantizar el acceso a esta asistencia, ya que, cuando se atraviesa un momento delicado, no se suele tener la fuerza o el valor para buscar ayuda, e incluso puede resultar difícil darse cuenta de que se necesita. Es fundamental que existan recursos e información de contacto de especialistas en un lenguaje accesible para todo el mundo”.
- Satu Raappana-Jokinen, responsable de servicios para crisis en internet de The Finnish Association for Mental Health
“Cualquier iniciativa que ayude a generar conciencia sobre el suicidio y a prevenirlo es clave para reducir las trágicas estadísticas, que indican que cada 45 minutos muere una persona brasileña por esta causa. Es posible que algunas personas sean capaces de ver señales que indiquen que un amigo está pensando en suicidarse, pero no sepan cómo ayudarle. En estos casos, herramientas como la que Facebook ha lanzado en Brasil pueden contribuir directa e indirectamente a esta causa por la que el CVV lleva luchando desde hace más de 50 años, y servir como modelo para que otras organizaciones superen los 'tabúes' y tomen más medidas al respecto”.
- Carlos Correia, voluntario del Centro de Valorização da Vida, Brasil