Políticas y herramientas de seguridad
La seguridad es un tema y una responsabilidad que nos concierne a todos. Descubre cómo aborda Meta la seguridad y obtén información sobre las herramientas y los recursos que tienes a tu disposición.
Protección de menores en internet
Obtén más información sobre el enfoque global de Meta con respecto a la protección de menores en nuestras tecnologías, incluida la lucha contra su explotación en internet.
Salud mental y bienestar
El bienestar en internet cada vez afecta más al bienestar general de las personas. Obtén información sobre herramientas y recursos que te pueden ayudar a cuidar de tu bienestar digital, además del de tu familia y los miembros de tu comunidad.
Bullying y acoso
En Meta nos tomamos muy en serio las denuncias de bullying y acoso. Descubre las herramientas y los recursos respaldados por expertos para la prevención del bullying y del abuso mediante imágenes íntimas.
Alfabetización digital
Meta tiene recursos de alfabetización digital que ayudan a las personas a obtener las habilidades y el conocimiento que necesitan para progresar en el mundo digital. Obtén información sobre los recursos adaptados por regiones para jóvenes, padres o madres y educadores.
Uso indebido de imágenes íntimas y sextorsión
Meta prohíbe estrictamente la difusión de imágenes íntimas sin consentimiento. Si alguien ha compartido imágenes personales tuyas, o amenaza con hacerlo, en esta página se explica cómo tomar medidas de inmediato.
Abuso y uso de forma indebida de drogas
Estos recursos están pensados para quienes buscan ayuda e información en relación con la recuperación y la prevención del consumo de sustancias, y se han creado en colaboración con las organizaciones Partnership to End Addiction y Song for Charlie.

Prevención del suicidio

Tu seguridad y bienestar en nuestras plataformas son aspectos muy importantes para nosotros. Desde 2006 trabajamos con especialistas en la prevención del suicidio para ofrecer asistencia a la comunidad de Meta.

Información general

Meta ofrece tecnología que permite a las personas acceder a recursos y especialistas que pueden ayudarles. Nuestro centro Salud emocional cuenta con una amplia variedad de sugerencias e información de especialistas en salud mental. Allí encontrarás herramientas útiles relacionadas con el suicidio, la ansiedad, la depresión y la gestión del bienestar, tanto para ti como para los que te rodean.

Prevención del suicidio

Según los especialistas, tener contacto con seres queridos puede contribuir a prevenir el suicidio. Meta puede hacer posible ese contacto y ofrecer acceso a recursos que proporcionan asistencia y conocimientos sobre la prevención del suicidio. Si estás pasando por una situación difícil o hay alguien que te preocupa, esperamos que estos recursos puedan serte de ayuda.

Recursos para la prevención del suicidio

Para ti

Para amigos y amigas

Para ti

Si estás pasando por un momento difícil, debes saber que hay gente que puede ayudarte y que podemos ponerte en contacto con ella.

Para amigos y amigas

Puedes enviar un enlace de asistencia a un amigo o familiar que esté viviendo una situación complicada. Revisa las sugerencias de especialistas en prevención del suicidio y descubre qué puedes hacer.

Ayuda inmediata

Si tú o un amigo os encontráis en una situación difícil, las líneas de ayuda os pueden ofrecer contacto inmediato. con un especialista, y eso puede marcar la diferencia. Llama a una línea de ayuda local de tu país para pedir ayuda.

Nuestras iniciativas para la prevención del suicidio

Gracias a las relaciones que se pueden construir en Meta, podemos conectar a gente que esté viviendo un momento complicado con amigos o especialistas que puedan ayudarle. En el mundo se produce una muerte por suicidio cada 40 segundos. Es la segunda mayor causa de muerte entre las personas de 15 y 29 años. Establecer conexiones significativas es la mejor herramienta para prevenirlo. En Meta queremos formar parte de la solución.

Desde 2006, tan solo dos años después del lanzamiento de Facebook en 2004, trabajamos con especialistas en seguridad y la prevención del suicidio para ofrecer asistencia a las comunidades en las aplicaciones de Meta. Seguimos consultando a estos expertos periódicamente y recabando opiniones sobre prácticas recomendadas y estudios actuales porque la seguridad y el bienestar de nuestra comunidad continúan siendo nuestra prioridad.

Se ha producido un error
Tenemos problemas para reproducir este vídeo.

Nuestras políticas

Para nosotros es muy importante la seguridad de nuestra comunidad. Con el asesoramiento de especialistas, definimos políticas sobre lo que está permitido y lo que no en Facebook e Instagram. Nunca hemos permitido que se ensalcen ni promuevan el suicidio o las autolesiones, y eliminamos todas las representaciones ficticias que tengan que ver con estos problemas, así como el contenido que muestre métodos o recursos para llevar a cabo estas prácticas. No obstante, sí permitimos que se hable sobre estos asuntos, porque queremos que Facebook e Instagram sean lugares en los que la gente pueda compartir sus experiencias, concienciar sobre estos problemas y buscar apoyo. Sin embargo, aunque permitimos compartir contenido para hablar sobre experiencias propias, utilizamos tecnología para intentar no recomendarlo. Además, mostramos un mensaje de apoyo a quienes buscan términos relacionados con el suicidio o las autolesiones. Cuando tenemos constancia de que alguien ha publicado contenido sobre estos temas, le ofrecemos recursos y le dirigimos a organizaciones locales que puedan ayudarle.

Trabajamos con especialistas internacionales permanentemente con el fin de encontrar el difícil equilibrio entre dar espacio a las personas para que compartan sus experiencias y busquen apoyo y evitar que otras personas se expongan a contenido potencialmente dañino.

Protocolos de protección de la IA para contenido sobre suicidio y autolesiones

En Meta nos tomamos muy en serio la seguridad a la hora de desarrollar la IA. Hemos creado medidas de seguridad fiables para proteger a los usuarios del contenido dañino sobre suicidio y autolesiones, y nuestras políticas prohíben estrictamente a nuestras IA generar contenido que permita, fomente o apoye el suicidio o las autolesiones en cualquier forma. Hemos implementado medidas de seguridad aún más estrictas para los adolescentes, como una mejora en el filtro de contenido.

Entrenamos nuestros modelos de IA para que reconozcan cuando alguien está pensando en suicidarse o autolesionarse. Si esto ocurre, nuestras IA están diseñadas para priorizar la seguridad de los usuarios dirigiéndolos a recursos de confianza, como líneas de ayuda en casos de crisis y organizaciones profesionales, de forma que puedan obtener asistencia. Estas protecciones se aplican cada vez que los usuarios interactúan con la IA en nuestras aplicaciones, y las revisamos colaborando con especialistas en salud mental para garantizar que sean lo más eficaces posible.

Nuestra metodología:

Facilitar recursos

Cuando alguien expresa pensamientos suicidas, es fundamental que obtenga ayuda lo antes posible. En Facebook e Instagram hay disponibles recursos de prevención del suicidio. Se trata de herramientas desarrolladas con ayuda de las principales organizaciones de salud mental y de las experiencias propias que aportan las personas. Estos recursos nos permiten seguir trabajando para mejorar nuestra respuesta.

Notificaciones para padres, madres o tutores en Instagram

Instagram envía una notificación a los padres, madres o tutores que usan la supervisión cuando su hijo o hija adolescente intenta buscar de forma reiterada términos relacionados con el suicidio o las conductas autodestructivas en un periodo de tiempo breve. La gran mayoría de los adolescentes no intenta buscar contenido sobre suicidio y autolesiones en Instagram. Sin embargo, cuando lo hacen, nuestra política es bloquear esas búsquedas y dirigirlos a recursos y líneas de ayuda que puedan ofrecerles asistencia. Estas alertas se han diseñado para que los padres, madres o tutores estén al tanto de si sus hijos o hijas intentan buscar este tipo de contenido reiteradamente, y para ofrecerles recursos que puedan ayudarles.

Aprendizaje automático

Gracias al uso de la tecnología de aprendizaje automático, Meta ha mejorado su capacidad de identificar posible contenido sobre suicidio o autolesiones. En muchos países podemos utilizar esta tecnología para ofrecer ayuda a tiempo a quienes la necesitan. Esta tecnología utiliza señales de detección de patrones, como frases y comentarios que muestran preocupación, a fin de identificar posibles situaciones delicadas.

Utilizamos inteligencia artificial para priorizar el orden en el que nuestro equipo revisa las publicaciones, las transmisiones en directo y los vídeos que se han denunciado, lo que nos ayuda a aplicar nuestras políticas de forma eficiente y ofrecer recursos rápidamente. También permite a nuestros revisores priorizar y evaluar las publicaciones más urgentes y, en consecuencia, contactar con los servicios de emergencia si consideran que algún miembro de nuestra comunidad está en peligro. Actuar con rapidez es crucial.

Usar tecnología para priorizar y facilitar el proceso de denuncia hace posible que podamos remitir el contenido a nuestro equipo de Asistencia a la comunidad, que puede decidir rápidamente si se han cometido infracciones de nuestras políticas y si es recomendable contactar con los servicios de emergencia locales. Seguiremos invirtiendo en tecnología para ofrecer un servicio aún mejor a nuestra comunidad.

Denunciar publicaciones

Los usuarios de Meta pueden denunciar publicaciones si consideran que estas indican que el autor tiene pensamientos suicidas. Miembros capacitados de nuestro equipo de Asistencia a la comunidad revisan estas denuncias y pueden contactar con la persona autora de la publicación y proporcionarle recursos de ayuda. Si creemos que existe un riesgo inminente de lesiones, lo primero que hacemos es avisar a los servicios de emergencia para que analicen la situación. Gracias a esta estrategia hemos logrado salvar vidas.

Tecnología rápida

La tecnología que Meta emplea para identificar posibles casos de suicidio y autolesiones está integrada en las publicaciones de Facebook e Instagram, así como en Facebook e Instagram Live. Si parece que alguien que transmite en directo está pensando en autolesionarse, los espectadores pueden contactar directamente con esa persona y denunciar el vídeo.

Independientemente de que una publicación la haya denunciado un familiar o amigo preocupado o se haya identificado mediante aprendizaje automático, el siguiente paso siempre es el mismo: la revisión. Un miembro del equipo de Asistencia a la comunidad revisa el contenido denunciado para comprobar si existe un riesgo inminente de autolesión o si se han cometido infracciones de nuestras políticas. En los casos de gravedad, colaboramos con los servicios de emergencia para evaluar la situación. Gracias a la tecnología de Meta, ayudamos al personal de los servicios de emergencia a contactar rápidamente con la gente que lo necesita.

Testimonios

“Cuando alguien expresa angustia relacionada con pensamientos suicidas, ofrece a los familiares, a los amigos e incluso a Facebook e Instagram la posibilidad de intervenir. Si las personas no pueden compartir su dolor, o si lo comparten y su contenido se elimina, no tendremos la oportunidad de salvar vidas. Formamos a la gente para que detecte este tipo de situaciones en las conversaciones y para que permita que la persona siga hablando, porque sabemos que es una manera de ayudarla en momentos críticos. Las plataformas de redes sociales hacen posible que mucha gente pueda ofrecer ayuda rápidamente”.

- Daniel J. Reidenberg, doctor en Psicología, FAPA, director ejecutivo de Save.org

“No solemos hablar ABIERTAMENTE sobre las enfermedades mentales y los pensamientos suicidas. Sin embargo, hablar y conectar es fundamental para prevenir la depresión y el suicidio. Las herramientas que Facebook está implementando están dirigidas a personas que manifiestan pensamientos suicidas. También ofrecen acceso a los amigos o familiares preocupados a recursos y alternativas para que sepan cómo intervenir de manera adecuada”.

- Anna Chandy, presidenta del consejo de The Live Love Laugh Foundation, India

“Para la Finnish Association for Mental Health es un orgullo trabajar con Facebook para brindar asistencia y recursos a personas que se sienten vulnerables y que están en riesgo de suicidarse y a sus seres queridos. Es importante garantizar el acceso a esta asistencia, ya que, cuando se atraviesa un momento delicado, no se suele tener la fuerza o el valor para buscar ayuda, e incluso puede resultar difícil darse cuenta de que se necesita. Es fundamental que existan recursos e información de contacto de especialistas en un lenguaje accesible para todo el mundo”.

- Satu Raappana-Jokinen, responsable de servicios para crisis en internet de The Finnish Association for Mental Health

“Cualquier iniciativa que ayude a generar conciencia sobre el suicidio y a prevenirlo es clave para reducir las trágicas estadísticas, que indican que cada 45 minutos muere una persona brasileña por esta causa. Es posible que algunas personas sean capaces de ver señales que indiquen que un amigo está pensando en suicidarse, pero no sepan cómo ayudarle. En estos casos, herramientas como la que Facebook ha lanzado en Brasil pueden contribuir directa e indirectamente a esta causa por la que el CVV lleva luchando desde hace más de 50 años, y servir como modelo para que otras organizaciones superen los 'tabúes' y tomen más medidas al respecto”.

- Carlos Correia, voluntario del Centro de Valorização da Vida, Brasil