Nós nos preocupamos muito com a segurança e o bem-estar nas nossas plataformas. Desde 2006, trabalhamos com especialistas em prevenção contra o suicídio para dar suporte à comunidade da Meta.
A Meta fornece uma tecnologia que ajuda a conectar as pessoas a recursos e especialistas que podem ajudar. Nossa Central de Saúde Emocional oferece um conjunto de dicas e instruções sobre saúde emocional. Encontre ferramentas que podem ser úteis em relação a suicídio, ansiedade, depressão e bem-estar, tanto para você quanto para as pessoas ao seu redor.
Especialistas acreditam que o contato com pessoas que se importam pode ajudar na prevenção contra o suicídio. A Meta pode oferecer essa conexão e indicar a você os recursos que fornecem suporte e conhecimento para a prevenção contra o suicídio. Se você está passando por momentos difíceis ou conhecer outra pessoa que está, esperamos que esses recursos possam ajudar.

Se você estiver passando por um momento difícil, saiba que não está só. Podemos colocar você em contato com pessoas que podem ajudar.

Você pode fornecer uma conexão vital de suporte para um amigo ou familiar que está sofrendo. Analise as dicas de especialistas em prevenção contra o suicídio e veja o que pode fazer.
Uma linha de apoio contra o suicídio pode oferecer uma conexão imediata para você ou um amigo. Entrar em contato com um especialista quando estiver em um momento ruim pode fazer uma grande diferença. Ligue para uma linha de apoio local no seu país para receber ajuda.
Graças aos relacionamentos que a Meta ajuda a criar, podemos colocar pessoas que podem estar passando por um momento ruim em contato com amigos cheios de empatia e especialistas que têm muito conhecimento. No mundo todo, há uma morte por suicídio a cada 40 segundos. É a segunda maior causa de morte para pessoas entre 15 e 29 anos. A melhor ferramenta de prevenção contra o suicídio vem de conexões significativas. Na Meta, queremos ajudar a fazer parte da solução.
Desde 2006, dois anos depois do lançamento do Facebook em 2004, trabalhamos com especialistas em segurança e prevenção contra o suicídio para dar suporte a comunidades nos apps da Meta. Continuamos consultando regularmente esses especialistas e buscamos informações sobre estudos e boas práticas atuais para priorizar a segurança e o bem-estar da nossa comunidade.
Nós nos preocupamos muito com a segurança da nossa comunidade. Com o conselho de especialistas, definimos políticas para o que é e não é permitido no Facebook e no Instagram. Na nossa plataforma, nunca permitimos que as pessoas celebrassem ou promovessem a automutilação ou o suicídio. Além disso, removemos representações fictícias sobre esses temas, bem como conteúdo que mostra métodos ou materiais usados para essas finalidades. No entanto, permitimos que essas questões sejam debatidas, pois queremos que o Facebook e o Instagram sejam espaços onde as pessoas possam compartilhar suas experiências, conscientizar sobre esses assuntos e buscar apoio mútuo. Permitimos que as pessoas compartilhem conteúdo discutindo as próprias experiências. No entanto, usamos a tecnologia para tentar não recomendá-lo. Também mostramos uma mensagem oferecendo apoio a qualquer pessoa que tentar pesquisar termos relacionados a suicídio ou a automutilação. Além disso, quando tomamos ciência de que alguém publicou sobre esses assuntos, fornecemos recursos e fazemos o direcionamento para organizações locais que podem ajudar.
Trabalhamos continuamente com especialistas globais para atingir o equilíbrio ideal entre dar espaço para as pessoas compartilharem suas experiências e buscarem ajuda e evitar que outras pessoas sejam expostas a conteúdo potencialmente prejudicial.
Na Meta, a segurança é fundamental para como desenvolvemos a IA. Criamos proteções robustas para ajudar a proteger os usuários contra conteúdo prejudicial relacionado a suicídio e automutilação. Além disso, nossas políticas proíbem estritamente que as IAs gerem conteúdo que permita, incentive ou endosse, de qualquer forma, o suicídio ou a automutilação. Aplicamos medidas de segurança ainda mais fortes para adolescentes, incluindo filtragem de conteúdo aprimorada.
Treinamos nossos modelos de IA para reconhecer quando alguém pode estar considerando suicídio ou automutilação. Se isso acontecer, desenvolvemos nossas IAs para priorizar a segurança dos usuários, direcionando as pessoas a recursos de confiança, como linhas de apoio de crise e organizações profissionais, para que elas possam receber suporte. Essas proteções se aplicam sempre que os usuários interagem com a IA em nossos apps. Além disso, as analisamos em conjunto com especialistas em saúde mental para garantir que sejam tão eficazes quanto possível.
Quando alguém expressa pensamentos suicidas, pode ser crucial receber ajuda o mais rápido possível. Os recursos para prevenção contra o suicídio estão disponíveis no Facebook e no Instagram. Os recursos desenvolvidos com as principais organizações de saúde mental e com informações de pessoas com experiência pessoal no assunto nos ajudam a aprimorar continuamente nossa resposta.
O Instagram notifica pais, mães ou responsáveis que usam a supervisão se o adolescente tentar pesquisar repetidamente termos relacionados a suicídio ou autoagressão em um curto intervalo de tempo. A grande maioria dos adolescentes não procura conteúdo sobre suicídio e autoagressão no Instagram. Quando eles fazem isso, nossa política é bloquear essas pesquisas e direcioná-los para recursos e linhas de apoio que possam ajudar. Esses alertas foram criados para garantir que pais, mães ou responsáveis estejam cientes se os adolescentes estiverem tentando pesquisar esse conteúdo repetidamente. Além disso, eles oferecem os recursos de que precisam para dar suporte aos adolescentes.
Com a tecnologia de machine learning, a Meta expandiu sua capacidade de identificar possíveis conteúdos de suicídio e automutilação. Em muitos países, podemos usar essa tecnologia para conseguir ajuda no momento certo para as pessoas que estão precisando. Essa tecnologia usa sinais de reconhecimento de padrão, como frases e comentários preocupantes, para identificar possíveis momentos de sofrimento.
Usamos inteligência artificial para priorizar a ordem em que nossa equipe analisa os posts, vídeos e streamings ao vivo denunciados. Assim, conseguimos aplicar nossas políticas de maneira eficiente e enviar recursos para as pessoas rapidamente. Isso também permite que nossos analistas priorizem e avaliem posts urgentes, entrando em contato com os serviços de emergência quando membros da nossa comunidade estiverem correndo perigo. É fundamental agir com rapidez.
Usando tecnologia para priorizar e agilizar as denúncias, podemos encaminhar o conteúdo para nossa equipe de Operações da Comunidade, que decide mais rapidamente se houve violação da política e se é necessário entrar em contato com uma equipe de emergência local. Continuaremos investindo em tecnologia para melhor servir nossa comunidade.
Os usuários da Meta podem denunciar pots que, na opinião deles, indicam que alguém está pensando em suicídio. Membros treinados da nossa equipe de Operações da Comunidade analisarão essas denúncias e poderão colocar o responsável pelo post em contato com recursos de apoio. Quando julgarmos haver um risco iminente de perigo, alertaremos os serviços de emergência/socorristas para que eles possam realizar uma verificação de bem-estar. Essas ações já salvaram vidas.
A tecnologia da Meta para identificar possível suicídio e automutilação integra os posts do Facebook e do Instagram, bem como o Facebook e o Instagram Live. Se parecer que alguém em um vídeo ao vivo está pensando em automutilação, os visualizadores poderão entrar em contato com a pessoa diretamente e denunciar o vídeo para nós.
Se um post for denunciado por um amigo ou familiar preocupado ou identificada por machine learning, a próxima etapa será a mesma: analisá-lo. Um membro da equipe de Operações da Comunidade analisa a denúncia para risco iminente de automutilação ou violações da política. Em casos sérios, trabalhamos com serviços de emergência para averiguar o bem-estar da pessoa. Graças à tecnologia da Meta, ajudamos socorristas a entrar em contato rapidamente com pessoas em momentos difíceis.
"Quando alguém expressa sentimentos suicidas, isso dá à família, aos amigos e até mesmo ao Facebook e ao Instagram a oportunidade de intervir. Quando as pessoas não podem compartilhar sua dor, ou quando ela é compartilhada e removida, perdemos a chance de salvar a vida de alguém. Treinamos nosso pessoal para ouvir isso nas conversas e permitir que as pessoas continuem falando, porque sabemos que é uma forma de ajudá-las durante uma crise. As plataformas de redes sociais nos permitem fazer isso e receber a ajuda das pessoas muito rapidamente."
— Daniel J. Reidenberg, doutor em psicologia, membro honorífico da APA e diretor executivo da Save.org
"Doenças mentais e pensamentos suicidas não são algo sobre o que falamos ABERTAMENTE. No entanto, conversar e entrar em contato é fundamental para ajudar a prevenir a depressão e o suicídio. As ferramentas que o Facebook está lançando focam em pessoas que expressam pensamentos suicidas e orientam amigos ou familiares preocupados quanto a recursos, alternativas e intervenções apropriados."
— Anna Chandy, presidente do conselho diretor da The Live Love Laugh Foundation da Índia
"A Finnish Association for Mental Health tem o prazer de trabalhar com o Facebook para fornecer suporte e recursos a pessoas que estão se sentindo vulneráveis e em risco de suicídio e também a quem quer ajudar alguém próximo. Ter esse apoio disponível é importante porque, quando em crise, as pessoas muitas vezes não têm força ou coragem para buscar ajuda e podem até ter dificuldade em perceber que precisam de auxílio. Ter recursos e informações de contato de especialistas disponíveis no idioma que as pessoas falam é fundamental."
— Satu Raappana-Jokinen, gerente de serviços online para crises da The Finnish Association for Mental Health
"Qualquer iniciativa que ajude a conscientizar e prevenir o suicídio é fundamental para reduzir as trágicas estatísticas que mostram que um brasileiro morre a cada 45 minutos. Algumas pessoas podem identificar sinais de que um amigo está pensando em suicídio, mas não saber como ajudar. Nesses casos, ferramentas como a lançada pelo Facebook no Brasil podem ajudar direta e indiretamente essa causa que vem sendo abraçada pelo CVV há mais de 50 anos, servindo de modelo para outras organizações superarem tabus e abraçarem novas ações relacionadas."
— Carlos Correia, voluntário do Centro de Valorização da Vida no Brasil