저희는 Meta 플랫폼 전반에서 여러분의 안전과 웰빙을 중요하게 여깁니다. 저희는 2006년부터 자살 예방 전문가들과 협업하며 Meta 커뮤니티를 지원하고 있습니다.
Meta는 사람들을 도움이 되는 리소스 및 전문가들에게 연결해주는 기술을 제공합니다. 정서적 건강 허브에는 전문가가 제공하는 다양한 정신 건강 관련 팁과 교육 자료가 준비되어 있습니다. 여러분은 물론 주변 사람들도 유용하게 활용할 수 있는 도구를 찾아 자살, 불안감, 우울증, 웰빙 관리에 도움을 받아보세요.
전문가들은 나를 챙겨주는 사람들로부터 연락을 받을 경우 자살을 예방하는 데 도움이 될 수 있다고 생각합니다. Meta는 이렇게 따뜻한 인간관계에 도움을 주고, 자살 예방과 관련한 지원과 전문 지식을 제공하는 리소스를 안내해줄 수 있습니다. 본인이 어려운 상황을 겪고 있거나 주변에 걱정되는 사람이 있다면 이 리소스를 통해 도움을 받으시기 바랍니다.

곤경에 처한 친구나 가족이 도움을 받을 수 있도록 이어주는 역할을 할 수 있습니다. 자살 예방 전문가들이 전하는 팁을 검토하고 여러분이 무엇을 할 수 있는지 확인해보세요.
자살 상담 기관을 통해 여러분이나 친구가 즉각적인 도움을 받을 수 있습니다. 곤경에 처해 있을 때 전문가에게 연락하면 상황이 크게 달라질 수 있습니다. 거주 국가의 지역 핫라인에 전화를 걸어 도움을 청하세요.
Meta는 관계 형성에 도움을 줍니다. 덕분에 곤경에 처한 사람들에게 도움을 줄 수 있는 친구들은 물론, 관련 지식을 가진 전문가들과도 연결해줄 수 있습니다. 전 세계적으로, 자살로 인해 40초마다 한 명씩 사망하고 있습니다. 15~29세에서 두 번째로 높은 사망 원인이 자살입니다. 자살을 예방하는 가장 효과적인 도구는 의미 있는 인간관계로부터 나옵니다. Meta는 해결책을 제시하는 플랫폼이 되고자 노력하고 있습니다.
Meta(당시 Facebook)가 2004년에 처음으로 출시되고 불과 2년이 지난 2006년부터, 저희는 Meta 앱 전반에서 다양한 커뮤니티를 지원하기 위해 자살 예방 및 안전 분야의 전문가들과 협업하고 있습니다. 저희는 지금도 계속해서 정기적으로 이러한 전문가들과 협의하며 최신 리서치 및 모범 사례에 대한 의견을 구하고 있습니다. 이는 Meta가 언제나 커뮤니티의 안전과 웰빙을 우선시하도록 하기 위한 조치입니다.
저희는 커뮤니티의 안전을 매우 중요하게 생각하며, 전문가들의 조언을 바탕으로 Facebook과 Instagram에서 허용되는 콘텐츠와 허용되지 않는 콘텐츠에 관한 정책을 수립했습니다. 저희는 이제까지 자해 또는 자살을 찬양하거나 조장하는 사람들의 콘텐츠를 허용한 적이 없습니다. 또한 자살 및 자해를 보여주는 허구적인 묘사와 방법 또는 재료를 보여주는 콘텐츠를 삭제합니다. 다만 Facebook과 Instagram이 자신의 경험을 공유하고 이러한 이슈에 대한 인식을 높이며 서로에게 도움을 청할 수 있는 공간이 되길 바라는 취지에서 자살 및 자해에 관한 토론은 허용됩니다. 저희는 사람들이 이러한 이슈에 관한 자신의 경험을 이야기하는 콘텐츠를 공유할 수 있도록 허용하는 동시에 이러한 콘텐츠가 추천되는 것을 막는 기술도 활용하고 있습니다. 또한 자살 또는 자해와 관련된 용어를 검색하려는 사람들에게 도움을 주는 메시지를 표시하며, 이러한 이슈에 관한 게시물을 올리는 사람이 있을 때 다양한 리소스를 제공하고 도움을 줄 수 있는 지역 단체로 연결해줍니다.
저희는 전 세계 전문가들과 지속적으로 협력하여 사람들에게 자신의 경험을 공유하고 도움을 요청할 수 있는 공간을 제공하는 동시에 다른 사람들을 유해한 콘텐츠로부터 보호하기 위해 노력하고 있습니다.
Meta는 AI를 개발하는 과정에서 안전을 핵심 가치로 삼고 있습니다. Meta는 자살 및 자해와 관련된 유해한 콘텐츠로부터 사용자를 보호하기 위해 강력한 안전 장치를 구축했으며, Meta 정책에 따라 AI가 어떤 형태로든 자살 또는 자해를 가능하게 하거나, 조장하거나, 이를 지지하는 콘텐츠를 생성하는 것은 엄격히 금지됩니다. Meta는 향상된 콘텐츠 필터링을 포함해 청소년 보호를 위한 더욱 강화된 안전 조치를 적용했습니다.
Meta는 누군가 자살 또는 자해를 생각하고 있는 것으로 보일 때 이를 인식할 수 있도록 AI 모델을 학습시킵니다. 이러한 상황이 발생하면, Meta의 AI는 사용자의 안전을 최우선으로 삼아 위기 상담 전화, 전문 단체 등 신뢰할 수 있는 지원 리소스로 안내하여 도움을 받을 수 있도록 하고 있습니다. 이 보호 조치는 사용자가 Meta의 앱 전반에서 AI와 상호 작용할 때마다 적용되며, Meta는 정신 건강 전문가와 협력해 이러한 보호 조치가 최대한 효과적인지 검토하고 있습니다.
누군가 자살 충동을 드러내는 경우 최대한 빨리 도움을 제공하는 것이 중요합니다. 그래서 Facebook과 Instagram에서 자살 예방 리소스를 이용할 수 있도록 했습니다. 주요 정신 건강 단체들과 함께 개발한 리소스와 개인적으로 그러한 문제를 경험한 사람들의 의견은 저희가 계속해서 대응책을 개선해 나가는 데 도움이 됩니다.
Instagram은 관리 감독 도구를 사용하는 부모님에게 청소년 자녀가 단기간 내에 자살 또는 자기 학대와 관련된 용어를 반복적으로 검색하려고 시도하는 경우 알림을 보냅니다. 대부분의 청소년은 Instagram에서 자살 및 자기 학대 콘텐츠를 검색하려고 시도하지 않습니다. 청소년이 이런 콘텐츠를 검색할 경우 해당 검색을 차단하고 지원을 제공하는 리소스와 상담 기관을 안내하는 것이 Instagram의 정책입니다. 이러한 알림은 청소년 자녀가 해당 콘텐츠를 반복적으로 검색하려고 할 때 부모님에게 그 사실을 알리고 자녀를 지원하는 데 필요한 리소스를 제공하기 위해 설계되었습니다.
Meta는 머신 러닝 기술을 활용하여 잠재적 자살 또는 자해 콘텐츠를 식별할 수 있는 능력을 키웠습니다. 또한 많은 국가에서 이 기술을 통해 도움이 필요한 이들에게 제때 도움을 줄 수 있게 되었습니다. 이 기술은 우려를 표하는 문구 및 발언과 같은 패턴 인식 시그널을 사용하여 잠재적인 곤경 상황을 식별합니다.
저희는 인공 지능을 활용하여 저희 팀이 신고된 게시물, 동영상 및 라이브 스트리밍을 검토하는 순서를 지정합니다. 이는 저희가 효율적으로 정책을 시행하고 힘든 시간을 보내고 있는 사람들에게 빠르게 리소스를 제공하는 데 도움이 됩니다. 또한 저희 검토 담당자들이 시급한 게시물을 우선적으로 검토하여 Meta 커뮤니티의 구성원이 해를 입을 위험에 처해 있을 때 응급 서비스 기관에 이를 알릴 수 있습니다. 속도가 생명인 사안이기 때문입니다.
기술을 활용하여 신고의 우선순위를 지정하고 신고 과정을 간소화함으로써 콘텐츠를 커뮤니티 운영 팀에 전달할 수 있습니다. 커뮤니티 운영 팀은 실제로 정책 위반이 있었는지와 지역 응급 의료 기관에 연락하는 것을 추천할지 여부를 빠르게 판단할 수 있습니다. 저희는 커뮤니티에 더 나은 서비스를 제공하기 위해 앞으로도 계속해서 기술에 투자할 것입니다.
Meta 사용자는 누군가 자살을 생각하고 있다는 느낌을 주는 게시물을 신고할 수 있습니다. 이러한 신고를 받으면 Meta 커뮤니티 운영 팀의 훈련된 팀원이 신고를 검토하고 게시자를 지원 리소스와 연결해줄 수도 있습니다. 당사자가 당장 해를 입을 위험에 처해 있다고 판단될 경우에는 그 사람이 괜찮은지 확인할 수 있도록 긴급 구조원/응급 서비스 기관에 알립니다. 이 조치를 통해 많은 생명을 구했습니다.
잠재적 자살 및 자해 행위를 식별하는 Meta의 기술은 Facebook 및 Instagram 게시물과 Facebook 및 Instagram Live에도 적용되어 있습니다. 라이브 방송에서 누군가 자해를 고려하고 있는 것처럼 보이면 시청자들이 그 사람에게 직접 연락하고 방송을 Meta에 신고할 수 있습니다.
걱정하는 친구나 가족이 게시물을 신고했든 아니면 머신 러닝을 통해 게시물이 식별되었든 다음 단계는 동일합니다. 바로 검토하는 것입니다. 커뮤니티 운영 팀의 팀원이 신고를 검토하여 당사자가 당장 자해할 위험이 있는지 또는 정책 위반이 있는지 여부를 확인합니다. 심각한 경우에는 응급 서비스 기관과 함께 그 사람이 괜찮은지 확인합니다. Meta 기술 덕분에 긴급 대응 인력이 곤경에 처한 사람들에게 빠르게 도움을 줄 수 있었습니다.
"누군가 자살로 인한 고통을 표현하면, 가족이나 친구는 물론 Facebook과 Instagram 역시 도움을 제공할 수 있습니다. 사람들이 자신의 고통을 나눌 수 없거나 공유했음에도 삭제되어 버리면, 우리는 누군가의 생명을 구할 기회를 놓치게 됩니다. 저희는 사람들이 대화를 통해 어려움에 처한 사람들의 목소리를 듣고 그들이 계속해서 목소리를 낼 수 있도록 알리고 교육합니다. 이것이 위기에 처한 사람들을 돕는 방법이기 때문이에요. 소셜 미디어 플랫폼을 활용하면 많은 사람이 매우 빠르게 도움을 제공할 수 있는 방법으로 이 일을 할 수 있습니다."
- 대니얼 J. 레이덴버그(Daniel J. Reidenberg), 심리학 박사, FAPA, Save.org 대표 이사
"정신 질환과 자살 충동은 공개적으로 이야기하기 쉬운 주제가 아닙니다. 하지만 지속적인 대화와 연락은 우울증과 자살을 예방하는 데 중요합니다. Facebook에서 출시하는 도구는 자살 충동을 표현하는 사람을 대상으로 하는 동시에, 주변의 걱정하는 친구나 가족에게도 리소스와 대안 및 적절한 개입 방법을 안내합니다."
- 아나 찬디(Anna Chandy), The Live Love Laugh Foundation 의장 겸 이사, 인도
"The Finnish Association for Mental Health는 Facebook과 협업해 정서적으로 취약하고 자살 위험에 처해 있는 사람과 이들의 친구 및 가족들에게 지원과 리소스를 제공할 수 있어 기쁘게 생각합니다. 위기에 처한 사람들은 도움을 구할 힘이나 용기가 없는 경우가 많으며 자신에게 도움이 필요하다는 것을 깨닫기도 힘들기 때문에 이러한 지원을 제공하는 것이 중요합니다. 사람들이 사용하는 언어로 리소스 및 전문가의 연락처를 제공하는 것은 매우 중요합니다."
- 사투 라파나-요키넨(Satu Raappana-Jokinen), The Finnish Association for Mental Health 온라인 위기 서비스 매니저
"45분마다 브라질인 1명이 자살로 사망하는 비극적인 통계를 개선하려면 자살에 대한 인식을 높이고 자살 예방에 도움이 되는 이니셔티브가 필수적입니다. 어떤 사람은 친구가 자살에 대해 생각하고 있다는 것을 알 수 있지만 도와주는 방법을 모릅니다. 이 경우 Facebook이 브라질에서 공개한 것과 같은 도구들이 CVV가 50년 이상 노력을 기울인 공익 활동에 직간접적으로 도움이 되며, 다른 단체들이 '금기'를 극복하고 이 주제에 대해 추가적인 행동에 나서도록 독려하는 모델로 작용할 수 있어요."
- 카를루스 코헤이아(Carlos Correia), Centro de Valorização da Vida 자원봉사자, 브라질