
예방을 위해 피해 뒤에 숨겨진 의도 분석하기
아동 학대 콘텐츠에 맞서 싸우려면 사람들이 어떻게 그리고 왜 이러한 콘텐츠를 공유하는지 이해해야 합니다.
예방을 위해 피해 뒤에 숨겨진 의도 분석하기
아동 학대 콘텐츠에 맞서 싸우려면 사람들이 어떻게 그리고 왜 이러한 콘텐츠를 공유하는지 이해해야 합니다. 효과적인 대응을 위해 저희가 신고한 불법 콘텐츠를 심층적으로 분석해보았습니다. 이 리서치를 통해 얻은 데이터는 혐오스러운 자료가 공유되는 사례를 줄이는 데 도움이 될 도구를 배포하고 새로운 프로그램을 시작하는 데 활용됩니다.
전형적인 두 달의 기간 동안 Facebook과 Instagram에서 발견하여 NCMEC(National Center for Missing and Exploited Children)에 신고한 콘텐츠를 분석했습니다. 저희가 알아낸 사항은 다음과 같습니다.
즉, 단 몇 개의 콘텐츠로 인해 많은 신고 건수가 발생했습니다. 이를 바탕으로 의도를 더 잘 이해하면 재희생자화를 방지하는 데 도움이 될 수 있음을 알 수 있었습니다. 이 점을 염두에 두고, 저희는 NCMEC를 비롯한 아동 학대 분야의 선두 전문가들과 함께 리서치에 기반한 분류 체계를 개발했습니다. 이 분류 체계는 저희가 아동 학대 콘텐츠를 공유하는 특정인의 명백한 의도를 분류하는 데 도움이 됩니다.
2020년 7월 및 8월과 2021년 1월에 아동을 대상으로 한 성적 학대가 포함된 자료(CSAM)를 업로드하여 저희가 NCMEC에 신고한 150개 계정을 평가했습니다. 그 결과, 75% 이상이 악의적인 의도, 즉 어린이를 해치려는 의도를 보이지 않았다고 추정할 수 있었습니다. 이러한 계정은 대신 분노, 질 낮은 유머 등의 기타 이유로 그러한 콘텐츠를 공유한 것으로 보였습니다. 이 연구 결과는 저희가 최선을 다해 이해한 것을 바탕으로 하지만 이렇게 알아낸 사항을 어린이 안전 에코시스템을 정확히 평가한 것으로 간주해서는 안 됩니다. 의도를 이해하기 위한 저희의 노력은 지금도 계속되고 있습니다.
이렇게 알아낸 사항을 바탕으로 악의적인 콘텐츠 검색을 줄이기 위해 Facebook에 팝업 창을 표시하는 등 대상에게 잘 맞는 솔루션을 개발했습니다. 사람들이 아동 학대와 관련된 용어를 검색하면 경고가 표시됩니다. 이 경고에는 어린이 보호 단체에서 아동 관련 정책 위반자의 주의를 돌리기 위해 제공하는 리소스와 불법 콘텐츠를 볼 경우 초래될 수 있는 결과에 대한 정보가 표시됩니다.
어린이를 해치려는 것이 아닌 다른 이유로 이러한 콘텐츠를 공유하는 사람들을 위한 안전 알림도 적용했습니다. 이 기능의 목적은 입소문을 타고 빠르게 번지는 아동 학대 콘텐츠 관련 밈을 공유한 사용자들에게 중요한 사실을 알리는 것입니다. 즉, 그러한 콘텐츠를 공유하면 피해자가 엄청난 영향을 받게 될 뿐만 아니라 공유 행위가 Meta 정책에 위배되고 해당 자료를 공유할 경우 법적 책임이 뒤따른다는 경고 문구가 표시됩니다.
이와 더불어 저희는 대중의 인식 제고 분야의 전문가들과 함께 자체 '아동 보호에 동참하기' 캠페인을 진행하고 있습니다. 이유를 불문하고, 이러한 콘텐츠를 다시 공유하는 것은 불법이고 해당 아동을 재희생자화하는 행동입니다. 콘텐츠를 공유하는 대신 신고하면 추가적인 피해를 막을 수 있습니다.
이 끔찍한 범죄의 피해자가 한 명도 나와서는 안 되기 때문에 의도를 이해하기 위한 저희의 노력은 지금도 계속되고 있습니다. 앞으로 계속해서 저희의 전체 공개된 플랫폼과 개인 메시지 서비스에서 대상에게 잘 맞는 솔루션을 더 출시하도록 하겠습니다.