
犯罪の背景にある意図を分析して防止に努める
児童搾取コンテンツに対抗するためには、利用者がそのようなコンテンツをシェアする方法や理由について理解することが重要です。
犯罪の背景にある意図を分析して防止に努める
児童搾取コンテンツに対抗するためには、利用者がそのようなコンテンツをシェアする方法や理由について理解することが重要です。弊社では報告済みの違法コンテンツを徹底的に分析して、対策に役立てています。この調査から得られたデータを踏まえて、不適切なコンテンツのシェアを抑制することを目的としたツールの導入や新しいプログラムのリリースを行っています。
弊社では、FacebookおよびInstagramから全米行方不明・被搾取児童センター(NCMEC)へ報告された2か月間のレポートを分析しました。その結果、以下のようなことが分かりました。
これはつまり、わずか数件のコンテンツに対して多数の報告が行われていたということになります。意図をよく理解することが再発防止につながることを実感できます。これを踏まえて弊社では、NCMECを含む児童搾取問題に詳しい専門家と協力し、調査に基づいた分類法を開発しました。この分類法を用いれば、こういったコンテンツをシェアする利用者の明確な意図が分類できます。
弊社では、2020年7月と8月、および2021年1月にCSAM(子どもの性的虐待に関するコンテンツ)をアップロードしたとしてNCMECに報告した150個のアカウントを調査しました。その結果、75%以上のアカウントは悪意がなかった(子どもに危害を加える目的はない)と推定されました。これらのアカウントは、激しい憤りや不適切なユーモアなど、他の理由でコンテンツをシェアしていると思われました。この調査結果は現段階での最良の知見ですが、これらの結果が子どもの安全に関するエコシステムの正確な評価であると考えるべきではありません。意図について理解するための取り組みは現在も続いています。
これらの調査結果に基づいて、弊社が実施する的を絞ったソリューションとして、悪意のあるコンテンツ検索の削減を目的としたFacebookのポップアップ表示があります。これは、利用者が児童搾取に関わる単語を検索したときに警告が表示されるものです。ポップアップでは、子どもに危害を加えないようにするための保護団体によるリソースと、違法なコンテンツを表示した場合の結果に関する情報が提供されます。
また、子どもに危害を加える目的以外でこのようなコンテンツをシェアしている利用者に通知するセーフティアラートも導入しました。この機能は、児童搾取コンテンツをバイラルミームとしてシェアした利用者に表示され、相手に危害を加えるコンテンツをシェアすることは弊社のポリシーに違反し、法的な問題に発展する可能性があることを警告するものです。
さらに弊社では社会認識の専門家と協力し、「未成年者の保護」キャンペーンを推進しています。理由がどうであれ、このようなコンテンツを再シェアすることは違法であり、また子どもが被害を受けることになります。再シェアするのではなく、コンテンツを報告することで更なる被害を防ぐことができます。
このような酷い犯罪の被害者は1人でも出してはならないため、弊社は引き続きその意図を理解する取り組みを行っています。Metaの公開プラットフォームとプライベートメッセージの両方で、より的を絞ったソリューションの導入に継続的に取り組んでいます。