セーフティツールとポリシー
安全とは、私たち全員がいつでも注意を払い、責任を持って守るものです。安全に関するMetaの取り組みと、利用者に提供されているツールとリソースについて説明します。
オンラインでの児童の保護
オンラインでの子どもの搾取に対抗するMetaの取り組みなど、Metaのテクノロジーでの子どもの安全に対する包括的なアプローチについて説明します。
心身の健康
健やかな生活を送るうえで、オンラインにおける心身の健康がますます重要になっています。あなた自身、ご家族、コミュニティの人たちが心身の健康を保ちながらデジタルライフを楽しめるようにするための各種ツールやリソースを紹介します。
いじめと嫌がらせ
Metaはいじめや嫌がらせに関する報告を重大なものと受け止め、対応しています。いじめの防止や公にされたくない画像の不正利用について、各種ツールや専門家の協力を得て作成されたリソースを紹介します。
デジタルリテラシー
Metaでは、デジタル世界を上手に生きるのに必要なスキルと知識が身に付くデジタルリテラシーのリソースを用意しています。青少年向け、保護者向け、教育者向けの地域別リソースはこちらをご覧ください。
性的描写がある画像の不正利用および性的脅迫
Metaは、公開許可のない性的描写がある画像(NCII)のシェアを固く禁じています。このページでは、プライベートな画像をシェアされる被害、またはシェアするという脅迫の被害を受けている場合に即座に対処する方法について説明します。
薬物の乱用と不正使用
これらのリソースは、薬物使用の防止やそこからの回復についての支援や情報を求める方を対象にしており、Partnership to End AddictionおよびSong for Charlieの協力のもと作成されています。
女性の方へ
Metaのプラットフォームを女性にとって安全な場所にするための包括的なアプローチを紹介します。
LGBTQ+
LGBTQ+コミュニティは、常に変わらずMetaコミュニティの中で大切な存在です。オンラインでのLGBTQ+の安全に関連するサポートとリソースを紹介します。
保護者の方へ
Metaでは、保護者が若年層のオンラインでの安全と心身の健康を守るのに役立つポリシーやリソース、各種ツールをご用意しています。
青少年の安全
安全を確保し、心身の健康を優先し、前向きな変化を起こし、いじめや自殺念慮に悩まされている人に対応してそのような行為を阻止できるよう、青少年を教育し、力づけるためのMetaのツールとリソースについて説明します。
教育関係者の方へ
生徒がデジタル世界を上手に生きるのに必要なスキルと知識を身に付けられるようにサポートする方法を紹介します。
法執行機関
Metaはオンラインの世界においても物理的な世界においても、安全の強化に取り組んでいます。Metaのプライバシー保護、法執行機関向けのガイドライン、その他のサポートリソースをご覧ください。
ジャーナリスト、活動家、公人・著名人について
ジャーナリスト、人権擁護者、公人・著名人の安全な体験を実現するためのMetaのサポートについて説明します。

犯罪の背景にある意図を分析して防止に努める

児童搾取コンテンツに対抗するためには、利用者がそのようなコンテンツをシェアする方法や理由について理解することが重要です。

犯罪の背景にある意図を分析して防止に努める

児童搾取コンテンツに対抗するためには、利用者がそのようなコンテンツをシェアする方法や理由について理解することが重要です。弊社では報告済みの違法コンテンツを徹底的に分析して、対策に役立てています。この調査から得られたデータを踏まえて、不適切なコンテンツのシェアを抑制することを目的としたツールの導入や新しいプログラムのリリースを行っています。

弊社では、FacebookおよびInstagramから全米行方不明・被搾取児童センター(NCMEC)へ報告された2か月間のレポートを分析しました。その結果、以下のようなことが分かりました。

  • これらのコンテンツの90%以上は、以前に報告されたコンテンツと同一または見た目が類似したものでした。
  • 調査期間中に報告された児童搾取コンテンツのうち半分超が、わずか6件の動画のコピーを使用して作成されていました。

これはつまり、わずか数件のコンテンツに対して多数の報告が行われていたということになります。意図をよく理解することが再発防止につながることを実感できます。これを踏まえて弊社では、NCMECを含む児童搾取問題に詳しい専門家と協力し、調査に基づいた分類法を開発しました。この分類法を用いれば、こういったコンテンツをシェアする利用者の明確な意図が分類できます。

弊社では、2020年7月と8月、および2021年1月にCSAM(子どもの性的虐待に関するコンテンツ)をアップロードしたとしてNCMECに報告した150個のアカウントを調査しました。その結果、75%以上のアカウントは悪意がなかった(子どもに危害を加える目的はない)と推定されました。これらのアカウントは、激しい憤りや不適切なユーモアなど、他の理由でコンテンツをシェアしていると思われました。この調査結果は現段階での最良の知見ですが、これらの結果が子どもの安全に関するエコシステムの正確な評価であると考えるべきではありません。意図について理解するための取り組みは現在も続いています。

これらの調査結果に基づいて、弊社が実施する的を絞ったソリューションとして、悪意のあるコンテンツ検索の削減を目的としたFacebookのポップアップ表示があります。これは、利用者が児童搾取に関わる単語を検索したときに警告が表示されるものです。ポップアップでは、子どもに危害を加えないようにするための保護団体によるリソースと、違法なコンテンツを表示した場合の結果に関する情報が提供されます。

また、子どもに危害を加える目的以外でこのようなコンテンツをシェアしている利用者に通知するセーフティアラートも導入しました。この機能は、児童搾取コンテンツをバイラルミームとしてシェアした利用者に表示され、相手に危害を加えるコンテンツをシェアすることは弊社のポリシーに違反し、法的な問題に発展する可能性があることを警告するものです。

さらに弊社では社会認識の専門家と協力し、「未成年者の保護」キャンペーンを推進しています。理由がどうであれ、このようなコンテンツを再シェアすることは違法であり、また子どもが被害を受けることになります。再シェアするのではなく、コンテンツを報告することで更なる被害を防ぐことができます。

このような酷い犯罪の被害者は1人でも出してはならないため、弊社は引き続きその意図を理解する取り組みを行っています。Metaの公開プラットフォームとプライベートメッセージの両方で、より的を絞ったソリューションの導入に継続的に取り組んでいます。