我们非常关心用户在我们旗下平台上的安全和身心健康。自 2006 年以来,我们便与自杀预防专家携手合作,共同为 Meta 社群用户提供支持。
Meta 提供的技术有助于用户获取相应的帮助资源,并向能够提供帮助的专家求助。我们的情绪健康中心提供一系列的专业心理健康建议与培训资源。您可以找到各种实用工具,这些工具可帮助您应对自己及身边人遇到的与自杀、焦虑、抑郁、身心健康管理相关的问题。
专家认为,与关心自己的人保持联络有助于预防自杀。Meta 能够帮助用户建立这种联系,并为用户提供有关自杀预防的支持和专业知识。无论是您本人正身陷痛苦,还是担心他人的状况,我们都希望这些资源能够带来切实的帮助。
在 Meta 协助搭建的关系之下,我们可以帮助处于痛苦中的人们,让他们与能够作为坚强后盾的好友以及知识渊博的专家取得联系。在世界范围内,每 40 秒就有一个人死于自杀。自杀成为了 15 到 29 岁人群的第二大死因。建立有意义的交流联系是预防自杀最有效的工具。Meta 希望为此出一份力,提供相关解决方案。
我们的平台于 2004 年首次上线(当时还是 Facebook),两年后,我们便与自杀预防及安全领域的专家合作,为 Meta 应用中的社群用户提供支持。我们坚持定期向这些专家进行咨询,并就当前的研究与最佳实践征求他们的意见,旨在确保我们始终将社群用户的安全与身心健康放在首位。
我们十分重视 Facebook 和 Instagram 社群用户的安全,并根据专家的建议制定了 Facebook 和 Instagram 内容发布政策,规定了这两个平台中允许和禁止发布的内容。我们绝不允许人们颂扬或宣传自残或自杀行为,同时还会移除对自杀和自残的虚构性描述,以及展示操作方法或所用材料的内容。但是,我们允许用户围绕自杀和自残展开讨论,因为我们希望用户能够在 Facebook 和 Instagram 分享他们的经历、提高公众对这些问题的认知,以及向他人求助。尽管我们允许用户分享内容来谈论个人应对这类问题的经历,但是我们会使用相关技术来避免系统推荐这些内容。我们还会对试图搜索自杀或自残相关词语的用户显示提供支持的消息,当我们发现有人发布与这些问题相关的内容时,将会为其提供实用资源,引导他们前往当地机构寻求帮助。
我们将继续与全球专家携手,在为用户提供平台供其分享自身经历并寻求帮助,以及保护他人免受可能有害的内容影响之间取得微妙的平衡。
在 Meta,安全是我们 AI 开发过程中的核心准则。我们已构建强有力的保障机制,助力保护用户免受与自杀和自残相关有害内容的侵害;同时,我们的政策严格禁止 AI 生成任何形式的支持、鼓励或认可自杀或自残行为的内容。我们为青少年用户制定了更为严格的安全措施,包括强化的内容过滤机制。
我们对 AI 模型进行训练,以识别出用户是否具有自杀或自残倾向。一旦检测到此类情况,我们设计的 AI 程序会始终将用户安全置于首位,通过引导用户获取可信赖的支持资源(如危机干预热线和专业机构),助力其获得所需帮助。这些防护措施适用于用户在我们各类应用中与 AI 互动的所有场景,我们会与心理健康专家协同审核这些措施,确保其具备最佳有效性。
当有人透露出自杀念头时,尽快为他们提供帮助至关重要。Facebook 和 Instagram 均提供自杀预防相关资源。与心理健康领导机构合作开发的资源,以及拥有亲身经历的人们分享的经验有助于我们持续改善响应能力。
如果孩子在短时间内反复尝试搜索与自杀或自我伤害相关的词条,Instagram 会向其使用监护功能的家长发送通知。绝大多数孩子不会在 Instagram 上尝试搜索与自杀和自我伤害相关内容,如果他们这样做,我们的政策会直接屏蔽这些搜索,并为用户跳转至可提供帮助的支持资源与求助热线。设置这些提醒的目的是,确保家长知晓孩子是否反复尝试搜索此类内容,并为他们提供支持孩子所需的资源。
借助机器学习技术,Meta 提升了识别潜在自杀或自残内容的能力,在许多国家/地区,我们都可以利用该技术为需要的用户提供及时的帮助。该技术使用模式识别信号(例如令人担忧的短语和评论)来识别潜在的与痛苦相关的内容。
我们使用人工智能对用户举报的帖子、视频和直播进行优先级排序,便于运营团队及时审核。这确保我们能够高效执行政策并快速为人们提供援助资源。这也确保我们的审核人员能够优先处理和评估紧急的帖子,以便他们在社群成员面临伤害风险时及时联系应急服务机构。速度是关键。
通过使用技术对这些举报进行优先级排序和梳理,我们能够将相关内容上报给社群运营团队,他们可以快速地判断出是否存在政策违规情况,以及是否建议联系当地急救人员。我们将继续投资开发技术,为社群提供更完善的服务。
Meta 用户可以举报他们认为暗示某人正在考虑自杀的帖子。训练有素的社群运营团队成员将审核这些举报,并可为发帖者提供帮助资源。当我们认为存在迫在眉睫的伤害风险时,我们会提醒急救人员/应急服务人员,以便他们进行健康检查,这些行动曾经挽救过无数人的生命。
Meta 用于识别潜在自杀和自残内容的技术已集成到 Facebook 和 Instagram 帖子以及 Facebook 和 Instagram Live 中。如果直播视频中的用户疑似有自残倾向,观看视频的用户可以直接联系此人,并向我们举报视频。
帖子无论是由关心他们的好友或家人举报,还是被机器学习识别出来,接下来的行动都是一样的,那就是审核。社群运营团队成员将审核举报内容,了解是否存在迫在眉睫的自残风险或违反政策的内容。在严重的情况下,我们会与应急服务人员合作进行健康检查。得益于 Meta 技术,我们能够帮助急救人员与身陷痛苦的用户迅速取得联系。
“当有人表达出想要自杀的痛苦时,其亲友甚至 Facebook 和 Instagram 都可以抓住机会及时干预。如果他们不愿说出自己的痛苦,或者表达后又移除了,那我们就错过了一次拯救生命的机会。我们训练相关人员在交谈中注意倾听,鼓励对方继续吐露心声,因为我们知道这是帮助他们渡过危机的一种方式。社交媒体平台让我们能够迅速凝聚大众的力量来伸出援助之手。”
— Daniel J. Reidenberg,FAPA 心理学博士兼 Save.org 执行总监
“我们通常不会公开谈论精神疾病和自杀念头。然而,交谈和沟通对于预防抑郁症和自杀至关重要。Facebook 推广的工具不仅能帮助那些显露自杀念头的人,还能指导极度焦虑的亲友寻找资源和备用方案,并采取适当的干预措施。”
— Anna Chandy,印度 The Live Love Laugh Foundation 主席兼受托人
“芬兰心理健康协会 (The Finnish Association for Mental Health) 很荣幸能与 Facebook 联手,为那些感到脆弱、有自杀危险的人及其亲友提供支持和资源。这种支持对他们而言很重要,因为处在危机中的人们往往没有能力或勇气去寻求帮助,甚至很难意识到自身需要帮助。因此,以合适的语言为他们提供资源和专家的联系方式很重要。”
— Satu Raappana-Jokinen,芬兰心理健康协会网络危机服务部主管
“统计显示,巴西每 45 分钟就有一人死于自杀。要想减少这些悲剧,任何有助于提升认知和预防自杀的举措都至关重要。有些人虽能发现身边好友有自杀倾向,但是想要提供帮助却又束手无策。面对这种情况,诸如 Facebook 在巴西推出的工具就可以派上用场,为 CVV 已坚持参与 50 多年的这项公益事业提供直接或间接帮助,并为其他组织树立克服‘禁忌’和进一步解决此问题的榜样。”
— Carlos Correia,巴西 Centro de Valorização da Vida 志愿者