
Analizar la intención detrás del daño para poder prevenirlo
Entender cómo y por qué las personas comparten contenido vinculado con la explotación infantil es fundamental para poder combatir este flagelo.
Analizar la intención detrás del daño para poder prevenirlo.
Entender cómo y por qué las personas comparten contenido vinculado con la explotación infantil es fundamental para poder combatir este flagelo. Llevamos a cabo un análisis exhaustivo del contenido ilegal que reportamos para fundamentar nuestra respuesta de la mejor manera posible. Los datos arrojados por esta investigación se usan para implementar herramientas y lanzar nuevos programas que reduzcan el volumen de tan aborrecible material compartido.
Analizamos dos meses de reportes representativos de Facebook e Instagram al Centro Nacional para Niños desaparecidos y Explotados (NCMEC). Estas son nuestras conclusiones:
En otras palabras, unos pocos contenidos son responsables de muchos reportes. Esto nos permitió darnos cuenta de que entender mejor la intención de estas personas podía ayudarnos a prevenir la revictimización. Con esta idea en mente, trabajamos con destacados expertos en explotación infantil, incluido el NCMEC, para desarrollar una taxonomía respaldada por investigaciones. Esta taxonomía nos ayuda a categorizar la intención aparente de una persona al compartir este tipo de contenido.
Evaluamos 150 cuentas que reportamos al NCMEC por subir material de abusos sexuales infantiles en julio y agosto de 2020 y en enero de 2021. Según nuestras estimaciones, más del 75% no exhibían una intención maliciosa (es decir, no tenían la intención de dañar a un menor). En cambio, supuestamente, esas cuentas compartían este contenido por otras razones, por ejemplo, por indignación o como humor vulgar. Si bien este estudio representa nuestra mejor comprensión del tema, los resultados no se deben considerar como un parámetro preciso del ecosistema de seguridad infantil. Nuestro trabajo para comprender las intenciones de quienes envían este contenido todavía no terminó.
Nuestras soluciones específicas basadas en estas conclusiones incluyen la implementación de una ventana emergente en Facebook con el fin de reducir las búsquedas maliciosas de contenido. La advertencia se muestra cuando las personas realizan búsquedas de términos asociados con la explotación infantil. Esta ventana ofrece al usuario recursos alternativos de organizaciones de protección infantil y brinda información sobre las consecuencias que genera la visualización de contenido ilegal.
También implementamos una alerta de seguridad para informar a las personas que comparten este contenido por motivos que no sean dañar a un menor. Esta función está diseñada para alertar a los usuarios que compartieron memes virales con contenido vinculado a la explotación infantil. Advierte al usuario que compartir este material daña a la víctima, infringe nuestras políticas y tiene consecuencias legales.
Asimismo, estamos trabajando con especialistas en concientización pública para impulsar nuestra campaña "Ayuda a proteger a los niños". Independientemente del motivo por el cual se haga, volver a compartir este tipo de contenido es ilegal y revictimiza a los menores involucrados. Al reportar el contenido en lugar de compartirlo, los usuarios pueden contribuir a prevenir un daño mayor.
Una sola víctima de estos repudiables delitos ya es demasiado. Por eso, nuestra labor en torno a entender la intención que motiva este comportamiento no termina nunca. Seguimos implementando nuevas soluciones específicas tanto en nuestras plataformas públicas como en los mensajes privados.