Facebook presenta sistemas para atrapar la desnudez infantil y el presunto "cuidado personal" de los niños

VOA

Facebook Inc dijo el miércoles que los moderadores de la compañía durante el último trimestre eliminaron 8.7 millones de imágenes de usuarios de desnudos infantiles con la ayuda de un software previamente no revelado que marca automáticamente esas fotos.

La herramienta de aprendizaje automático implementada en el último año identifica imágenes que contienen desnudos y un niño, lo que permite un mayor cumplimiento de la prohibición de Facebook en las fotos que muestran a los menores en un contexto sexualizado.

Un sistema similar también reveló que los miércoles atrapan a los usuarios que participan en "arreglarse" o hacerse amigos de menores con fines de explotación sexual.

El jefe de seguridad global de Facebook, Antigone Davis, dijo a Reuters en una entrevista que la "máquina nos ayuda a priorizar" y "hacer cola de manera más eficiente" el contenido problemático para el equipo capacitado de revisores de la compañía.

La compañía está explorando la aplicación de la misma tecnología a su aplicación de Instagram.

Bajo la presión de los reguladores y legisladores, Facebook prometió acelerar la eliminación de material extremista e ilícito.

Los programas de aprendizaje automático que analizan los miles de millones de piezas de contenido que los usuarios publican cada día son esenciales para su plan.

El aprendizaje automático es imperfecto, y las agencias de noticias y los anunciantes se encuentran entre los que se han quejado este año sobre los sistemas automatizados de Facebook que bloquean erróneamente sus publicaciones.

Davis dijo que los sistemas de seguridad infantil cometerían errores, pero los usuarios podrían apelar.

"Preferimos errar por el lado de la precaución con los niños", dijo.

Las reglas de Facebook durante años han prohibido incluso las fotos familiares de niños con ropa ligera subidas con "buenas intenciones", preocupadas por cómo otros podrían abusar de esas imágenes.

Antes del nuevo software, Facebook confiaba en los usuarios o en sus filtros de desnudos adultos para capturar imágenes de niños. Un sistema separado bloquea la pornografía infantil que previamente se ha informado a las autoridades.

Facebook no ha revelado previamente datos sobre la eliminación de desnudos infantiles, aunque algunos se habrían incluido entre los 21 millones de publicaciones y los comentarios que eliminó en el primer trimestre por actividad sexual y desnudos adultos.

Facebook dijo que el programa, que aprendió de su colección de fotos de adultos desnudos y fotos de niños vestidos, ha llevado a más retiros. Hace excepciones para el arte y la historia, como la foto ganadora del Premio Pulitzer de una chica desnuda que huye de un ataque de napalm en la Guerra de Vietnam.

Proteger a los menores

El sistema de aseo infantil evalúa factores como la cantidad de personas que han bloqueado a un usuario en particular y si ese usuario intenta comunicarse rápidamente con muchos niños, dijo Davis.

Michelle DeLaune, directora de operaciones del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), dijo que la organización espera recibir alrededor de 16 millones de consejos sobre pornografía infantil en todo el mundo este año de parte de Facebook y otras compañías de tecnología, en comparación con los 10 millones del año pasado.

Con el aumento, NCMEC dijo que está trabajando con Facebook para desarrollar software para decidir qué consejos evaluar primero.

Aún así, DeLaune reconoció que un punto ciego crucial son las aplicaciones de chat cifradas y los sitios secretos de "web oscura" donde se origina gran parte de la pornografía infantil nueva.

El cifrado de mensajes en WhatsApp, propiedad de Facebook, por ejemplo, evita que el aprendizaje automático los analice.

DeLaune dijo que el NCMEC educaría a las empresas de tecnología y "espera que utilicen la creatividad" para abordar el problema.