22 de noviembre de 2024 6:34 AM

Instagram: investigación reveló cómo sus algoritmos de recomendación promueven la pedofilia

Los algoritmos de Instagram están promoviendo activamente redes de pedófilos que encargan y venden contenido de abuso sexual infantil en la popular aplicación para compartir imágenes de Meta.

Una investigación conjunta de The Wall Street Journal y académicos de la Universidad de Stanford y la Universidad de Massachusetts Amherst ha revelado hasta qué punto los sistemas de recomendación de Instagram “conectan a los pedófilos y los guían hacia los vendedores de contenido”.

Las cuentas encontradas por los investigadores se anuncian con hashtags descarados y explícitos como #pedowhore, #preteensex y #pedobait. Ofrecen «menús» de contenido para que los usuarios compren o comisionen, incluidos videos e imágenes de autolesiones y bestialidad. Cuando los investigadores configuraron una cuenta de prueba y vieron el contenido compartido por estas redes, se les recomendó de inmediato más cuentas para seguir. Como informa el WSJ: «Seguir solo un puñado de estas recomendaciones fue suficiente para inundar una cuenta de prueba con contenido que sexualiza a los niños».

En respuesta al informe, Meta dijo que estaba estableciendo un grupo de trabajo interno para abordar los problemas planteados por la investigación. “La explotación infantil es un crimen horrible”, dijo la compañía. “Estamos investigando continuamente formas de defendernos activamente contra este comportamiento”.

Meta señaló que solo en enero eliminó 490,000 cuentas que violaban sus políticas de seguridad infantil y en los últimos dos años eliminó 27 redes de pedófilos. La compañía, que también es propietaria de Facebook y WhatsApp, dijo que también bloqueó miles de hashtags asociados con la sexualización de los niños y restringió estos términos de las búsquedas de los usuarios.

Alex Stamos, director del Observatorio de Internet de Stanford y exdirector de seguridad de Meta, le dijo al WSJ que la empresa puede y debe hacer más para abordar este problema. “Que un equipo de tres académicos con acceso limitado pudiera encontrar una red tan grande debería encender las alarmas en Meta”, dijo Stamos. “Espero que la empresa reinvierta en investigadores humanos”.

Además de los problemas con los algoritmos de recomendación de Instagram, la investigación también encontró que las prácticas de moderación del sitio con frecuencia ignoraban o rechazaban los informes de material de abuso infantil.

El WSJ relata incidentes en los que los usuarios informaron publicaciones y cuentas que contenían contenido sospechoso (incluida una cuenta que publicitaba material de abuso de menores con el título «este adolescente está listo para ustedes, pervertidos») solo para que el equipo de revisión de Instagram borrara el contenido o lo dijera en un mensaje automático: «Debido al gran volumen de informes que recibimos, nuestro equipo no ha podido revisar esta publicación». Meta le dijo al Journal que no había actuado sobre estos informes y que estaba revisando sus procesos internos.

El informe también analizó otras plataformas, pero las encontró menos dispuestas a hacer crecer tales redes. Según el WSJ, los investigadores de Stanford encontraron «128 cuentas que ofrecen vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram» a pesar de que Twitter tiene muchos menos usuarios, y ese contenido «no aparece». proliferar” en TikTok. El informe señaló que Snapchat no promocionó activamente dichas redes, ya que se usa principalmente para mensajes directos.

guenos  TelegramInstagram y Twitter para recibir en directo todas nuestras actualizaciones.

Tags

Share this post:

Noticias Recientes

El Espectador de Caracas, Noticias, política, Sucesos en Venezuela