Meta asegura haber corregido un error que permitió la recomendación en Instagram de vídeos violentos en la pestaña 'Reels'

Meta ha admitido la existencia de un error en Instagram: permitió la aparición de vídeos violentos en la pestaña de 'Reels'
Los usuarios pudieron ver desmembramientos y cuerpos carbonizados: tenían activado el 'Control de contenido delicado'
Los pediatras advierten de los peligros de las cuentas para adolescentes en Instagram: "No hay una red segura"
La compañía tecnológica Meta ha admitido la existencia de un error en la plataforma Instagram que permitió la aparición de vídeos violentos en la pestaña de 'Reels' de una gran cantidad de usuarios, incluidos menores de edad, y que ya ha corregido. Varios usuarios de la red social recurrieron a otras plataformas para expresar su preocupación por una reciente afluencia de contenidos dañinos en el servicio, como desmembramientos, cuerpos carbonizados o comentarios sádicos hacia imágenes que representaba el sufrimiento de personas y animales.
Algunos de los afectados, incluso, aseguraron haber visto vídeos violentos en la pestaña de 'Reels' a pesar de haber activado la función de 'Control de contenido delicado', que permite controlar la cantidad de publicaciones y cuentas delicadas que se desea ver en las búsquedas. Además, estos vídeos llegaron a usuarios menores de edad.
El fallo ha mostrado a los usuarios vídeos de cadáveres y agresiones violentas
La propietaria de Instagram ha admitido este error y ha pedido disculpas por ello. "Hemos corregido un fallo que provocaba que algunos usuarios visualizaran contenido en su 'feed' de 'Reels' que no debería haber sido recomendado", ha compartido un portavoz de Meta con 'CNBC'. Así pues, este medio ha comprobado durante la noche de este miércoles, en Estados Unidos, la existencia de varias publicaciones que parecían mostrar cadáveres, lesiones gráficas y agresiones violentas, etiquetadas como 'Contenido sensible'.
También lo ha hecho 'The Wall Street Journal', que ha afirmado haber encontrado decenas de vídeos en los que aparecían personas heridas, publicados por cuentas no seguidas identificadas como 'Blackpeoplebeinghurt', 'ShowingTrogedies' y 'PopheDinghub'. Asimismo, ha recogido las declaraciones del portavoz de Meta, y ha señalado que esta persona ha aclarado que la falla no estaba relacionada con la decisión de la compañía de ajustar sus políticas de moderación de contenido, anunciadas a principios de este año.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.