Noticias

Un error en Instagram expone a los usuarios a Reels con contenido violento y sexual

Un error en el algoritmo de recomendaciones de Instagram ha provocado que los usuarios vean contenido gráfico inapropiado en sus feeds de Reels. Meta ya está trabajando en una solución.


Un fallo en Instagram altera el contenido de Reels

Instagram, la popular red social de Meta, está experimentando un problema en su sistema de recomendaciones de Reels, lo que ha provocado que muchos usuarios se encuentren con contenido violento o sexual explícito en su feed. La empresa ha confirmado a CNBC que se trata de un error que están tratando de solucionar.

«Estamos arreglando un error que hizo que algunos usuarios vieran contenido en su feed de Instagram Reels que no debería haber sido recomendado. Nos disculpamos por el error», declaró un portavoz de Meta.

En los últimos días, numerosos usuarios han acudido a redes sociales como Reddit y X (anteriormente Twitter) para expresar su preocupación y preguntar si otros también han experimentado este problema. Algunos mencionan que sus feeds de Reels han sido invadidos con vídeos de extrema violencia, incluyendo tiroteos en escuelas, apuñalamientos y decapitaciones. Otros han informado que han visto contenido sexual explícito, incluyendo desnudos y pornografía sin censura.

Un problema que afecta a usuarios sin interés en ese contenido.

Los algoritmos de plataformas como Instagram suelen mostrar contenido basado en los intereses y las interacciones previas del usuario, con el objetivo de personalizar la experiencia. Sin embargo, en este caso, los vídeos gráficos han aparecido en los feeds de personas que nunca han interactuado con contenido similar.

Incluso aquellos que han activado el Control de Contenido Confidencial, una función diseñada para filtrar contenido sensible, han seguido viendo vídeos explícitos. Otros han informado que, a pesar de marcar manualmente los vídeos como «No interesado», Instagram continuaba recomendando publicaciones similares.

Este fallo pone en evidencia posibles vulnerabilidades en el algoritmo de Instagram y plantea preocupaciones sobre la moderación del contenido en la plataforma. Aunque Meta no ha especificado qué causó exactamente el problema, los vídeos reportados por los usuarios deberían haber sido eliminados por la propia moderación de la red social.

Meta responde, pero sin detalles sobre el error.

Meta ha declarado que el error está en proceso de ser corregido, pero no ha proporcionado una explicación detallada sobre cómo ocurrió. La compañía mantiene una política estricta de moderación de contenido y afirma que «elimina la mayor cantidad de contenido gráfico y agrega etiquetas de advertencia a otro contenido gráfico para que las personas sean conscientes de que puede ser sensible o perturbador antes de hacer clic».

Según sus normas, Instagram prohíbe explícitamente «fotografías y vídeos reales de desnudez y actividad sexual», así como contenido que muestre «actos de violencia explícita». Sin embargo, el fallo ha permitido que estos vídeos inunden los feeds de los usuarios, lo que ha generado una fuerte reacción en la comunidad digital.

¿Un problema de moderación o un fallo más grave?.

El problema no solo afecta a la experiencia de los usuarios, sino que también podría representar un riesgo para la reputación de Meta, especialmente en un momento en que la compañía enfrenta un escrutinio cada vez mayor por la forma en que maneja la seguridad y privacidad en sus plataformas.

El fallo también plantea preguntas sobre la efectividad de los sistemas de moderación automática de Instagram y hasta qué punto pueden fallar al evitar la proliferación de contenido perjudicial.

Por el momento, Meta no ha dado una fecha exacta para la resolución completa del problema, pero la compañía ha asegurado que está trabajando activamente en una solución.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario