Noticias

Miles de grupos de Facebook se llenaron de llamamientos a la violencia antes de las elecciones estadounidenses

Antes de que Facebook cerrara el jueves el grupo de Facebook “Stop the Steal” de rápido crecimiento, el foro incluía llamadas a los miembros para que preparen sus armas en caso de que el presidente Donald Trump perdiera su candidatura para permanecer en la Casa Blanca.

Al deshabilitar al grupo después de la cobertura de Reuters y otras organizaciones de noticias, Facebook citó los esfuerzos del foro para deslegitimar el proceso electoral y los “preocupantes llamados a la violencia de algunos miembros”. Tal retórica no era infrecuente en el período previo a las elecciones en los Grupos de Facebook, un impulsor clave del compromiso para la red social más grande del mundo, pero no siempre recibió el mismo tratamiento.

Una encuesta de grupos de Facebook con sede en Estados Unidos entre septiembre y octubre realizada por la firma de inteligencia digital CounterAction encontró retórica con tintes violentos en miles de grupos públicos de orientación política con millones de miembros. Las variaciones de veinte frases que podrían asociarse con llamadas a la violencia, como “bloquear y cargar” y “necesitamos una guerra civil”, aparecieron junto con referencias a los resultados de las elecciones en aproximadamente 41.000 casos en los grupos públicos de Facebook con sede en EE. UU. en los dos período del mes. Otras frases, como “dispárales” y “mátalos a todos”, se utilizaron en grupos públicos al menos 7.345 veces y 1.415 veces, respectivamente, según CounterAction. “Hang him” apareció 8.132 veces. “Es hora de empezar a disparar, amigos”, decía un comentario.

Facebook dijo que estaba revisando los hallazgos de CounterAction, que Reuters compartió con la compañía, y que tomaría medidas para hacer cumplir las políticas “que reducen los daños en el mundo real y los disturbios civiles, incluso en Grupos”, según un comunicado proporcionado por la portavoz Dani Lever. La compañía se negó a decir si los ejemplos compartidos por Reuters violaron sus reglas o decir dónde traza el límite al decidir si una frase “incita o facilita violencia grave”, que, según sus políticas, es motivo de eliminación. Los fiscales vincularon varias conspiraciones de milicias interrumpidas con grupos de Facebook este año, incluido un ataque planificado contra manifestantes de Black Lives Matters en Las Vegas y un plan para secuestrar al gobernador de Michigan.

Para abordar las preocupaciones, Facebook anunció una serie de cambios de política desde el verano destinados a frenar los “movimientos sociales militarizados”, incluidas las milicias estadounidenses, las redes Boogaloo y el movimiento de conspiración QAnon. Facebook dice que ha eliminado 14.200 grupos sobre la base de esos cambios desde agosto.

DATOS:

A medida que se intensificaba la presión sobre la compañía antes de las elecciones, Zuckerberg dijo que Facebook detendría las recomendaciones para grupos políticos y nuevos grupos, aunque esa medida no evitó que el grupo “Stop the Steal” aumentara a más de 365.000 miembros en menos de 24 horas.

‘CONEXIONES SIGNIFICATIVAS’

Facebook ha promovido a Grupos de manera agresiva desde que el presidente ejecutivo Mark Zuckerberg los convirtió en una prioridad estratégica en 2017, diciendo que alentarían más “conexiones significativas”, y este año presentó el negocio en un comercial del Super Bowl. Intensificó la promoción de Grupos en las noticias y los resultados de los motores de búsqueda el mes pasado, incluso cuando las organizaciones de derechos civiles advirtieron que el producto se había convertido en un caldo de cultivo para el extremismo y la desinformación. Cualquiera en Facebook puede ver, buscar y unirse a los grupos públicos. Los grupos también ofrecen opciones privadas que ocultan publicaciones, o la existencia del foro, incluso cuando un grupo tiene cientos de miles de miembros.

Facebook ha dicho que depende en gran medida de la inteligencia artificial para monitorizar los foros, especialmente los grupos privados, que producen pocos informes de mal comportamiento de los usuarios, ya que los miembros tienden a tener ideas afines, para marcar publicaciones que pueden incitar acciones violentas a los revisores de contenido humano.

Si bien el uso de lenguaje violento no siempre equivale a una amenaza procesable, Matthew Hindman, un experto en medios y aprendizaje automático de la Universidad George Washington que revisó los resultados, dijo que la inteligencia artificial de Facebook debería haber podido seleccionar términos comunes para su revisión. “Si todavía encuentra miles de casos de ‘dispararles’ y ‘conseguir una cuerda’, está viendo un problema sistémico. No hay forma de que un sistema moderno de aprendizaje automático pierda algo así”, dijo.

Fuente: Reuters

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s