
Según la nueva propuesta, se requeriría que las plataformas construyan sistemas para eliminar contenido ilegal
Las declaraciones de apertura de Mark Zuckerberg, Sundar Pichai y Jack Dorsey se publicaron antes de la audiencia de desinformación del jueves en la Cámara, y muestran a los tres directores ejecutivos asumiendo un tema inusualmente delicado para las plataformas tecnológicas. Vale la pena leer las tres declaraciones, con Dorsey enfocándose en herramientas internas como Birdwatch y Pichai advirtiendo sobre los peligros de una derogación total de la Sección 230 de la Ley de Decencia en las Comunicaciones.
Pero la propuesta más detallada provino de Zuckerberg, quien habló extensamente sobre sus cambios preferidos a la Sección 230. En lugar de derogar la ley por completo, como pidió el presidente Biden durante la campaña, la propuesta de Zuckerberg condicionaría la Sección 230 a que las empresas mantengan un sistema para eliminar contenido ilegal.
Como lo describe Zuckerberg en la carta:
Creemos que el Congreso debería considerar condicionar la protección de responsabilidad de intermediarios de las plataformas para ciertos tipos de contenido ilegal a la capacidad de las empresas para cumplir con las mejores prácticas para combatir la difusión de este contenido. En lugar de que se les conceda inmunidad, se debería exigir a las plataformas que demuestren que cuentan con sistemas para identificar el contenido ilegal y eliminarlo. Las plataformas no deben ser consideradas responsables si un contenido en particular elude su detección, lo que no sería práctico para plataformas con miles de millones de publicaciones por día, pero se les debe exigir que cuenten con sistemas adecuados para abordar el contenido ilegal.
Los estándares para retener 230 protecciones podrían ser establecidos por un tercero, continúa diciendo Zuckerberg, y excluirían las demandas en torno al cifrado y la privacidad «que merecen una audiencia por derecho propio». Eso distingue la propuesta de Zuckerberg de 230 proyectos de ley presentados anteriormente, como la Ley EARN IT , que condiciona las protecciones a una puerta trasera de cifrado largamente buscada. La propuesta de Zuckerberg se acerca más a la Ley PACT, que condiciona las protecciones a las divulgaciones de transparencia y otras medidas, pero se centra menos en la eliminación de contenido ilegal.
En términos generales, es inusual que las empresas propongan reglas sobre cómo les gustaría ser reguladas, pero es menos inusual para Zuckerberg, quien anteriormente ha escrito extensamente sobre las reglas favorables de portabilidad de datos y moderación de contenido.
Esta es la propuesta más detallada para la Sección 230 que Zuckerberg ha presentado hasta ahora, y es una que requeriría pocos cambios materiales para el propio Facebook. Facebook ya mantiene importantes sistemas para identificar y eliminar contenido ilegal u objetable. Aún así, la propuesta podría abordar algunas de las objeciones más urgentes a la Sección 230, que a menudo se enfoca en sitios más pequeños completamente dedicados a actividades maliciosas.
El problema es particularmente urgente para grupos como el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que luchan con sitios web que no escanean o moderan las imágenes de abuso infantil. “Hay muchas empresas, especialmente algunas de las muy grandes, que se involucran en medidas voluntarias realmente tremendas”, dijo Yiota Souras de NCMEC a The Verge a principios de este año. «Pero hay muchas empresas que no lo hacen, y no existe ningún requisito legal para que utilicen ningún tipo de detección o detección».
La audiencia está programada para comenzar a las 12 p.m. el jueves 25 de marzo.
Fuente: The Verge
Categorías:Noticias