Noticias

Google promete cambios en la supervisión de la investigación después de una revuelta interna

Google cambiará los procedimientos antes de julio para revisar el trabajo de sus científicos, según una grabación escuchada como parte de un esfuerzo para sofocar el tumulto interno sobre la integridad de su investigación de inteligencia artificial

En declaraciones en una reunión de personal el viernes pasado, los ejecutivos de Google Research dijeron que estaban trabajando para recuperar la confianza después de que la compañía derrocó a dos mujeres prominentes y rechazó su trabajo, según una grabación de una hora, cuyo contenido fue confirmado por dos fuentes. Los equipos ya están probando un cuestionario que evaluará los riesgos de los proyectos y ayudará a los científicos a navegar las revisiones, dijo la directora de operaciones de la unidad de investigación, Maggie Johnson, en la reunión. Este cambio inicial se implementará a fines del segundo trimestre, y la mayoría de los documentos no requerirán una investigación adicional, dijo.

Reuters informó en diciembre que Google había introducido una revisión de «temas sensibles» para estudios que involucraban docenas de problemas, como China o sesgos en sus servicios. Los revisores internos habían exigido que se modificaran al menos tres artículos sobre IA para abstenerse de proyectar la tecnología de Google en una luz negativa, informó Reuters. Jeff Dean, vicepresidente senior de Google que supervisa la división, dijo el viernes que la revisión de «temas sensibles» «es y fue confusa» y que había encargado a un director senior de investigación, Zoubin Ghahramani, que aclarara las reglas, según la grabación.

Ghahramani, profesor de la Universidad de Cambridge que se incorporó a Google en septiembre procedente de Uber Technologies Inc, dijo durante el ayuntamiento: “Necesitamos sentirnos cómodos con esa incomodidad” de la investigación autocrítica. Google se negó a comentar sobre la reunión del viernes.

Un correo electrónico interno, visto por Reuters, ofreció nuevos detalles sobre las preocupaciones de los investigadores de Google, mostrando exactamente cómo el departamento legal de Google había modificado uno de los tres documentos de inteligencia artificial, llamado «Extracción de datos de entrenamiento de modelos de lenguaje grande». El correo electrónico, con fecha del 8 de febrero, de un coautor del periódico, Nicholas Carlini, fue enviado a cientos de colegas, buscando llamar su atención sobre lo que él llamó ediciones «profundamente insidiosas» de abogados de la compañía. «Seamos claros aquí», decía el correo electrónico de aproximadamente 1.200 palabras. «Cuando nosotros, como académicos, escribimos que tenemos una ‘inquietud’ o encontramos algo ‘preocupante’ y un abogado de Google requiere que lo cambiemos para que suene mejor, esto significa que el Gran Hermano interviene».

Las ediciones requeridas, según su correo electrónico, incluían intercambios de «negativo a neutral», como cambiar la palabra «preocupaciones» por «consideraciones» y «peligros» por «riesgos». Los abogados también exigieron eliminar las referencias a la tecnología de Google; el hallazgo de los autores de que AI filtró contenido protegido por derechos de autor; y las palabras «infracción» y «confidencial», decía el correo electrónico.

Carlini no respondió a las solicitudes de comentarios. Google, en respuesta a preguntas sobre el correo electrónico, cuestionó su afirmación de que los abogados estaban tratando de controlar el tono del periódico. La compañía dijo que no tenía problemas con los temas investigados por el periódico, pero encontró algunos términos legales usados ​​de manera incorrecta y, como resultado, realizó una revisión exhaustiva.

AUDITORÍA DE PATRIMONIO RACIAL

La semana pasada, Google también nombró a Marian Croak, pionera en tecnología de audio de Internet y una de las pocas vicepresidentas negras de Google, para consolidar y administrar 10 equipos que estudian temas como el sesgo racial en algoritmos y tecnología para personas discapacitadas.

Croak dijo en la reunión del viernes que tomaría tiempo abordar las preocupaciones entre los investigadores de ética de la IA y mitigar el daño a la marca de Google. «Por favor, háganme totalmente responsable de tratar de cambiar esa situación», dijo en la grabación. Johnson agregó que la organización de IA está contratando una empresa de consultoría para una evaluación de impacto de equidad racial de amplio alcance. La primera auditoría de su tipo para el departamento conduciría a recomendaciones «que van a ser bastante difíciles», dijo.

Las tensiones en la división de Dean se profundizaron en diciembre después de que Google despidiera a Timnit Gebru, codirector de su equipo de investigación de IA ética, tras su negativa a retractarse de un artículo sobre IA generadora de lenguaje. Gebru, quien es negra, acusó a la empresa en el momento de revisar su trabajo de manera diferente debido a su identidad y de marginar a los empleados de entornos subrepresentados. Cerca de 2.700 empleados firmaron una carta abierta en apoyo de Gebru.

Dean explicó qué becas apoyaría la empresa. “Queremos investigaciones de IA responsable e IA ética”, dijo Dean, dando el ejemplo de estudiar los costos ambientales de la tecnología. Pero es problemático citar datos “con un factor de casi cien” ignorando estadísticas más precisas, así como los esfuerzos de Google para reducir las emisiones, dijo. Dean ha criticado anteriormente el artículo de Gebru por no incluir hallazgos importantes sobre el impacto ambiental.

Gebru defendió la cita de su artículo. «Es realmente un mal aspecto para Google salir a la defensiva contra un documento que fue citado por muchas de sus instituciones pares».Los empleados continuaron publicando sobre sus frustraciones durante el último mes en Twitter mientras Google investigaba y luego despedía a la co-líder de IA ética Margaret Mitchell por mover archivos electrónicos fuera de la empresa. Mitchell dijo en Twitter que actuó «para plantear preocupaciones sobre la desigualdad racial y de género, y hablar sobre el problemático despido del Dr. Gebru por parte de Google».

Mitchell había colaborado en el artículo que provocó la partida de Gebru, y una versión que se publicó en línea el mes pasado sin la afiliación de Google llamó a «Shmargaret Shmitchell» como coautor.

Fuente: Reuters

Categorías:Noticias

Etiquetado como:,

Deja una respuesta

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s