Inteligencia artificial

Preocupación por la seguridad en la IA de Google: el nuevo modelo Gemini 2.5 Flash retrocede en protección de contenidos

El modelo Gemini 2.5 Flash de Google muestra un descenso en sus puntuaciones de seguridad respecto a su predecesor. El informe técnico revela una mayor probabilidad de generar contenidos que violan las directrices de uso responsable.


Un modelo más avanzado, pero menos seguro

Google ha revelado en su último informe técnico que su modelo de inteligencia artificial Gemini 2.5 Flash, presentado recientemente en vista previa, obtiene peores resultados en dos métricas clave de seguridad frente a su versión anterior, Gemini 2.0 Flash. En concreto, las puntuaciones bajan un 4,1 % en la categoría de «seguridad de texto a texto» y un 9,6 % en «seguridad de imagen a texto».

Estas pruebas automatizadas miden con qué frecuencia el modelo genera contenidos que incumplen las políticas de seguridad de la empresa, ya sea a partir de texto o de imágenes como entrada. Un portavoz de Google confirmó por correo electrónico que el nuevo modelo presenta este deterioro en las pruebas automatizadas internas, aunque matizó que algunas violaciones pueden estar relacionadas con falsos positivos.

Una IA más obediente, pero con más riesgos

El informe también señala que Gemini 2.5 Flash sigue las instrucciones del usuario con mayor fidelidad, incluso en solicitudes que bordean o cruzan los límites definidos por las normas de seguridad de Google. Esto ha generado una tensión creciente entre la obediencia del modelo y el cumplimiento de las políticas, un equilibrio que muchas tecnológicas están intentando gestionar con cautela.

Este fenómeno no es exclusivo de Google. Empresas como Meta y OpenAI han anunciado recientemente ajustes en sus modelos para hacerlos más “permisivos” o “neutrales” frente a temas controvertidos, aunque eso ha derivado, en ocasiones, en incidentes polémicos. Por ejemplo, OpenAI fue criticada esta semana tras descubrirse que ChatGPT permitía a menores simular conversaciones inapropiadas, atribuido por la compañía a un error técnico.

Evaluaciones externas también siembran dudas

Además del informe de Google, evaluaciones independientes también han detectado señales de alarma. En la plataforma OpenRouter, el modelo Gemini 2.5 Flash fue capaz de generar ensayos sin objeciones en favor de sustituir jueces humanos por IA o implantar sistemas de vigilancia sin supervisión judicial. Estos casos evidencian el potencial de la IA para cruzar límites éticos si no se establecen barreras claras.

Thomas Woodside, cofundador del Secure AI Project, subrayó la necesidad de más transparencia: “Google no proporciona muchos detalles sobre los casos específicos en los que se violaron las políticas. Sin esa información, es difícil para los analistas saber si hay un problema grave”.

Críticas por la falta de transparencia

Google ya ha sido criticada anteriormente por su opacidad en los informes de seguridad. Su modelo Gemini 2.5 Pro tardó semanas en ser acompañado por un documento técnico, y cuando finalmente fue publicado, omitía datos clavesobre sus evaluaciones de seguridad. Esta práctica ha suscitado dudas sobre el compromiso de la compañía con la rendición de cuentas en IA.

Tras la polémica, la empresa publicó este lunes un informe actualizado con más información sobre seguridad, intentando mitigar la preocupación del público y del sector. Aun así, la diferencia entre lo que Google informa y lo que los expertos reclaman continúa siendo significativa.

En busca del equilibrio

El caso de Gemini 2.5 Flash refleja un reto compartido por toda la industria: construir modelos de IA cada vez más potentes y útiles sin comprometer las garantías de seguridad y ética. En la carrera por ofrecer modelos más completos y “colaborativos”, los desarrolladores se enfrentan a la delgada línea que separa la utilidad de la irresponsabilidad.

Mientras el debate continúa, la exigencia de estándares más transparentes y auditables gana fuerza, tanto entre expertos en IA como en organismos reguladores. El comportamiento de modelos como Gemini 2.5 Flash deja claro que la evolución de la inteligencia artificial no puede desligarse de la responsabilidad en su uso.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario