Noticias

La expansión de Grok en el gobierno de EE. UU. desata preocupaciones por posibles conflictos de interés

Créditos TecnoAp21

El chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, comienza a ser utilizado por el equipo DOGE en organismos federales sin la aprobación formal de seguridad ni garantías éticas.


La implementación de herramientas de inteligencia artificial en la administración pública estadounidense ha entrado en una nueva y polémica etapa. Según fuentes cercanas al proceso, el equipo DOGE —una unidad impulsada por Elon Musk para reformar la eficiencia del gobierno federal— está promoviendo el uso del chatbot Grok, desarrollado por la compañía xAI, dentro de organismos oficiales, incluidos el Departamento de Seguridad Nacional (DHS) y el Departamento de Defensa. Esta situación ha generado una ola de críticas y advertencias por parte de expertos en ética gubernamental y privacidad.

El uso no autorizado de Grok en tareas de análisis de datos, elaboración de informes y monitoreo de comunicaciones podría implicar graves riesgos para la privacidad y la seguridad nacional, al tiempo que plantea dudas sobre el posible beneficio económico que Musk podría estar obteniendo al impulsar el uso de su propia tecnología dentro del aparato estatal. Algunos especialistas alertan incluso sobre posibles violaciones de leyes de conflicto de intereses, ya que el uso extendido de Grok podría traducirse en ingresos directos para xAI, en la que Musk tiene participación directa.

De la eficiencia a la opacidad: el caso Grok

De acuerdo con fuentes consultadas por Reuters, el chatbot Grok está siendo utilizado por miembros del equipo DOGE para tamizar bases de datos federales, redactar informes y preparar análisis. Se trataría de una versión personalizada del modelo, entrenada con información sensible del propio gobierno, aunque no se ha detallado ni el volumen ni la naturaleza exacta de los datos procesados.

El DHS habría recibido presiones del equipo DOGE para implementar Grok, a pesar de que la herramienta no ha sido aprobada dentro de sus protocolos de seguridad. El portavoz del Departamento negó categóricamente estas afirmaciones, mientras que el propio Musk, la Casa Blanca y la empresa xAI se han negado a hacer comentarios públicos.

Los expertos consultados afirman que este tipo de prácticas violan los procedimientos estándar de autorización de software dentro del gobierno federal, donde el intercambio de datos entre agencias requiere de validación legal, evaluación de riesgos y participación de personal especializado. En este caso, Grok estaría operando fuera de esos marcos, lo que abre la puerta a vulnerabilidades importantes.

Riesgos éticos y legales

La preocupación más grave radica en que el uso de Grok podría permitir a Elon Musk y xAI acceder a información confidencial, incluyendo datos personales de millones de ciudadanos y detalles sensibles sobre contratos federales, lo que supondría una ventaja injusta frente a otros competidores tecnológicos.

Según expertos como Richard Painter —exasesor de ética de la administración Bush—, si Musk estuviera involucrado en decisiones que beneficien a su empresa, se podría estar incurriendo en una violación del estatuto penal de conflicto de intereses. Aunque es una normativa raramente aplicada, puede conllevar multas e incluso penas de prisión.

Además, se han conocido casos de uso potencial de herramientas algorítmicas para monitorizar creencias políticasde empleados públicos, una práctica que podría contravenir leyes de neutralidad en la administración. Algunos trabajadores del Departamento de Defensa, por ejemplo, han sido informados de que sus actividades informáticas estaban siendo supervisadas por un sistema algorítmico no especificado, lo que ha generado temor a represalias y un clima de desconfianza.

Por el momento, no existe confirmación oficial de que Grok esté siendo utilizado para este tipo de vigilancia, pero la falta de transparencia en torno a su implementación y alcance está alimentando una creciente polémica. Para organizaciones como el Surveillance Technology Oversight Project, este caso representa “una amenaza a la privacidad tan grave como la que se puede imaginar”.

La expansión de Grok coincide con el interés de la administración Trump por recortar el gasto público y reorganizar estructuras del Estado, pero la velocidad y opacidad del despliegue tecnológico plantean la necesidad urgente de establecer controles más estrictos sobre la aplicación de IA en entornos gubernamentales.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario