Noticias

El Pentágono choca con Anthropic por los límites al uso militar de la inteligencia artificial

La disputa enfrenta a una de las startups de IA más influyentes de Silicon Valley con el Departamento de Defensa de Estados Unidos y reabre el debate sobre hasta dónde debe llegar la autonomía de los sistemas inteligentes en contextos militares y de vigilancia.

Desacuerdo sobre armas autónomas y vigilancia interna

El Departamento de Defensa de Estados Unidos mantiene un enfrentamiento con Anthropic en torno a las salvaguardas que limitarían el uso de su tecnología de inteligencia artificial en aplicaciones militares sensibles, según han indicado a Reuters varias fuentes conocedoras de las conversaciones. En el centro del conflicto está la negativa de Anthropic a permitir que sus modelos se utilicen para el apuntado autónomo de armas o para tareas de vigilancia interna sobre ciudadanos estadounidenses sin una supervisión humana estricta.

El desacuerdo se produce tras meses de negociaciones vinculadas a un contrato con un valor potencial de hasta 200 millones de dólares. Según las fuentes, ambas partes se encuentran en un punto muerto, ya que el Pentágono defiende que, siempre que se cumpla la legislación estadounidense, debería poder desplegar tecnología comercial de IA sin estar sujeto a las políticas internas de las empresas desarrolladoras.


Una prueba clave para la relación entre Silicon Valley y Washington

El choque con Anthropic representa una prueba temprana de hasta qué punto las empresas tecnológicas pueden influir en la forma en que el ejército y las agencias de inteligencia estadounidenses adoptan sistemas de IA cada vez más potentes. Tras años de tensiones, Silicon Valley ha recuperado parte del favor político en Washington gracias al auge de la inteligencia artificial, considerada ahora un activo estratégico.

Anthropic, con sede en San Francisco, es una de las pocas compañías de IA que obtuvo contratos del Pentágono el año pasado, junto a Google, OpenAI y xAI. La empresa se encuentra además en un momento delicado, ya que prepara una posible salida a bolsa y ha invertido recursos significativos en posicionarse como socio del sector de seguridad nacional y como actor relevante en la definición de políticas públicas sobre IA.


La postura ética de Anthropic

En las conversaciones con funcionarios del gobierno, los representantes de Anthropic han insistido en que su tecnología no debe utilizarse para espiar a ciudadanos estadounidenses ni para facilitar ataques letales sin control humano suficiente. Esta postura se alinea con la visión expresada públicamente por su director ejecutivo, Dario Amodei, quien ha defendido que la inteligencia artificial puede apoyar la defensa nacional “en casi todas las formas”, salvo aquellas que acerquen a Estados Unidos a prácticas propias de regímenes autocráticos.

La cautela de Anthropic no es nueva y ya había generado fricciones con la administración estadounidense en el pasado. Sin embargo, fuentes citadas por Reuters señalan que, pese a su malestar, el Pentágono necesitaría la cooperación directa de la empresa para adaptar y ajustar sus modelos, diseñados de origen para evitar acciones que puedan causar daños, lo que limita su margen de maniobra.


Un debate que marcará el futuro de la IA militar

El conflicto pone de relieve una cuestión clave en la carrera global por la inteligencia artificial: quién decide los límites éticos y operativos de estas tecnologías cuando se trasladan al ámbito militar. A medida que los gobiernos buscan integrar IA en la planificación, la vigilancia y el campo de batalla, la tensión entre seguridad nacional, control democrático y responsabilidad corporativa amenaza con intensificarse.

El desenlace del pulso entre el Pentágono y Anthropic podría sentar un precedente sobre el grado de autonomía que tendrán las fuerzas armadas estadounidenses en el uso de IA comercial y sobre el papel que Silicon Valley está dispuesto —o no— a aceptar en ese proceso.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario