Hardware & Software

Nvidia presume un gran salto de rendimiento al ejecutar modelos chinos de IA en su nuevo servidor especializado

La compañía asegura que su última generación de servidores multiplica por diez la velocidad de modelos como Kimi K2 de Moonshot AI y otros sistemas basados en mezcla de expertos, reforzando su posición en la fase de despliegue de la IA.

Nvidia publicó nuevos datos que apuntan a una ventaja significativa en la ejecución de modelos de inteligencia artificial en comparación con sus generaciones anteriores de hardware. Aunque la empresa domina el mercado global de chips para el entrenamiento de modelos, el foco del sector se está desplazando hacia la fase de inferencia: el uso real de esos modelos por millones de usuarios en aplicaciones comerciales.

En este terreno la competencia es mucho más intensa, con empresas como AMD y Cerebras intentando posicionarse como alternativas competitivas. Aun así, Nvidia sostiene que su nuevo servidor de IA ofrece un rendimiento claramente superior al ejecutar modelos avanzados, incluidos los desarrollados por compañías chinas.

La mezcla de expertos: la arquitectura que está redefiniendo la eficiencia

Los datos se centran en modelos basados en mezcla de expertos (MoE), una arquitectura que divide las consultas en subprocesos especializados gestionados por diferentes “expertos” dentro del modelo. Este enfoque ganó un enorme protagonismo en 2025, especialmente después de que DeepSeek presentara un modelo abierto de alto rendimiento capaz de entrenarse de forma más eficiente usando hardware Nvidia.

Desde entonces, gigantes como OpenAI, Mistral y Moonshot AI han adoptado también esta técnica. En julio, Moonshot lanzó su modelo Kimi K2 Thinking, un MoE que se convirtió en una de las grandes referencias del mercado chino.

Diez veces más rendimiento gracias a una arquitectura de servidor más densa

Nvidia afirma que su nuevo servidor, equipado con 72 de sus chips más avanzados y enlaces de alta velocidad entre ellos, mejora por diez la capacidad de inferencia del modelo Kimi K2 en comparación con la generación anterior de servidores Nvidia. Resultados similares se habrían observado al ejecutar los modelos de DeepSeek.

La compañía sostiene que esta mejora se debe principalmente a dos factores: la densidad de chips que puede integrar en un solo sistema y la velocidad de comunicación interna entre ellos, un apartado en el que Nvidia mantiene ventajas tecnológicas significativas frente a competidores.

AMD prepara una alternativa para 2026

Aunque Nvidia sigue liderando el mercado, AMD prepara un servidor de características similares para el año que viene, también diseñado para alojar múltiples chips potentes y optimizar la ejecución de modelos grandes y complejos. El anuncio de Nvidia es interpretado como un movimiento para reforzar su liderazgo en un segmento donde más actores están intentando ganar terreno.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario