
NVIDIA lanza su próxima generación de chips para supercomputadoras de IA, marcando un avance significativo en la tecnología de aprendizaje profundo y modelos de lenguaje.
NVIDIA, una empresa líder en tecnología de gráficos y computación, ha anunciado el lanzamiento de su próxima generación de chips para supercomputadoras de inteligencia artificial (IA). Estos chips, según la compañía, jugarán un papel crucial en futuros avances en aprendizaje profundo y modelos de lenguaje a gran escala (LLM) como GPT-4 de OpenAI.
El producto clave es el GPU HGX H200, basado en la arquitectura «Hopper» de NVIDIA, que viene a reemplazar el popular GPU H100. Este es el primer chip de la compañía que utiliza la memoria HBM3e, que es más rápida y tiene mayor capacidad, haciéndolo más adecuado para modelos de lenguaje grandes. NVIDIA afirma que el H200 ofrece 141GB de memoria a 4.8 terabytes por segundo, casi el doble de la capacidad y 2.4 veces más ancho de banda que su predecesor, el NVIDIA A100.
En términos de beneficios para la IA, NVIDIA señala que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de parámetros, en comparación con el H100. Estará disponible en configuraciones de 4 y 8 vías que son compatibles tanto con el software como con el hardware en los sistemas H100. Se implementará en todo tipo de centros de datos (en las instalaciones, en la nube, nube híbrida y en el borde) y será desplegado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Su llegada está programada para el segundo trimestre de 2024.
Otro producto clave de NVIDIA es el GH200 Grace Hopper «superchip», que combina el GPU HGX H200 y el CPU NVIDIA Grace basado en Arm, utilizando el interconector NVLink-C2C de la compañía. Está diseñado para supercomputadoras, permitiendo a «científicos e investigadores abordar los problemas más desafiantes del mundo acelerando aplicaciones complejas de IA y HPC que manejan terabytes de datos».
El GH200 se utilizará en «más de 40 supercomputadoras de IA en centros de investigación globales, fabricantes de sistemas y proveedores de nube», incluyendo a Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT y Supermicro. Entre ellos destaca el supercomputador Cray EX2500 de HPE, que utilizará cuádruples GH200s, escalando hasta decenas de miles de nodos de Superchips Grace Hopper.
Quizás el supercomputador Grace Hopper más grande será JUPITER, ubicado en la instalación de Jülich en Alemania, que se convertirá en el «sistema de IA más poderoso del mundo» cuando se instale en 2024. Utilizará una arquitectura refrigerada por líquido, «con un módulo de refuerzo que comprende cerca de 24,000 Superchips NVIDIA GH200 interconectados con la plataforma de redes NVIDIA Quantum-2 InfiniBand».
NVIDIA afirma que JUPITER ayudará a lograr avances científicos en numerosas áreas, incluyendo la predicción del clima y del tiempo, generando simulaciones climáticas y meteorológicas de alta resolución con visualización interactiva. También se empleará para el descubrimiento de fármacos, la computación cuántica y la ingeniería industrial. Muchas de estas áreas utilizan soluciones de software personalizadas de NVIDIA que facilitan el desarrollo, pero también hacen que los grupos de supercomputación dependan del hardware de NVIDIA.
Descubre más desde TecnoAp21
Suscríbete y recibe las últimas entradas en tu correo electrónico.


