Hardware & Software

Samsung negocia con Nvidia el suministro de chips HBM4 de próxima generación

El fabricante surcoreano busca recuperar terreno frente a SK Hynix en la carrera por dominar la memoria de alto rendimiento para IA. El nuevo chip HBM4 será clave en la próxima generación de hardware de inteligencia artificial.

Samsung Electronics anunció el viernes que se encuentra en “estrecha discusión” con Nvidia para suministrar sus chips de memoria HBM4, una tecnología de alto ancho de banda esencial para el entrenamiento y funcionamiento de los sistemas de inteligencia artificial más avanzados.

El fabricante surcoreano planea comercializar los nuevos chips en 2025, aunque no especificó una fecha exacta para el inicio de los envíos.


La batalla por los chips de IA

El anuncio llega en un momento en que Samsung intenta ponerse al día con SK Hynix, su rival nacional y principal proveedor actual de Nvidia.

SK Hynix confirmó esta semana que comenzará a enviar sus propios HBM4 en el cuarto trimestre de este año, con una ampliación de ventas prevista para 2026.

Por su parte, Nvidia dijo en un comunicado que mantiene una “colaboración de suministro clave” con ambas empresas surcoreanas para los chips HBM3E y HBM4, aunque no ofreció más detalles sobre los acuerdos ni los volúmenes previstos.


Samsung busca recuperar liderazgo

Samsung ha sido más lenta que sus competidores en aprovechar el auge de los chips de memoria impulsado por la IA, lo que provocó un menor rendimiento de beneficios y una reorganización de su división de semiconductores en 2023.

Sin embargo, sus resultados se recuperaron este trimestre gracias a la fuerte demanda de memoria convencional, y la compañía afirmó que ya está suministrando sus chips HBM3E de 12 capas —la generación actual— a “todos los clientes relevantes”, incluido Nvidia.

Los analistas ven el lanzamiento del HBM4 como una prueba crucial para Samsung, que aspira a recuperar su liderazgo histórico en el sector de semiconductores de alto rendimiento.


Qué son los chips HBM

La memoria HBM (High Bandwidth Memory) es un tipo de memoria DRAM apilada verticalmente, introducida por primera vez en 2013. Su diseño compacto y eficiente permite reducir el consumo energético y acelerar el procesamiento de datos masivos, algo esencial para entrenar modelos de IA generativa, sistemas de conducción autónoma y supercomputadoras.

La nueva generación HBM4 promete una mayor capacidad y velocidad de transferencia, consolidando su papel como el estándar de referencia en la industria de la inteligencia artificial.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario