![¿Samsung se perdió la tarjeta de inteligencia artificial más cara de Nvidia pero supera a Micron con la memoria HBM3E de 36GB? ¿Podría esta nueva tecnología impulsar el B100, el sucesor del H200?](http://vacamutante.com/wp-content/uploads/2024/03/Samsung-missed-out-on-Nvidias-most-expensive-AI-card-but-beats-Micron-to-36GB-HBM3E-memory-—-could-this-new-tech-power-the-B100-the-successor-of-the-H200.png)
Samsung presenta el primer HBM3E 12H DRAM de la industria
La tecnología avanza a pasos agigantados y Samsung es una de las compañías que siempre está a la vanguardia en cuanto a innovación y desarrollo de nuevos productos. Recientemente, la empresa surcoreana ha anunciado el lanzamiento del primer HBM3E 12H DRAM de la industria, superando a su competidor Micron Technology y sentando las bases para la próxima generación de tarjetas de inteligencia artificial de Nvidia.
Un gran avance en capacidad y velocidad
El HBM3E 12H de Samsung ofrece una velocidad de hasta 1.280GB/s y una capacidad líder en la industria de 36GB, lo que representa una mejora de más del 50% en comparación con el HBM3 8H de 8 capas. Esta nueva tecnología utiliza una película no conductora de compresión térmica avanzada (TC NCF), lo que permite que los productos de 12 capas cumplan con los requisitos actuales de empaquetado HBM manteniendo la misma especificación de altura que los de 8 capas. Estos avances han llevado a un aumento del 20% en la densidad vertical en comparación con el producto HBM3 8H de Samsung.
La batalla se intensifica
«Los proveedores de servicios de inteligencia artificial de la industria están demandando cada vez más HBM con mayor capacidad, y nuestro nuevo producto HBM3E 12H ha sido diseñado para satisfacer esa necesidad», dijo Yongcheol Bae, Vicepresidente Ejecutivo de Planificación de Productos de Memoria de Samsung Electronics. «Esta nueva solución de memoria forma parte de nuestro impulso hacia el desarrollo de tecnologías clave para HBM de alta pila y para proporcionar liderazgo tecnológico en el mercado de HBM de alta capacidad».
Mientras tanto, Micron ha comenzado la producción en masa de su HBM3E 8H de 24GB, que se utilizará en las últimas tarjetas H200 Tensor Core de Nvidia. Micron afirma que su HBM3E consume un 30% menos de energía que sus competidores, lo que lo hace ideal para aplicaciones de inteligencia artificial generativa.
A pesar de perderse la tarjeta de inteligencia artificial más cara de Nvidia, la memoria HBM3E 12H de 36GB de Samsung supera al HBM3E 8H de 24GB de Micron en términos de capacidad y velocidad. A medida que las aplicaciones de inteligencia artificial continúan creciendo, el HBM3E 12H de Samsung será una opción obvia para los sistemas futuros que requieran más memoria, como el B100 Blackwell AI de Nvidia que se espera que llegue a finales de este año.
Samsung ya ha comenzado a enviar muestras de su HBM3E 12H de 36GB a los clientes, y se espera que la producción en masa comience en la primera mitad de este año. Micron comenzará a enviar su HBM3E 8H de 24GB en el segundo trimestre de 2024. La competencia entre los dos gigantes tecnológicos en el mercado de HBM se espera que se intensifique a medida que la demanda de soluciones de memoria de alta capacidad continúe aumentando en la era de la inteligencia artificial.
En resumen, Samsung ha dado un gran paso en el mercado de la memoria con su HBM3E 12H DRAM, superando a su competidor Micron y estableciéndose como líder en la industria. Con su capacidad y velocidad líderes, esta nueva tecnología será una opción obvia para las aplicaciones de inteligencia artificial en constante crecimiento. Estamos emocionados de ver cómo esta tecnología seguirá avanzando y mejorando en el futuro.