Es poco probable que la memoria de alto ancho de banda (HBM) reemplace los tipos convencionales de DRAM en el corto plazo, pero la evolución continua del ecosistema de HBM hará que esta memoria sea más barata de usar y permitirá instalaciones de HBM aún más sofisticadas. Esta semana, SK Hynix demostró sus pilas de memoria HBM3 de 24 GB para sistemas en chips (SoC) que consumen mucho ancho de banda, y Samsung presentó su tecnología H-Cube que promete democratizar el uso de HBM para aceleradores.
24 GB en un solo chip
SK Hynix dijo que desarrolló sus pilas de memoria HBM3-6400 de 12-Hi 24GB compuestas por 12 dispositivos DRAM interconectados a través de vías de silicio (TSV) y colocados en una matriz base hace menos de un mes. Las empresas de propiedad intelectual ya ofrecen controladores HBM3 y PHY, y hay varios SoC próximos que utilizarán memoria HBM3, pero ninguno de ellos está listo para ser introducido. Por lo tanto, SK Hynix decidió mostrar los chips de memoria reales de 24 GB con una velocidad de transferencia de datos de 6,4 GT / sy una interfaz de 1024 bits que puede proporcionar un ancho de banda de hasta 819 GB / s, como señaló ServeTheHome en la OCP Summit.
(Crédito de la imagen: ServeTheHome)
La demostración es un indicador de que SK Hynix al menos tiene muestras de HBM3 y puede demostrarlas fuera del laboratorio. Aún así, por razones obvias, SK Hynix no puede divulgar los nombres de sus socios SoC que planean usar estas pilas de memoria primero. Mientras tanto, dado que los chips que consumen mucho ancho de banda tienden a adaptarse a aplicaciones empresariales o de computación de alto rendimiento (HPC), podemos estar seguros de que los primeros SoC que utilicen HBM3 serán bastante caros.
Samsung H-Cube
Hablando de los costes de HBM, hay varias razones por las que las soluciones equipadas con HBM son caras. Primero, construir chips de memoria de alta capacidad es costoso, y apilar muchos de ellos en una base determinada hace que los moldes apilados conocidos (KGSD) sean valiosos. En segundo lugar, conectar estos KGSD a un SoC utilizando un sustrato también es costoso, ya que los sustratos tienden a volverse prohibitivamente grandes y costosos a medida que aumenta la cantidad de pilas de memoria utilizadas. Aquí es donde entra en juego la nueva tecnología Hybrid-Substrate Cube (H-Cube) de Samsung y Amkor, que promete abaratar los paquetes de seis o más baterías HBM.
(Crédito de la imagen: Samsung)
Por lo general, los intercaladores se colocan en sustratos de paso fino (que tienden a ser más grandes que los intercaladores y también muy costosos) que se instalan en las placas base. La tecnología H-Cube de Samsung aplica un sustrato híbrido de interconexión de alta densidad (HDI) relativamente grande que se encuentra entre el sustrato de densidad fina (FPS) y la placa base. Dado que el FPS ya no necesita ser lo suficientemente grande para colocarse directamente en la placa base, los pasos de las bolas de soldadura se pueden reducir en un 35%. Samsung afirma que su tecnología H-Cube garantiza una fuente de alimentación estable y minimiza la pérdida o distorsión de señal al apilar múltiples chips lógicos y HBM.
(Crédito de la imagen: Samsung)
Samsung enfatiza que su tecnología H-Cube funciona mejor con implementaciones HBM de gama alta con seis o más chips de memoria. Aún así, nada impide que alguien lo use para productos más básicos.
Tanto HBM3 como H-Cube deberían ayudar a mejorar el ancho de banda y la adopción de tecnologías de HBM en el futuro. ¿Veremos otro producto de consumo que utilice HBM, como las familias R9 Fury y RX Vega de AMD? Probablemente, aunque eso podría no suceder en otra generación o dos de GPU.






