文章预览
HBM,AI,SK Hynix HBM是采用2.5/3D封装的新型内存,主要应用于搭载GPU的AI服务器中。 HBM,即高带宽存储器,主要生产流程是通过3D封装进行DRAM IC堆叠,再通过2.5D封装将堆叠DRAM IC与GPU芯片进行集成,相较于传统DDR,拥有高带宽、高能效、小面积等特性,主要应用于搭载GPU的AI服务器上。 最新一代HBM3E预计于2024年量产,带宽将达到1.15TB/s,容量将达到36GB。 HBM的起源是2009年韩国SK Hynix与美国AMD的开发,真正得到重视是从2016年美国NVIDIA推出Tesla P100显卡开始,如今HBM已经成为NVIDIA、AMD推出数据中心用显卡的标配。目前,HBM已经历经四次技术迭代,最新一代HBM3E将于2024年量产,带宽相较上一代提升约1.5倍,容量相较上一代提升约1.5倍,升级效果显著。 HBM的技术发展趋势在于带宽 & 容量、散热效率、可靠性。带宽 & 容量方面: 是每一代HBM的发展重点,预计HBM4E
………………………………