美光推出HBM3 Gen2:24GB容量,带宽超1.2TB/s,每瓦性能为前代产品2.5倍

7月27日,存储芯片大厂美光宣布推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量的HBM3 Gen2,相比其目前出货的HBM3解决方案提高了50%。

美光表示,HBM3 Gen2产品的每瓦性能是前几代产品的2.5倍,为人工智能(AI)数据中心的性能、容量和功率效率等关键指标创造了新的记录,可以减少GPT-4等大型语言模型的训练时间,并提供了卓越的总拥有成本(TCO)。美光HBM3 Gen2解决方案的基础是其1β(1-beta)工艺,在行业标准封装尺寸内将24GB DRAM芯片组成了8层垂直堆叠的立方体。

此外,美光还在准备12层垂直堆叠的单品36GB DRAM芯片,与现有的竞争解决方案相比,在给定的堆栈高度下,美光提供的容量增加了50%。美光在技术方面的进步,让能效提升成为可能,硅通孔(TSV)技术增加了一倍,金属密度增加了五倍,从而降低了热阻抗,以及节能的数据路径设计,因此能效得以提高。

根据美光公布的最新技术路线图,2026年的“HBMNext”将进一步提高容量,可达到36GB至64GB,带宽也会提升至超过1.5TB/s至2 TB/s。此外,美光明年也会带来GDDR7,容量为16Gb至24Gb,每个数据I/O接口的速率为32Gbps,与三星近期推出的首款GDDR7基本一致。

值得注意的是,自去年以来,随着以ChatGPT为代表的生成式AI的持续火爆,带动了高性能AI芯片(包括CPU、GPU)出货量的持续增长,这也使得配套的HBM(高带宽内存)的需求大涨。因为AI运算对数据吞度量有很高的需求,只有HBM内存才可以满足,通常HBM会和GPU、CPU封装在一起。

市场调研机构 TrendForce 的数据也显示,2022年度,SK 海力士在 HBM 市场占有率高达50%, 其次是三星电子(40%)和美光科技(10%)。

编辑:芯智讯-林子

0

付费内容

查看我的付费内容