6月27日消息,据韩媒KoreaTimes报道,业内人士称三星将在2023年下半年大规模量产HBM3内存芯片,以满足日渐增长的人工智能(AI)市场需求,同时追赶目前HBM市场的领导者SK海力士。
随着以ChatGPT为代表的生成式AI的持续火爆,带动了高性能AI芯片(包括CPU、GPU)出货量的持续增长,这也使得配套的HBM(高带宽内存)的需求大涨。因为AI运算对数据吞度量有很高的需求,只有HBM内存才可以满足,通常HBM会和GPU、CPU封装在一起。不过,HBM的价格比较昂贵,是传统DRAM的2~3倍。
根据研究机构集邦咨询的数据,2022年HBM产品市场中,SK海力士占据50%的市场份额,三星占比40%,美光占比10%。不过在整个DRAM市场中,HBM的份额仅为1%。该机构预计,从今年起至2025年,HBM将保持每年45%的高速增长。
今年4月,SK海力士宣布,再次超越了现有最高性能DRAM(内存)——HBM3的技术界限,全球首次实现垂直堆叠12个单品DRAM芯片,成功开发出最高容量24GB(Gigabyte,千兆字节)的HBM3 DRAM新产品,并正在接受客户公司的性能验证。
三星目前也在积极的开发大容量的HBM3内存。据韩国媒体报道,三星将大规模生产16GB、24GB容量的HBM3内存芯片,这类产品的速率可达6.4Gbps,有助于提高机器学习的运算速度。
今年4月,三星也曾表示,将在下半年推出HBM3P产品,具有更高的性能和更大容量。除此之外,三星还将推出HBM-PIM芯片、CXL DRAM芯片等。
来自韩国的分析师表示,三星预计从第四季度起开始向北美GPU制造商(可能是英伟达)供应HBM3芯片,因此未来这类芯片占三星DRAM总销售额的比重将从6%扩大至2024年的18%。
编辑:芯智讯-林子