4月18日消息,随着以ChatGPT为代表的生成式AI的持续火爆,带动了AI服务器出货量的持续增长,这也使得AI服务器所需的HBM(High Bandwidth Memory,高带宽存储器)的需求大涨。
NVIDIA定义的DL / ML型AI服务器平均每台均需搭载4张或8张高阶显卡,搭配两颗主流型号x86服务器CPU,主要采购商来自美系云服务厂商,包括Google、AWS、Meta与微软等。据TrendForce统计,2022年高阶搭载GPGPU的服务器出货量年增约9%,近80%出货量集中在全球头部的八大云服务业者。展望2023年,微软、Meta、百度与字节跳动相继推出基于生成式AI衍生产品服务而积极加单,今年AI服务器出货量年增长率有望达到15.4%,2023~2027年AI服务器出货量年复合增长率约12.2%。
随着AI服务器需求的增长,也带动了相关存储芯片需求的增长。目前,服务器DRAM普遍规格约500~600GB,AI服务器的单条模组多采用64~128GB容量,单个AI服务器的平均容量可达1.2~1.7TB。以企业级SSD来说,AI伺服器追求速度更高,要求优先提升DRAM或HBM容量来满足,SSD容量的提升呈非必要扩大容量态势,但传输接口会为了高速运算需求,优先采用PCIe 5.0接口。相较一般的服务器,AI服务器多采用GPGPU来进行运算,因此以NVIDIA A100 80GB配备4或8张加速卡来计算,HBM用量约320~640GB。未来AI模型逐渐复杂化趋势下,将刺激更多HBM需求成长。
据此前《韩国经济日报》报道,受益于ChatGPT的火爆,随着市场对AI GPU需求剧增,三星、SK海力士的HBM芯片(High Bandwidth Memory,高带宽存储器)赢得了额外的订单,成为目前持续下滑的存储芯片市场当中意外增长的品类。
下半年随着更为高端的NVIDIA H100与AMD MI300的推出,也刺激了HBM产品规格的更新。据了解,SK海力士作为目前唯一量产新一代HBM3产品的供应商,今年其在整体HBM市场的市占率有望提升至53%。三星、美光也规划对应规格的HBM3,将会陆续在年底至明年初量产,它们在HBM市场的市占率分别为38%及9%。
TrendForce的数据也显示,2022 年三大HBM原厂SK海力士、三星、美光的市占率分别为 50%、 40%和近10%。
资料显示,2021年10月,SK 海力士就宣布成功开发出HBM3 DRAM 内存,是全球首家开发出新一代高带宽内存(HBM),也是HBM 系列内存第四代产品。新一代HBM3 DRAM不仅提供高达819GB/s 的带宽,还堆叠更多层数DRAM 以增加容量,提供更广泛应用解决方案。相比上一代的HBM2E(460GB/s),整体带宽提高了78%。目前,NVIDIA A100加速卡目前使用的是6 颗HBM2E内存,提供2TB/s 带宽。一旦换成HBM3 规格,带宽最高可提高到4.9TB/s,显存容量也提升至最高144GB。
编辑:芯智讯-浪客剑