3月20日消息,据日经亚洲报道,英伟达(NVIDIA)计划从三星采购高带宽内存(HBM)芯片,这是众多人工智能处理器的关键组件。
“HBM 内存非常复杂,附加值非常高。我们在 HBM 上投入了大量资金,”英伟达创始人兼首席执行官黄仁勋周二在加利福尼亚州圣何塞举行的媒体会上表示。
黄仁勋表示,英伟达正在对三星的 HBM3E芯片进行资格认证,并将在未来开始使用它们。“三星非常好,一家非常好的公司。”黄仁勋说道。
与此同时,三星在存储芯片领域的最大竞争对手SK海力士于本周二宣布,已开始量产下一代高带宽存储芯片HBM3E。
HBM 已成为人工智能热潮的重要组成部分,因为其与传统内存芯片相比,它提供了更快的处理速度。
黄仁勋表示:“HBM 是一个技术奇迹。”他补充说,HBM 还可以提高能源效率,并且随着耗电的人工智能芯片变得更加普遍,可以帮助世界变得更加可持续。
△SK Hynix 的 HBM3 芯片搭载 Nvidia Hopper 100 GPU
SK 海力士此前实际上是 AI 芯片领导者英伟达所需的 HBM3 芯片的唯一供应商。虽然SK海力士没有透露其新 HBM3E 的客户名单,但 SK 海力士高管告诉《日经亚洲》,新芯片将首先发运给英伟达,并用于其最新的 Blackwell GPU。
三星一直在 HBM 上投入巨资,以追赶SK海力士。三星于2月份宣布开发出HBM3E 12H,这是业界首款12堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。
△三星今年早些时候宣布开发出 HBM3E 12H,这是迄今为止容量最高的 HBM 产品。
黄仁勋在媒体会上对记者表示:“三星和 SK 海力士的升级周期令人难以置信,一旦英伟达开始增长,他们就会与我们一起成长。”
“我非常重视我们与 SK 海力士和三星的合作关系,”他补充道。
需要指出的是,除了SK海力士和三星之外,美光也将成为英伟达的HBM3E供应商。美光公司于当地时间 2 月 26 日宣布,计划为英伟达最新 GPU H200 提供 8 个堆栈的 24 GB HBM3E,该 GPU 预计将于今年第二季度推出。
不过,SK海力士将会是最先向英伟达大量供货HBM3E的厂商,美光次之,而三星的HBM3E目前尚未通过英伟达的认证。
业内人士表示,“凭借在HBM3方面的技术优势,SK海力士有望在HBM3E市场上继续与英伟达保持牢固的合作关系。然而,随着三星电子推出业界最大容量的 12 堆栈 HBM3E 作为游戏规则的改变者,高堆栈 HBM 的竞争预计将加剧。”
随着AI半导体市场的扩大,HBM销售额占DRAM收入的比例正在迅速增加。市场研究公司TrendForce预测,HBM销售额占DRAM总营收的比重将从2022年的2.6%上升至2023年的8.4%,今年将进一步升至20.1%。HBM的产能预计今年也将大幅增加。去年,三星电子和SK海力士每月生产约45,000片晶圆,但今年,三星电子的产量预计将增至130,000片,SK海力士的产量将增至120,000至125,000片。美光在 HBM 市场排名第三,预计去年每月生产 3,000 片晶圆,今年每月生产 20,000 片晶圆。
编辑:芯智讯-林子