2024年全球AI服务器出货量将同比大涨42%!

NVIDIA和富士康将打造台湾最快的超级计算机,由Blackwell GB200 NVL72服务器和高达90 ExaFlops提供动力1

10月16日,在市场调研机构TrendForce举行的“AI时代半导体全局展开2025科技产业大预测”研讨会上,TrendForce资深分析师龚明德表示,受益于云端服务供应商(CSP)及品牌客户对建设AI基础设施需求强劲,2024年全球AI服务器(含搭载GPU、FPGA、ASIC等)出货量将同比增长42%。2025年受云端业者及主权云等需求带动,出货量有望再增长约28%,推动AI服务器占整体服务器市场出货量比例提高至近15%。中长期来看,预期在各种云端AI训练及推理应用服务推进下,2027年AI服务器占比有机会逼近19%。

观察主要AI服务器芯片供应商,龚明德认为,英伟达(NVIDIA)表现一枝独秀,其高阶GPU 出货量同比增长率将超过150%,其中以H200等H系列GPU为出货主力产品。推动英伟达在2024年的AI GPU市场的市占率接近90%。至于Blackwell GPU平台将于明年上半年放量并成为主流,明年占比从4% 拉高至84%。

其他AI芯片供应商如AMD、英特尔以及云端服务供应商也在积极推动自家的AI服务器芯片,将推升2025年AI芯片出货增长动能,进一步带动AI芯片所需的先进封装(CoWoS)、高带宽內存(HBM)出货量翻倍增长。先进封装技术也将从CoWoS-S 往CoWoS-L 迈进,HBM也将由HBM3 转向HBM3e,也将明显提升液冷散热方案渗透率。

TrendForce 分析师邱珮雯认为,随着运算能力提升,液态冷却解决方案在数据中心逐步重要。在英伟达Blackwell GPU新平台带动下,GB200 NVL72 机柜方案的热设计功耗(TDP)高达约140kW,须采用液冷方案才可有效解决散热问题,预计初期将以水对气(Liquid-to-Air,L2A)方式为主流。

除了英伟达之外,近年来谷歌、亚马逊网络服务公司(AWS)和微软(Microsoft)等大型美系云端业者,也在布局液冷方案。其中CSP 自研高阶ASIC 以谷歌最积极采用液冷方案,其TPU 芯片同时使用气冷与液冷解决方案,其他CSP 仍以气冷为主要散热方案。中国产生方面,则以阿里巴巴采用液冷散热解决方案最为积极。长期来看,全球对ESG 逐渐重视,将加速带动散热方案由气冷转液冷形式。

随着头部厂商的积极推动,预计AI 芯片的液冷散热渗透率将从2024 年的11% 提升至2025 年的24%。

编辑:芯智讯-浪客剑

0

付费内容

查看我的付费内容