产业分析-美国增加晶片负向条例 AI伺服器的机遇与挑战
随着AI伺服器建置热潮,拉动AI加速晶片需求,尤以中国、美国最积极扶持AI产业聚落。图/新华社
2022~2026年全球AI伺服器出货量预估
(更多产业分析请扫QR Code)
2023年全球AI伺服器市占率预估
据TrendForce研究预估,2023年人工智慧(AI)伺服器(包含搭载GPU、FPGA、ASIC等)出货量逾120万台,年增将达37.7%,占整体伺服器出货量达9%。2024年将再成长逾38%,出货量约167.6万台,占比将逾12%。
■AI伺服器与AI晶片
的竞争格局
全球伺服器中美两大体系在美国祭出晶片出口管制后更明显,即使中国伺服器厂商想进口高阶GPU也无计可施,仅能退而求其次的采用其他运算能力次之的晶片,例如浪潮、联想。
浪潮拥有完整的伺服器产品线,包含AI运算产品矩阵,其Transformer训练伺服器除了辉达(NVIDIA)GPU晶片之外,仍具备整机到平台软体的全栈AI运算方案优势,且于2022年该厂商AI伺服器产品在MLPerf评测中,有半数获得冠军;其中,5款伺服器改用A800、重新配置,机箱高度以4U居多,型号分别是NF5688M6、NF5488A5、NF5468A5、NF5448A6与NF5468M6,CPU则是搭载超微(AMD) EPYC或英特尔(Intel)Ice Lake,以满足客户需求缓解订单的问题。
联想为积极打造AI基础设施,现阶段依托「端-边-云-网-智」新IT架构,为客户提供全栈式产品、服务与方案,协助其加快智慧转型进程,从而推动智慧算力势能,扩大产品渗透率。因此联想在2023年第三季发布2款AI伺服器,分别是WA7780 G3、WA5480 G3,前者主要是以AI训练为主,故采用辉达H800、英特尔Sapphire Rapids,后者则是AI训练与推理一体机,最多可支援十张辉达H800。
有鉴于此,辉达为维持GPU产品(含系统平台)6成的市占率,近期积极向中国出售A800、H800,试图以中、低阶晶片稳定其在中国市场的地位与营业利润,即使2023下半年需求曲线倾向这些新型号,但仍须留意超微、英特尔等竞争者。
由于美国10月17日祭出的禁令管制范围扩张至A800、H800及L40S,TrendForce预估中国大型云端业者(CSP)ByteDance、Baidu、Alibaba及Tencent(BBAT)对辉达的高阶AI伺服器需求量将由原估约占整体AI伺服器的5~6%,进一步降低至3~4%。
■AI伺服器需求刺激,
HBM营收将高速成长
随着AI伺服器建置热潮,拉动AI加速晶片需求,尤以中国、美国最积极扶持AI产业聚落。中国不断释出对AI的扶植举措,扩张应用服务和加快产品创新,推动以AI伺服器为代表的诸多领域形成产业集群,例如自驾车、机器人、语音助理等。面对大量数据生成则需要更高效能的处理系统,因而陆续采用中低阶晶片支援资料中心的营运,甚至竭力推助半导体产业在自主研发的能力,基于二期大基金的底蕴加上三期大基金即将到来,有望充填研发设计与生产的资金需求。
再者,北美地区的大规模资料中心内部的高效能运算应用程式、虚拟机逐年扩增,以及美国积极推进DCOI战略计划以优化资料中心,包含EPA的58座非分层资料中心与运算机房。
由于中美都特别重视资料中心的长期规划与发展,试图将其统筹并部署高效能系统与相应的硬体,从而提升数据传输网路速率。因此HBM(High Bandwidth Memory)的技术突破与应用相当重要,TrendForce预期北美、中国市场对HBM需求将大幅增加,而且鉴于HBM相较其他DRAM产品的平均单位售价高出数倍,故2024年记忆体原厂的营收挹注较为显著,预估2024年HBM营收年增长率将达172%。