产业分析-平行运算时代:AI伺服器与GPGPU共荣发展
图为辉达(NVIDIA)晶片。图/pixabay
(更多产业分析请扫QR Code)
伴随擅长自然语言处理(Natural Language Processing,NLP)的「大型语言模型」(Large Language Model,LLM)与擅长影像处理(Image Processing)的「扩散模型」(Diffusion Model)迈向大规模商业化之际,AI伺服器及其重要运算核心-通用图形处理器(General-Purpose Computing on Graphics Processing Unit,GPGPU)显现擅于「平行运算」(Parallel Computing)的价值,成为人类社会依托技术发展再实现生产力提升的重要引擎。
■GPGPU三大供应商:
辉达、超微、英特尔
以往执行此类平行运算工作负载多加以仰赖中央处理器(CPU)完成,然而伴随科学运算等领域发展,运算任务越趋复杂,在多重运算任务亟待指令拆分的趋势下,GPGPU凭借平行运算突出效能,已迅速彰显在巨量资料(Big Data)爆炸性成长之际,可协同CPU加速完成AI模型训练与推论的价值。
因此,辉达(NVIDIA)、超微(AMD)与英特尔(Intel)等三大供应商,无不加速演进GPGPU核心架构设计、硬体配置与封装技术。此外,平行运算时代三大供应商亦突出「高速互联技术」(High-Speed Interconnect)相连CPU与GPGPU间、GPGPU与GPGPU间的协同运算加速作用,借以巩固供应商自身产品生态系市占率。
未来在NVIDIA、AMD与Intel伺服器CPU与GPGPU产品线完善下,同一供应商CPU与GPGPU产品共同构成的封闭生态系能驱动的协同运算效能,将是AI模型训练领域关注所在。
此外,若从AI伺服器供应链与生产模式来看,AI伺服器与过去云端运算伺服器供应链生产模式相仿,可大致区分为短链代工模式(ODM Direct)与长链代工模式(OEM Mode)。
■短链与长链代工业摩拳擦掌
短链代工模式是以处理器供应商与AI伺服器代工厂(ODMs)等零组件与设备供应商(意即由处理器供应商与云端服务供应商洽谈合作),以及终端使用者(指的是云端服务供应商)为供应链主要参与者,由ODMs出货予终端使用者,终端设备平均售价较长链代工模式为低廉。
反观长链代工模式,相较短链代工模式,则同样由处理器供应商提供AI伺服器处理器(也就是处理器供应商与ODMs洽谈合作),首先由AI伺服器品牌厂(OEMs)完成AI伺服器软硬体架构设计,再委由ODMs执行组装和制造环节,再由OEMs出货予终端使用者(包括云端服务供应商、金融机构与政府单位等)。
以供应链来看,基于AI伺服器客制化程度较云端伺服器为高的特性,工业富联、英业达、神达电脑、纬创资通、纬颖科技与广达电脑等台湾伺服器代工厂(ODMs)再度发挥客制化核心能力,扮演AI伺服器供应链关键角色;而Dell、技嘉、HPE、联想与Supermicro等伺服器品牌厂(OEMs)亦寄望以AI伺服器解决方案,作为后疫情时代全球伺服器市场再成长的重要动能。