辉达AI灌急单!台积电先进封装狂爆 这5档有富爸爸罩

台积电先进封装扩产,相关设备厂吃补。(示意图/达志影像/shutterstock)

编按:台积电近期积极扩充先进封装产能,将带动先进封装供应链,包含湿制程的辛耘、弘塑;贴膜设备的志圣;拣晶设备的均华、AOI检测设备的万润等,业绩成长可期。

-------------------------------------

随着AI持续发展,伺服器用GPU需求激增,Nvidia增加对台积电投片量带动CoWoS产能供不应求,台积电提前扩产无疑替设备供应商营运注入强心针。

近期受到ChatGPT热潮所带动的生成式AI应用兴起,GPU需求快速飙升,被视为全球最大AI军火商的辉达(Nvidia)更是在最近一次法说会中表示,目前正有「令人难以置信的订单」,并直言现在是资料中心十年转型期的起点。

Nvidia扩大下单

虽然Nvidia在去年面临PC景气下滑,与加密货币挖矿潮消退,导致消费型产品RTX 40系列订单大幅修正,但近期受到资料中心的AI伺服器需求快速增加,许多国际大客户如微软(Microsoft)、谷歌(Google)、甲骨文(Oracle)等除了持续采购Nvidia DGX A100伺服器之外,下半年也将会陆续导入Nvidia DGX H100新机种,由于新机种在平均售价比旧款高出二∼二.五倍,将会推动整体AI伺服器市场营收规模放大。

根据TrendForce预估,今年度全球AI伺服器出货将达近一二○万台,年增三八.四%,直到二○二六年将成长至二三六.九万台,年复合成长率达二二%,除了搭载FPGA、ASIC的AI伺服器,Nvidia的GPU仍为目前AI伺服器晶片主流,市占率约六○∼七○%,其次为云端服务商自主研发的ASIC,市占率约二○%。

据了解,相较于传统通用型的伺服器,是以CPU为主算力,而应用于ChatGPT等大型语言模型的AI伺服器则以CPU+GPU为主要架构,以Nvidia DGX H100伺服器为例,本身搭载二个CPU和八个H100 GPU,与前一代的A100相比,H100在每秒一千兆次(petaflop)浮点运算的千瓦数能源效率提高了两倍,整体效能提升四.五倍。

其实,Nvidia旗下伺服器用GPU一直以来都是使用台积电的CoWoS封装,从过去的P100、V100到最新推出的GH200等,根据野村证券估计,Nvidia今年对CoWoS的需求已从年初预估的三万片晶圆大幅成长至四.五万片,成长幅度达五○%。

台积电CoWoS供不应求

值得注意的是,中国方面先前受限于美国政府的半导体禁令,导致Nvidia A100、H100禁止销往中国市场,Nvidia为符合美国政府规定,快速推出可规避禁令的A800、H800的降规版晶片,目前也已下单台积电七、四奈米,预计第三季全面放量。

过去,在台积电的营收组成当中,智慧型手机营收一直都大于高速运算(HPC),最明显的贡献就是苹果iPhone的A系列处理器都是采用整合扇出型封装(InFO),直到二○二二年HPC营收比重正式超越手机,AI产业的快速成长扮演重要推手,未来此趋势将更明确。