超微挑战辉达!供应链下半年开新局 内幕曝光
超微的新AI晶片MI300X即将放量生产,带动从先进封装、高频宽记忆体到伺服器生产的新一波竞赛;辉达也升级记忆体规格反制,这场大战将让AI伺服器供应链愈来愈旺。(图/财讯提供)
根据《财讯》双周刊报导,辉达(Nvidia)是当前AI晶片的主流,不过,从今年中开始,挑战者超微(AMD)的AI晶片MI300X即将大量出货,分食部分辉达的市场,也将再次影响从晶圆代工到伺服器的AI供应链。
超微反击 下半年将推新品
根据日本瑞穗证券报告,目前辉达在AI晶片市场市占率高达95%,「远比超微和英特尔相加高得多。」根据辉达财报,光是2023年第4季,辉达资料中心的营收高达184亿美元,约合新台币5400亿元,较前1年同期增加409%。
但是,超微的反击即将在下半年现身。本刊采访业界人士,他表示,目前超微和辉达H100晶片同级的产品MI300X晶片,现在已小量出货,微软等公司正在进行工程测试。「这款晶片下半年会有量,」主要的买家会是微软等拥有大型资料中心的公司,「5、6月开始,就会有一批拉货潮。」
包括微软、Meta、甲骨文、OpenAI等公司都会采购这款晶片,在旗下的资料中心提供服务,美超微、华硕、技嘉、鸿佰科技、英业达、云达等伺服器厂也正在设计相关的解决方案。在去年第3季法说会上,超微执行长苏姿丰表示,超微资料中心收入在2024年可达20亿美元,这代表MI300会是超微史上最快营收达到10亿美元的产品。
超微反击辉达的武器,是利用高频宽记忆体和先进封装技术来提高AI运算的效率。AI晶片的挑战在于,要在记忆体和处理器之间搬动大量的资料,因此,超微用台积电先进封装技术,把原本放在晶片外的记忆体,直接搬到晶片里,让大量资料不用再透过网路,直接在晶片里就可以将资料从记忆体搬到处理器计算。
《财讯》双周刊指出,在发表会上,苏姿丰就展示,只用1颗超微的晶片,就执行资料量高达40GB的AI模型,为旧金山写下1首诗,「这颗晶片最高可执行80GB的AI模型,」苏姿丰说。
根据瑞穗证券报告,MI300X配备高频宽记忆体多达192GB,比辉达H100 SXM晶片80GB的配置高1倍以上,在多项算力测试上性能也高于辉达H100 SXM晶片。辉达也拿出数字表示,辉达H100晶片性能比MI300X明显更快,并公布测试细节,让使用者可以自行比较两颗晶片的性能。两强竞争的烟硝味明显上升。
文章来源:财讯双周刊