需求弱 AWS未部署超微AI晶片

超微一年前推出Instinct MI300X,专门针对AI与高效能运算设计。AWS当时表达有意采用的兴趣,但后来并未部署在他们的云端系统。

亚马逊旗下晶片公司Annapurna Labs产品与客户工程部门主管赫特(Gadi Hutt)近日接受媒体访问表示:「我们以客户需求为依归。如果客户需求十分强烈,没有理由不部署。」

赫特表示,根据他们的评估,市场需求不足以支持Instinct MI300X的云端部署。

尽管超微的Instinct MI300X价格比辉达H100晶片便宜,但软体生态系的厉害程度不如辉达CUDA平台,导致许多开发商望而却步。随着超微硬体与软体日益进步,未来需求可能逐步成长。

从某种程度来说,Annapurna Labs开发的Trainium加速器与超微及辉达产品存在竞争关系。基于此考量,AWS在自家资料中心可能优先采用自家晶片。

亚马逊自家AI加速器Trainium与Trainium 2便是由Annapurna研发。亚马逊在自家AWS平台能以极具竞争力的价格提供Trainium与Trainium 2,远比辉达H100 GPU来得便宜。这可能使得AWS客户对于非辉达的第三方解决方案兴趣缺缺。

AWS最近在年度大会re:Invent上宣布,他们将采用辉达新推出的Blackwell GPU来强化自家AI产品组合。AWS在会上展示搭载Blackwell的P6伺服器,显示该公司预期这类伺服器需求将十分火热。

尽管AWS并未部署超微的Instinct MI300X,但双方仍维持紧密合作关系,AWS先前扩大采用超微EPYC处理器便是一例。