「Blackwell」加速晶片進入量產 NVIDIA說明AI模型訓練方式改變不影響市場的GPU需求量

在稍早公布截至10月底的2025财年第三季财报,NVIDIA表示上一季内营收达350.82亿美元,相比去年同期增加94%,净利则达193.09亿美元,成长幅度达109%,同时也说明包含微软、甲骨文、OpenAI在内客户都已经开始取得以「Blackwell」显示架构打造的加速晶片,目前约有1万3000组样品对外提供测试,并且已经全面进入量产阶段。

而NVIDIA财务长Colette Kress更说明「Blackwell」供货量将在2025年增加,预计带动数十亿美元营收。同时,先前已经开始供货的H200加速晶片目前也开始增加出货量,但预期接下来会有更多对于「Blackwell」的市场需求。

不过,在目前人工智慧模型训练方式开始改变,同时科技公司也尝试以不同方式改进人工智慧运作效率,例如OpenAI在今年9月提出的自然语言模型「o1」便是在基础模型训练情况下,持续与人互动学习结果进行成长,与NVIDIA先前提倡借由GPU加速缩短大量资料预先训练所需时间,借此推动人工智慧运算成长的方式有些不同。

甚至也有部分科技业者开始构思以不同方式建构人工智慧模型,甚至倾向以既有人工智慧模型为基础,透过微调方式打磨运算反应更快、答案更准确的小型人工智慧模型,借此减少大幅仰赖GPU加速训练的情况。

对此,NVIDIA执行长黄仁勋则表示乐见市场有这样的发展,意味人工智慧产业发展开始有了新的发展动力,同时也代表接下来将加速晶片用于人工智慧推论的比重将会增加,而非局限在基础模型训练。

但黄仁勋认为预先训练对于人工智慧发展依然重要,目前也仍有不少开发者持续加强模型预先训练方式,借此扩展人工智慧模型对应功能。黄仁勋表示,在此经验法则情况下,显示基础模型建置依然重要,同时模型规模也持续扩展。

对于NVIDIA而言,目前利用GPU进行运算加速依然是发展重点,同时也认为市场对于GPU的需求依然很高,不仅是前期模型训练加速,包含后续的模型推论运作也会需要使用GPU进行加速。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》