觀點/GPU加速 並非人工智慧技術發展唯一解決方案
在当前的人工智慧运算与训练模式中,透过GPU进行加速似乎已经成为常态,甚至有不少看法认为借由CPU处理人工智慧运算或训练已经不合乎效益,但由电气电子工程师学会发行杂志《IEEE Spectrum》在去年发表文章却指出,CPU在特定情况反而会比GPU更适合用于人工智慧执行、训练。
《IEEE Spectrum》去年6月报导文章引述人工智慧模型开源共享托管平台Hugging Face推广长Julien Simon经验,借由32核心设计的Intel Xeon处理器处理Intel提出大型自然语言模型Q8-Chat,即可呈现宛如OpenAI的ChatGPT运作体验。
以Julien Simon的看法指出,GPU虽然是当前市场用于加速人工智慧运算及训练的主流选择,但显然并非是绝对。同时,Julien Simon更指出若开发者愿意做好功课,并且善用合适工具,实际能透过CPU完成更多人工智慧推论相关工作。
多数人在市场趋势冲击印象中,普遍认为CPU缺乏平行处理能力,因此不适合用于深度学习等训练使用,认为结合GPU进行平行运算加速才是人工智慧技术发展唯一作法。
但实际上从多数运算执行结果回传数值为零的情况来看,可以凸显许多人工智慧模型更重要的是如何做到更正确计算,而非单纯以大量运算次数定义人工智慧执行效率。换句话说,实际上如何着手从软体端、模型设计进行最佳化,并且搭配合适硬体,才是让人工智慧执行效率提升作法。
如同Intel提出Q8-Chat大型自然语言模型执行效率情况,在代号「Sapphire Rapids」的Xeon处理器执行表现,相较代号「Ice Lake」的Xeon处理器执行表现约提升5倍以上,而在相同处理器、搭配软体最佳化的执行效率表现更有40%幅度提升,显示人工智慧执行效率更重要的是软硬体整合,而非单纯仰赖硬体效能加速。
实际上,目前的人工智慧运算模式相当多元,透过GPU加速确实不是唯一正解。包含Intel、Qualcomm、AMD在内业者均提出结合CPU、GPU,以及NPU (或XPU、IPU等)运算元件进行协同运算加速设计,借此提升人工智慧执行运算效率。
目前确实许多人工智慧运算均仰赖GPU加速,但也让GPU运算元件价格因此水涨船高,甚至可能有市场垄断情形,这样的情况确实会对整体人工智慧发展市场不利。从广面来看,人工智慧运算应该还是要维持其多元性,即便在整体运算架构上也应该对应更具弹性布署应用型态。
即便积极强调GPU是推动人工智慧技术发展核心的NVIDIA,其实也还是强调CPU的重要性,甚至更进一步着重布局软体应用发展,原因就在于CPU仍扮演其重要性角色,同时有不少运算依然仰赖CPU,甚至借由CPU运算实现成本效益,GPU确实有其运算加速优势,但本身也还是有高功率运作问题必须作改善,因此主要还是端看人工智慧实际布署应用需求,并且依照实际情况弹性调整软硬体整合型态才是最佳作法。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》