備戰AI資料中心 技嘉提供三種液冷方案

备战AI资料中心,技嘉提供三种液冷方案。技嘉/提供

人工智慧(AI)普及促使全球资料中心加快导入创新科技,最具代表性的两项技术分别是先进冷却和丛集运算。高效能AI晶片的热设计功耗(TDP)日益增高,资料中心必须升级或改造其基础设施,采用节能且具成本效益的冷却方案,才能保持竞争力。技嘉(2376)最新发表业界主流的三种伺服器冷却选项,为AI时代做好万全的准备。

目前市面上尖端AI晶片产生的废热,已濒临气冷的解热极限,一般气冷式伺服器机架的平均功率密度低于20千瓦(kW),而辉达(NVIDIA)一颗H100加速器的TDP就高达700瓦,次世代AI加速器(如NVIDIA B100、B200)TDP预计达千瓦。

如果用技嘉科技的G593-ZD1人工智慧伺服器当作范例,5U伺服器可容纳八张GPU,而一座机柜提供42U到48U的空间,也就是说不用把伺服器装满,气冷方案已经不符合经济效益。也难怪NVIDIA在2024年发表的「百万兆级电脑」GB200 NVL72,指定采用液体冷却。

基于「效能」、「永续」和「成本效益」三项优势,先进冷却技术将持续被全球的资料中心和伺服器机房积极采用,即使现阶段的AI浪潮出现变数,也不受影响。

同时,技嘉拥有三种主流的伺服器冷却方案,即液体冷却、浸没式冷却和进阶气冷,可以协助导入企业的IT架构,让企业竞争力再晋级。