当大算力遇到高能耗,液冷服务器大势所趋

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

AI“大力出奇迹”,算力一路狂飙,电力作为算力发挥作用的基础设施,用电能耗也水涨船高。

日前,外媒报道称,ChatGPT每天响应大约2亿个请求,在此过程中消耗了超过50万千瓦时的电力,相比之下,美国普通家庭每天消耗29千瓦时的电力,即ChatGPT每天的用电量是美国家庭用电量的1.7万多倍。该报道直指AI“吃电”的隐忧:如果不断出现新的能源消耗方式,如何实现净零排放?

在绿色低碳转型发展背景下,以生成式AI为代表的大模型训练和推理产生的用能降耗问题日益突出,绿色算力的发展势在必行,液冷服务器作为算力“降耗”的重要方向,也正迎来发展东风。

当大算力遇到高能耗,液冷服务器大势所趋

算力 汹涌,能耗狂飙

当前,各种AI大模型如火如荼,推动全球算力需求呈现爆炸式增长,伴随着算力需求的增长,全球电力、功耗方面的成本不断增加。据开源证券统计,AI算力下主流芯片功耗正不断增加,如Intel的多款CPU芯片的TDP已突破350W,NVIDIA的H100系列GPU芯片TDP更是达到700W,B100 TDP或将达到1000W左右。

数据中心作为算力中枢电力消耗情况更为直观:根据国际能源署(IEA)数据,算力正在成为用电大户,数据中心的用电量已占全球总用电量的1.5%至2%,大致相当于整个英国的用电量,到2030年,这一比例预计将上升至4%。美国Uptime Institute预测,到2025年,AI业务在全球数据中心用电量中的占比将从2%猛增到10%。

大模型大算力带来的高能耗背后,是高昂的碳排放代价。据AI 初创公司Hugging Face和卡内基梅隆大学研究,从文本大模型到多模态大模型,算力需求和推理任务逐级增多,碳排放量也相应越来越高,如使用Stable Diffusion XL生成1000张图像所产生的二氧化碳排放量相当于一辆燃油车行驶4.1英里的排放量,是1000次文本分类碳排放的近1500倍。在当前多模态大模型发展水平下,其推理所产生的碳排放量也将会成指数提升。

当大算力遇到高能耗,液冷服务器大势所趋

为了解决AI算力狂飙下的能耗问题,发展低碳、节能的绿色算力成为必然,数据中心向低碳化演进,液冷服务器也有望成为行业优选。目前在双碳战略目标下,我国要求大型数据中心的PUE(电能利用效率)降低到1.3 以下(该数值越接近于1,说明能源越接近全部都用于IT设备负载上)。

在此背景下,算力厂商竞相布局绿色算力。据了解,英伟达即将推出的B100 GPU将采用液冷散热技术,且宣称其未来所有GPU产品的散热技术都将转为液冷。开源证券表示,随着AI的高速发展,CPU+GPU的异构计算服务器由于散热需求强烈,也开始逐步采用液冷制冷方式,AIGC或将加速液冷数据中心的渗透率。

可见,算力液冷市场正迎来新机遇。根据IDC数据,2023年上半年中国液冷服务器的市场规模为6.6亿美元,同比增长高达283.3%,预计到2027年,中国液冷服务器的市场规模将达到89亿美元。东吴证券测算,2025年及以后存量服务器改造为冷板式液冷市场空间为832亿元;假设2027年新增AI服务器全部采用冷板式液冷,市场规模为260亿元。

液冷服务器行业壁垒较高,但行业参与者众多,行业竞争仍较为激烈。开源证券认为,液冷行业的竞争壁垒主要体现在“技术、客户认证、运维”等综合能力上。也即布局液冷服务器,且产品技术实力雄厚的厂商将值得关注。

步入液冷时代 ,联想 集团 “温水水冷”破局高能耗

目前在液冷市场,主流玩家包括IT厂商、设备商、 互联网 厂商等拥有技术实力的企业。联想集团作为最全的算力基础设施和服务提供商,在液冷服务器领域是佼佼者,发展水平也位居行业第一矩阵。

当大算力遇到高能耗,液冷服务器大势所趋

从技术层面来看,液冷技术涉及冷却、制冷、温度控制算法等多个技术领域,覆盖多学科,技术门槛较高。联想集团基于多年技术沉淀,在液冷方面首创了温水水冷技术,该技术综合材料学、微生物学、流体力学、传热学等多个基础学科,能够以最佳的能耗比和 经济 效用实现100%服务器部件用水冷却,热移除效率最高可达98%,PUE可降低到1.1以内。

从客户认可层面来看,具备高可靠性、安全性、稳定性的产品往往是客户认证壁垒的关键。联想集团在产品层面,旗下服务器产品均有三高一低(高性能、高扩展、高可靠、低能耗)的共同特点,可为客户锻造强劲的算力引擎,在液冷技术的应用方面,其温水水冷技术广泛部署于全球不同客户,足以见客户认可度。

以德国莱布尼茨数据中心来说,其借助联想温水水冷技术,实现了90%的热能回收,后者比普通风冷系统散热效率高4000倍,年平均PUE1.1,每年可节省超过2000万欧元,节省下来的能源可为4700个德国家庭供电一年。上海交通大学的“思源一号”高性能计算集群以联想“海神”温水水冷技术,系统PUE约在1.1,可节约42%左右的电力成本。

从运维实力来看,液冷服务器容错性较低,任何一个部件发生损坏或可需要维修更换,或将对系统整体产生影响,这需要相关厂商具有较强的运维能力。联想集团依托“臻算”服务,可为客户提供全生命周期的运维服务。

目前,联想集团的温水水冷技术已迭代至第五代,拥有国内外多项专利,去年底该技术还获得了联合国授予的“能效优化赛道冠军”大奖。联想集团的温水水冷已经广泛应用于科研机构、气象、生命科学、石化和制造等多个领域,已在全球多个国家部署了7万套。

在行业趋势和温水水冷技术加持下,联想集团算力业务以“AI赋智,绿色赋能”的战略,构建了坚实的竞争壁垒。在“AI赋智”方面,联想集团纵深布局AI服务器,并打造了“联想问天”和“联想ThinkSystem”双品牌AI服务器,“绿色赋能”方面,则全面布局液冷服务器产品,以夯实产品综合实力。

AI热潮下,大模型技术的升级迭代正催化算力液冷加速发展,叠加双碳目标的推进,各行业对绿色算力的需求日益增长,带动我国液冷服务器渗透率快速提升,以联想集团为代表的算力厂商有望受益与此迎来增长新动能。

随意打赏

提交建议
微信扫一扫,分享给好友吧。