电力或成AI发展的达摩克利斯之剑

数据观  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

AI正在“吸干”全球电力

《纽约客》杂志近日指出,OpenAI的ChatGPT每天处理约2亿次用户请求,消耗的电力或超过50万千瓦,相当于1.7万个美国家庭的用电量。“明年将没有足够的电力来运行所有的芯片。”埃隆·马斯克早前的预言不仅是对未来的警示,更是对当前AI电力需求激增的深刻洞察。

不久前,技术创业者、前谷歌工程师凯尔·科比特(KyleCorbitt)也在社交媒体X上表示,训练GPT-6的微软工程师们正忙着搭建IB网络(InfiniBand),把分布在不同地区的GPU连接起来。这项工作很困难,但他们别无选择,因为如果把超过10万块H100芯片部署在同一个地区,电网就会崩溃。

为什么这些芯片集中起来会导致电网崩溃的后果呢?以下数据或许可以说明原因。

英伟达网站上公布的数据显示,每块H100芯片的峰值功率为700W,10万块H100峰值功耗最高可达7000万W。而X评论区有能源行业从业者指出,10万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。这一数据直观展现了AI大模型在训练和推理过程中对电力的巨大依赖。

事实上,ChatGPT仅是AI应用的冰山一角,更大规模的电力消耗来自遍布全球的数据中心。据国际能源署统计,2022年美国约有2700个数据中心,电力消耗占全国总量的4%,且这一比例预计在2026年升至6%。同时,报告还显示,2022年全球数据中心、人工智能和加密货币的耗电量就达到460TWh,占全球能耗的近2%。IEA预测,在最糟糕的情况下,到2026年这些领域的用电量将达1000TWh,与整个日本的用电量相当。

AI对电力需求的增长不仅源于大模型的运算量,还与芯片性能提升和冷却需求相关。芯片设计公司Arm的首席执行官ReneHaas警告称,若不提高芯片能效,到2030年,AI数据中心的耗电量可能占据美国总电力需求的20%-25%。美银美林的研究报告也进一步指出,AI电力使用量预计在2023年至2028年间以25%-33%的年复合增长率增长,远高于整体电力需求2.8%的年复合增长率。

从全生命周期视角评估AI能耗

华盛顿ITIF智库在一份题为《重新审视对人工智能能耗的担忧》的报告中指出,目前许多研究和政策都关注AI训练(training)阶段,但多项研究表明AI在推理(inference)过程中,也即人们使用AI输出结果的过程能耗更高。此外,不同AI模型处理不同类型的推理任务,能耗的差异也很大。例如1000次请求计算,图片分类任务的耗电量是0.007千瓦时,而图片生成任务耗电2.907千瓦时。

报告认为,AI的训练是一次性事件,而它的使用是长期过程,讨论AI能耗问题时应该关注的不是爆发式增长,而是长期的影响。并且,从技术史的视角看来,AI及其能耗的增长还将受到以下4个因素的限制:

基础设施建设成本将制约AI的快速增长

事实上,“ChatGPT每日耗电量或超过50万千瓦时”的结论,出自技术博客Digiconomist作者亚历克斯·德·弗里斯(AlexdeVries)的估算。德·弗里斯还曾预测,在最糟糕的情况下,谷歌的AI用电量将与整个爱尔兰相当,达到每年29.3TWh(太瓦时)。但他同时也指出,要想达到这样的规模,谷歌需要在芯片上投入1000亿美元,此外还要数据中心的运营和电费投入数十亿美元。如果AI的运营成本居高不下,逐利的商业公司自然会放慢脚步,减少投入。

AI性能增长存在边际效应

近年来AI连续在许多领域取得了突破性进展,这也意味着它可能很快迎来一个瓶颈期。研发、运营更大的模型带来的回报将越来越低,在提升准确性上精益求精也将变得更困难。所以,优化AI模型可能是接下来的研发方向。

软件和硬件的性能提升将减少AI能耗

AI模型的优化,以及硬件技术的进步,都有望减少AI的能耗。一项发表于《科学》期刊的研究指出,在2010~2018年间,全球数据中心的运算量增长了550%,存储空间增长了2400%,但耗电量仅增长6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

同样,剪枝(pruning)、量化(quantization)、蒸馏(distillation)等技术有望带来更好的算法,让AI模型更快、更节能。谷歌公司和加州大学伯克利分校研究团队指出,有赖于各项技术进步,近年来在谷歌公司内部AI的能耗占比保持稳定,尽管机器学习增长到运算量的70%~80%。

AI的应用最终将在某些方面减少碳排放

整体上,当人们用电子邮件替代传统书信,用观看DVD或流媒体频道替代去电影院看电影,这些活动的数字化都减少了碳排放。AI有望在这方面继续发挥作用,例如通过改进视频通话体验,使更多的会议转向远程进行。此外,AI技术还可用于进行电网调度、分析气候数据,从而成为应对气候变化的助力。

电力供需矛盾与公共电网压力

AI产业的快速发展与现有电力供应体系形成了鲜明对比。以美国为例,一方面,美国电网基础设施大多建于上世纪六七十年代,设备老化、输电线路过载等问题突出,难以应对突如其来的电力需求激增。例如,2021年得克萨斯州因极端寒潮引发的大停电事件,暴露了电网脆弱性。另一方面,企业对有限的电网接入权限展开激烈竞争,纷纷在科技产业欠发达地区如俄亥俄、爱荷华等地布局数据中心,以获取稳定的电力供应。

这种供需矛盾迫使企业采取各种手段“抢电”,包括自建或购买专属电源、寻求新型能源解决方案等。联邦政府虽意识到电力瓶颈问题,但受制于跨州管辖权、土地购置、环保评估以及成本分摊等复杂因素,大规模电网升级面临重重困难,短期内难以取得显著成效。

清洁能源技术:应对电力挑战的新希望

在传统电力供应捉襟见肘的情况下,核能、燃料电池和地热能等清洁能源技术成为缓解AI电力需求压力的潜在路径。企业积极探索多元化的电力供应方案,以确保业务稳定发展的同时,尽可能减少对环境的影响。

核能:可靠但争议犹存

核能以其高效、清洁和稳定的特点吸引了众多科技巨头。亚马逊网络服务公司(AWS)选择在宾夕法尼亚州的核电站附近设立数据中心,并有望获得高达960兆瓦的专用电力。微软则在招聘核技术专家,评估和整合小型模块化核反应堆与微反应堆,旨在为数据中心提供持续动力。尽管如此,小型核反应堆在美国尚无实际应用案例,其落地需克服联邦监管审批、公众接受度以及安全顾虑等多重障碍。

燃料电池与地热能:成熟且具潜力

相较于核能,燃料电池与地热能技术更为成熟,且在短期内实现商业应用的可能性较大。数据中心开发商MichaelHalaburda和ArmanKhalili在其项目中就采用了这两种清洁能源。他们在波特兰地区的数据中心以天然气为燃料的燃料电池为主要电力来源,辅以电网电力;在得克萨斯州南部的项目则完全脱离电网,利用地热能发电满足数据中心需求。这些实践表明,燃料电池与地热能能够有效减轻对传统电网的依赖,为AI数据中心提供可靠的绿色能源。

核聚变:未来能源的星辰大海

虽然目前尚未实现商业应用,核聚变作为能源领域的“圣杯”,因其理论上近乎无限的能源供应潜力和极低的环境影响,备受科技企业和投资者关注。微软与核聚变初创公司Helion达成电力购买协议,计划在2028年从Helion采购电力。OpenAICEO山姆·阿尔特曼对该领域亦有所投资,展现出对未来核聚变能源的期待。尽管实现核聚变商业化还需克服重大技术难题,但其一旦成功,将彻底颠覆能源格局,为AI产业乃至全球电力需求提供几乎无限的清洁能源。

AI与电力的可持续共生之路

面对AI算力需求引发的电力挑战,行业与政策制定者应携手探索多维度解决方案。短期来看,优化数据中心能耗、提高芯片能效、合理布局数据中心地理位置,以及利用现有成熟清洁能源技术如燃料电池与地热能,都是缓解电力供需矛盾的有效途径。长远而言,核能尤其是小型模块化反应堆和核聚变技术的发展,有望为AI产业提供更为清洁、高效且稳定的能源供应。

同时,政策层面应积极推动电网现代化改造,加快跨州输电线路建设和清洁能源接入,以适应AI及其他高能耗产业的电力需求增长。社会各界应共同努力,构建一个既能支撑AI技术蓬勃发展,又能确保能源安全与环境保护的电力系统,实现AI与电力的可持续共生,驱动全球经济迈向更加智能、绿色的未来。

随意打赏

提交建议
微信扫一扫,分享给好友吧。