一年发两代至强服务器CPU,英特尔在「卷」什么?

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

2023年初,代号“Sapphire Rapids”的第四代英特尔至强可拓展处理器发布。

2023年底,代号Emerald Rapids的第五代英特尔至强可扩展处理器(以下简称第五代至强)也正式推出。

最新发布的第五代至强可在相同热设计功耗 (TDP)范围内,平均性能提升21%,并在一系列工作负载中将每瓦性能提升高达36%。

一年发两代至强服务器CPU,英特尔在「卷」什么?

一年发布两代至强处理器,是前所未见的情况,英特尔为什么这么做?

“2023年1月发布第四代至强,12月发布第五代至强,预计2024年将发布下一代至强。” 英特尔数据中心人工智能集团副总裁兼中国区总经理陈葆立说,“我们的速度越来越快,其实也是响应客户和市场对于更新更快算力的需求。 我们所做的努力,是为了能够更快跟得上市场。”

一年发两代至强服务器CPU,英特尔在「卷」什么?

英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立

对于至强这样高性能和非常复杂的CPU,一年更新两代的挑战非常大,做到这一点,表明了英特尔在四年五个节点战略的带动下,执行力的提升。

英特尔一年卷出两代产品的关键到底是什么?

生成式AI需要什么样的处理器?

“以前模型都比较小,现在模型变大后,单芯片的能力,甚至是单服务器的能力都未必能够满足生成式AI的诉求,所以 互联互通的能力非常重要, 这是芯片需要具备的非常重要的能力。”火山引擎IAAS产品负责人李越渊对雷峰网 (公众号:雷峰网) 表示。

这正是第五代至强升级的一个重点,第五代至强具备8条DDR5通道,支持5,600 MT/s的传输速率,且采用英特尔超级通道互联(英特尔UPI)2.0以增加跨插槽内带宽,提供高达 20 GT/s的传输。领先的云服务供应商(CSP)采用基于第五代至强的实例,将能够使用CXL Type 3内存设备来扩展内存容量。

“大模型是显存带宽密集型和显存容量密集型,有时候它对于算力的‘饥渴度’并不是非常高。 对于处理器来说,未来还是要适当关注内存带宽的提升。 ”阿里云服务器研发事业部高级总监王伟说,“我们看到第五代至强确实是增加了内存带宽,增加了Cache,某种意义上有利于未来通过CPU来做生成式AI应用场景的运用。”

一年发两代至强服务器CPU,英特尔在「卷」什么?

实际上,第五代至强拥有多达64核, 三级缓存是上一代产品的近3倍。

王伟透露,阿里在自研的第八代服务器上做了各种AI尝试,发现 生成式AI对于CPU已经不算挑战。 使用CPU进行通义千问7B/14B/72B这样较大规模模型的推理,已经可以在单个阿里鱼第八代ECS实例上运行。

这得益于第五代至强每个内核均具备AI加速功能,不用添加独立的加速器,就可以处理端到端的工作负载。 英特尔采用内部模型的测试结果显示,参数量多达200亿的大语言模型的推理性能提高42%,延迟低于100毫秒。

“AI模型是每个公司最重要的资产,所以会非常关注自身数据的安全和模型安全。”李越渊指出,“英特尔在这上面做了很多努力和尝试,包括英特尔TDX可以更加透明、低门槛的让客户实现端到端的安全,我们云厂商也非常关注芯片的安全性能。”

年初发布的第四代英特尔至强可扩展处理器就已经集成了英特尔可信域拓展(英特尔TDX),能够提供虚拟机(VM)层面的隔离和保密性,增强隐私性和对数据的管理,随着新产品的推出,所有OEM和CSP解决方案提供商均可启用该功能。

显然,英特尔一年推出两代产品,主要还是为了满足客户的需求。

“客户能否依赖我们的产品进行演进,我们也是非常紧密的跟像阿里或者是字节沟通。”陈葆立说,“我们不管什么产品,在早期的沟通得到反馈后,我们会做相应的改进。我们也希望我们承诺的东西能够满足客户最终的需求,以客户为优先拥抱市场。”

至强CPU有什么优势?

AI训练并不是CPU的强项,GPU有架构优势。

“在推理任务中,CPU的容忍度更高一些,更有可能很好的完成任务。”李越渊表示。

不过,在每个核加入AI加速单元后,至强CPU已经不是传统意义的CPU。

王伟认为,“尝试在通用CPU中加一些向量计算单元,有利于面向AI场景, 随着AI的应用发展,CPU和GPU这两种体系架构的融合芯片会走向必然。

不可忽视的是,无论是CPU、GPU、NPU还是各种AI加速器,在生成式AI快速发展的时刻,都有巨大的机会,特别是在推理市场。埃文斯数据公司的调查数据显示,边缘和客户端设备对推理的需求相比数据中心超过了1.4倍。

此时能够更好满足客户推理需求的产品更容易获得青睐。

“长期来看,我们也会更多关注大模型AI推理侧,如何通过降低对算力的诉求,更好的孵化大模型在推理侧的应用和发展。” 王伟认为,“未来大模型AI推理的算力需求一定会持续下降,降低到端云结合的方式可以进行大模型AI推理,甚至在部分AI大模型推理应用中,算力需求量应该要降到端侧的单颗芯片即可完成,比如一部手机。

这是英特尔至强的机会所在。英特尔也在努力降低客户的总体拥有成本(TCO),对于遵循典型的五年更新周期并从更前一代处理器进行升级的客户,总体拥有成本最多可降低77%。

陈葆立强调,“ 我们保持平台延伸性,不管是软件厂商或者是一体机提供商,升级到第五代英特尔至强可扩展处理将非常快的 ,因为整个平台验证和软件验证都做完了。”

从整个英特尔的产品线看,英特尔除了云端的至强可扩展处理器之外,还有边缘端的酷睿Ultra处理器。

一年发两代至强服务器CPU,英特尔在「卷」什么?

英特尔酷睿Ultra处理器采用了英特尔首个用于客户端的片上AI加速器“神经网络处理单元(NPU),代表着英特尔40年来最重大的架构变革。

可以非常清晰的看到,英特尔正在努力与合作伙伴和广泛的生态系统一起,让AI无处不在。

雷峰网原创文章,未经授权禁止转载。详情见 转载须知 。

随意打赏

提交建议
微信扫一扫,分享给好友吧。