百度与英特尔合作开发Nervana神经网络处理器

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

百度与英特尔合作开发Nervana神经网络处理器

在本周于北京举行的百度创新大会上,英特尔公司副总裁Naveen Rao宣布,百度正在与英特尔合作开发后者的Nervana神经网络训练处理器,也称为NNP-T 1000(以前的NNP-L 1000)。这两家公司将结合各自的专长,开发能够快速高效训练AI模型的高速加速器硬件。

英特尔将代号为“Spring Crest”的16nm NNP-T描述为“新型”人工智能模型硬件,旨在“大规模加速分布式培训”。“它针对图像识别进行了优化,其架构与其他芯片不同,因为它缺乏标准的缓存层次结构,芯片上的内存由软件直接管理。英特尔声称,NNP- t的24个计算集群、32GB的HBM2栈和本地SRAM使其能够提供最多10倍于竞争显卡的人工智能训练性能,以及该公司首款NNP芯片Lake Crest 3-4倍的性能。

此外,NNP-T由于其高速的片内和片外互连,能够将神经网络参数分布到多个芯片上,从而实现很高的并行度。此外,它还使用了一种新的数字格式——BFloat16,这种格式可以增强对推断任务至关重要的标量计算,使NNP-T能够适应大型机器学习模型,同时保持“行业领先”的电源效率。

NNP-T预计将在今年晚些时候与10nm Nervana神经网络推断处理器(NNP-I)一起上市。NNP-I是一种人工智能推理芯片,基于英特尔冰湖架构,封装了通用处理器核心。

Rao说:“未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。”“英特尔和百度正专注于他们长达十年的合作,建立全新的硬件,与支持软件协同设计,这将随着新的现实而发展——我们称之为‘AI 2.0’。”

这不是英特尔和百度第一次合作开发针对人工智能应用的解决方案。自2016年以来,英特尔一直在为其Xeon可伸缩处理器优化百度的paddleblade深度学习框架(NNP-T将支持该框架),两家公司正在合作开发MesaTEE,这是一个基于英特尔软件保护扩展(SGX)技术的内存安全功能即服务(FaaS)计算框架。

最近,百度和英特尔揭开了BIE-AI-Box的神秘面纱。BIE-AI-Box是为分析驾驶舱摄像机捕捉到的帧而定制的硬件套件。为此,它结合了BIE专门为此设计的技术,并与摄像头连接,用于道路识别、车身监控、驾驶员行为识别等任务。

英特尔的未来是人工智能。它的书暗示了同样的含义。这家位于圣克拉拉的公司的人工智能芯片部门去年实现了10亿美元的收入,英特尔预计,到2022年,市场机会将从2017年的25亿美元每年增长30%,达到100亿美元。从这个角度来看,以数据为中心的营收目前占所有部门所有业务的一半左右,而五年前这一比例仅为三分之一左右。

至于百度,它期待着超过4000亿美元的云计算市场的增长。该公司最近与英伟达(Nvidia)合作,将该芯片制造商的Volta图形平台引入百度云,并于2018年7月推出了两款用于人工智能工作负载的新芯片:用于机器学习模型培训的昆仑818-300和用于推理的昆仑818-100。

来源:新浪VR

随意打赏

nervana什么是神经网络神经网络处理器英特尔处理器基于神经网络深度神经网络神经网络
提交建议
微信扫一扫,分享给好友吧。