重大突破!MIT宣布新型神经网络芯片功耗降低95%

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

重大突破!MIT宣布新型神经网络芯片功耗降低95%

本文系网易智能工作室(公众号smartman 163)出品。聚焦AI,读懂下一个大时代!

【网易智能讯 2月28日消息】神经网络非常强大,但是它们需要大量的能量。麻省理工学院的工程师们现开发出了一种新的芯片,可以将神经网络的功耗降低95%,这也许会使得其可在电池驱动的移动设备上运行。

如今智能手机正变得越来越智能,提供了越来越多的人工智能服务,如数字助理和实时翻译。但是,为这些服务进行数据运算的神经网络通常都在云端,智能手机的数据也是在云端来回传输。

这并不是一种理想的状态,因为这需要大量的通信带宽,并且这意味着潜在的敏感数据正在被传输并存储在不受用户控制的服务器上。但是,图形处理器的神经网络正常运行需要大量的能量,这使得在电池电量有限的设备上运行神经网络不切实际。

麻省理工学院的工程师们现在已经设计出了一种芯片,可以大幅降低芯片内存和处理器之间来回传输数据的需求,从而降低95%的功耗。神经网络由成千上万个一层层相互连接的人工神经元组成。每个神经元接收来自其下一层的多个神经元的输入,并且如果这一组合输入通过了一个特定的阈值,它就会将输出传送到上层的多个神经元上。神经元之间的连接强度是由在训练期间设定的权重控制的。

这意味着,对于每个神经元,芯片必须检索特定连接的输入数据和来自内存的连接权重,将它们相乘,存储结果,然后在每一次输入时重复这个过程。这需要大量的数据移动,也因此需要消耗大量的能量。麻省理工学院的新芯片另辟蹊径,使用模拟电路,在内存中并行计算所有输入。这大大减少了需要被推进的数据量,并最终能节省大量的能源。这种方法要求连接的权重为二进制而不是一系列的值,但是先前的理论工作表明这不会对芯片的准确性造成太大影响,研究人员发现芯片的结果基本上包括在标准计算机上运行的传统非二进制神经网络的2%到3%之内。

这并不是研究人员第一次在内存中创建处理数据的芯片,以减少神经网络的功耗,但这是第一次使用这种方法来运行基于图像的人工智能应用程序的强大的卷积神经网络。IBM人工智能副总裁达里奥・吉尔在一份声明中说:“研究结果显示,在使用内存阵列进行卷积运算时,它的性能令人印象深刻。它肯定会为未来物联网的图像和视频分类提供更复杂的卷积神经网络。”

然而,不仅仅是研究小组在研究这个问题。让智能手机、家用电器、各种物联网设备等设备搭载人工智能的愿望,正驱使着硅谷的大佬们纷纷转战低功耗人工智能芯片。

苹果已经将其Neural Engine芯片整合到iPhone X中,以增强其面部识别技术等功能。据传,亚马逊正在为下一代Echo数字助手开发自己的定制AI芯片。大型芯片公司也越来越倾向于支持像机器学习这样的高级功能,这也迫使他们让设备升级,变得更加节能。今年早些时候,ARM公司推出了两款新芯片:ARM机器学习处理器,这一款芯片主要针对人工智能任务,从翻译到面部识别,另一款则是用于检测图像中人脸的ARM对象检测处理器。

高通最新推出的移动芯片骁龙845配备了图形处理器,并且将人工智能视为重中之重。该公司还发布了骁龙820E芯片,主要面向的是无人机、机器人和工业设备。从更长远来说,IBM和英特尔正在开发一种神经形态芯片,其架构是从人类大脑和其惊人的能量效率启发而来。从理论上讲,这可以让IBM的TrueNorth芯片和英特尔的Loihi芯片仅花费传统芯片所需要的能量的一小部分,便可运行强大的机器学习,不过在现阶段,这两种技术仍处于高度实验阶段。

让这些芯片运行与云计算服务一样强大的神经网络将是一个巨大的挑战。但以目前的创新速度来看,离你触手可及真正的人工智能的那一天不会太久。

(选自:singularityhub编译:网易智能 参与:Rosie)

关注网易智能公众号(smartman163),获取人工智能行业最新报告。

本文被转载2次

首发媒体 网易科技 | 转发媒体

随意打赏

中国重大突破。卷积神经网络神经网络芯片神经网络算法深度神经网络神经网络模型芯片功耗重大突破
提交建议
微信扫一扫,分享给好友吧。