英特尔、谷歌、NVIDIA各持宝贝,谁能在人工智能芯片之战胜出?

亿欧网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

人工智能 (AI)市场持续升温,但产业对于这些系统应如何建构仍十分分歧,大型科技公司动辄投入数十亿美元购并新创公司或支持研发,各国政府也提供大学和研究机构大笔研究经费,希望在这波AI竞赛中脱颖而出。

据Semiconductor Engineering报导,研究机构Tractica的数据显示,全球AI市场规模将在2025年成长至368亿美元,只不过目前对于AI的定义或是需要分析的数据类型都还没有共识,OneSpin Solutions总裁暨执行长Raik Brinkmann指出, 眼下有三个问题需要解决,第一是大量待处理的数据,其次是并行处理和互连技术,第三则是移动大量数据导致的耗能问题。

目前市场首批AI芯片几乎都是以现成的CPU、GPU、FPGA和DSP加以组合而成,尽管 英特尔 (Intel)、Google、NVIDIA、高通(Qualcomm)和IBM等公司正研发新的设计,最后谁能胜出仍不明朗。无论如何,这些系统仍需有至少一个CPU负责控制,但可能需要不同类型的协同处理器。

AI处理多牵涉到矩阵乘法和加法,使用并行运作的GPU成本较低,但缺点是耗能较高。内建DSP区块和本地存储器的FPGA可获得较佳的能源效率,但价格比较昂贵。Mentor Graphics董事长暨执行长Wally Rhines表示,有些人使用标准GPU执行深度学习,同时也有许多人采用CPU,为了达到使类神经网路行为更像人脑的目标,刺激了新的一波设计浪潮。

视觉处理是目前最受关注的AI区块,目前大部分的AI研究与自动驾驶使用的视觉处理有关,这项技术在无人机和 机器人 方面的应用也与日俱增。 Achronix公司总裁暨执行长Robert Blake指出,影像处理的运算复杂度很高,市场需要5~10年时间沉淀,不过因为变数精度(variable precision arithmetic)运算需要,可程式逻辑元件的角色会更吃重。

FPGA非常适合矩阵乘法,可程式化特性增加了设计上的弹性,用来做决策的数据部分会在本地处理,部分则由数据中心进行,但两者的比例会因应用的不同而改变,并影响AI芯片和软件设计。

目前汽车使用的AI技术主要是侦测和避免物体,这和真正的人工智能还有段差距。真正的AI应该具有一定程度的推理,例如判断如何闪避正在穿越马路的人群。前者的推论为根据传感器输入的大量数据处理和预编程行为得来,后者则能够作出价值判断,思考各种可能后果以找出最佳选择。

这样的系统需要极高的频宽并内建安全机制,此外还必须能保护数据安全,许多根据现成零件开发的设计很难兼顾运算和编程效率。Google试图以专为机器学习开发的TPU特殊应用芯片改变这样的方程式,并开放TensorFlow平台以加快AI发展速度。

第一代AI芯片将重点放在运算能力和异质性,但这就像早期的IoT装置,在不确定市场如何演变的情况下,业者只好把所有东西都加进去,之后再找出瓶颈,针对特定功能设计,取得功率和性能上的平衡。

随着自驾车使用案例的增加,AI应用范围也会逐渐扩大,这也是为何英特尔在2016年8月收购Nervana的原因。Nervana开发的2.5D深度学习芯片利用高性能处理器核心将数据从载板移到高频宽存储器,希望比GPU解决方案缩短100倍的深度学习模型训练时间。

量子运算则是AI系统的另一个选择。 IBM研究部门副总裁Dario Gil解释,如果4张卡片中有3张蓝卡1张红卡,使用传统运算猜中红卡的机率为4分之1,使用量子电脑及叠加量子位元的纠缠(entanglement),系统每次都可以提供正确答案。

AI并没有所谓最适合的单一系统,也没有一种应用可以吃遍各种市场,这些进一步的细分市场都需要再精致化、再扩大寻找可用工具,并需要生态系统来支持,但低功率、高吞吐量及低延迟则是AI系统的通用需求。半导体产业经过多年仰赖制程微缩元件以改善功率,性能和成本,如今则需要重新思考进入新市场的方法。

随意打赏

谷歌人工智能alphagofacebook人工智能nvidia 人工智能intel 人工智能nvidia和英特尔谷歌人工智能 开源人工智能战胜李世石英特尔 人工智能谷歌人工智能产品谷歌人工智能翻译
提交建议
微信扫一扫,分享给好友吧。