加入AI热潮,高通推出手机及PC芯片,以挑战苹果和英特尔

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

10月25日消息,美国当地时间周二,高通发布了两款新芯片,旨在智能 手机 和个人电脑(PC)上运行人工智能软件,包括引入了 科技 行业的大语言模型(LLM),而无需连接 互联网

自从Stable Diffusion的图像生成器和OpenAI的聊天机器人ChatGPT于2022年底发布以来,人们对人工智能应用程序的兴趣激增。这两款所谓的“生成式人工智能”应用程序都需要大量的处理能力,到目前为止,它们主要是在功能强大且耗电的英伟达图形处理器上运行。

高通此次发布的新芯片,包括用于个人电脑和笔记本电脑的X Elite芯片,以及用于高端安卓手机的骁龙系列8 Gen 3。

智能手机芯片处理人工智能模型的速度,可能代表着华硕、索尼等公司生产的高端安卓手机与 苹果 iPhone之间展开新的功能大战,后者也在每年推出新的人工智能功能。

高通公司一位高管在接受采访时表示,最新的骁龙芯片运行人工智能任务的速度比去年的处理器快得多,将生成图像的时间从去年的15秒降至不到1秒。

高通负责移动业务的高级副总裁亚历克斯·卡图兹安(Alex Katouzian)说:“如果有人今天去买手机,他们会问:CPU有多快?内存有多大?或者摄像头是什么样子的?但在接下来的两三年里,人们会问,它们将拥有哪些人工智能功能?”

人工智能热潮提振了英伟达的股价,但在很大程度上绕过了高通。尽管高通的智能手机芯片出货量很大,而且自2018年以来,高通已经包含了被称为NPU的人工智能部分。

高通的NPU被用于改善照片和其他功能。现在,高通表示,其智能手机芯片可以处理生成式人工智能中使用的更大人工智能模型,有的甚至多达100亿个参数。不过,这仍然低于某些最大的人工智能模型,比如OpenAI的GPT3,它有大约1750亿个参数。

高通高管表示,如果芯片足够快,并配备足够的内存,这些类型的人工智能模型可以在设备上运行。他们说,在本地运行大语言模型比在云端运行更有意义,因为它更快、更私密。高通表示,其芯片可以运行Meta某个版本的Llama 2模型,并希望其客户(智能手机制造商)也能开发自己的模型。高通也在开发自己的人工智能模型。

高通提供了一款运行免费Stable Diffusion人工智能模型的设备,该模型可以根据一串单词生成图像。它还展示了使用人工智能扩展或填充部分照片的相关能力。

去年,高通公司的第二代芯片成功地运行了同样的模型,但它花了15秒的时间来处理所有的数字,以创建一张猫待在海滩上的图像。今年,高通的新芯片可以在半秒内完成该任务。卡图兹安表示,这可以大大提高个人助理等人工智能应用程序的响应速度。

高通表示,未来的应用程序,如个人语音助手,可以使用设备本身的人工智能模型进行简单的查询,在设备的芯片上运行,同时可以将更难的问题发送到云端更强大的计算机上。高通解释称,这就是其与微软密切合作的原因,旨在确保其芯片针对人工智能软件进行了优化。

卡图兹安说:“这些设备越多被用于运行人工智能功能,它们在微软Azure上的花费就越少,Azure通常运行超级昂贵的推理功能。现在,所有这些东西都可以卸载。在混合情况下,将云负载到边缘客户端设备上会给他们带来巨大的优势。”

高通还表示,该公司今年的顶级智能手机芯片骁龙系列8 Gen 3将于明年初开始出现在华硕、索尼等品牌售价超过500美元的“高端”安卓设备上。高端芯片的功能最终也会渗透到其他设备上。

高通X Elite芯片

高通的新个人电脑芯片X Elite基于Arm架构,它将与英特尔的x86芯片竞争,用于笔记本电脑和台式机。

X Elite使用了苹果收购Nuvia时的技术,Nuvia是由苹果前工程师创建的,目前正处于与Arm的法律纠纷的核心。基于该芯片的笔记本电脑预计将于明年中期上市,该芯片使用高通所谓的Oryon核心。高通表示,它在性能上击败了苹果的M2 Max芯片,同时功耗更低。

【来源:网易科技】

随意打赏

提交建议
微信扫一扫,分享给好友吧。