AI眼镜“上头”,成为假期旅游新搭子?
今年这个十一长假,各大景区的游客里,不少人鼻梁上架着的不是墨镜,而是AI眼镜。
人挤人的长城脚下有的游客让AI眼镜拍下好不容易抢占位置欣赏到的风景;博物馆里有用户询问AI眼镜眼前展出的古币是哪个朝代的;东京街头有人让眼镜翻译眼前的菜单……
解放双手的便捷体验,成为这批新型穿戴设备吸引早期用户的核心卖点。
今年,被称为“百镜之战”的一年,光是上半年包括META、华为、百度、谷歌、Snap、Rokid、雷鸟创新等在内的近20家品牌相继推出了AI眼镜新品。
除了猎奇的科技爱好者、经常户外的健身爱好者,意想不到的视障用户也用AI眼镜帮助他们识别周围的路况和物品信息。
当各个大厂争先抢占这个产品生态位的时候,还有一个绕不开的终极问题等待回答:在各种各样的电子硬件泛滥的今天,AI眼镜怎么才能成为下一个“超级硬件”。
谁在买AI眼镜
今年,大厂们开始集体“戴上眼镜”。
小米、阿里、META、谷歌都开始下注,IDC预测,2025年中国智能眼镜出货量预计达到290.7万台,同比增长121.1%。
为什么AI眼镜这么火?
《豹变》和几位AI眼镜用户聊了聊,结果发现,拍照仍是AI眼镜目前最受欢迎的功能。莎莎是一位户外运动爱好者,买AI眼镜主要就是为了拍照,“对于户外拍照来说,AI眼镜非常友好,因为方便和迅速。”
莎莎总结,户外拍照有时候就是想记录一瞬间的风景,可能就是骑行时候路过的晚霞,如果停在路边再掏出手机除了麻烦可能也会很扫兴,“AI眼镜完全满足我就想记录一个moment的心情,不追求拍得多好,就是能捕捉就可以了。”
语音交互和通话也非常受欢迎,“我现在用AI眼镜帮我减脂”,小宇每天都会让AI眼镜来解决自己“午餐选择困难症”的问题,“我是用碳循环这个方法来刷脂的,每天到公司食堂我就会告诉AI眼镜我想要多少碳水多少蛋白质,让它帮我来选菜,或者就是我选个大概,让它帮我估算卡路里。
“我的眼镜激活、语音交互都没有问题,目前也没有出现过漏音等尴尬情况,不过摄像头对具体事物的识别有时候不算很精确,比如我有一次拿西红柿炒鸡蛋和一些其他的凉菜混在一起,它就只能识别成青菜和酱料,但这种小瑕疵整体不影响我的使用感受。”
虽然有一些“解放双手”的场景备受欢迎,但用户对AI眼镜的抱怨也不少。
作为一款“上头”的穿戴设备,AI眼镜和头显非常相似,在续航和舒适度之间得做取舍。
为了上头更轻便,AI眼镜现在做不到二十四小时超长待机,不用连续录制或者音频播放功能的话,小米、Ray-Ban Meta第二代基本能达到8~9个小时续航,如果要连续录制、播放音频,使用时间就直接“骨折”到了40分钟~3小时之间。
至于眼镜的佩戴舒适度,就是各花入各眼,配过近视镜的都应该清楚,一款谁戴起来都舒服的眼镜几乎就是不存在的,每个人的脸型、鼻型都会对眼镜舒适度有影响,市面上大部分的AI眼镜都是选择粗腿、粗框的结构,这也是迁就大部分的脸型。即使如此,还是会有人觉得压脸、滑落、不舒服。
除此之外,还有用户反映了AI眼镜视频丢失、唤醒失败、漏音等等问题……
AI眼镜,还有一个让人非常意外的受众——视障人士。
说起来这颇有点“把梳子卖给秃子”的意思,不过AI眼镜的语音交互、物品识别功能对视障人士非常友好。比如META就推出了“be my eyes”功能,可以用语音指令唤醒之后,AI会对周围事物进行“详细描述”,给视障用户描述前方的道路的具体情况,视障用户还可以通过和AI眼镜语音交互来完成简单的日常操作,比如让AI眼镜告诉自己,手中的苹果可以放在哪里、找到加重的遥控器,等等。
在Reddit Ray-Ban Meta论坛上,就有视障用户反馈了“be my eyes”功能的使用感受,这位用户还反馈由于缺少OCR功能,META眼镜没办法进行完整文本阅读,建议META补充这个功能。
生态位之战
AI眼镜不是一个全新的故事,这个故事十三年前谷歌就讲过。
当时那种戴上和普通眼镜没区别但是镜片上可以显示各种信息,还能拍照、翻译、语音唤醒的眼镜还只出现在碟中谍和柯南系列里,谷歌就推出了堪称“AI眼镜鼻祖”的Google Glass轰动一时。
不过这个单品当时并没有像想象中的持续大爆,贵和不舒服是两大原罪。
Google Glass当时大概1500美元一副,折合人民币一万元左右。在这种大价钱的情况下,Google Glass的显示是集中在右眼的,就像柯南里一样信息单眼显示,这在电影里看起来很酷炫,但是放到现实中,单片集中显示用户就总得“斜视”,作为一个主打全天佩戴的产品,很容易头晕。
没有killer APP,也是当时Google Glass被诟病的原因,不过要说软件生态,当时谷歌概念里AI眼镜能做的事情,无非也是翻译、拍照、交互,和现在的产品概念相差无几,所以核心痛点还是太贵和不太舒服。
这两点在十三年后的今天被攻克了,就拿显示模组来说,Google Glass当时用的是棱镜投影技术,分辨率640×360,视场角仅15度。现在AI眼镜在显示上已经不采用虚像投影而是用实像投影达到分辨率更高、更清晰的呈现,采用的Micro OLED成本也在逐渐降低,苹果刚推出Vision Pro的时候成本还很高,不过现在相比2023年已经下降了35%。
成本的攻克就给AI眼镜更多的商业化空间,下探到千元以下的价格让这款产品即使作为一个没有Killer APP的“科技玩具”门槛也很低了。
当然,成本控制并不是大厂争先布局的唯一原因,生态位的抢占也是重要的因素。
“AI时代,所有的生意都值得重新做一遍”,这句话中“所有生意”当然也包括3C硬件,互联网发展到今天,硬件看的不仅是单品,还有整个软硬件生态的结合。
就比如小米提出的“人车家”概念,实际就是以智能手机为轴心,出行、居家、通信都用小米的硬件,然后用一个手机来实现全部硬件的远程操作。
AI眼镜在其中扮演的角色,很有可能是未来人机交互的核心载体。人类头部生态位能够捕获人类感知的80%,这使得它在数据收集和用户体验方面具有无可比拟的优势。
所以,我们可以看到硬件、软件的大厂统统下场来抢占AI眼镜这个产品的生态位。
硬件以小米、华为为代表,华为和小米类似,都有自己的通信和出行生态,布局AI眼镜是从硬件角度考虑,让AI眼镜未来成为交互中心。
软件以阿里、字节为代表,布局的是AI眼镜硬件兴起下的软件入口,比如阿里的支付场景以后就可以通过眼镜来实现;字节的短视频场景亦是如此。
不论软件还是硬件,大厂押注的是眼镜这个产品形态。
成为下一个智能手机,还是“泡面神器”?
在《理解未来的7个原则》这本书中,提出一个概念,未来所有的电子产品都会去物理化。
举例来说,以前电子产品的功能很单一,一个用户可能会有一个手机、一个MP3、一个平板、一个电脑。现在一个手机就既能看电视、打电话也能拿出来结账,这就是去物理化。
在AI眼镜再次火爆之前,有另一个“上头”的品类也默默被押注了很多年,就是XR头显。XR头显最被诟病的就是没有更日常的使用场景,除了看电影 (有大屏幕可以替代) 和玩游戏 (有电脑或者游戏机可以替代) ,XR头显的可用之处并不多。这个毛病归根结底可以总结为:没有实现去物理化。
但XR头显的终极目的是去物理化,因为它实际想要取代的是一部分笔记本电脑的功能,比如利用虚拟键盘完成文字编辑、上网、实现视频通话等等,对于经常出差的打工人来说,头显就会比笔记本电脑更合适。
但是XR头显始终被困在重量和续航两个硬件瓶颈上,毕竟任何打工人都不会需要一个只能续航两三个小时的硬件。
如果按照这个思路再去看现在的AI眼镜,就会发现AI眼镜面临同样的困境。
AI眼镜确实在一些需要解放双手的场景中取代了智能手机的部分功能,但还远远不够,也就是说在目前阶段,AI眼镜还是一个增加物理设备的存在。
所以AI眼镜产品需要考虑两个问题: 1.如何更有效地和手机并存;2.未来还能进行哪些升级?
在XR头显设备上吸取了大量经验的META就在第一个问题上做了很好的尝试,在前不久的Connect大会上推出的Meta Ray-Ban Display,用户可以实现可视化交互,除了语音、听歌,还可以打开Instagram刷短视频,而肌电控制手环更是一大亮点,直接捕捉用户手部行为,完成交互。
增加交互形式和软件生态,在提高AI眼镜的使用密度,这就是META给出的答案。这做起来并不容易,毕竟在AI时代下,不论是软件还是硬件厂商都想要争先做第一个“集大成者”,比如小米现在想把抖音嫁接到自己的AI眼镜中让用户可以刷抖音,但是字节自己也在探索AI眼镜,所以怎么去打破生态壁垒就是所有AI眼镜厂面临的问题。
而对于探索AI眼镜未来的形态,这个问题我们可以再上升一个维度:在去物理化成为趋势的未来,会不会有下一个“超级硬件”的诞生。
比如,英剧《黑镜》里有这么一集,一个人拿一个硬币大小的硬件放在太阳穴就可以进入VR游戏世界,在AI时代,一个能够成为Agent的硬件也许不再是我们所熟悉的手机、电脑、头显,甚至眼镜这样的形态,而是更小、更轻、更方便的某种产品。
但毋庸置疑的是,AI眼镜想要长足发展,就必须要攻克提高使用频率和完善产品形态的两大难关,如果只是作为一个手机之外的“镶边硬件”,那么就像从红极一时到沦为“泡面神器”的Kindle一样,被市场遗忘。
(应受访者要求,文内均为化名)
本文来自微信公众号: 豹变 (ID:baobiannews) ,作者:娜娜,编辑:邢昀