大模型上车为何总“翻车”?斑马智行CTO司罗:不是算力不够,是还没学会“闭嘴” | 速途网

速途网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

速途网9月19日消息(报道:王佩)当车企们还在为“智能驾驶”谁能率先落地争得面红耳赤时,另一场更隐蔽的战争已经悄然打响——智能座舱,这个被用户每天高频接触、却常被低估的“第二空间”,正在成为汽车智能化的新战场。  

斑马智行首席技术司罗参加了“聚合智能产业发展大会(2025)”,并接受了速途网等多家媒体的采访,聊了聊他对这个赛道的观察。

大模型上车为何总“翻车”?斑马智行CTO司罗:不是算力不够,是还没学会“闭嘴” | 速途网

图:斑马智行首席技术官司罗

司罗表示,很多人觉得智能座舱就是个大号平板,但它的本质,其实是“移动的智能终端”——甚至比手机更先实现AI原生体验。  

智能座舱的隐形战场:不是堆料,而是懂你

提到智能座舱,外界的第一反应往往是“大屏+多屏+语音助手”的组合拳。但司罗认为,这还停留在“功能机”阶段。现在的座舱体验,就像早期的智能手机——看似功能很多,但用起来还是得一层层点菜单,交互效率低,更谈不上“主动智能”。  

斑马智行的思路很清晰:操作系统是底座,AI是灵魂,生态是血肉。他们不做那种「换个壳子就卖」的标准化方案,而是深入到底层技术——从自研操作系统到兼容安卓生态,从芯片适配(比如和高通、英伟达Orin的合作)到阿里生态的云端服务打通,目标只有一个:让车机像「老朋友」一样懂用户的需求,而不是靠用户自己摸索。  

举个例子:当你说“有点热”,系统能自动调低空调温度,甚至根据后排乘客的状态微调风量;当孩子在后排问“有没有动画片”,车机能识别对话内容,直接推荐合适的影片。这种“无感交互”,才是智能座舱的终极形态。  

具身智能的车载版本:汽车比机器人更早「觉醒」?  

最近“具身智能”概念很火,但司罗的观点很犀利:大家总把具身智能想象成机器人,但真正的载体可能是汽车。

在他看来,智能汽车本身就是一个移动的具身智能体——它有传感器(摄像头、麦克风)、有决策能力(芯片+算法)、还能与环境(道路、用户)实时交互。  

斑马虽然主攻智能座舱,但通过操作系统为智能驾驶提供底层支撑,同时探索云-端融合,本质上是在更广义的维度参与具身智能的构建。“无论是OS对应用的支撑,还是AI能力的延伸,我们都在为具身智能的落地铺路。”司罗强调。  

大模型的上车:从被动应答主动预判  

行业里常说“大模型上车是未来”,但司罗直言现状尴尬:语音识别不准、交互僵化(必须严格按指令来)、依赖云端导致延迟和隐私风险**。而大模型+端侧能力的结合,可能会彻底改变游戏规则。  

未来的智能座舱会是什么样?司罗描述了一个场景:当你坐进车里,系统通过你的表情、语气甚至生理数据(比如心率),预判你今天心情不好,自动播放舒缓的音乐;或者根据你的通勤习惯,在堵车时主动切换路线,同时推送路况摘要——不是等你开口,而是提前解决问题。  

真正的智能座舱应该有“眼力劲儿”——不用用户说,就知道该做什么。

智能座舱的iPhone时刻,为何比手机更快?  

业界总在讨论:智能座舱的“iPhone时刻”(即颠覆性变革节点)什么时候来?司罗的判断很乐观:汽车可能比手机更早实现AI原生突破。  

传统手机的交互逻辑是“APP为中心”,数据割裂、操作繁琐;而智能座舱的交互壁垒更低。通过自然语言或多模态交互(语音+视觉),能更快打破边界。

他预测,当“无触控、无APP”的操作频率超过传统中控屏时,变革就会发生。2-3年内可能看到明显迹象,3-5年迎来爆发。

写在最后  

智能座舱的竞争,早已不是“谁屏幕更大”的蛮荒时代,而是操作系统、AI能力和生态深度的较量。斑马智行的思路很明确:不做短期的“功能堆料”,而是通过技术底座和开放生态,让车从“交通工具”变成“懂用户的智能伙伴”。  

正如司罗所说:未来的车,应该像一位老朋友——你还没开口,它就知道你需要什么。 这场变革或许比我们想象的来得更快。

随意打赏

提交建议
微信扫一扫,分享给好友吧。