听得懂、看得清、走得稳!元戎启行发布DeepRoute IO 2.0平台及VLA模型

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

2025年8月26日,元戎启行重磅发布全新一代辅助驾驶平台——DeepRoute IO 2.0及其核心——自研的VLA(Vision-Language-Action)视觉-语言-动作大模型。标志着辅助驾驶技术范式的一次重要转变,从传统规则驱动或单一感知的端到端模型,迈向了融合感知、认知与决策的通用人工智能的新阶段。

听得懂、看得清、走得稳!元戎启行发布DeepRoute IO 2.0平台及VLA模型

自研VLA模型是本次发布的核心突破。它将视觉感知、语义理解与动作决策三大能力整合于一体。与传统“黑盒”端到端模型相比,VLA模型借鉴了语言模型的“思维链”能力,能够像人类一样进行信息串联、分析和因果推理,从而在面对复杂多变的真实路况时,做出更安全、更舒适、更拟人化的决策。根据元戎启行CEO周光现场介绍:“其天然集成的海量知识库,也使其具备了前所未有的泛化能力。”

空间语义理解是本次发布的最大亮点。该功能可在视野受限的动态或静态盲区环境中(如公交车遮挡、复杂路口、桥洞等)感知潜在风险,主动对盲区进行 “预防性预判”。系统可在风险出现前提前减速、稳妥通行,具备高度拟人化的防御性驾驶策略,为用户带来更安心的出行体验。

其余三项能力也各具特色:异形障碍物识别使系统能够识别并灵活应对如施工锥桶、超载小货车等非结构化障碍;文字类引导牌识别让系统“看懂路标”,准确解析潮汐车道、公交专用道等文字信息;记忆语音控车功能支持自然语言指令交互,并逐步学习用户偏好,带来更具个性化与拟人化的驾驶体验。

在此次发布会上,元戎启行同步展示VLA模型的4大功能:空间语义理解、异形障碍物识别、文字类引导牌理解、记忆语音控车,这些功能将根据实际部署节奏逐步释放。

听得懂、看得清、走得稳!元戎启行发布DeepRoute IO 2.0平台及VLA模型

在推动技术革新的同时,元戎启行的 商业 化进程同样坚实。DeepRoute IO 2.0平台秉持“多模态+多芯片+多车型”的设计理念,兼具激光雷达与纯视觉两种方案,适配性极广。公司目前已获5个定点合作项目,并已累计交付近10万台搭载其城市领航辅助系统的量产车,涵盖SUV、MPV、越野车等多个车型。也为后续VLA模型的快速、规模化、商业化落地奠定了坚实基础。

周光总结:“10万量产是一个起点。随着高阶辅助驾驶市场的加速打开,我们相信像元戎启行这样具备核心技术能力的公司将迎来更大的市场空间。”

听得懂、看得清、走得稳!元戎启行发布DeepRoute IO 2.0平台及VLA模型

元戎启行后续将围绕VLA模型持续拓展应用边界,在乘用车市场加速量产部署的同时,推进基于量产车平台的Robotaxi业务。

在更广阔的Road AGI体系中,VLA模型也将向更多可移动智能体延展复用,逐步实现从单点功能到通用智能体的系统化演进。

随意打赏

提交建议
微信扫一扫,分享给好友吧。