Google 又一次发布了 Google Glass ,这次想帮你把 Gemini 与 Nano Banana 戴在头上
如果你今年一直在密切关注 AI 眼镜/AI 硬件领域的大厂动态,那你肯定对 Google I/O 期间 DeepMind 发布的 Project Astra AI 项目演示印象深刻。
在这个惊艳的 Demo 中,Google 展示了一个极其超前的原型概念:戴上一款 AR 眼镜,借助其中的 AI 能力,它不仅能帮助你理解现实世界中的各种元素,还能帮你记下现实中的各种信息,甚至提醒你某一样具体的物件放在了哪个位置。这一技术在发布后立即惊艳全场,被认为是 AR 眼镜在技术上的一次新突破,但其实同样可以被看作是 Google 过去近十年在增强现实技术领域投入的缩影。
而在今天刚刚举行的 Google The Android Show 特别节目中,这一愿景终于迎来了真正的落地时刻。
和去年一样,今年 Google 仍然对 Android XR 寄予厚望,强调这不仅仅是一个操作系统,它是一个跨越设备形态的统一平台。
据 Google AR/XR 副总裁 Shahram Izadi 在发布会中强调,Google 将 XR 设备定义为一个广阔的「光谱」:从轻若无物、主打全天候佩戴辅助的 AI 眼镜,到融合了两者的有线 XR 眼镜,最后才是算力强大、沉浸感极致的 VR 头显。
在这个光谱中,Gemini 不再仅仅是一个聊天机器人,它是整个生态系统的「粘合剂」和核心交互界面。它让 XR 设备真正有能力,从「个人设备」转变为赋予用户「超能力」的延伸感官。
显然,在这个战略之下,最让人感到兴奋,也是最能体现 Google 差异化策略的,并非传统类似 Apple Vision Pro 那样的重型头显,而是那些试图让技术彻底「隐形」的轻量化设备。
01
AI 眼镜:时尚优先,让技术「隐形」
02
Project Aura:把「大脑」挂在腰间的 4K 巨屏
介于轻便的 AI 眼镜与重型的全沉浸头显之间,Google 也并没有留下真空地带。由 XREAL 承载的 Project Aura 代表了 Android XR 生态中一条极为务实的路线。此前外界对它的认知仅停留在「有线眼镜」的概念上,但在这次展示中,它被重新定义为一种平衡了移动性与生产力的全新计算形态。
与 XREAL 其他产品相同,Project Aura 采用的也是光学透视(Optical See-Through)方案,这也意味着用户是透过透明镜片直接看到真实世界,而不是通过摄像头拍摄再显示的视频透视。
但 Project Aura 的野心远不止于此,它并非简单的投屏眼镜,而是一套完整的计算系统。
其核心创新在于那个通过 USB-C 连接的计算模块。这个像冰球一样大小的模块内置了强大的 Snapdragon XR2+ Gen 2 芯片和高容量电池,运行着完整的 Android XR 系统。
这种分离式设计它极大地减轻了眼镜本体的重量,解决了长时间佩戴鼻梁压迫的问题,同时将发热源从头部移开,避免了「暖宝宝贴脑门」的尴尬体验。
同时,这个模块本身也是一个控制器,表面配备了触控板和方向键,方便用户在无法语音或手势的场景下进行盲操作交互。
在视觉体验上,尽管眼镜本体轻便,但堆料却毫不含糊。根据 UploadVR 的上手报告,Project Aura 提供了单眼 4K 的超高分辨率和 70 度的视场角。虽然这一视场角不及 VR 头显,但在 AR 眼镜领域已属顶尖,足以填补全沉浸头显与普通眼镜之间的空白。
在 Google 演示的「咖啡馆场景」中,用户可以通过 Project Aura 扩展出了多个巨大的虚拟屏幕:左边播放着流媒体视频,右边是聊天窗口,中间则是巨大的工作界面。
更令人印象深刻的是它的混合办公能力。当你需要处理复杂的照片编辑任务(如 Lightroom)时,Project Aura 可以通过线缆连接到笔记本电脑,瞬间变身为电脑的超大虚拟显示器。
此时,Gemini 依然在线——当你看着 Lightroom 的界面不知道如何操作时,可以直接询问 Gemini:「如何给这张照片添加背景虚化?」Gemini 能够识别电脑屏幕上的内容,并一步步指导你操作滑块。这种跨设备的智能协同,彻底摆脱了 AR 眼镜作为「手机附属品」的固有标签,使其成为了真正的生产力工具。
03
Galaxy XR:硬刚 Vision Pro 的参数怪兽