谷歌智能眼镜在应用代码中透露的3K录制功能和基于Gemini的实时对话检测,暗示着XR设备正从笨重头显向能全天候佩戴、实时理解世界的智能助手转变。
近日,谷歌在Android Studio的最新开发版本中曝光了一款名为“Glasses”的配套应用。这款应用揭示了即将面世的Android XR智能眼镜将支持1080p视频拍摄和一个“实验性”的3K分辨率录制模式。
其中集成的“对话检测”功能,能够依托谷歌的Gemini AI在设备端实时处理,当检测到用户开始说话时会自动静音语音通知,所有隐私敏感数据均在本地处理。
01 应用曝光
作为谷歌未来智能眼镜的核心控制器,“Glasses”应用在开发工具中的曝光,提前揭晓了下一代XR设备的关键能力。
应用的代码信息显示,眼镜将支持拍摄1080p视频,并提供了一个“实验性”的3K模式,单段视频的录制时长可在30秒至3分钟之间调整。这种设计平衡了高质量记录与设备存储、功耗的现实考量。
应用中最引人注目的功能是“对话检测”。当眼镜内置的传感器识别到用户正在与他人交谈时,会自动暂停或静音通知、音乐等语音内容的播放,避免干扰现实交流。
02 硬件载体
“Glasses”应用的设计并非空中楼阁,它指向一个即将到来的、具体的硬件产品——由谷歌与中国AR硬件领军企业XREAL合作开发的Project Aura。
在2025年12月的“The Android Show”大会上,双方首次公开展示了这款产品,并确认其将于2026年正式推向市场,它被定位为“最完整、最接近Android XR理想形态的硬件样本”。

Project Aura智能眼镜最核心的突破在于,它让谷歌的Gemini AI 第一次真正意义上“看见”并理解物理世界。眼镜通过摄像头和传感器捕捉环境信息,由端侧的Gemini模型进行实时处理和分析,完成“看见→理解→交互”的完整闭环。
03 端侧突破
“对话检测”功能看似简单,但其背后是谷歌在“端侧智能”这一关键赛道上的重要布局。
该功能依托于Gemini模型的端侧处理能力,这意味着声音分析和对话识别完全在眼镜或与其相连的计算单元上完成,无需将音频数据上传至云端。这最大程度地保护了用户的隐私,也减少了对网络连接的依赖,提升了响应速度。
XREAL创始人兼CEO徐驰对此有着深刻的见解。他认为,Agent(智能体)不应仅仅是软件,更应该是一个“硬件化的Agent”。
眼镜作为与人距离最近、佩戴时间最长的设备,是承载下一代智能终端的天然载体。它所提供的连续、真实的“增量数据”,是AI通向通用人工智能(AGI)的必经之路。
04 生态野心
Project Aura及其应用生态的亮相,是谷歌构建“下一代计算平台”宏大战略的关键落子。
通过开放授权的Android XR操作系统,谷歌正联合三星、Gentle Monster、Warby Parker以及XREAL等众多硬件伙伴,打造一个覆盖不同形态、不同价位的XR设备矩阵。其目标是让智能眼镜像普通眼镜一样,在零售店可供选择,并支持不同视力需求。
谷歌的愿景是明确的:将智能眼镜打造为继智能手机之后,下一个无缝融入日常生活的主流计算平台。在这个平台上,AI将从手机屏幕中解放出来,融入现实世界的光线、空间与行为之中。
随着2026年Project Aura等首批标杆产品的上市,一个由AI驱动的空间计算生态,正从蓝图加速走向现实。

关注 “悠AI” 更多干货技巧行业动态