摘要: 2025年12月9日,谷歌举办线上发布会,聚焦其Android XR生态系统的关键进展。本次发布虽未推出新硬件,但明确了XR产品矩阵,为三星Galaxy XR头显带来多项功能更新,并首次公开展示了与XREAL联合开发的Project Aura有线XR眼镜的实机演示。最核心的举措在于,谷歌正式发布了面向开发者的Android XR SDK开发者预览版3,首次为AI眼镜提供系统级开发支持,并宣布与Uber等应用厂商合作,标志着其XR战略从硬件探索转向构建跨终端、强AI驱动的底层生态平台,旨在成为智能眼镜领域的“正规军”与标准制定者。
在昨夜(12月9日)举行的《The Android Show | XR Edition》线上发布会中,谷歌用30分钟时间系统梳理并推进了其XR(扩展现实)战略。此前,谷歌的XR产品线因涵盖形态和能力差异较大的设备而略显模糊。此次,谷歌清晰定义了其产品矩阵:XR是总称,具体分为XR头显(如三星Galaxy XR)、有线XR眼镜(如Project Aura),以及智能眼镜(进一步细分为AI眼镜和显示AI眼镜)。这一分类有助于业界和消费者更清晰地理解谷歌的布局。
作为三方(三星、谷歌、高通)合作的标杆产品,三星Galaxy XR在发布一个多月后获得了重要软件更新。这些更新旨在提升实用性和沉浸感:
本次发布会的另一亮点是Project Aura的首次上手演示。这款由XREAL与谷歌联合开发、定于2026年上市的有线XR眼镜,配备了外置计算单元(形似智能手机,含触控板)和正前方的三颗摄像头,用于空间定位与手势交互。它继承了多窗口、调用Gemini AI识别屏幕内容等能力,展示了从移动设备到眼镜的无缝衔接体验。
除了与XREAL的合作,谷歌正积极扩大AI眼镜的“朋友圈”。其已与时尚品牌Gentle Monster、眼镜零售品牌Warby Parker达成合作,相关产品预计明年面市。Warby Parker联合创始人Neil Blumenthal在发布会上表示,所有眼镜智能化的未来“比想象中来得更快”。此外,谷歌也展示了自研的AI眼镜原型,其核心场景深度融合了多模态AI能力,如通过Gemini识别物体(如食物)、进行图像再创作、实时翻译和地理位置服务。这预示着AI眼镜将从信息显示工具,演进为全天候、场景智能化的个人助理。
本次发布会的核心,在于底层开发工具的进化。谷歌发布了Android XR SDK开发者预览版3,这是其构建XR生态的基石。该SDK的最大突破在于首次为AI眼镜提供了专属支持,与针对XR头显的更新共同构成了完整的开发体系。
针对AI眼镜的开发支持包括:
针对XR头显的SDK更新则着重于提升3D内容开发效率与表现力,包括支持动态加载glTF模型、改进材质系统、新增空间UI自适应组件以及增强ARCore的面部追踪能力等。
从新品角度看,本次发布会多为已有项目的进度更新。然而,其战略意义深远。谷歌正将重心从单一硬件创新,转向夯实跨XR头显、有线眼镜和AI眼镜的统一软件与生态平台。
分析认为,在XR头显领域,三星Galaxy XR与苹果Vision Pro等产品相比,功能上并未展现出颠覆性差异。但在更具普适性潜力的AI眼镜赛道,Android XR平台凭借其庞大的安卓应用生态、成熟的移动设备联动能力以及强大的Gemini AI后台,展现出作为“正规军”的独特优势。它为硬件厂商提供了“交钥匙”式的解决方案,有望降低开发门槛,统一体验标准。
随着SDK的成熟和Uber等标杆应用的示范,预计2026年将有更多开发者与硬件品牌加入Android XR生态。谷歌此举不仅是在预热产品,更是在为即将到来的智能眼镜普及潮铺设轨道,意图掌握下一代人机交互入口的定义权。
文章来源:本文基于VR陀螺于2025年12月9日发布的原创报道《谷歌发布会解读:Android XR眼镜系统要“杀疯了”》进行信息核实与拓展编写,并综合了行业公开资料,旨在提供更全面、结构化的资讯解读。