谷歌在扩展现实(XR)领域迈出重要一步,其安卓XR生态迎来多项关键进展。这场发布会上,谷歌不仅展示了与三星合作的首款安卓XR头显新功能,还宣布了与国内厂商XREAL联合开发的XR眼镜项目,同时为开发者提供了更完善的工具支持,推动XR设备生态的多元化发展。
作为安卓XR生态的首款设备,三星Galaxy XR此次新增三大功能。通过PC Connect技术,用户可直接将电脑窗口投射至头显屏幕,实现跨设备办公与娱乐。例如,演示中展示了在XR环境中运行《城市:天际线2》的沉浸式体验。另一项“Likeness”功能则允许用户在视频会议中生成高度逼真的虚拟形象,类似苹果Vision Pro的Persona技术。更值得关注的是,明年该设备将支持系统自动空间化功能,可将普通2D内容实时转换为3D场景,涵盖游戏、视频甚至网页浏览。
在轻量化设备领域,谷歌与XREAL合作的Project Aura有线XR眼镜成为焦点。这款产品采用光学透视技术,用户可透过透明镜片观察现实世界,同时通过手势交互操作虚拟内容。设备通过外接计算模块供电,该模块集成电池与触控板功能,确保眼镜本体轻便舒适。连接PC后,用户可直接使用键盘和触控板进行控制。Gemini AI的融入进一步提升了实用性——通过镜腿按钮唤醒语音助手,用户可针对屏幕内容实时提问,例如查询文档细节或获取地图导航信息。
AI眼镜领域同样取得突破。谷歌展示的原型机支持视觉问答、实时翻译等基础功能,并首次将Nano Banana图像编辑模型应用于可穿戴设备。演示中,用户通过语音指令在拍摄的照片中添加虚拟元素,如为人物佩戴墨镜的安卓机器人贴纸。尽管谷歌注明该操作存在模拟延迟,但这一尝试展现了AI眼镜在内容创作领域的潜力。谷歌正与Warby Parker和Gentle Monster合作开发两类AI眼镜:无显示版本主打音频交互与基础拍照功能,带屏版本则侧重信息展示与复杂任务处理。
开发者生态建设是此次更新的核心。安卓XR SDK开发者预览版3同步发布,新增空间动画工具与Material 3组件自动转化功能,简化3D场景构建流程。针对AI眼镜开发,谷歌推出Jetpack Projected API,支持移动端应用无缝迁移至XR平台,并访问摄像头等硬件组件。Jetpack Compose Glimmer设计语言则提供优化后的UI组件库,确保信息清晰呈现且减少干扰。安卓Studio内置的AI眼镜模拟器可精准还原设备视场角、分辨率等参数,加速应用适配进程。ARCore扩展功能新增运动追踪与地理空间模块,助力开发者创建导航类应用。Uber已基于该平台开发演示案例,用户可通过AI眼镜查看接机信息、获取机场导航并识别车牌号。
与过往自研硬件的策略不同,谷歌此次选择聚焦平台建设。通过联合三星、XREAL等厂商,安卓XR生态已覆盖头显、有线/无线眼镜、AI眼镜等多形态设备。统一的操作系统的推出,有望解决XR领域长期存在的生态碎片化问题。随着开发者工具包的持续完善,更多应用场景的落地或将推动整个行业进入快速发展期。









