在今日举办的 The Android Show 上,谷歌正式揭晓了 Project Aura 硬件设备与 Android XR 操作系统的关键特性。这款被定义为谷歌官方系统级参考硬件的产品,首次将 Gemini AI 的感知能力延伸至物理空间,标志着人工智能技术从二维屏幕向三维世界的突破性跨越。作为 XREAL 与谷歌深度合作的结晶,Project Aura 融合了光学、芯片与空间算法领域的创新成果,被业界视为"AI+XR"技术融合的里程碑式产品。
Android XR 系统的核心使命在于构建开放统一的扩展现实平台。谷歌工程师在发布会现场演示了 Gemini AI 在真实环境中的空间语义建模能力:当用户佩戴设备进入厨房时,系统能自动识别食材位置并生成动态烹饪指引;在机场候机时,可通过手势操作调取悬浮式虚拟屏幕;居家场景中,客厅墙面可瞬间转换为沉浸式观影空间。这些功能实现得益于 XREAL 自主研发的 Prism™ 光学系统,其70°视场角达到消费级AR设备实用化新标杆,确保数字内容与物理环境无缝融合。
支撑空间计算能力的硬件基础来自 XREAL 全新设计的 X1S 芯片。这款专为AR设备打造的"空间AI引擎",通过优化传感器数据处理流程,将环境感知延迟压缩至毫秒级。芯片架构师在技术白皮书中透露,X1S 集成了多模态感知单元与神经网络加速器,可同时处理来自摄像头、麦克风及环境传感器的六路数据流,为 Gemini AI 提供实时空间理解能力。
XREAL 创始人徐驰在主题演讲中强调:"智能终端的进化方向应是硬件与AI的深度共生。眼镜作为最贴近人体的设备形态,不仅能持续采集空间数据,更能通过物理交互反哺AI模型训练。这种双向赋能机制,是通往通用人工智能(AGI)的必经之路。"他特别指出,Project Aura 的光学系统与核心芯片均由中国团队完成研发,长三角地区完整的供应链体系使硬件迭代效率达到全球领先水平。
技术架构层面,Android XR 系统实现了三大突破:首先通过标准化空间接口统一开发框架,解决XR行业长期存在的生态碎片化问题;其次将 Gemini AI 原生集成至系统底层,使空间感知成为基础服务而非独立应用;最后建立开放开发者平台,允许第三方应用直接调用设备的空间计算能力。谷歌开发者关系团队透露,已有超过200家合作伙伴启动相关应用开发,涵盖教育、医疗、工业维修等多个领域。
据供应链消息,Project Aura 的量产准备工作已进入最后阶段。位于上海的全球研发中心承担着核心算法优化任务,而苏州工业园区的智能制造基地则负责光学模组的规模化生产。这种"研发-制造"协同模式,使产品良率在三个月内从68%提升至92%。市场分析机构预测,随着2026年正式商用,Project Aura 将带动全球XR设备出货量突破3000万台,其中中国供应链企业有望占据60%以上的价值份额。
开发者社区现已开放技术文档下载,申请体验通道同步启动。首批测试用户将获得包含空间建模工具包、手势识别SDK及场景编辑器在内的完整开发套件。谷歌与XREAL联合承诺,所有提交的空间应用创意都将获得技术团队的一对一指导,优秀方案有望直接预装在正式版设备中。










