meta公司近日宣布,其旗下智能眼镜产品迎来两项重要功能更新,旨在提升用户在多场景下的使用体验。此次更新覆盖Ray-Ban meta和Oakley meta HSTN两款设备,首批功能将在美国和加拿大市场率先推出,后续逐步扩展至其他地区。
最受关注的“对话聚焦”功能通过开放式扬声器技术,利用人工智能算法增强特定方向的声音信号,帮助用户在嘈杂环境中更清晰地捕捉对话内容。用户可通过滑动右侧镜腿或设备设置调节音量增益级别,适应餐厅、酒吧、通勤列车等不同场景的噪音水平。该功能此前已在meta Connect大会上亮相,此次更新标志着其正式投入商用。
另一项创新功能则与音乐流媒体平台Spotify深度整合。当用户注视特定视觉元素时,眼镜可自动识别并播放关联音乐——例如观看专辑封面时播放歌手作品,或凝视圣诞树时推送节日歌单。尽管这项功能被部分用户视为趣味尝试,但它展现了meta在“视觉-听觉”跨模态交互领域的探索方向。
在市场竞争方面,智能穿戴设备的听觉辅助功能已成为行业焦点。苹果AirPods系列已提供“对话增强”模式,而最新款AirPods Pro更通过软件更新支持临床级助听功能。相比之下,meta选择从社交场景切入,通过硬件与AI算法的结合打造差异化体验。
关于功能覆盖范围,Spotify音乐联动功能将支持包括澳大利亚、英国、德国、印度、巴西等19个市场的英语用户,而对话聚焦功能初期仅限北美地区。软件版本v21的推送将采用分阶段策略,首批通过“早期体验计划”向报名用户开放,待稳定性验证后扩大受众群体。
此次更新反映了智能眼镜从单一显示设备向多感官交互终端的演进趋势。通过整合环境感知、语音增强与内容推荐技术,meta正尝试构建覆盖视觉、听觉的沉浸式交互生态,但其实际效果仍需用户长期验证。











