meta近日为旗下智能眼镜系列推出重要功能更新,通过人工智能技术强化用户交互体验与生活便利性。此次升级包含两大核心功能:基于环境感知的助听技术与音乐推荐系统,同时扩展了设备兼容范围。
针对嘈杂场景的沟通需求,meta开发了名为“对话聚焦”的声学增强技术。该功能依托眼镜内置的多麦克风阵列,可定向捕捉3米内对话者的声音信号,并通过实时音频处理算法抑制背景噪音。用户通过滑动镜腿或触控面板即可调节声音增强幅度,在机场、餐厅等复杂声学环境中仍能保持清晰对话。这项技术解决了传统助听设备需要额外佩戴的痛点,将听力辅助功能无缝集成至眼镜形态中。
在音乐交互领域,meta与流媒体平台Spotify达成深度合作,推出视觉场景识别点歌功能。用户只需发出语音指令,眼镜搭载的计算机视觉系统即可分析视野范围内的物体特征——如识别出圣诞装饰后,AI会自动生成包含《Jingle Bells》《Last Christmas》等节日曲目的播放列表。这种多模态交互突破了传统语音助手的局限,使设备能主动理解用户所处环境并做出响应。
功能更新现已面向特定用户群体开放测试,涵盖Ray-Ban meta经典款与Oakley meta HSTN专业运动系列。早期体验者反馈显示,手势操控的响应速度达到0.3秒级,环境音乐匹配准确率超过85%。meta工程师透露,未来计划将视觉识别范围扩展至200种日常场景,并优化多语言支持能力。
此次升级标志着智能眼镜从单一显示设备向环境感知终端的转型。通过整合声学处理、计算机视觉与流媒体服务,meta正在构建覆盖听觉、视觉的多维度交互生态,为可穿戴设备领域树立新的技术标杆。











