谷歌近日宣布,其创新的Search Live实时搜索功能已面向全球用户开放,覆盖所有支持AI Mode的语言和地区。这一功能让全球超过200个国家和地区的用户能够通过语音指令和摄像头输入,与Google搜索展开实时、多模态的互动对话。
Search Live的核心优势在于其交互方式的革新。用户不再局限于传统的文字输入,而是可以直接用语音提问,同时结合摄像头捕捉的现实场景,让搜索系统理解视觉信息并给出精准回应。例如,当用户需要安装新家具时,只需开启摄像头对准物品,系统便会根据画面提供详细的操作指南,并附上相关网页链接供进一步参考。
技术层面,这一功能的实现依赖于谷歌最新推出的音频与语音模型Gemini 3.1 Flash Live。该模型通过优化对话流程,使交互体验更加自然流畅,同时支持多语言原生处理,确保用户能用母语与搜索系统无障碍沟通。无论是提问还是追问,系统都能快速理解意图并给出音频形式的回答。
操作方式上,用户只需在Android或iOS设备的Google应用中点击搜索栏下方的“Live”图标,即可启动语音交互模式。若需结合视觉信息,则可同时开启摄像头功能,系统会实时分析画面内容并提供建议。当用户使用Google Lens识别物体时,也可通过界面底部的“Live”选项进入实时对话模式,进一步探索物体相关信息。
谷歌表示,Search Live的全球推广旨在打破传统搜索的局限性,让用户在学习、探索和完成实际任务时获得更高效的辅助。通过整合语音、视觉和文本输入,这一功能正重新定义人机交互的方式,为信息获取带来更多可能性。












