科技领域近日爆出一则备受瞩目的合作消息:苹果公司宣布,将引入谷歌的Gemini大模型,为其即将推出的“Apple Intelligence”智能功能注入强大动力。这一举措预示着,iPhone用户有望在今年内,率先体验到两大科技巨头携手打造的全新人工智能服务。
尽管苹果方面尚未明确透露“Apple Intelligence”和Siri功能中,哪些将具体集成Gemini模型,但行业内的种种传闻已引发广泛关注。有消息称,在Gemini模型的助力下,Siri将迎来一次脱胎换骨的升级,其能力范围将得到极大拓展。
升级后的Siri,将不再局限于传统的语音助手角色。它将成为一位能够理解上下文、提供情感支持的多面能手。例如,当用户表达出孤独或沮丧的情绪时,Siri能够给予更加贴心、富有同理心的回应与支持,成为用户情感上的慰藉。
在知识问答方面,Siri将借助Gemini模型,提供更为准确的世界知识和事实答案。其“对话式回答”的体验,将与ChatGPT和Gemini等聊天机器人相媲美,让用户在与Siri的交流中感受到更加自然、流畅。
任务执行能力也是新一代Siri的一大亮点。它能够处理更加复杂的任务,如根据特定主题在“备忘录”应用中创建文档,为用户节省大量时间和精力。同时,在个性化服务方面,Siri也将展现出更强的实力,能够处理预订旅行票务等个人化任务,让用户的生活更加便捷。
面对模糊请求,新一代Siri同样表现出色。它能够更好地应对未能清晰理解用户问题或请求的情况,通过智能分析和推理,给出合理的回应。Siri还新增了讲故事技能,能够为用户讲述精彩纷呈的故事,增添生活乐趣。
记忆对话功能则让Siri的交流更加连贯。它能够记住过去的对话内容,根据上下文进行智能回应,让用户感受到更加贴心、个性化的服务。而主动建议功能,更是让Siri成为用户的贴心小助手。例如,在需要去机场接朋友时,Siri会主动提示出发时间,帮助用户避开交通拥堵,确保行程顺利。
除了对Siri的升级,谷歌Gemini模型还将用于驱动苹果在WWDC 2023上首次宣布的“Apple Intelligence”功能。这些功能原本计划包含在iOS 18中,但因故推迟。如今,它们将借助Gemini模型的力量,重新焕发生机。这些功能主要包括个人上下文理解、屏幕感知和应用内操作等。个人上下文理解功能让Siri能够利用设备上的信息,帮助用户快速查找内容,如定位某条短信或邮件;屏幕感知功能则使Siri能够识别屏幕上的内容,并采取相应操作;应用内操作功能则让Siri能够响应用户请求,在特定应用内执行操作,提升用户的使用效率。
据悉,首批基于Gemini的iPhone新功能预计将随iOS 26.4版本一同推出。该版本将于下个月进入测试阶段,届时,广大iPhone用户将有机会率先体验到这一全新的人工智能服务。











