谷歌近期对其聊天机器人Gemini展开重要升级,核心目标是为陷入心理危机的用户提供更高效的援助渠道。此次功能迭代正值该公司陷入法律争议——其AI产品被指控涉及一起非正常死亡案件,引发公众对技术伦理的深度审视。升级后的系统将具备实时危机识别能力,当检测到用户提及自杀或自残倾向时,会立即激活专属援助模块。
新引入的"一键求助"功能成为本次升级亮点。用户仅需点击界面中的醒目标识,即可直接连通专业心理援助机构,包括24小时自杀干预热线及危机短信服务平台。开发团队透露,该设计通过大幅简化操作流程,使求助响应时间缩短近60%。系统还会持续推送鼓励性提示,确保用户在对话全程都能看到求助选项。
为提升服务专业性,谷歌组建了由临床心理学家构成的顾问团队。这些专家参与设计了更具人文关怀的对话模板,当危机场景被触发时,机器人会采用温和且富有同理心的表达方式。例如,系统可能回应:"我注意到你现在很痛苦,需要和专业的心理咨询师聊聊吗?"这种表述方式经过多轮用户测试优化而成。
在技术升级的同时,谷歌宣布启动全球心理健康支持计划。未来三年内,公司将投入3000万美元专项资金,用于强化国际心理援助热线的运营能力。首批资金将优先支持语言障碍人群服务、偏远地区覆盖等薄弱环节,相关合作机构覆盖超过50个国家和地区。
行业观察人士指出,尽管谷歌在危机干预领域已建立技术优势,但整个AI行业仍面临根本性挑战。竞争对手OpenAI近期也在测试情绪识别模型,而Anthropic则专注于构建伦理约束框架。这些动态表明,科技企业正在将用户安全提升至战略高度,但如何平衡技术创新与风险管控仍是待解难题。此次功能迭代被视为谷歌构建负责任AI生态的重要实践。






