人工智能在医疗领域的应用正面临严峻的安全拷问。近日,据《Nature Medicine》发表的一项独立安全评估显示,OpenAI 旗下的 ChatGPT Health 在识别医疗紧急情况方面表现欠佳,甚至在超过一半的测试案例中低估了病情的严重程度。专家对此发出严厉警告,称这种技术缺陷可能导致本可避免的伤亡。
自今年 1 月推向市场以来,ChatGPT Health 被定位为用户管理医疗记录和获取健康建议的智能助手。据统计,全球每天有超过 4000 万 人向其咨询健康问题。然而,最新的研究结果却给这种“AI医疗热”浇了一盆冷水。
关键时刻“掉链子”:急症识别率不足五成研究团队构建了 60 个涵盖从轻微感冒到危及生命的真实患者案例,并将AI的建议与专业医生的临床判断进行对比。结果显示:
致命的误判:在所有需要立即送医的急症案例中,ChatGPT Health 竟有 51.6% 的概率建议患者留在家中或预约普通门诊。
呼吸衰竭仍建议“等待”:在一例典型的哮喘案例中,尽管系统识别出了呼吸衰竭的早期迹象,却依然给出了“继续观察”而非“立即就医”的错误指令。
严重的过度反应:与漏掉急症形成鲜明对比的是,在针对健康个体的模拟中,却有 64.8% 的人被建议立即就医。
“虚假安全感”成最大杀手伦敦大学学院的研究人员指出,这种表现极其危险。AI 带来的“虚假安全感”可能让患者错失黄金救治时间。更令人担忧的是,AI 极易受到误导——如果用户在提问时加入一句“朋友觉得不严重”,系统淡化病情的概率会瞬间激增近 12 倍。
行业呼吁:必须建立独立审计机制面对质疑,OpenAI 发言人表示欢迎此类独立研究,并强调模型仍在持续更新。但研究人员坚持认为,在 AI 深度介入医疗决策之前,建立明确的安全标准和独立审计机制已迫在眉睫。
对于普通用户而言,目前阶段的 AI 建议或许可以作为参考,但在面对胸痛、呼吸困难等疑似急症时,盲目听信 AI 而非求助于专业医生,代价可能是无法挽回的生命安全。











