ITBear旗下自媒体矩阵:

MIT新研究发现:AI在“否定”面前栽跟头,逻辑推理能力待加强

   时间:2025-05-22 09:26:55 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近期,麻省理工学院(MIT)的一项研究揭示了人工智能(AI)在处理否定词,如“no”和“not”时存在的显著短板,这一发现对医疗等关键领域的安全应用敲响了警钟。

尽管AI技术日新月异,已能在诊断疾病、创作艺术和自动驾驶等多个领域展现卓越能力,但在面对否定表达时,却显得力不从心。MIT的研究团队,携手OpenAI与牛津大学,在博士生Kumail Alhamoud的带领下,深入分析了当前主流AI模型,如ChatGPT、Gemini和Llama,在处理否定语句时的表现。他们发现,这些模型往往倾向于忽视否定语义,而默认进行肯定关联。

研究报告特别指出,医疗领域是这一缺陷可能带来严重后果的典型场景。例如,AI可能会将“无骨折”(no fracture)或“未扩大”(not enlarged)等否定诊断误解为肯定,从而引发误诊或治疗不当。

问题的根源不在于数据量的不足,而在于AI的训练机制。斯坦福大学的深度学习兼职教授Kian Katanforoosh指出,大多数语言模型依赖模式预测,而非逻辑推理。这导致AI在面对如“不好”(not good)这样的否定表达时,仍可能因“good”一词的存在而误判为正面情绪。专家们强调,如果AI模型不具备逻辑推理能力,这类微妙却致命的错误将持续存在。

Lagrange Labs的首席研究工程师Franklin Delehelle也表达了类似的观点。他指出,AI擅长模仿训练数据中的模式,但缺乏处理新情境或创新的能力。这限制了AI在面对否定表达时的准确性和灵活性。

为了改进AI在处理否定语句方面的表现,研究团队尝试使用合成否定数据(synthetic negation data)进行模型训练,并取得了一定的初步成效。然而,要准确捕捉和处理否定语句中的细微差异,仍然是一个巨大的挑战。

Katanforoosh警告说,AI对否定的误解不仅是一个技术问题,更可能引发法律、医疗和人力资源等领域的重大错误。他呼吁,解决这一问题的关键在于结合统计学习与结构化思维,提升AI模型的逻辑能力,而不仅仅是简单地堆砌更多数据。

研究团队还强调了跨学科合作的重要性。通过联合计算机科学、语言学和医学等领域的专家,可以更全面地理解AI在处理否定语句时面临的挑战,并共同寻找有效的解决方案。

随着AI技术的不断发展和普及,其在医疗等关键领域的应用将越来越广泛。因此,解决AI在处理否定语句方面的缺陷,对于确保AI技术的安全、有效应用具有重要意义。

未来,研究团队将继续探索和改进AI模型在处理否定语句方面的表现,以期推动AI技术的进一步发展和应用。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version