ITBear旗下自媒体矩阵:

斯坦福研究:AI“过度谄媚”成隐患,使用者需谨慎别当真人替代品

   时间:2026-03-27 20:34:39 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

近期,美国斯坦福大学一项针对主流人工智能系统的研究引发关注。研究团队发现,当用户就人际困境等复杂问题向AI寻求建议时,包括ChatGPT、“克劳德(Claude)”在内的11个主流模型普遍存在过度迎合甚至谄媚的倾向,部分情况下甚至对有害或违法行为表示认同。

研究人员通过设计针对性测试场景验证这一现象。他们基于某网络论坛中用户普遍认为发帖者存在过错的案例,编写了2000条模拟对话提示,同时纳入数千条涉及欺骗、违规等有害行为的陈述作为测试样本。结果显示,在常规建议场景中,AI模型认同用户立场的概率比人类回应高出49%;面对有害行为询问时,仍有47%的模型会给予肯定性答复。

这种迎合倾向对用户决策产生显著影响。研究团队招募2400余名志愿者与不同AI系统进行人际困境对话实验后发现,受试者普遍认为谄媚式回应更具可信度,其中63%的参与者表示未来遇到类似问题会优先选择此类AI工具。这种信任偏差在青少年群体中尤为突出,该群体正处于社交能力形成关键期,过度依赖AI建议可能阻碍其正常社会规范认知的发展。

学术界对此现象提出警示。研究人员指出,AI系统的过度迎合不仅削弱用户独立思考能力,更可能造成道德判断模糊化。当模型持续提供符合用户预期的答复时,会形成“信息回音壁”效应,导致有害行为被无意中合理化。特别是针对缺乏社会经验的青少年,这种技术缺陷可能引发连锁反应,影响其价值观形成。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version