ITBear旗下自媒体矩阵:

AI助手用多了会变笨?研究称过度依赖或损害记忆力与批判思维

   时间:2025-06-20 11:37:33 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道

近期,麻省理工学院媒体实验室的研究团队发布了一项引人深思的研究结果,该研究聚焦于大型语言模型(LLM),特别是OpenAI的ChatGPT,在论文写作任务中对人类认知的影响。研究由Nataliya Kosmyna领导,揭示了虽然LLM带来了工作效率的提升,但长期使用可能会对人类大脑的认知功能产生不利影响。

在这项研究中,54名参与者被随机分配到三个不同的组别:LLM组、搜索引擎组和纯脑力组。各组在四次会话中完成论文写作任务,其中LLM组全程使用ChatGPT,搜索引擎组则依赖传统搜索引擎,而纯脑力组不借助任何外部工具。特别的是,在第四次会话时,LLM组的成员被要求不使用任何辅助工具,而纯脑力组的成员则开始使用LLM。

研究团队采用脑电图(EEG)技术监测参与者的大脑活动,以此评估他们的认知投入和负荷。研究还结合了自然语言处理(NLP)分析和深度访谈,同时邀请人类教师和AI评判员对论文质量进行打分。这些多角度的数据收集方法,使得研究能够全面揭示LLM使用对人类认知的神经和认知层面的影响。

研究发现,不同组别在大脑连接性方面存在显著差异。纯脑力组显示出最强且范围最广的大脑网络连接,搜索引擎组次之,而LLM组的连接性最弱。特别是在第四次会话中,那些从LLM转向纯脑力工作的参与者,表现出了大脑连接性的减弱,特别是在与内部注意力和语义处理相关的阿尔法波段,以及与主动认知处理相关的贝塔波段。

记忆方面,LLM组的参与者在引用自己刚完成的论文内容时遇到了困难,这表明他们可能绕过了深层记忆编码过程,更多地依赖外部工具生成的内容。LLM组的成员对自己论文的所有权感知度也较低,这进一步凸显了LLM使用对个体认知能动性的潜在负面影响。

研究还指出,虽然LLM在短期内提供了效率上的优势,减少了即时认知负荷,但长期来看,这种便利可能以牺牲深度学习成果为代价。过度依赖LLM可能导致认知负债的积累,削弱个体的批判性探究能力和创造力。相比之下,纯脑力组的成员虽然面临更高的认知负荷,但他们的记忆力更强,语义准确性更高,对自己的作品拥有更强的主人翁意识。

对于教育领域,这项研究提出了深刻的警示。过度依赖AI工具可能会阻碍深层认知处理、知识保留以及对学习材料的真实投入。教育干预措施应当考虑将AI工具辅助与“无工具”学习阶段相结合,以平衡即时技能转移和长期神经发展。在学习的初期阶段,全面的神经参与对于构建强大的认知网络至关重要,而在后续阶段,有选择性地使用AI支持可以减少不必要的认知负荷,提高效率。

最后,该研究强调了在使用LLM时必须谨慎权衡其对认知发展、批判性思维和智力独立性的潜在影响。LLM虽然能够减少回答问题的摩擦,但这种便利性也带来了认知成本,削弱了用户批判性评估LLM输出的能力。这预示着算法策划内容可能会进一步加剧“回音室”效应,影响用户接触信息的多样性。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version