阿尔托大学近期开展的一项研究指出,人们在借助人工智能工具完成任务时,可能对自己的认知水平产生不准确的判断。传统认知中,多数人会认为自身能力“略高于平均”,这种现象在认知测试成绩欠佳的群体里尤为突出,被称为“达克效应”。该效应表明,能力较弱者往往高估自身能力,而能力突出者则倾向于低估。
然而,这项针对大型语言模型(如ChatGPT)的研究发现,传统认知中的“达克效应”在此场景下并不适用。研究表明,无论用户对AI技术的熟悉程度如何,在使用AI工具时,普遍存在高估自身表现的情况。其中,自认为具备较高AI素养的用户,过度自信的倾向更为显著。
研究人员对这一结果表示意外。通常,人们预期AI素养较高的用户在操作AI时,不仅能取得更好的任务成果,还能更客观地评估自身表现。但实际观察显示,尽管使用ChatGPT的用户在任务中表现更优,但他们普遍对自己的能力过于自信,未能准确反映真实水平。
研究进一步指出,当前AI工具未能有效提升用户的元认知能力——即对自身思维过程的觉察与反思。这可能导致用户在依赖AI获取信息时,出现“思维惰性”现象,影响信息处理的深度与准确性。因此,研究团队呼吁开发新型平台,引导用户主动反思思维过程,提升批判性思考能力。
实验中,研究团队邀请约500名参与者使用AI完成法律学校入学考试(LSAT)中的逻辑推理题。结果显示,多数用户仅向AI提出一次问题,未对AI的回答进行深入分析或验证。这种“认知卸载”行为,即过度依赖AI而减少自身思考,可能限制了用户对自身能力的客观判断。
针对这一问题,研究人员建议AI系统可主动询问用户是否愿意解释推理过程,以此推动用户更积极地参与互动,深化对问题的理解。这一设计旨在帮助用户摆脱对AI的单纯依赖,培养独立思考与反思的习惯。
核心发现包括:多数用户在使用AI时高估自身认知表现,AI素养较高者尤为明显;ChatGPT等工具易导致用户对自身能力判断失准;研究建议通过AI设计促进用户元认知发展,鼓励更深层次的思考与自我反思。















