ITBear旗下自媒体矩阵:

港科大实验:AI眼镜化身“考生”入考场,30分钟高分完胜多数学生引深思

   时间:2026-01-07 01:43:36 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

一场特殊的“人机考试”在香港科技大学引发广泛讨论。一支研究团队将搭载ChatGPT-5.2模型的智能眼镜带入《计算机网络原理》期末考场,在严格模拟真实考试环境的条件下,这台AI设备不仅在30分钟内完成试卷,更以92.5分的成绩跻身全年级前5%,超过95%的人类考生。这场实验并非学生恶作剧,而是由该校张军教授与孟子立教授团队主导的学术研究,旨在探讨人工智能对传统教学评估体系的冲击。

实验筹备阶段,研究团队对市面上12款主流智能眼镜进行筛选。meta、小米等品牌产品因硬件限制被淘汰,最终乐奇Rokid凭借其开放的SDK开发接口和清晰的摄像头画质胜出。在模型选择上,团队测试了多款主流大模型,最终确定采用OpenAI最新发布的ChatGPT-5.2,该模型在响应速度和知识广度上表现最优。考试过程中,AI眼镜通过摄像头捕捉题目,经手机中转至云端大模型处理,再将答案传回眼镜屏幕供抄录,整个流程形成完整闭环。

测试结果显示,AI在多项选择题和单页短答题中均获满分,跨页综合题也取得显著优势。面对分散在多页的逻辑推理题,AI展现出强大的上下文关联能力,即便在复杂计算中出现细微偏差,其解题步骤的完整性仍优于多数人类考生。研究团队特别指出,AI在高压知识任务处理中表现出稳定优势,不会因紧张或疲劳影响发挥,这种特性在标准化考试中形成明显竞争力。

实验同时暴露出智能眼镜的技术短板。在持续30分钟的高强度使用中,设备电量从100%骤降至58%,功耗问题成为制约全天候使用的关键因素。摄像头清晰度直接影响答题质量,当题目出现模糊或反光时,AI的推理稳定性明显下降。这些发现为智能穿戴设备的优化提供了实证依据,也揭示出AI作弊设备从实验室走向实际应用仍需突破多重技术瓶颈。

这场实验引发的思考远超技术范畴。传统教学评估体系长期以标准答案为核心,重点考察记忆准确性和解题规范性。当AI在这些维度展现出超越人类的稳定性时,现有评估方式的有效性受到质疑。教育专家指出,真实世界需要的能力包括提出创新问题、在信息不全时做出判断、权衡多方案利弊等,这些恰恰是标准化考试难以衡量的维度。纽约大学近期推出的AI辅助口试评估系统,通过要求学生解释解题思路,尝试将评估重心转向思维过程而非最终答案。

部分高校已开始调整评估方式,引入项目展示、现场答辩等多元化考核形式。英国雷丁大学的研究显示,AI生成的答卷在传统考试中平均得分高于人类学生,但当评估标准转向批判性思维和创造性解决问题时,人类学生的优势立即显现。这种对比凸显出教学评估改革的紧迫性——当工具能够高效完成信息处理和标准作答时,教育系统需要重新定义“能力”的内涵,将评估重点转向判断力、理解力和选择力等无法被技术替代的核心素养。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version