ITBear旗下自媒体矩阵:

港科大AI眼镜“入场”期末考:30分钟高分背后,传统评估体系迎挑战

   时间:2026-01-07 03:05:32 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

一场特殊的“考试”在香港科技大学引发广泛关注:一副搭载人工智能大模型的智能眼镜,以“作弊者”身份参与《计算机网络原理》本科期末考试,不仅在30分钟内完成答卷,更以92.5分的成绩跻身全年级前五,超越95%的人类考生。这场由张军教授与孟子立教授团队主导的实验,将AI技术对传统教育评估体系的冲击推向公众视野。

实验团队为这场“人机对决”设定了严苛条件:选用难度极高的专业课作为测试场景,该课程涉及海量专业概念、复杂逻辑推导与算法应用,即便对人类学生也堪称挑战。在硬件选择上,团队对12款主流智能眼镜进行评估,最终因开发自由度与显示控制能力,选定乐奇Rokid眼镜作为载体;大模型则采用OpenAI最新发布的ChatGPT-5.2,以保障推理速度与知识覆盖度。

考试流程设计堪称“无缝作弊”:学生低头审题时,眼镜摄像头自动拍摄试卷,通过“眼镜-手机-云端”链路将图像传输至大模型,生成的答案再反向显示于镜片。实验数据显示,该系统在选择题与单页短答题中均获满分,跨页综合题虽因计算复杂出现细微偏差,但中间步骤完整度与逻辑连贯性仍显著优于多数人类考生。项目负责人坦言:“AI在高压知识任务中的稳定性,远超人类生理极限。”

技术突破背后,商业产品的短板同样暴露无遗。持续30分钟的高强度图像传输使眼镜电量从100%骤降至58%,功耗问题成为全天候使用的首要障碍;摄像头清晰度直接影响答题质量,模糊或反光题目会导致模型推理失误。这些发现为智能眼镜的工程优化指明方向,却也引发更深层思考:当AI能完美复现人类应试流程,传统评估体系的价值何在?

教育领域的变革信号早已显现。英国雷丁大学曾将AI生成的答卷混入考试,结果94%的试卷未被识破,且平均分高于真实学生;创业者Eddy Xu改造的meta眼镜在国际象棋比赛中实现“零思考”稳胜,均印证同一趋势——在规则明确、目标单一的封闭场景中,AI的标准化作答能力已全面超越人类。这种“降维打击”迫使教育者重新审视评估标准:当机器比人更擅长交出标准答案,考试究竟在衡量什么?

现行评估体系的局限性在对比中愈发明显。人类智能包含语言、逻辑、空间、人际等八大维度,而传统笔试仅能捕捉其中极小部分。纽约大学Stern商学院推出的AI口试评估系统提供新思路:学生需现场解释决策依据,由Claude、Gemini等模型对推理过程独立评分。这种“重思路轻答案”的模式,正在国外多所高校推广,口试、项目展示等形式逐渐取代部分笔试,试图让思考过程“可视化”。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version