科隆大学植物科学教授马塞尔·布赫在《自然》杂志专栏中披露,自己因误操作导致两年积累的学术资料尽数丢失,而“罪魁祸首”竟是常伴左右的AI助手ChatGPT。这场意外暴露出生成式人工智能在科研领域应用的深层隐患,引发学界对技术依赖风险的激烈讨论。
布赫的学术工作高度依赖ChatGPT Plus,他将科研经费申请、论文修订、课程讲义等核心资料存储在AI对话界面中。为测试系统独立性,他主动关闭了数据授权功能,却触发连锁反应——所有历史聊天记录瞬间清空,且无任何预警提示或恢复选项。"就像看着数字人生被按下了删除键",这位教授在专栏中描述当时的绝望,"空白页面上连个确认对话框的残影都没留下"。
事件曝光后,学术圈出现两极分化。部分网友质疑布赫缺乏基本的数据管理意识,甚至有人要求校方对其"将AI凌驾于学术严谨之上"的行为追责。但海德堡大学教学协调员罗兰·格罗姆斯在社交媒体发文力挺:"当所有人都坚信自己能避开所有陷阱时,布赫的坦诚反而显得珍贵。这个愚蠢的错误,可能发生在任何过度信任技术稳定性的研究者身上。"
这场风波撕开了生成式AI在科研领域应用的伤口。据《大西洋月刊》调查,近半年有超过17%的科学期刊收到过AI拼凑的"僵尸论文",部分虚假期刊甚至形成完整产业链——用算法批量生成低质稿件,再通过AI同行评审系统自我验证,形成污染学术生态的闭环。更荒诞的是,不少学者发现自己的研究成果被AI虚构引用,某生物学家曾追踪到自己的论文被AI"引用"了23次,实际阅读量却不足5次。
面对质疑,布赫强调自己从未将AI生成内容直接用于教学或发表,但承认过度信赖平台稳定性:"它给出的答案总带着令人安心的确定性,哪怕那些结论漏洞百出。"这种"技术谄媚"正成为新的认知陷阱——当AI用流畅的学术语言包装错误信息时,连资深研究者都可能陷入"知识幻觉"。
OpenAI在回应中重申用户须知:删除操作不可逆,且系统会在清除数据前弹出确认窗口。但布赫指出,这个所谓的"安全网"在移动端应用中形同虚设——他的数据丢失正是发生在手机端操作时。公司同时建议用户"建立本地备份机制",这被学界批评为推卸责任:"当付费服务连基础数据保护都做不到时,凭什么要求用户自行构建安全体系?"
这场意外犹如多棱镜,折射出科技与学术碰撞时的复杂光谱。当研究者们享受着AI带来的效率革命时,或许也该在对话框里留个空白页——用来书写对技术不确定性的敬畏。











