谢赛宁的遭遇,在近期科研圈的两大震撼曝光面前,显得微不足道。
国际顶级期刊《Science》连续发布重磅新闻,揭露了科研领域的两大顽疾:论文工厂泛滥成灾,已形成完整的造假产业链,全球科学期刊深受其害;另一方面,ChatGPT人工智能工具悄然渗透学术圈,计算机科学领域已有五分之一的论文显现AI生成的痕迹。
论文工厂的丑闻并非新鲜事,但此次曝光的内容却让人瞠目结舌。专家经年累月的警告终于得到了证实:制造虚假科研论文不仅规模巨大,手法还日益狡猾复杂。一项大规模调查显示,论文工厂已形成一个错综复杂的网络,涵盖作者、编辑、出版商及中介等多个环节,彼此勾结,共同发布低质甚至完全造假的论文。
调查团队以PLOS ONE期刊为重点,筛选出被撤稿或在PubPeer平台上受到质疑的论文,进而追踪这些论文的责任编辑。他们发现,有33位编辑处理的论文撤稿或被质疑的频率远高于正常概率,其中一位编辑审理的79篇论文中,竟有49篇被撤稿。这些编辑与某些作者之间的互动异常频繁,存在明显的利益输送嫌疑。
更令人震惊的是,论文工厂的操作已呈现出系统性特征。研究人员通过分析图像重复的论文,识别出多个共享图片的论文集,这些论文通常在同一时间段集中发表,且集中在少数几个期刊中。某些中介机构可能在其中起到了牵线搭桥的作用,将大量可疑论文投放到被攻陷的期刊上。
与此同时,ChatGPT对学术圈的入侵也不容小觑。自2022年问世以来,AI撰写论文的频率持续飙升,计算机科学领域尤为突出。一项覆盖2020年至2024年间超过百万篇科学论文的研究显示,到2024年9月,计算机科学摘要中有22.5%显示出大语言模型修改的证据。电气系统和工程科学领域紧随其后,而数学、生物医学和物理学等领域的比例虽然较低,但也呈现出上升趋势。
随着技术的不断进步,AI生成的论文质量越来越高,掩盖痕迹的能力也越来越强。科研人员开始寻找更微妙的AI使用迹象,如特定词汇的频率变化等。然而,尽管各大学术期刊纷纷出台限制使用AI撰写论文的政策,但AI生成的论文仍屡禁不止,甚至经过多轮同行评审后依然混入正式期刊,对科研论文的质量底线构成严峻挑战。
此次《Science》的曝光,无疑为科研界敲响了警钟。论文工厂的泛滥和AI的渗透,不仅损害了科研的严谨性和公信力,还可能误导人们对科学知识的理解和应用。科研界亟需采取行动,加强监管和检测力度,共同维护科研的纯洁性和权威性。