共计 1964 个字符,预计需要花费 5 分钟才能阅读完成。
【文/观察者网 王一】根据9月23日英国《自然》杂志网站的报道,一项研究揭示了生成式人工智能(AI)工具在科研论文“洗稿”中的广泛应用。这些工具撰写出看似全新的“克隆版”研究,并已成功混入学术期刊中。
这项研究于9月12日在医学预印本平台medRxiv上发布。研究者对过去四年半内出版的112本期刊进行了分析,发现有超过400篇论文经过AI“洗稿”处理,并且这些论文足以逃避出版商的反抄袭检测。
研究的作者指出,这种现象的背后,很可能是一些投机者,甚至是代写和出售论文署名的商业公司“论文工厂”,利用公开数据库,通过AI大语言模型大规模生产缺乏科学价值的低质量论文。
瑞士弗里堡大学的药理学家乔鲍·绍博(Csaba Szabó)对此表示警惕。他指出,如果任由这种趋势发展,AI驱动的方法可能会在所有开放数据库中蔓延,导致数量惊人的低质量论文涌现。他警告称,这可能会打开潘多拉的魔盒,学术文献或将被“合成论文”淹没。
研究团队对美国“国家健康与营养调查(NHANES)”数据库进行了详细分析。该数据库覆盖了数千人的健康、饮食和生活方式信息,研究者们重点关注那些“重复”研究,这些研究探讨相同变量之间的关联,但使用了不同年份、性别或年龄段的样本数据。
通过对公共医疗数据库(PubMed)的检索,研究团队发现,从2021年1月至2025年7月,发表了411篇“重复”研究。这些研究大多是简单的案例,涉及到两篇几乎相同的论文,但有三项研究涉及到六篇重复论文,其中一些甚至在同一年被多次发表。
参与这项研究的英国萨里大学生物医学家马特·斯皮克(Matt Spick)毫不掩饰地表示,这种现象“根本不该发生,对科研文献毫无益处”。
斯皮克和他的同事们怀疑,某些人可能利用AI绕过期刊的查重机制。为了验证这一点,研究团队让AI模型ChatGPT和Gemini对他们发现的三篇高度重复的研究论文进行改写,并结合NHANES数据生成新的稿件。
结果显示,仅需两个小时的人工修正,这些AI生成的稿件便能顺利通过期刊常用的查重工具。当研究人员使用大多数出版商所用的查重工具进行分析时,AI稿件的得分并未达到编辑认为有问题的水平。
斯皮克指出:“我们对此感到震惊,它几乎立即奏效。尽管AI生成的稿件存在一些错误,但其内容足以混淆视听,使得真正基于公共数据库开展研究的学者与那些故意制造论文的AI用户之间的区分变得更加困难。”
英国爱丁堡大学的公共卫生学者、《全球健康杂志》联合主编伊戈尔·鲁丹(Igor Rudan)也对此表示担忧。他认为,这给编辑和出版商带来了新的挑战。他指出:“我们在首次尝试大语言模型时就预料到这会成为一个问题,而这项研究证实了我们的担忧。”
早在7月,斯皮克就曾发出警告,指出基于NHANES等开放数据集的低质量“流水线论文”正在激增,而其背后很可能是AI的推动。此次分析还显示,自2022年ChatGPT发布以来,重复研究的数量显著增加。
此外,美国斯坦福大学及其他机构的研究人员对论文预印本平台“arXiv”和“bioRxiv”的112万多篇论文进行了分析,结果发现,2020年至2024年间,计算机科学领域中使用AI大语言模型的论文比例高达22%。
这一情况迫使部分出版商收紧政策。瑞士开放获取学术出版社Frontiers和美国公共科学图书馆(PLOS)均表示,将对基于开放数据集的研究加强编辑审查规则。
Frontiers的研究诚信负责人埃琳娜·比卡里奥(Elena Vicario)坦言,AI驱动的重复研究对出版商构成了持续的挑战。在过去四年中,该出版社发表了132篇被点名的重复论文,占比32%。不过,比卡里奥表示,这些现象发生在新编辑规则出台之前。自今年5月以来,Frontiers已拒绝了1382篇基于NHANES的投稿。
全球知名科研出版机构施普林格·自然(Springer Nature)也面临类似问题,其重复论文的比例更高,达到了37%。旗下的开放获取学术期刊《科学报告》就发表了51篇重复论文。
《科学报告》的主编理查德·怀特(Richard White)对此回应称:“我们高度重视科研记录的可靠性,所有被点名的论文都会接受调查,我们将采取必要的措施。”他透露,自2024年初以来,《科学报告》已拒绝超过4500篇基于NHANES的投稿。
怀特补充道,该期刊的编辑团队正致力于在清除不道德和无意义的研究的同时,确保真正有价值的成果得以发表。他表示:“我们对不当使用这些数据库感到忧虑,并一直在采取行动。”
本文系观察者网独家稿件,未经授权,不得转载。