共计 1303 个字符,预计需要花费 4 分钟才能阅读完成。
自从ChatGPT问世后,许多学术期刊开始要求作者主动申报是否利用AI进行写作。然而,最新的研究显示,实际上使用AI的作者数量是自报的整整四倍!
这一引人注目的发现源自美国癌症研究协会的调查。他们分析了旗下十本期刊在今年上半年接收的7177篇稿件,结果显示有36%的摘要存在AI生成的痕迹。然而,令人惊讶的是,仅有9%的作者在提交时选择了“使用AI辅助”的选项。
更令人意外的是,连审稿人也在偷偷使用AI,尽管期刊明确禁止这一行为。研究指出,约7%的审稿意见中可能包含AI代笔的成分。
这项调查运用了Pangram Labs开发的AI检测工具,其准确性相当高。研究团队最初对此持怀疑态度,便拿2020年和2021年的旧稿件进行测试——那时ChatGPT尚未诞生。结果显示误报率不到1%,这才让他们放心使用该工具。
那么,为何许多人不愿承认使用AI呢?
负责这项研究的Daniel Evanko推测,许多作者害怕一旦承认使用AI,他们的论文将被拒绝。的确,已有证据表明,审稿人对使用AI的论文会显得更加苛刻。
有趣的是,不同学科学者的态度差异显著。华盛顿大学的Amy Zhang调查了800余名研究人员,发现计算机科学领域的学者对于公开使用AI显得很坦然,因为在该领域内这种做法已成为常态。然而,生物和医学领域对此仍未达成共识,态度较为保守。
值得注意的是,非英语国家的作者使用AI的比例是英语国家的两倍。这一现象不难理解,因为AI在语言润色方面表现突出,对非母语作者而言,确实是个得力助手。
在这背后的技术竞争中,Pangram的检测工具采用了深度学习技术,其训练方法独特:他们首先收集了大量在2021年前确认是人类撰写的文本,然后让AI模仿这些文本的风格进行再生成。通过对比两者之间的细微差别,最终训练出能够识别AI痕迹的分类器。
随着ChatGPT的广泛使用,AI生成的内容在学术论文中愈发普遍。除了摘要部分,方法部分也有15%包含AI生成的内容,而审稿报告中则占7%。
面对这一现实,期刊出版商感到颇为棘手。美国癌症研究协会正在考虑对所有投稿进行AI检测,但每月有2500多篇被标记的稿件,现有的人手根本无法逐一核实。他们可能会先采用自动邮件的方式询问作者,就像处理其他格式问题一样。
然而,也有专家对此表示保留。JAMA+AI的主编Roy Perlis认为,现在的AI检测工具尚不成熟,容易产生误判。他担忧如果将这些工具直接嵌入审稿流程,并将其判断视为绝对标准,可能会引发问题。
他的观点颇具说服力:“我们鼓励开发这类工具,但也必须意识到这将是一场军备竞赛——检测工具越强大,规避检测的手段必然也会更加高明。”
AI 人工智能创新概念图片
这场猫鼠游戏刚刚开始,学术界对于AI使用的规范仍在摸索之中,国际科技医学出版商协会正在更新指导原则,预计将很快发布。
不难发现,AI已经深入学术写作的每一个角落,尽管大家似乎都在选择视而不见。