学术圈惊人发现:近四分之一论文摘要可能由AI生成,多数作者隐瞒使用情况一项最新研究显示,人工智能正在悄然改变学术论文的写作方式——但很多研究者选择了隐瞒。
美国癌症研究协会(AACR)通过AI检测工具对大量投稿分析后发现,2024年其接收的论文中,近23%的摘要和5%的审稿报告含有AI生成文本,但只有不到四分之一的作者主动披露使用了AI。
这一趋势自ChatGPT于2022年11月公开后出现显著增长。尽管AACR明确禁止审稿人使用AI,2024年初AI生成的审稿意见数量却不减反增,比禁令刚实施时增加了一倍以上。
“我们看到结果时非常震惊,”AACR期刊运营总监Daniel Evanko表示,“尤其是在方法部分使用AI非常危险——稍加改写就可能引入科学错误。”
检测由纽约Pangram实验室开发的AI工具完成,其准确率高达99.85%,误判率仅为万分之一。该工具能识别出ChatGPT、DeepSeek、LLaMa、Claude等不同AI模型生成的文本,但尚无法区分“完全由AI生成”和“经AI润色”的文本。
研究还发现,非英语国家的作者使用AI辅助写作的比例是英语国家作者的两倍以上。而被检测出使用AI的论文,在初审阶段被拒稿的概率也比未使用AI的论文高一倍。尽管期刊要求作者披露任何AI使用情况,但2025年上半年提交的论文中,超过三分之一被检测出使用AI,却只有不到十分之一的作者主动说明。
芝加哥西北大学的研究伦理专家Mohammad Hosseini提醒,这些发现应谨慎解读:“无法百分百确定被标记的文本就一定来自AI。”但他也强调,如果出版社不对违规行为采取行动,“学术出版政策将成为一纸空文”。他建议期刊应要求违规论文重新审稿,必要时甚至撤稿:“论文的生命并不止于发表。”学术界正在迎来AI时代的真正考验——如何在不牺牲科学严谨性的前提下,合理使用新技术,将成为每一位研究者的必答题。