《人工智能正在改变同行评审——许多科学家对此感到担忧》

  • 来源专题:数智化图书情报
  • 编译者: 程冰
  • 发布时间:2025-10-19
  • 同行评审,学术界的基石,竟然被AI入侵了!生态学家Timothée Poisot在审阅稿件时发现,一份评审报告疑似由AI炮制,这就像一颗炸弹,在学术圈炸开了锅。机器评审,是进步还是灾难?

    实际上,早在 ChatGPT 等基于 LLMs 的 AI 工具出现前,出版商就已使用多种 AI 应用来简化同行评审流程。如今,AI 系统正改变着同行评审,有的是在出版商鼓励下,有的则违反规则。一项针对 2023 年和 2024 年提交给 AI 会议论文的同行评审报告研究发现,7% - 17% 的报告有被 LLMs “大幅修改” 的迹象。许多资助者和出版商目前禁止评审人员使用 AI,担心信息泄露。但哥本哈根大学的塞巴斯蒂安?波尔斯丹?曼恩表示,若使用离线 LLMs 则不会有此问题。

    不同研究者对 AI 在同行评审中的作用看法不一。葡萄牙天主教大学的德里特乔恩?格鲁达认为使用离线 LLMs 改写笔记可加快和优化评审撰写过程;但西雅图华盛顿大学的进化生物学家卡尔?伯格斯特龙反驳称,依赖 AI 可能导致评审分析肤浅。波尔斯丹?曼恩指出,LLMs 能改善部分评审风格,但也存在错误。

    斯坦福大学的计算生物学家詹姆斯?邹团队正在开发一种评审 “反馈代理”,可评估人类评审报告并提出改进建议。去年 12 月在伦敦的出版商创新展上,许多 AI 开发者展示了用于改善同行评审的产品,如荷兰世界大脑学者公司的 Eliza 和跨国出版服务公司 Enago 与 Charlesworth 开发的 Review Assistant 等。英国初创公司 Grounded AI 开发的 Veracity 可检查引用论文是否存在及相关内容是否对应。

    美国物理联合会的出版部门 AIP Publishing 正在两家期刊试用 Grounded AI 和 Hum 公司开发的 Alchemist Review 软件,主要用于人类评审前辅助工作。2024 年 12 月一项对顶级医学期刊指南的研究发现,大型出版商中,爱思唯尔目前禁止评审人员使用生成式 AI 或 AI 辅助评审,而威利和施普林格?自然允许 “有限使用”,且要求披露 AI 使用情况并禁止上传手稿。在 78 份顶级医学期刊中,59% 禁止在同行评审中使用 AI,其余则有不同程度允许。最激进的 AI 应用是直接提供自动评审手稿的工具,如澳大利亚的 Paper - Wizard,其共同创造者称这是帮助作者的 “预同行评审” 产品。

  • 原文来源:https://www.nature.com/articles/d41586-025-00894-7
相关报告
  • 《关于人工智能的六大担忧》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2018-04-17
    • 2017年,人工智能的发展又到达了一个高峰期,首席信息官、顾问和学者们纷纷表示,这项技术将使得从商业、IT运营到客户联系在内的任何事情实现自动化。然而,进入2018年,越来越多的媒体开始报道人工智能的潜在威胁。 然而,Babson College 的教授Thomas Davenport在其认知技术课上表示:“在媒体上有这么多的炒作,这只是记者试图通过谈论消极的一面来扩大炒作罢了。” 即便如此,这些担忧并不新鲜,从对种族、性别和其他因素的偏见到自动驾驶的无人机可能会带来致命的后果,这些问题一直都存在。 不久前,《麻省理工学院技术评论》(《MIT Technology Review》)发表了一篇题为《如果人工智能最终杀死了一个人,该谁负责?》的文章,这篇文章提出了一个问题:如果自动驾驶汽车撞击并杀死了一个人,应该适用什么样的法律呢?在这篇文章发表仅一周之后,一辆自动驾驶的Uber汽车在亚利桑那州撞死了一名女子。 为此,CIO.com详细列举了一些关于采用人工智能的担忧和隐患,以及为希望开始测试使用该技术的首席信息官们提供的建议。 对人工智能的担忧: 1.不可控的“粗鲁行为” 正如我们从微软的Tay聊天机器人事件中了解到的,会话式消息系统可能是荒谬的、不礼貌的、甚至是非常令人不快的。首席信息官们必须对自己使用的东西以及使用它们的方式非常小心。要摧毁一个品牌的形象,只需要聊天机器人一次令人恼怒的爆发就足够了。 2.感知能力很糟糕 谷歌人工智能科学家及斯坦福大学教授李飞飞在《纽约时报》的一篇专栏文章中表示,人工智能虽然是由人类开发的,但是具有讽刺意味的是,它根本不像人类。她表示,人类的视觉感知是高度背景化的,但人工智能对图像感知的能力却非常的狭隘。为此,人工智能程序员必须与领域专家合作——回归该领域的学术根源——以缩小人与机器感知之间的差距。 3. 黑匣子难题 许多企业都想使用人工智能,但金融服务等行业的公司必须非常小心,因为对于人工智能是如何得出其结论这个问题尚未能解决。Fannie Mae的运营和技术负责人Bruce Lee表示:“企业如果不能解决好样本数据偏见对借贷公平造成的影响,就无法提供更好的抵押贷款利率。在诸如信贷决策之类的工作里,人工智能实际上受到了很多监管的阻碍,很多问题有待解决。所以我们所做的很多事情都必须进行彻底的回溯测试,以确保没有引入不恰当的偏见。” 如果人们不清楚人工智能软件如何检测模式并观察结果,那么对机器的信任能够到达何种程度也有待考究。Fox Rothschild律师事务所技术实践联席主席Dan Farris表示:“背景、道德和数据质量是影响人工智能价值可靠性的重要因素,特别是在受到高度监管的行业中更是如此。”他表示:“在任何受到高度监管的行业中部署人工智能都可能会导致合规性问题。” 4. 民族和社会经济方面的偏见 在进行一个使用谷歌街景汽车图像来确定全美国城镇人口结构的项目中,斯坦福大学的博士生Timnit Gebru对于她的研究中对种族、性别和社会经济方面的偏见感到担忧。根据彭博社的报道,正是这种担心促使Gebru加入微软,她正在这里努力地挖掘人工智能的偏见。 即使是人工智能虚拟助手也会受到偏见的影响。你有没有想过为什么虚拟助理技术——例如Alexa、Siri和Cortana都设定为女性?客户服务软件专家LivePerson的首席执行官Rob LoCascio对CIO.com表示:“这源于人类自己对职场中女性的期望。许多人认为,女性本质上是‘助手’;她们更爱‘唠叨’;她们更多地担任行政职务;她们更擅长接受订单......” 5. 黑客利用人工智能发动致命的攻击 一份由剑桥大学、牛津大学和耶鲁大学25位技术和公共政策研究人员撰写的98页的报告指出,人工智能的快速发展意味着存在恶意用户很快就会利用该技术进行自动黑客攻击,模仿人类传播错误信息或将商业无人机转化为目标武器。 牛津大学未来人类研究所(Future of Humanity Institute)的研究人员Miles Brundage 对路透社表示:“我们承认,人工智能有很多积极的应用。但是,它也的确存在着一个有关恶意使用问题的缺口。” 6. 奴役理论 以特斯拉和SpaceX成名的企业家Elon Musk警告说,人类冒着成为独立“家猫”的风险创造具有卓越智慧和能力的人工智能。最近,以色列历史学家Yuval Noah Harari也提出,以自动化为核心的人工智能的出现,可能会造成一个“全球无用阶级”。 在这样的世界里,民主会受到威胁,因为人类并不像机器那样了解自己。 IT规划未受影响 即便如此,仍然有人抱着乐观的太对。Davenport表示,这些担心在很大程度上都是被夸大了。例如,偏见长期以来也一直存在于普通的分析项目之中。“我从来没见过任何一个曾经从事过分析工作的人会说偏见不存在。” Davenport最近完成了一本新书——《人工智能优势:大企业使用人工智能的一切》,他表示几家大公司正在非常负责任地测试人工智能。 “很多企业已经在实践中应用人工智能技术,并且没有停止这一系列IT计划的想法。”Davenport补充说,“虽然这项技术仍然不成熟,但聪明的公司知道如何更好地应用,并且尽力避免受到来自媒体的各种正面和负面看法的左右。” 事实上,根据Gartner的统计,IT领导者似乎基本上不被炒作困扰,据统计,有超过85%的首席信息官将在2020年前通过购买、构建和外包的方式试点人工智能。
  • 《美国奶牛爆发禽流感:科学家为何感到担忧》

    • 来源专题:新发突发传染病
    • 编译者:张玢
    • 发布时间:2024-04-13
    • 研究人员正在密切监测一种令人担忧的禽流感病毒株在美国六个州的农场中传播到牛和一个人身上的情况。 这些感染是禽流感在奶牛中首次大范围暴发。英国哈特菲尔德皇家兽医学院的进化病毒学家丹尼尔·戈德希尔(Daniel Goldhill)说,这次疫情令人担忧,因为人类经常与农场的牛接触,使病毒有充足的机会传播给人类。 卫生官员表示,目前对人们的总体威胁仍然很低,但他们正在密切关注局势的发展。“人们总是担心病毒会让我们大吃一惊,”戈德希尔说。“我们不知道他们接下来会做什么。 科学家们正在争先恐后地评估候选疫苗和抗病毒药物对流行毒株的效果如何,并更新诊断试剂盒以快速识别人类感染。他们还试图了解奶牛是被鸟类感染还是被其他来源感染,并对任何可能增加人类风险的情况变化保持警惕。