《COPE关于使用AI工具的立场声明》

  • 来源专题:科技期刊发展智库
  • 编译者: 王传清
  • 发布时间:2023-03-31
  • 人工智能(AI)工具,如ChatGPT或大型语言模型(Large Language Models,LLM)在学术研究和出版中的使用越来越广泛。国际出版伦理委员会(Committee on Publication Ethics,COPE)与WAME和JAMA Network等组织一起发布声明,AI工具不能被列为论文的作者。

    人工智能工具不符合研究作者的资格要求,因为它们无法对提交的科学论文的内容和完整性负责。作为非法律实体,它们不能断言是否存在利益冲突,也不能管理版权和许可协议。

    作者如果在撰写稿件、制作图片或论文中的图形元素、或收集和分析数据时使用了AI工具,必须在论文的材料和方法(或类似部分)中明确说明如何使用AI工具以及使用了哪种AI工具。作者对其稿件的内容完全负责,甚至包括由人工智能工具生成的部分,因此对任何违反出版伦理和道德的行为负责。

相关报告
  • 《COPE发起“人工智能(AI)和虚假论文”的讨论》

    • 来源专题:科技期刊发展智库
    • 编译者:王传清
    • 发布时间:2023-05-17
    • 2022年以来,人工智能(AI)在研究论文的撰写、创作和出版全流程中发挥重要作用。这对研究的完整性产生了重大影响,需要人们改进手段和工具来检测虚假的研究。虚假论文的出现以及个人和组织操纵同行评审系统,促使编辑和出版商制定措施来识别和处理其中的一些欺诈行为。然而,由于双方的策略和工具都在不断发展,对虚假论文的检测仍然很困难。 随着论文工厂(以盈利为目的、非官方的、也可能是非法组织,他们生产和销售看起来像真正研究的虚假手稿)的激增,以及最近高级写作和图像创作工具的发布,COPE在2023年3月23日举办的论坛上提出了围绕使用人工智能创建虚假论文和基于有效研究的论文制作的各种伦理问题,目标是讨论作者身份、偏见、原创性以及使用人工智能工具来对抗人工智能欺诈等。 在本次COPE论坛讨论的问题包括: (1)作者使用人工智能撰写学术文章是可以接受的、符合道德的做法吗? (2)我们能检测出一篇文章是否由人工智能生成的吗?这样做重要吗?为什么? (3)由人工智能在现有文章上训练出来的文章能被认为是原创吗? (4)人工智能生成的文本对文字、图像和思想(用现有文章训练的算法)的抄袭有什么影响? (5)同行评审是否可以完全由专门的人工智能工具进行(旨在检测欺诈和验证数据和数字)? (6)如果由人工智能写文章或进行同行评议,它能带来什么样的偏见? (7)在公平性和包容性方面需要考虑哪些因素(例如,对于可能使用人工智能工具作为辅助或适应性技术的残疾学者)? 讨论会主持人: Sarah Elaine Eaton博士,卡尔加里大学副教授。COPE理事会成员。 Marie Souliére博士,Frontiers高级出版经理。COPE理事会成员。 部分评论: Susan Garfinkel:随着越来越多的人工智能和虚假论文的问题被发现,我想听听期刊在发现这类问题时是怎么做的,还有就是当问题可能被提交给机构时,他们的期望是什么。我之所以这么问,是因为各机构都在纠结什么是处理这些问题的最佳方式。 Bridget Sheppard:我对ChatGPT如何回答第一个问题很感兴趣,它说:“我可以被作者用来协助撰写学术论文。然而,重要的是要注意,我只是一个工具,而不是批判性思维和领域专业知识的替代品,而批判性思维和专业知识是撰写高质量学术论文所必需的。我可以帮助完成一些任务,比如总结研究,产生想法,建议参考文献,甚至是初稿,但最终还是要由作者来验证所提供的信息。作者应确保内容准确、相关并被恰当引用。在写作过程中说明使用了语言模型是很重要的。” Gary Balian:关于人工智能和出版伦理的讨论非常有用,内容丰富。(1)如果能读到COPE与编辑分享的任何准则,会有助于我们对使用人工智能软件生成论文的作者的处理方式。(2)如果有更多关于可以检测在准备稿件时使用人工智能的程序的信息,与出版商和编辑分享这些信息将非常有用。(3)开发能够识别以表格、图像和图表形式呈现的数据的上下文相似性的软件可能更具挑战性,但可能成为同行评审时做出决定的关键。(4)同时,在开始同行评审过程之前,使用iThenticate进行交叉参考相似性检查已经成为一个重要的步骤。
  • 《 国际机器学习会议(ICML)关于LLM的政策声明》

    • 来源专题:科技期刊发展智库
    • 编译者:郭林林
    • 发布时间:2023-03-31
    •   项目主席团在2023年的ICML论文征集中包含了以下声明:   禁止包含从大规模语言模型(LLM)(如ChatGPT)生成的文本的论文,除非生成的文本作为论文实验分析的一部分。   ICML 2023 的大型语言模型 (LLM) 政策禁止完全由 LLM 生成的文本。这并不禁止作者使用 LLM 来编辑或润色作者撰写的文本。   LLM政策在很大程度上基于保守原则,防止使用LLM的包括剽窃在内的潜在问题。   LLM政策适用于ICML 2023。随着更好地了解LLM及其对科学出版的影响,预计这一政策可能会在未来的会议中演变。   (1)意向   在过去的几年中,我们观察到大规模语言模型(LLM)在研究和部署方面的快速进展,并参与其中。在过去几个月里,这一进展不仅没有减缓,反而加快了。包括我们自己在内的许多人都注意到,过去几个月发布的LLM,如ChatGPT,现在能够生成文本片段,这些片段通常很难与人工撰写的文本区分开来。毫无疑问,这是自然语言处理和生成方面令人振奋的进步。   如此迅速的发展往往伴随着意想不到的后果和未解决的问题。如大规模生成模型生成的文本和图像是否被认为是新颖的或仅仅是现有工作的衍生物。还有一个关于文本片段、图像或从这些生成模型中采样的任何媒体的所有权的问题:是生成模型的用户、培训模型的开发人员,还是制作培训示例的内容创建者?可以肯定的是,随着这些大规模生成模型被更广泛地采用和时间的推移,这些问题以及更多问题将得到解答。然而,对于这些问题,我们目前还没有任何明确的答案。   由于我们如何回答这些问题直接影响到我们的审查过程,进而影响到我们研究社区的成员和他们的职业生涯,因此在考虑这项新技术时,我们必须谨慎且有些保守。距离OpenAI在2022年11月底发布ChatGPT的测试版还不到两个月。不幸的是,我们没有足够的时间观察、调查和考虑其对我们审查和出版过程的影响。因此,我们决定今年(2023年)禁止使用大规模语言模型制作/生成ICML纸质文本。   尽管我们今年禁止LLM生成文本,但我们计划调查和讨论LLM对机器学习和AI领域的审查和发布的积极和消极影响。这一决定将在ICML的未来迭代中重新考虑。   (2)实施和执行   众所周知许多作者使用外部辅助技术。这种辅助技术包括半自动编辑工具,如Grammarly,以及各种形式的在线词典和机器翻译系统。根据这些原则,我们并不禁止作者使用LLM对自己的文本进行轻度编辑。换句话说,只要这些LLM工具被类似地用于自动化语法检查、单词自动更正和其他编辑工具,这个新策略就不适用。   正如一些人指出而我们也自知很难检测任何给定的文本片段是否由语言模型生成。ICML领导团队不计划在今年(2023年)实施任何自动化或半自动化系统,以检查是否违反LLM政策。相反,我们计划针对提交的文件有重大违规嫌疑而引起我们的注意时,调查任何可能违反LLM政策的行为。任何被标记为可能违反本LLM政策的提交都将经历与其他被标记为抄袭的提交相同的过程。   随着我们在学术出版物中进一步了解LLM的后果和影响,以及在未来会议(ICML 2023之后)中重新设计LLM政策,我们将考虑在未来更新中通过不同的方法和技术实施最新LLM政策。