风靡全球的人工智能Artificial Intelligence聊天机器人ChatGPT在科学文献中正式亮相,在已发表的论文和预印本上至少获得了4份作者署名。
期刊编辑、研究人员和出版商现在正在讨论这类人工智能工具在已发表文献中的地位,以及将机器人作为作者是否合适。2022年11月,作为一款免费工具,加州旧金山的科技公司OpenAI发布了这款聊天机器人,出版商们正在竞相为它制定政策。
ChatGPT是一个大型语言模型(Large Language Models,LLM),它通过模仿从互联网上搜集的巨大文本数据库中的语言统计模式来生成令人信服的语句。该机器人已经颠覆了包括学术界在内的多个领域:特别是,它给未来的大学论文和研究成果带来许多挑战。
《自然》新闻团队联系的出版商和预印本平台一致认为,ChatGPT等人工智能工具不符合研究作者的标准,因为它们无法对科学论文的内容和完整性负责。但一些出版商表示,人工智能对论文写作的贡献可以在作者署名以外的部分进行说明。(《自然》杂志的新闻团队在编辑上独立于期刊团队及其出版商,施普林格自然。)
在一个案例中,一位编辑告诉《自然》杂志, ChatGPT被列为合著者,该杂志将纠正这一错误。
Artificial Intelligence
ChatGPT是2022年12月在医学预印本平台medRxiv上发布的关于在医学教育中使用该工具的预印本文章[1]的12位作者之一。
纽约冷泉港实验室出版社(Cold Spring Harbor Laboratory press)副主任、联合创始人理查德·塞弗(Richard Sever)表示,该平台及其bioRxiv平台的团队正在讨论在撰写研究报告时使用和信任ChatGPT等人工智能工具是否合适。惯例可能会改变,他补充道。
塞弗说:“我们需要区分学术手稿作者的正式角色和更一般的文档作者的概念。”作者对他们的学术作品承担法律责任,所以只有人应该被列为作者。“当然,人们可能会试图偷偷摸摸地把它写进来——这已经在medRxiv上发生过了——就像过去人们在期刊文章中把宠物、虚构的人物等列为作者一样,但这是一个检查问题,而不是政策问题。”(这篇预印本的通讯作者、加州山景城Ansible Health的医疗总监维克多·曾森(Victor Tseng)没有回应置评请求。)
2023年1月发表在《护士教育实践》(Nurse Education in Practice)杂志上的一篇社论[2]将人工智能与英国曼彻斯特大学的健康技术研究员西沃恩·奥康纳(Siobhan O 'Connor)列为合著者。该杂志的主编罗杰·沃森(Roger Watson)说,这是错误的,很快就会得到纠正。“这是我的疏忽,”他表示,因为社论与研究论文的管理体系不同。
香港一家人工智能药物研发公司Insilico Medicine的首席执行官亚历克斯·扎沃龙科夫(Alex Zhavoronkov)声称ChatGPT是上个月发表在《肿瘤科学》(Oncoscience)杂志上一篇观点文章[3]的合著者。他表示,他的公司已经发表了80多篇由生成式人工智能工具生成的论文。“我们对这个领域并不陌生,”他说。这篇最新的论文讨论了服用雷帕霉素药物(drug rapamycin)的利与弊,这是在“帕斯卡赌注(Pascal’s wager)”的哲学争论的背景下进行的。扎沃龙科夫说,ChatGPT写的文章比前几代生成式人工智能工具要好得多。
他说,在他要求编辑这样做之后,《肿瘤科学》(Oncoscience)杂志对这篇论文进行了同行评审。该杂志没有回应《自然》杂志的置评请求。
瑞典哥德堡Sahlgrenska大学医院的神经生物学家Almira Osmanovic Thunstr?m说,第4篇文章[4]是由早期的聊天机器人GPT-3共同撰写的,并于2022年6月发布在法国预印本服务器HAL上,将很快在同行评审期刊上发表。她说,一家期刊在审查后拒绝了这篇论文,但另一家期刊在她根据审稿人意见修改了文章后,以GPT-3作为作者接受了这篇论文。
出版商的政策
《自然》和《科学》的主编告诉《自然》的新闻团队,ChatGPT不符合作者的标准。伦敦《自然》杂志主编Magdalena Skipper表示:“作者身份意味着对学术成果负责,这不能有效地适用于LLMs。”她说,如果合适的话,作者在撰写论文时以任何方式使用LLMs都应该在方法或致谢部分说明它们的作用和贡献。
华盛顿特区《科学》(Science)系列期刊主编霍尔顿·索普(Holden Thorp)表示,“我们不会允许人工智能在我们出版的论文中被列为作者,而使用人工智能生成的文本,但没有恰当的说明可能会被视为抄袭。”
伦敦的Taylor & Francis出版社出版伦理和诚信主管Sabina Alam表示,他们正在重新审视自己的政策。她同意作者对其工作的有效性和完整性负责,并且应该在致谢部分说明对LLMs的使用。Taylor & Francis出版社目前还没有收到任何将ChatGPT列为合著者的意见书。
宾夕法尼亚州立大学的天文学家、科学总监斯坦恩·西于尔兹松(Steinn Sigurdsson)表示,物理科学预印本平台arXiv的董事会已经进行了内部讨论,并开始在使用生成式人工智能的方法上达成一致。他认同软件工具不能成为提交内容的作者,部分原因是它不能同意使用条款和分发内容的权利。西于尔兹松没有发现arXiv有任何将ChatGPT列为合著者的预印本文章,并表示即将发布作者指南。
生成式AI的伦理
英国研究诚信办公室(UK Research Integrity Office)的研究诚信主管马特·霍奇金森(Matt Hodgkinson)个人认为,根据已有的明确的作者指南,ChatGPT不应该被视为合著者。合著者需要对文章做出“重大的学术贡献”——这可以通过ChatGPT等工具实现,但它也必须有能力同意成为共同作者,并对一项研究承担责任——或者,至少是它贡献的部分。他认为:“让人工智能工具成为合著者的想法在第二部分真正遇到了障碍。”
扎沃龙科夫表示,当他试图让ChatGPT撰写比他之前发表的论文更技术性的论文时,它失败了。他表示:“它确实经常会反馈不一定正确的语句,如果你多次问它同一个问题,它会给你不同的答案。”“所以我肯定会担心这个系统在学术界被滥用,因为现在,没有专业知识的人也可以尝试写科学论文。”
参考文献:
1. Kung,T. H. et al. Preprint at medRxiv https://doi.org/10.1101/2022.12.19.22283643 (2022).
2. O’Connor, S. & ChatGPT Nurse Educ. Pract. 66, 103537 (2023).
3. ChatGPT & Zhavoronkov, A. Oncoscience 9, 82–84 (2022).
4. GPT,Osmanovic Thunstr?m,A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022).