采用ChatGPT及相关大型语言模型来支持研究和生成学术内容的速度不断加快。Science的政策一直认为在方法部分将使用上述工具适当予以披露是可以接受的。不过,Science最初对使用ChatGPT制作文本和图表采取了非常严格的限制态度,同时也在关注整个科学界的想法和反应,正如其在2023年早些时候表态:“我们认为,谨慎的做法是等待,直到我们更清楚地了解科学界认为哪些用途是被允许的。”
一些组织最近更新了它们的政策。例如,国际医学期刊编辑委员会(ICMJE)就如何在文本和图表的编写中使用人工智能提供了指导。世界医学编辑协会(World Association of Medical Editors)和科学编辑委员会(Council of Science Editors)也发布了类似的公告。
Science现已调整了关于图像和文本完整性的编辑政策,将以下内容纳入其中:
人工智能辅助技术,如:大型语言模型(LLM)、聊天机器人和图像创建器不符合Science的作者标准,因此不得列为作者或共同作者,期刊内容中引用的资料也不得由人工智能工具撰写或共同撰写。作者如果将人工智能辅助技术作为其研究的组成部分,或作为撰写或发表稿件的辅助工具,应在投稿信和稿件致谢部分注明。详细信息应在方法部分提供,应披露作品制作过程中所使用的完整提示词以及人工智能工具及其版本。作者应对作品的准确性负责,并确保没有抄袭行为。他们还必须确保适当引用所有资料来源,并应仔细审阅作品,防止人工智能可能带来的偏见。如果人工智能使用不当,编辑可能会拒绝继续处理稿件。审稿人在生成或撰写审稿意见时不得使用人工智能技术,因为这可能会破坏稿件的保密性。
未经编辑明确许可,Science不允许使用人工智能生成的图像和其他多媒体。在某些情况下可能会有例外,例如在专门涉及人工智能和/或机器学习的稿件中使用图像和/或视频。此类例外将逐案评估,并应在投稿时披露。Science认识到这一领域正在迅速发展,其对人工智能生成的多媒体的立场可能会随着版权法和行业道德使用标准的演变而改变。
Science将继续关注这一充满挑战的领域,并根据需要谨慎调整。