在不到2个月的时间里,人工智能(AI)项目ChatGPT(生成型预训练转换模型)已经成为一种文化轰动。它可以通过工具开发者OpenAI创建的门户网站自由访问。这个基于书面提示自动创建文本的程序非常受欢迎,如果你尝试使用它,它很有可能“现在已经满负荷运转”。对科学界和学术界,ChatGPT等人工智能生成程序有着严重的影响。
ChatGPT是利用一种被称为“从人类反馈中强化学习”的技术开发的,用于训练语言模型,其具有很强的对话能力。然而,“ChatGPT有时会写出看似合理但不正确或荒谬的答案。”几个例子显示了它可能犯的明显错误,包括引用一项不存在的科学研究。令人担忧的是ChatGPT对撰写学术论文的影响。在最近的一项研究中,ChatGPT创建的摘要被提交给学术评审专家,只发现了63%的造假。这将很快进入文学领域。
多年来,《科学》系列期刊的作者签署了一份许可协议,证明“该作品是原创的”。对于《科学》,“原创”一词足以表明ChatGPT撰写的文本是不可接受的:毕竟,它是从ChatGPT剽窃的。此外,我们的作者证明他们自己对论文中的研究负责。尽管如此,为了明确起见,我们现在正在更新我们的许可协议和编辑政策,以规定ChatGPT(或任何其他人工智能工具)生成的文本不能被用于工作,数字、图像或图形也不能作为此类工具的产品。人工智能程序不能是作者。违反这些政策将构成学术不端行为,与修改图像或剽窃现有作品无异。当然,有许多合法的数据集(不是论文的文本)是人工智能在研究论文中有意生成的,这些数据集并没有被这种更新所涵盖。
《科学》处理的大多数学术不端行为都是因为人为的疏忽。快捷方式是通过使用图像处理程序(如 Photoshop)或从其他来源复制文本获取的。更改的图像和复制的文本可能会因为它们没有受到每位作者的仔细检查而被忽略。当编辑和审稿人没有遵从他们怀疑直觉或者没有集中精力关注细节时,就会发生错误。在人们对科学的信任正在减弱的时候,科学家们必须重新致力于对细节的细致关注。
科学记录是人类努力解决重要问题的过程之一。机器扮演着重要的角色,它是人们提出假设、设计实验和理解结果的工具。最终,产品必须来自我们头脑中的虚拟计算机,并由它来表达。