ChatGPT自发布以来,人们开始关注人工智能写作工具日益成熟的能力。人工智能工具对研究和写作过程助益良多。与此同时,也出现了一个亟需讨论的问题:这些AI写作工具是否可以代替人类成为作者?
当学术界仍在探索如何使用人工智能工具时,Nature最近报道称,ChatGPT在四篇学术文献中被认定为共同作者,标志着它在科学出版领域的正式亮相。随着ChatGPT和大型语言模型等人工智能工具越来越多地被应用于研究论文,COPE(出版伦理委员会)以及WAME(世界医学编辑协会)和JAMA(美国医学会杂志)等其他组织已发布声明,强调人工智能工具不应该被承认为文章的作者。随着科学家的反对,期刊编辑、研究人员和出版商正在讨论此类人工智能工具在已发表文献中的地位,以及将机器人作为作者是否合适。出版商们制定政策以界定此类工具的作用和责任。
目前已经证实,人工智能技术有诸多益处,但它们并非没有限制。为了产生输出,人工智能系统依赖于模式(Pattern)和数据集。这意味着它们只在训练数据集上才有优秀的表现。如果用于训练人工智能工具的数据有问题,那么该工具的输出也会有缺陷。这对研究结果的准确性和可靠性影响很大。
人工智能简化了很多事情,如它可以回答问题、提取摘要、撰写邮件,甚至给出机智幽默的对答。然而,当涉及到校对、编辑和准备出版的稿件时,ChatGPT的效率就像鱼想要爬树一般。
毋庸置疑,ChatGPT可以访问大量的数据,可以检测出写作中的一些基本错误,如拼写和语法错误。然而,当涉及到识别更微妙的语言问题,如语言风格不一致、用词不当或标点符号错误时,它就是一个蒙着眼睛玩飞镖的孩子。总之,虽然ChatGPT是一个制作内容和提供基本输入的了不起的工具,但生成能发表的论文这样的事情,最好还是留给专家来做。
对于理解上下文和作者的意图,ChatGPT也是困难重重。ChatGPT可能会提供偏差很大的修改意见,使稿件看上去像机器生成的。此外,需要注意过度依赖人工智能技术对学术界的不良影响。如果人们在研究和写作过程中广泛使用人工智能技术,可能会导致学术成果的同质化。
最后,还有一个重要的问题是:人工智能工具是否能够真正被视为“作者”?
虽然利用人工智能工具生成文本、艺术作品和其他创造性作品是非常可行的,但没有必要将这些技术产生的输出视为“原创”。
当讨论作者身份时,指的是将名字列在作品上所带来的义务和责任。但人工智能工具不能对提交给期刊的材料负责,因为它缺乏良知,也无法分辨对错,对作品的结果也没有自己的立场。因此,就作者资格而言,人工智能是排除在外的。
但是,拥有作者身份不仅需要能为作品负责,同时还包括出版过程中声明利益冲突,管理版权和许可协议。以上这些都是需要人类理解、解释和决策的事情。而ChatGPT作为一个非法律实体,不能声明是否存在利益冲突,也不能管理版权和许可协议。
那么,对于使用人工智能工具撰写稿件,生成图片,或收集和分析数据的作者,这意味着什么?这意味着他们必须在论文的材料和方法(或其他相关部分)中明确声明自己使用了何种人工智能工具以及如何使用的。这样做的意义在于,它可以让读者和审稿人了解人工智能工具在工作中的参与程度和利用情况。另外,就稿件的内容而言,即使是人工智能工具协助撰写的部分,责任仍然在人类作者。作者要对违反出版伦理的行为负责,而这也关系到作者声誉。
以上内容对我们的启示是什么?
首先,需要在学术和出版过程中如何利用人工智能工具的问题上保持透明。同样要明确的是,即使使用了人工智能工具协助创作,作者最终要对其作品内容负责。最后,我们必须对过度依赖人工智能技术的后果持谨慎态度,不能让技术取代人类的判断和决策。作者伦理问题是复杂而微妙的,ChatGPT及类似的人工智能工具虽无法满足科学研究中的作者标准,但可以帮助很多人克服写作上的瓶颈和障碍。