《Enago Academy文章:将 ChatGPT 列为合著者,合乎道德吗?》

  • 来源专题:科技期刊发展智库
  • 编译者: 于泳琳
  • 发布时间:2023-05-17
  • ChatGPT自发布以来,人们开始关注人工智能写作工具日益成熟的能力。人工智能工具对研究和写作过程助益良多。与此同时,也出现了一个亟需讨论的问题:这些AI写作工具是否可以代替人类成为作者?

    当学术界仍在探索如何使用人工智能工具时,Nature最近报道称,ChatGPT在四篇学术文献中被认定为共同作者,标志着它在科学出版领域的正式亮相。随着ChatGPT和大型语言模型等人工智能工具越来越多地被应用于研究论文,COPE(出版伦理委员会)以及WAME(世界医学编辑协会)和JAMA(美国医学会杂志)等其他组织已发布声明,强调人工智能工具不应该被承认为文章的作者。随着科学家的反对,期刊编辑、研究人员和出版商正在讨论此类人工智能工具在已发表文献中的地位,以及将机器人作为作者是否合适。出版商们制定政策以界定此类工具的作用和责任。

    目前已经证实,人工智能技术有诸多益处,但它们并非没有限制。为了产生输出,人工智能系统依赖于模式(Pattern)和数据集。这意味着它们只在训练数据集上才有优秀的表现。如果用于训练人工智能工具的数据有问题,那么该工具的输出也会有缺陷。这对研究结果的准确性和可靠性影响很大。

    人工智能简化了很多事情,如它可以回答问题、提取摘要、撰写邮件,甚至给出机智幽默的对答。然而,当涉及到校对、编辑和准备出版的稿件时,ChatGPT的效率就像鱼想要爬树一般。

    毋庸置疑,ChatGPT可以访问大量的数据,可以检测出写作中的一些基本错误,如拼写和语法错误。然而,当涉及到识别更微妙的语言问题,如语言风格不一致、用词不当或标点符号错误时,它就是一个蒙着眼睛玩飞镖的孩子。总之,虽然ChatGPT是一个制作内容和提供基本输入的了不起的工具,但生成能发表的论文这样的事情,最好还是留给专家来做。

    对于理解上下文和作者的意图,ChatGPT也是困难重重。ChatGPT可能会提供偏差很大的修改意见,使稿件看上去像机器生成的。此外,需要注意过度依赖人工智能技术对学术界的不良影响。如果人们在研究和写作过程中广泛使用人工智能技术,可能会导致学术成果的同质化。

    最后,还有一个重要的问题是:人工智能工具是否能够真正被视为“作者”?

    虽然利用人工智能工具生成文本、艺术作品和其他创造性作品是非常可行的,但没有必要将这些技术产生的输出视为“原创”。

    当讨论作者身份时,指的是将名字列在作品上所带来的义务和责任。但人工智能工具不能对提交给期刊的材料负责,因为它缺乏良知,也无法分辨对错,对作品的结果也没有自己的立场。因此,就作者资格而言,人工智能是排除在外的。

    但是,拥有作者身份不仅需要能为作品负责,同时还包括出版过程中声明利益冲突,管理版权和许可协议。以上这些都是需要人类理解、解释和决策的事情。而ChatGPT作为一个非法律实体,不能声明是否存在利益冲突,也不能管理版权和许可协议。

    那么,对于使用人工智能工具撰写稿件,生成图片,或收集和分析数据的作者,这意味着什么?这意味着他们必须在论文的材料和方法(或其他相关部分)中明确声明自己使用了何种人工智能工具以及如何使用的。这样做的意义在于,它可以让读者和审稿人了解人工智能工具在工作中的参与程度和利用情况。另外,就稿件的内容而言,即使是人工智能工具协助撰写的部分,责任仍然在人类作者。作者要对违反出版伦理的行为负责,而这也关系到作者声誉。

    以上内容对我们的启示是什么?

    首先,需要在学术和出版过程中如何利用人工智能工具的问题上保持透明。同样要明确的是,即使使用了人工智能工具协助创作,作者最终要对其作品内容负责。最后,我们必须对过度依赖人工智能技术的后果持谨慎态度,不能让技术取代人类的判断和决策。作者伦理问题是复杂而微妙的,ChatGPT及类似的人工智能工具虽无法满足科学研究中的作者标准,但可以帮助很多人克服写作上的瓶颈和障碍。

相关报告
  • 《ChatGPT被列为研究论文的作者:许多科学家不赞成》

    • 来源专题:科技期刊发展智库
    • 编译者:王传清
    • 发布时间:2023-03-31
    •   风靡全球的人工智能Artificial Intelligence聊天机器人ChatGPT在科学文献中正式亮相,在已发表的论文和预印本上至少获得了4份作者署名。   期刊编辑、研究人员和出版商现在正在讨论这类人工智能工具在已发表文献中的地位,以及将机器人作为作者是否合适。2022年11月,作为一款免费工具,加州旧金山的科技公司OpenAI发布了这款聊天机器人,出版商们正在竞相为它制定政策。   ChatGPT是一个大型语言模型(Large Language Models,LLM),它通过模仿从互联网上搜集的巨大文本数据库中的语言统计模式来生成令人信服的语句。该机器人已经颠覆了包括学术界在内的多个领域:特别是,它给未来的大学论文和研究成果带来许多挑战。   《自然》新闻团队联系的出版商和预印本平台一致认为,ChatGPT等人工智能工具不符合研究作者的标准,因为它们无法对科学论文的内容和完整性负责。但一些出版商表示,人工智能对论文写作的贡献可以在作者署名以外的部分进行说明。(《自然》杂志的新闻团队在编辑上独立于期刊团队及其出版商,施普林格自然。)   在一个案例中,一位编辑告诉《自然》杂志, ChatGPT被列为合著者,该杂志将纠正这一错误。   Artificial Intelligence   ChatGPT是2022年12月在医学预印本平台medRxiv上发布的关于在医学教育中使用该工具的预印本文章[1]的12位作者之一。   纽约冷泉港实验室出版社(Cold Spring Harbor Laboratory press)副主任、联合创始人理查德·塞弗(Richard Sever)表示,该平台及其bioRxiv平台的团队正在讨论在撰写研究报告时使用和信任ChatGPT等人工智能工具是否合适。惯例可能会改变,他补充道。   塞弗说:“我们需要区分学术手稿作者的正式角色和更一般的文档作者的概念。”作者对他们的学术作品承担法律责任,所以只有人应该被列为作者。“当然,人们可能会试图偷偷摸摸地把它写进来——这已经在medRxiv上发生过了——就像过去人们在期刊文章中把宠物、虚构的人物等列为作者一样,但这是一个检查问题,而不是政策问题。”(这篇预印本的通讯作者、加州山景城Ansible Health的医疗总监维克多·曾森(Victor Tseng)没有回应置评请求。)   2023年1月发表在《护士教育实践》(Nurse Education in Practice)杂志上的一篇社论[2]将人工智能与英国曼彻斯特大学的健康技术研究员西沃恩·奥康纳(Siobhan O 'Connor)列为合著者。该杂志的主编罗杰·沃森(Roger Watson)说,这是错误的,很快就会得到纠正。“这是我的疏忽,”他表示,因为社论与研究论文的管理体系不同。   香港一家人工智能药物研发公司Insilico Medicine的首席执行官亚历克斯·扎沃龙科夫(Alex Zhavoronkov)声称ChatGPT是上个月发表在《肿瘤科学》(Oncoscience)杂志上一篇观点文章[3]的合著者。他表示,他的公司已经发表了80多篇由生成式人工智能工具生成的论文。“我们对这个领域并不陌生,”他说。这篇最新的论文讨论了服用雷帕霉素药物(drug rapamycin)的利与弊,这是在“帕斯卡赌注(Pascal’s wager)”的哲学争论的背景下进行的。扎沃龙科夫说,ChatGPT写的文章比前几代生成式人工智能工具要好得多。   他说,在他要求编辑这样做之后,《肿瘤科学》(Oncoscience)杂志对这篇论文进行了同行评审。该杂志没有回应《自然》杂志的置评请求。   瑞典哥德堡Sahlgrenska大学医院的神经生物学家Almira Osmanovic Thunstr?m说,第4篇文章[4]是由早期的聊天机器人GPT-3共同撰写的,并于2022年6月发布在法国预印本服务器HAL上,将很快在同行评审期刊上发表。她说,一家期刊在审查后拒绝了这篇论文,但另一家期刊在她根据审稿人意见修改了文章后,以GPT-3作为作者接受了这篇论文。   出版商的政策   《自然》和《科学》的主编告诉《自然》的新闻团队,ChatGPT不符合作者的标准。伦敦《自然》杂志主编Magdalena Skipper表示:“作者身份意味着对学术成果负责,这不能有效地适用于LLMs。”她说,如果合适的话,作者在撰写论文时以任何方式使用LLMs都应该在方法或致谢部分说明它们的作用和贡献。   华盛顿特区《科学》(Science)系列期刊主编霍尔顿·索普(Holden Thorp)表示,“我们不会允许人工智能在我们出版的论文中被列为作者,而使用人工智能生成的文本,但没有恰当的说明可能会被视为抄袭。”   伦敦的Taylor & Francis出版社出版伦理和诚信主管Sabina Alam表示,他们正在重新审视自己的政策。她同意作者对其工作的有效性和完整性负责,并且应该在致谢部分说明对LLMs的使用。Taylor & Francis出版社目前还没有收到任何将ChatGPT列为合著者的意见书。   宾夕法尼亚州立大学的天文学家、科学总监斯坦恩·西于尔兹松(Steinn Sigurdsson)表示,物理科学预印本平台arXiv的董事会已经进行了内部讨论,并开始在使用生成式人工智能的方法上达成一致。他认同软件工具不能成为提交内容的作者,部分原因是它不能同意使用条款和分发内容的权利。西于尔兹松没有发现arXiv有任何将ChatGPT列为合著者的预印本文章,并表示即将发布作者指南。   生成式AI的伦理   英国研究诚信办公室(UK Research Integrity Office)的研究诚信主管马特·霍奇金森(Matt Hodgkinson)个人认为,根据已有的明确的作者指南,ChatGPT不应该被视为合著者。合著者需要对文章做出“重大的学术贡献”——这可以通过ChatGPT等工具实现,但它也必须有能力同意成为共同作者,并对一项研究承担责任——或者,至少是它贡献的部分。他认为:“让人工智能工具成为合著者的想法在第二部分真正遇到了障碍。”   扎沃龙科夫表示,当他试图让ChatGPT撰写比他之前发表的论文更技术性的论文时,它失败了。他表示:“它确实经常会反馈不一定正确的语句,如果你多次问它同一个问题,它会给你不同的答案。”“所以我肯定会担心这个系统在学术界被滥用,因为现在,没有专业知识的人也可以尝试写科学论文。” 参考文献: 1. Kung,T. H. et al. Preprint at medRxiv https://doi.org/10.1101/2022.12.19.22283643 (2022). 2. O’Connor, S. & ChatGPT Nurse Educ. Pract. 66, 103537 (2023). 3. ChatGPT & Zhavoronkov, A. Oncoscience 9, 82–84 (2022). 4. GPT,Osmanovic Thunstr?m,A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022).
  • 《ChatGPT:改变游戏规则还是道德风险?》

    • 来源专题:科技期刊发展智库
    • 编译者:张恬
    • 发布时间:2023-03-31
    • 人工智能Artificial Intelligence已成为我们生活的重要组成部分,人工智能工具的快速发展有助于自动化和简化当今一些具有挑战性和繁琐的任务,即使在科学和研究领域也是如此。随着语言工具获得全球关注,2023年1月20日,RESEARCHER.life上发表了一篇博文,讨论了 ChatGPT 如何在学术写作过程中帮助研究人员,并探讨了围绕使用此类 AI 工具撰写研究论文的局限性和伦理问题,文章内容如下: 什么是Artificial Intelligence ? ChatGPT是一个由OpenAI开发的预训练语言模型。它使用Transformer架构的一个变种,该架构在Vaswani等的论文 "Attention Is All You Need "中有所介绍。该模型在人类生成的文本的大型数据集上进行训练,并针对特定任务进行微调,如问题回答、语言翻译和文本完成。ChatGPT能够理解和生成类似人类的文本,使其对广泛的自然语言处理任务有用。它可以针对不同的任务进行微调,并可通过OpenAI的API和各种开源框架获得。 2022年11月30日推出的ChatGPT正以其理解关键用户输入并生成类似人类反应的对话的迷人能力而风靡世界。除了ChatGPT、OpenAI,一家位于加州旧金山的人工智能公司也因创造了DALL-E而闻名,这个AI工具因能够将文本变成图像而名声大噪。 ChatGPT是如何工作的? 大型语言模型旨在准确预测一个句子中的下一个词,这使它们能够编写整页的内容。这些人工智能模型是在大量人类生成的文本上训练的神经网络,以学习如何执行任何任务。例如,ChatGPT是在5700亿字节的文本上训练的,有1750亿个参数(其前身GPT-2只有15亿个参数),这有助于它执行没有明确训练的任务。除了是有史以来最大的语言模型,ChatGPT还带有额外的人类反馈强化学习(RLHF),这使它比早期工具具有明显的优势。因此,难怪它被视为内容生成的一个突破性模型。 OpenAI聊天机器人目前正处于“研究预览”阶段,用户可以免费试用,并分享反馈意见,以便改进其回答问题的方式。过去45天左右,全世界的人都在广泛使用ChatGPT,互联网上充斥着关于这个AI工具对特定线索表现好坏的讨论。有些人已经把它与谷歌相提并论。 为什么研究人员正在转向使用ChatGPT 学生和研究人员已经越来越多地转向AI工具,以帮助他们更容易和更有效地进行学术写作。ChatGPT可以提供听起来很智能、写出来很好的文本,已经成为帮助研究人员,尤其是英语为非母语的研究人员进行学术写作的有力工具。 以下是研究人员可以使用ChatGPT的一些场景: (1)创建研究论文纲要 ChatGPT是研究人员的一个很好的辅助工具,它可以根据用户的输入为博士论文或研究论文产生一个结构良好的大纲或一个令人印象深刻的标题。研究人员可以评估这个大纲,并在开始写作前根据需要进行修改。 (2)撰写研究论文摘要 研究人员经常发现很难以完善的摘要有效地展示他们的工作,这是ChatGPT证明其有用的另一个领域。在最近的一项研究中,由ChatGPT生成的摘要设法欺骗了科学家,甚至通过了抄袭和AI输出检测检查。 (3)将一种语言的文本翻译成另一种语言 ChatGPT非常适用于自然语言处理任务,如将一种语言的文本翻译成另一种语言,但仍需要研究人员对照真人翻译来评估其性能,以确保完全准确。 (4)重写困难的文本段落 ChatGPT对于研究人员,特别是英语为非母语的人是一个很好的选择,可以重写翻译文本,并为常见的概念生成定义或类比。研究人员在努力以清晰、简洁的方式传达复杂的想法时,也可以使用ChatGPT将现有的文本变成写得很好的内容,同时保留原始信息,且没有语言和语法错误。 (5)总结长篇文章或文件 ChatGPT通过生成长篇文件的简短摘要,帮助忙碌的研究人员进行文献搜索和阅读。这些短小精悍的摘要可以帮助他们快速掌握观点,并锁定可能与他们工作相关的研究论文。 (6)为实验设计提出新建议 像ChatGPT这样的语言模型可以帮助设计实验,根据输入的描述提供有趣的变化,或者为既定的实验方案提供一个新的视角。 (7)自然语言处理任务的训练 ChatGPT是一个多功能的语言模型,可以为特定的任务进行微调和定制,如理解语言的训练模型、文本生成、对话系统、数据增强和预训练。 使用ChatGPT进行研究写作的局限性 虽然ChatGPT是一个强大的研究写作工具,但研究人员在使用它时需要考虑一些限制。 (1)ChatGPT不能产生原创性想法,它只能根据在训练数据中看到的模式来创造文本,这就提高了抄袭的风险,因为AI生成的文本可能不包括对研究写作至关重要的参考文献或引文。 (2)ChatGPT是一个统计模型,根据训练数据中的模式生成文本,其优秀程度无法超越它收到的提示。由于它不能理解内容的含义,这可能意味着它偶尔会建议一些听起来合理但不正确或无意义的答案。 (3)OpenAI聊天机器人可能并不总是代表研究的特定领域,这可能导致生成的研究内容不准确或不一致。这对研究人员来说是个问题,他们需要生成特定领域专业知识的文本。 (4)如果训练数据包含偏见,ChatGPT偶尔可能会生成有偏见或攻击性的文本。因此,在使用该模型进行研究写作时,必须意识到这种局限性,并采取必要的措施来消除这种情况。 (5)最后,ChatGPT对世界和2021年之后发生的全球事件了解有限。必须记住,这个AI聊天机器人产生的任何内容都需要深入检查和编辑,以确保它符合关键的提交要求。 华盛顿大学和艾伦人工智能研究所的计算机科学家Yejin Choi说:“我们今天拥有的基本上是一张没有大脑的嘴。”弄清楚如何教大型语言模型进行因果推理、常识或道德判断仍然是研究人员的一大挑战。 使用ChatGPT进行学术写作的伦理问题 学术写作是研究过程中的一个关键部分,需要仔细考虑和关注细节。ChatGPT可以在几秒钟内提供基于提示的文本,这可以节省时间并提高生产力,但重要的是要考虑使用此类工具进行研究写作的道德影响。 (1)偏见渗入写作的风险 虽然已经采取了额外的安全措施,但ChatGPT是在现有的数据集上训练的,如果这些数据集包含负面信息或偏见,就可能渗入结果。研究人员需要意识到这一点,并检查所提供的答案或文本,以确保它们是准确和无偏见的。 (2)内容被剽窃的可能性 AI工具可以帮助研究人员快速创建论文草稿,但它们也可能被用来快速复制文本,导致抄袭的可能性。研究人员应采取必要的措施,以确保所有来源都得到适当的引用和注明。 (3)列入攻击性或有害的文本 如果训练数据集包含任何攻击性或有害的语言,ChatGPT可能会在其生成的文本中复制这些语言。这对负责确保文本尊重和包容的研究人员来说可能是个问题。 (4)对学术文本质量的担忧 ChatGPT可以实现学术写作的自动化,甚至可以生成引文和参考文献,但它并不能保证可靠、高质量的研究。学术界必须注意这一缺陷,并仔细编辑自动化文本,以确保其可靠、可复制、科学准确,并符合提交所需的所有严格的质量标准。 总之,使用像ChatGPT这样的AI工具来撰写研究论文应该是负责任的和符合道德的。研究人员必须了解这些工具是为了提高他们的能力,而不是完全取代他们,从而为他们的研究做出最佳决定。就像《算法大师》一书的作者Pedro Domingos所说:“这不是人与机器的问题,而是有机器的人与没有机器的人的问题。数据和直觉就像马和骑手,你不要试图超越一匹马;你要驾驭它。”