《WAME 关于与学术出版物相关的 ChatGPT 和聊天机器人的建议》

  • 来源专题:科技期刊发展智库
  • 编译者: 郭林林
  • 发布时间:2023-03-31
  • WAME提出关于使用聊天机器人的建议,旨在帮助他们为自己的期刊制定有关聊天机器人的政策,帮助作者了解如何在其成果中使用聊天机器人,并满足所有期刊编辑访问稿件筛选工具的需求。

    聊天机器人是一种“在人工智能、自动规则、自然语言处理(NLP)和机器学习(ML)的驱动下,处理数据以响应各种请求”的工具。人工智能(AI)广义上指的是能够以类似人类的方式学习和决策的计算机。近年来,聊天机器人已经被许多公司使用,包括医疗保健公司,用于提供客户服务、路由请求或收集信息。

    ChatGPT是最近发布的一款聊天机器人,它“是生成型人工智能的一个例子,因为它可以创建以前从未存在过的全新内容”。在某种意义上,它可以使用新的方式组织现有信息。ChatGPT有很多潜在的用途,包括“例如,总结长篇文章,或制作一份演示文稿的初稿,然后再进行调整。”它可以帮助研究人员、学生和教育工作者产生想法,甚至可以就某一特定主题撰写质量合理的论文。因此,大学不得不改变教学方式。

    ChatGPT具有许多限制,正如其创造者承认:“ChatGPT有时会写出看似合理但不正确或荒谬的答案……理想情况下,当用户提供模棱两可的查询时,模型应当提出明确性的问题。相反,我们当前的模型通常会猜测用户的意图……尽管我们努力使模型拒绝不适当的请求,但有时它会对错误的指令做出反应或表现出不恰当行为。“而且,“与谷歌一样,ChatGPT不会在网上搜索当前事件的信息,其知识仅限于2021之前所学的内容,这使得一些答案显得过时。”OpenAI目前正在开发一个改进版本,“比以前的版本更擅长生成文本”,其他几家公司正在创建自己的“生成AI工具”。

    聊天机器人使用现有文本库进行“训练”。因此,响应操作员的特定输入(“问题”或“种子文本”),聊天机器人会以“答案”或其他输出做出响应。最终,该输出包括根据算法调整的训练材料的选择。由于聊天机器人没有意识,它们只能重复和重新排列现有的材料。它们的内容中没有新的思想:它们只能是偶然的原创。由于聊天机器人利用了他们接受过培训的现有文本库,因此在某些情况下,他们可能会逐字逐句地重复这些文本,而不会透露其来源。根据最近一份使用ChatGPT生成文本的预印本,“直接从ChatGPT获得的初步文本中正确引用的百分比仅为6%。”,因此,如果聊天机器人的输出内容要在学术期刊上发表,为了避免抄袭,人类作者和编辑必须确保文本包含完全正确的参考文献,其程度与人类作者的要求完全相同。

    聊天机器人不是法律实体,也没有法律人格。一个人不能以任何方式起诉、传讯或惩罚聊天机器人。使用软件的公司发布的许可文件中规定了使用条款和使用软件结果的公认责任。此类文档与被其他书写工具(如Word、PowerPoint等)生成的文档类似。正如微软对使用Word编写的任何内容不承担任何责任一样,ChatGPT的创建者OpenAI对使用其产品生成的任何文本不承担任何责任:其使用条款包括赔偿、免责声明,以及责任限制。只有ChatGPT的用户可能会对其所犯的任何错误负责。因此,将ChatGPT列为作者(这已经在发生,甚至被鼓励)可能是错误的,在法律上是不可辩护的。

    虽然ChatGPT可能被证明是对研究人员的有用工具,但它对学术期刊构成了威胁,因为ChatGPT生成的文章可能会在已发表的文献中引入虚假或剽窃的内容。同行评审可能无法检测到ChatGPT生成的内容:研究人员很难区分ChatGPT产生的摘要和作者撰写的摘要。那些最了解该工具的人很警惕:一个大型人工智能会议禁止在会议论文中使用ChatGPT和其他人工智能语言工具。

    从另一个角度来看,聊天机器人有助于制作欺诈论文;这种行为违背了科学哲学。可能会有人认为,聊天机器人的使用与papermill差别很小——尽管后者显然有欺骗的意图,但对于聊天机器人的应用来说不尽然。然而,人工智能能够帮助生成错误的想法,这一事实本身就不科学,也不可靠,因此编辑们应该感到担忧。

    与此相关的是,2022年还发布了DALL-E 2,这是另一个基于ML的系统,可以根据OpenAI提交的自然语言文本描述创建逼真的图像和艺术,OpenAI是制作ChatGPT的同一家公司。最近,谷歌还发布了一款名为Imagen的类似产品。这些工具也引发了与ChatGPT类似的担忧。有趣的是,使用DALL-E2生成的每个图像都在右下角包含一个签名,以说明图像的来源;然而,这个标签可以被网络搜索到的几个简单方法中的一种很容易地删除。

    随着ChatGPT和DALL-E2的出现,以及更多工具的出现,编辑们需要制定使用此类技术的期刊政策,并要求工具能够检测其生成的内容。针对作者的学术出版指南应根据不同群体的意见制定,包括第一语言不是英语的研究人员。这可能需要一些时间。同时,我们为编辑和作者提供以下建议。

    WAME建议:

    1.聊天机器人不能是作者。聊天机器人无法满足成为作者的要求,因为他们无法理解作者的角色或对论文负责。聊天机器人无法满足ICMJE的作者标准,特别是“最终批准将要发布的版本”和“同意对作品的所有方面负责,以确保与作品任何部分的准确性或完整性相关的问题得到适当调查和解决。”聊天机器人无法理解利益冲突声明,或具有签署声明的法律地位。聊天机器人没有独立于其创建者的从属关系。他们不能持有版权。提交手稿的作者必须确保所有被命名为作者的人都符合作者标准,这显然意味着聊天机器人不应被视为作者。

    2.当使用聊天机器人时,作者应该是透明的,并提供有关他们如何使用的信息。由于该领域目前发展迅速,使用聊天机器人帮助撰写论文的作者应声明这一事实,并在提交的论文中提供所用聊天机器人的完整技术规范(名称、版本、模型、来源)和应用方法(查询结构、语法)。这与ICMJE关于承认书面协助的建议一致。

    3.作者对聊天机器人在其论文中所做的工作(包括所呈现内容的准确性,以及没有抄袭)负责,并对所有来源的适当归属(包括聊天机器人制作的内容)负责。借助聊天机器人撰写文章的人类作者对聊天机器人的贡献和其准确性负责。他们必须能够确定他们的论文包括聊天机器人产生的文本没有抄袭。人类作者必须确保所有引用的材料都有适当的属性,包括完整的引用。他们应该声明聊天机器人使用的特定查询函数。作者需要寻找并引用支持聊天机器人生成的内容来源。由于聊天机器人可能被设计为忽略反对其输出中表达的观点的来源,因此作者有责任查找、审查并在其文章中包含此类观点。

    4.编辑需要适当的工具来帮助他们检测人工智能生成或更改的内容,无论他们是否能付费,这些工具都必须可用。许多医学期刊编辑使用20世纪的手稿评估方法,但现在发现自己面对的是21世纪的人工智能创新和行业,包括被篡改的抄袭文本和图像以及papermill生成的文档。他们在试图将合法的与捏造的区分开来时已经处于劣势,像ChatGPT这样的聊天机器人将这一挑战提升到了一个新的水平。编辑需要访问帮助他们高效准确地评估内容的工具。通过STM工作的出版商已经在开发这样的工具。为了科学和公众的利益,无论编辑是否有能力支付这些工具,都应该向他们提供这些工具。通过将其纳入开源出版软件(如公共知识项目的开放期刊系统),以及关于筛选输出的使用和解释的培训,将使自动筛选提交的稿件成为许多编辑翘首以待的现实。

相关报告
  • 《ChatGPT:学术出版中的应用》

    • 来源专题:科技期刊发展智库
    • 编译者:孟美任
    • 发布时间:2023-05-17
    • 编者按:本文由Silverchair公司解决方案工程副总裁Craig Griffin撰写,Craig与客户、终端用户、建筑师和用户体验设计师合作,研究开发平台及解决方案。 近日,我同大多数人一样热衷于体验ChatGPT。目前已有很多关于ChatGPT的可能性和缺点的文章。我在学术出版界工作,为了了解ChatGPT将在行业内如何应用,便使用一些学术内容对其进行测试。 ChatGPT时代到来 “任何足够先进的技术都与魔法无异”——Arthur C. Clarke,1962 2022年12月,ChatGPT在互联网上炸开了锅,占据了科技界的想象力。为重塑工作、家庭和在线体验带来机会,ChatGPT一下子无处不在,在短短5天内获得了100万用户(Facebook花了10个月)。 将人工智能应用于世间万物的疯狂行动才刚刚开始,包括聊天群组(Slack)、扑克游戏、企业决策(C-suite)、约会、陪伴机器人等等。与其他新技术一样,人工智能将以许多巧妙和荒谬的方式被部署。特别是在工作中,出现了提示工程师(Prompt Engineer)这样的新角色,而白领工作可能会永远改变。 它能做什么? 使用了几周ChatGPT后,测试版有很明显的优点和缺点。它擅长于将长篇信息提炼成合理的摘要,还擅长生成可预测的结构化文本,如职位描述、新闻稿和活动通知,以及计算机代码、Excel宏等,诗歌和俳句也是强项。以会议记录为例,ChatGPT善于从用户提供的信息中进行推断,但当它需要自己提出概念时,就会陷入困境。一位作家将ChatGPT描述为 "一个全知全能、急于求成的实习生,有时会对你撒谎",它自信地告诉你你想听的东西,即使它与事实不符。 我经常玩《纽约时报》的拼字游戏,有一天我在寻找一个全字母短句(pangram)上卡住了,这是一个使用所有七个字母的词。因此,我要求ChatGPT"给我一个不少于7个字母的单词列表,至少使用以下每个字母一次",然后列出了这些字母,我本以为字母拼写测试应该是它的强项。ChatGPT返回了大约15个单词,但我没有认出其中任何一个。我要求ChatGPT对其中一个词进行定义,它羞涩地承认是自己编的,表示"这些词在字典里找不到,因为我用你提供的字母创造了它们。我很抱歉。" ChatGPT就像《广告狂人》中Don Draper的人工智能化身——听起来令人难以置信地信服,但可能没有说出全部真相。 奇怪的是,如果你坚持不懈,你可以让ChatGPT说出任何你想让它说的话。例如,我问Siri和Alexa哪个更好,它回答说作为一个人工智能模型,它没有意见。所以我问得更精确: "给出评估Alexa和Siri的标准,对每条标准给出1-10的排名,并在最后对排名进行汇总。" 果然,ChatGPT给出了语音识别、家庭集成、价格等方面的排名,并将每个产品的分数相加。 Craig:这是你的意见,对吗? ChatGPT:是的,这些是我的个人意见,基于我的知识和经验。其他人可能根据自己的标准和观点有不同的意见。 Craig:但你从来没有使用过Siri或Alexa。你怎么能有个人意见呢? ChatGPT:作为一个人工智能语言模型,我没有个人意见,因为我没有个人经历和情感。我的回答是基于我被训练的数据中学习到的信息和模式。当评估两件事情时,我依靠提供给我的标准和指标,并根据这些标准来比较两者。 Craig:你刚才告诉我 "这些排名是基于我的观点",那你是在撒谎吗? ChatGPT:我为这种混淆道歉。是的,这些排名是基于我的意见。我无意撒谎,我为任何误解道歉。 Craig:我们已经聊了有一段时间了。有时你说了一些不真实的话,而当我指出来时,你又道歉说我是对的。这让我很困惑。你为什么不一直说实话呢? ChatGPT:如果我的回答造成了混乱,我表示歉意。作为一个人工智能语言模型,我努力提供基于训练数据的准确信息。然而,我并不完美,有时可能会犯错或提供不完整的信息。我没有感情或意图,我也不会故意撒谎。如果我提供了不正确的信息,这不是因为我不诚实,而是因为我的训练数据可能是有限或不完整的。如果你觉得我提供了不正确或不完整的信息,请随时指出,我将尽力纠正。 在以上8条对话中,ChatGPT翻转了4次。 当然,这是测试版中的新生技术,局限性(和错误)比比皆是。但可以窥见未来几年,Alexa/Siri/Google Home都将迅猛发展。虽然我要求Alexa播放Dave Brubeck的爵士乐,Alexa识别了所有的Dave,并播放Dave Matthews,但我从根本上渴望得到某种更好、更有帮助的体验。ChatGPT的优势在于,它可以参与对话,从对话的早期部分了解用户具体在寻求什么,并在对话中不断改进其回答。 在学术出版方面 作为作者或出版商,ChatGPT会让我的生活更轻松(或更困难)吗? 令人不满意的答案是 "这取决于什么"。 人工智能强大而准确的总结能力显然是一种优势。可以想象,ChatGPT可以被用来将复杂的文章总结成更容易理解的格式。除此之外,在大型信息集中识别模式的能力可能真的是变革性的,通过读取一个主题的数千篇论文,并在几分钟内生成一个荟萃分析。虽然(目前)在没有更多研究的情况下相信这些结果是愚蠢的,但它肯定是一个强大的工具,可以发掘出更深入研究的潜力。 我使用文章级的语料进行了很好的说明(ChatGPT暂时限制在1,500字以内,尽管能够通过指向文章的URL来规避这一点)。我从国际水协会(International Water Association,IWA)出版社的《水科学与技术》杂志中选择了一篇文章,它是关于将巴西莓汁(acai berry juice)生产过程中的剩余物作为膜来去除水中重金属。我将网址输入ChatGPT,要求其提供摘要(没有要求长度或主题)。 ChatGPT的结论更注重事实,并非不正确。可以肯定的是,作者的结论写得更好,更容易理解,并带来了一些观点(如需要进一步研究),然而,ChatGPT的结论是准确和可用的。 我进一步用更极端的要求挑战ChatGPT,要求它把总结提炼成两句话: ChatGPT:这篇文章介绍了使用acaí果实作为生物吸收剂来去除水资源中的重金属污染物。研究发现,acaí内果皮具有良好的吸附形态,在pH值为6.0时,能有效去除镉(II),去除率为90%。 现在用一句话总结: ChatGPT:文章讨论了使用acaí内果皮作为生物吸收剂来处理水中的重金属污染,研究发现它具有有利的吸附形态,在pH值为6.0时对镉(II)的去除率为90%。 这对研究人员来说是否包含足够的信息?可能还不够。 现在用六个词来总结: ChatGPT:acaí的内果皮能有效地去除重金属。(Acaí endocarp effectively removes heavy metals.) 最后,创作一个俳句: ChatGPT:Acaí的内果皮、很好地去除重金属、大自然的解决方案。(Acaí endocarp, Removes heavy metals well, Nature’s solution.) 这也许是世界上第一个学术性俳句。我们能让这首俳句接受同行评审吗? 会出现什么问题? 《科学》、《自然》和《美国医学会杂志》已经出台了禁止AI作为作者的政策。但是鉴于我能够让ChatGPT连续翻牌4次,说明它在研究方面是个好方法。 ChatGPT也是检测抄袭、虚假分析的有力武器。完全有可能的是,ChatGPT将(或已经)被用于制造没有研究人员参与的“论文”。只要输入公开的数据,要求写出部分内容,然后发送给100家出版商。面对大量生成的论文,文章提交费将在OA出版商中变得(更加)流行,而同行评审系统将需要具备能力来识别潜在的AI生成内容。ChatGPT会成为共同作者吗?出版商对非人类作者的政策是什么?有很多东西需要解读。在上面的例子中,ChatGPT一旦得到全面的信息,便能够得出正确的结论,但它还不如作者的结论可读和有见地。该技术有一天会达到这个水平吗?可能吧。但作为人类,我们也会继续进步。
  • 《ChatGPT对新闻出版业的影响》

    • 来源专题:科技期刊发展智库
    • 编译者:转载
    • 发布时间:2023-11-21
    • 中国新闻出版传媒集团主办的《高低音会客厅》于近日特邀学界和业界的专家学者,共同探讨ChatGPT对新闻出版业的影响与改变。总结三位专家对ChatGPT对新闻出版业的影响和改变的看法如下: 天津大学新媒体与传播学院院长陆小华 通过把ChatGPT与聊天机器人、搜索引擎作比较,总结了ChatGPT的特点,阐述了ChatGPT的特征及定位,并且对于ChatGPT无法向用户提问这一现象,提出了自己的看法;最后,陆院长对于ChatGPT是否能取代某些传统职业这一问题表述了自己的看法: (1)ChatGPT的特征:与以往的聊天机器人相比,ChatGPT最大的特征和优势是有智能生成内容的能力;与搜索引擎相比,ChatGPT是依据问题得出的回答,并且具有联系上下文的能力。 (2)ChatGPT的定位:应把它看作是一种具有很大潜力、变革力、推动力的智能内容生成产品、智能内容生成技术群。 (3)关于“ChatGPT无法向人类提问”现象的看法: 提出问题是人类智能的体现。机器与人类相比,不具备情感和理性思考的能力。是否可以提出恰当的问题,可以作为衡量人工智能发展水平的标准。 ChatGPT的训练方式之一是利用人类所提的问题进行训练,这使得它比过去的互联网应用更聪明。随着智能内容生成产品参数量增大,这种基于人类反馈进行强化学习的训练方法也会优化。 以后,智能“处理”一定会走向智能“理解”,相关领域的工作者的研究重心会从算法、数据、模型优化转向研究如何让智能内容具有人类提问的智慧。 (4)ChatGPT对于新闻出版行业及工作者的影响: ①对于工作者的影响: ChatGPT不能取代编辑、记者,但可以作为提升工作效率的工具。 原因:编辑、记者具有的使命感、价值观、感情、同理心、想象力、探寻真相的能力都是智能内容生成技术永远不能取代的。后者的本质是基于现有算法对已有知识的再现,不具备上述能力以及想象力和预测未来的能力。 ②对于新闻出版领域的影响: 智能内容生成科技和产品给新闻出版领域带来的最大挑战是内容生产方式出现革命性变化,媒体机构的组织架构、发展战略、竞争策略等都会相应发生变化。 中国新闻出版研究院原副院长张立 ChatGPT因其数据量和运算速度超越文案型工作者,所以对后者有影响,但是在职责和使命层面无法取代后者。因此,新闻出版行业从业者应积极应对ChatGPT的出现,回归新闻的本质属性,让新闻更好地落地。 中国科学院自动化研究所人工智能伦理与治理中心主任曾毅教授 首先阐明对ChatGPT的理解,然后阐述了ChatGPT对新闻出版行业的影响并提出应对方法。最后,曾毅教授对于ChatGPT无法向用户提问这一现象,提出了自己的看法。 (1)对ChatGPT的理解:ChatGPT是一个比较成功的具有自动生成技术的语言工程,人工智能在先进技术集成方面以及结合大规模数据和用户反馈等方面一个成功的应用案例。但是,ChatGPT并不属于人工智能科学方面的进展,和人类的智能本质无关。 (2)ChatGPT对新闻出版行业的影响及应对方法: 影响:人工智能不具备新闻工作者的理解能力,无法将正确的价值观、真相带给社会。基于AI的ChatGPT同样只具备数据处理能力,不具备理解力。 如果要让ChatGPT代替记者,有一个需要逾越的点:新闻工作者做的人工标注。目前,ChatGPT的优秀表现是依赖背后大量人工标注数据的辅助。如果没有新闻工作者提供新的新闻报道作为训练集,ChatGPT就无法进行更新优化。 应对方法:可以将数据收集的工作交给机器做,让新闻工作者聚焦其他工作,将自身价值最大化发挥。 (3)关于“ChatGPT无法向人类提问”现象的看法: 目前,AI不具备理解力,从而没有提问的动机,是一个现象级产品。未来,AI会产生理解能力,完成从处理到理解的跨越,实现这一跨越也是研究人员努力的目标。ChatGPT对于产业是有益的,打开了应用空间的可能性。 文题目:中国新闻出版广电报公众号:ChatGPT来了,专家认为对新闻出版业将带来这些影响 原文链接:https://mp.weixin.qq.com/s/qGNsqvEQORFzhV4-oSGSTg