《预印本:科学出版物的游戏规则改变者?》

  • 来源专题:科技期刊发展智库
  • 编译者: 陈诺 杨恒
  • 发布时间:2023-02-28
  •   European Heart Journal 2023年1月发表的文章Preprints: a game changer in scientific publications? 认为,数字时代推动了医学和科学信息的传播,互联网赢得了对传统期刊的优先权和排他性的竞争,预印本已经成为传播科学进步的手段,代表了科学过程中的重大范式转变。文章指出,尽管医学界最初非常谨慎,但预印本逐渐获得医学关注,有些甚至比相应的同行评议文章获得更多引用。但预印本和传统期刊一样也面临着发布后撤回的问题,且不同预印本服务器执行的要求和质量标准差异很大。本研究表明,预印本未来将继续存在,然而,预印本只有在可信的情况下才能加速科学发现。现在科学出版正面临一个关键时刻,编辑工作应该集中精力从预印本提供的独特机会中获益,与此同时,也要提高预印本的质量以克服它们当前的局限性。文章最后建议,国际公认的利益相关者,包括世界卫生组织,应该发布预印本建议,以促进在服务器中报告与发布预印本所需的质量标准达成共识。
相关报告
  • 《ChatGPT:改变游戏规则还是道德风险?》

    • 来源专题:科技期刊发展智库
    • 编译者:张恬
    • 发布时间:2023-03-31
    • 人工智能Artificial Intelligence已成为我们生活的重要组成部分,人工智能工具的快速发展有助于自动化和简化当今一些具有挑战性和繁琐的任务,即使在科学和研究领域也是如此。随着语言工具获得全球关注,2023年1月20日,RESEARCHER.life上发表了一篇博文,讨论了 ChatGPT 如何在学术写作过程中帮助研究人员,并探讨了围绕使用此类 AI 工具撰写研究论文的局限性和伦理问题,文章内容如下: 什么是Artificial Intelligence ? ChatGPT是一个由OpenAI开发的预训练语言模型。它使用Transformer架构的一个变种,该架构在Vaswani等的论文 "Attention Is All You Need "中有所介绍。该模型在人类生成的文本的大型数据集上进行训练,并针对特定任务进行微调,如问题回答、语言翻译和文本完成。ChatGPT能够理解和生成类似人类的文本,使其对广泛的自然语言处理任务有用。它可以针对不同的任务进行微调,并可通过OpenAI的API和各种开源框架获得。 2022年11月30日推出的ChatGPT正以其理解关键用户输入并生成类似人类反应的对话的迷人能力而风靡世界。除了ChatGPT、OpenAI,一家位于加州旧金山的人工智能公司也因创造了DALL-E而闻名,这个AI工具因能够将文本变成图像而名声大噪。 ChatGPT是如何工作的? 大型语言模型旨在准确预测一个句子中的下一个词,这使它们能够编写整页的内容。这些人工智能模型是在大量人类生成的文本上训练的神经网络,以学习如何执行任何任务。例如,ChatGPT是在5700亿字节的文本上训练的,有1750亿个参数(其前身GPT-2只有15亿个参数),这有助于它执行没有明确训练的任务。除了是有史以来最大的语言模型,ChatGPT还带有额外的人类反馈强化学习(RLHF),这使它比早期工具具有明显的优势。因此,难怪它被视为内容生成的一个突破性模型。 OpenAI聊天机器人目前正处于“研究预览”阶段,用户可以免费试用,并分享反馈意见,以便改进其回答问题的方式。过去45天左右,全世界的人都在广泛使用ChatGPT,互联网上充斥着关于这个AI工具对特定线索表现好坏的讨论。有些人已经把它与谷歌相提并论。 为什么研究人员正在转向使用ChatGPT 学生和研究人员已经越来越多地转向AI工具,以帮助他们更容易和更有效地进行学术写作。ChatGPT可以提供听起来很智能、写出来很好的文本,已经成为帮助研究人员,尤其是英语为非母语的研究人员进行学术写作的有力工具。 以下是研究人员可以使用ChatGPT的一些场景: (1)创建研究论文纲要 ChatGPT是研究人员的一个很好的辅助工具,它可以根据用户的输入为博士论文或研究论文产生一个结构良好的大纲或一个令人印象深刻的标题。研究人员可以评估这个大纲,并在开始写作前根据需要进行修改。 (2)撰写研究论文摘要 研究人员经常发现很难以完善的摘要有效地展示他们的工作,这是ChatGPT证明其有用的另一个领域。在最近的一项研究中,由ChatGPT生成的摘要设法欺骗了科学家,甚至通过了抄袭和AI输出检测检查。 (3)将一种语言的文本翻译成另一种语言 ChatGPT非常适用于自然语言处理任务,如将一种语言的文本翻译成另一种语言,但仍需要研究人员对照真人翻译来评估其性能,以确保完全准确。 (4)重写困难的文本段落 ChatGPT对于研究人员,特别是英语为非母语的人是一个很好的选择,可以重写翻译文本,并为常见的概念生成定义或类比。研究人员在努力以清晰、简洁的方式传达复杂的想法时,也可以使用ChatGPT将现有的文本变成写得很好的内容,同时保留原始信息,且没有语言和语法错误。 (5)总结长篇文章或文件 ChatGPT通过生成长篇文件的简短摘要,帮助忙碌的研究人员进行文献搜索和阅读。这些短小精悍的摘要可以帮助他们快速掌握观点,并锁定可能与他们工作相关的研究论文。 (6)为实验设计提出新建议 像ChatGPT这样的语言模型可以帮助设计实验,根据输入的描述提供有趣的变化,或者为既定的实验方案提供一个新的视角。 (7)自然语言处理任务的训练 ChatGPT是一个多功能的语言模型,可以为特定的任务进行微调和定制,如理解语言的训练模型、文本生成、对话系统、数据增强和预训练。 使用ChatGPT进行研究写作的局限性 虽然ChatGPT是一个强大的研究写作工具,但研究人员在使用它时需要考虑一些限制。 (1)ChatGPT不能产生原创性想法,它只能根据在训练数据中看到的模式来创造文本,这就提高了抄袭的风险,因为AI生成的文本可能不包括对研究写作至关重要的参考文献或引文。 (2)ChatGPT是一个统计模型,根据训练数据中的模式生成文本,其优秀程度无法超越它收到的提示。由于它不能理解内容的含义,这可能意味着它偶尔会建议一些听起来合理但不正确或无意义的答案。 (3)OpenAI聊天机器人可能并不总是代表研究的特定领域,这可能导致生成的研究内容不准确或不一致。这对研究人员来说是个问题,他们需要生成特定领域专业知识的文本。 (4)如果训练数据包含偏见,ChatGPT偶尔可能会生成有偏见或攻击性的文本。因此,在使用该模型进行研究写作时,必须意识到这种局限性,并采取必要的措施来消除这种情况。 (5)最后,ChatGPT对世界和2021年之后发生的全球事件了解有限。必须记住,这个AI聊天机器人产生的任何内容都需要深入检查和编辑,以确保它符合关键的提交要求。 华盛顿大学和艾伦人工智能研究所的计算机科学家Yejin Choi说:“我们今天拥有的基本上是一张没有大脑的嘴。”弄清楚如何教大型语言模型进行因果推理、常识或道德判断仍然是研究人员的一大挑战。 使用ChatGPT进行学术写作的伦理问题 学术写作是研究过程中的一个关键部分,需要仔细考虑和关注细节。ChatGPT可以在几秒钟内提供基于提示的文本,这可以节省时间并提高生产力,但重要的是要考虑使用此类工具进行研究写作的道德影响。 (1)偏见渗入写作的风险 虽然已经采取了额外的安全措施,但ChatGPT是在现有的数据集上训练的,如果这些数据集包含负面信息或偏见,就可能渗入结果。研究人员需要意识到这一点,并检查所提供的答案或文本,以确保它们是准确和无偏见的。 (2)内容被剽窃的可能性 AI工具可以帮助研究人员快速创建论文草稿,但它们也可能被用来快速复制文本,导致抄袭的可能性。研究人员应采取必要的措施,以确保所有来源都得到适当的引用和注明。 (3)列入攻击性或有害的文本 如果训练数据集包含任何攻击性或有害的语言,ChatGPT可能会在其生成的文本中复制这些语言。这对负责确保文本尊重和包容的研究人员来说可能是个问题。 (4)对学术文本质量的担忧 ChatGPT可以实现学术写作的自动化,甚至可以生成引文和参考文献,但它并不能保证可靠、高质量的研究。学术界必须注意这一缺陷,并仔细编辑自动化文本,以确保其可靠、可复制、科学准确,并符合提交所需的所有严格的质量标准。 总之,使用像ChatGPT这样的AI工具来撰写研究论文应该是负责任的和符合道德的。研究人员必须了解这些工具是为了提高他们的能力,而不是完全取代他们,从而为他们的研究做出最佳决定。就像《算法大师》一书的作者Pedro Domingos所说:“这不是人与机器的问题,而是有机器的人与没有机器的人的问题。数据和直觉就像马和骑手,你不要试图超越一匹马;你要驾驭它。”
  • 《WAME 关于与学术出版物相关的 ChatGPT 和聊天机器人的建议》

    • 来源专题:科技期刊发展智库
    • 编译者:郭林林
    • 发布时间:2023-03-31
    • WAME提出关于使用聊天机器人的建议,旨在帮助他们为自己的期刊制定有关聊天机器人的政策,帮助作者了解如何在其成果中使用聊天机器人,并满足所有期刊编辑访问稿件筛选工具的需求。 聊天机器人是一种“在人工智能、自动规则、自然语言处理(NLP)和机器学习(ML)的驱动下,处理数据以响应各种请求”的工具。人工智能(AI)广义上指的是能够以类似人类的方式学习和决策的计算机。近年来,聊天机器人已经被许多公司使用,包括医疗保健公司,用于提供客户服务、路由请求或收集信息。 ChatGPT是最近发布的一款聊天机器人,它“是生成型人工智能的一个例子,因为它可以创建以前从未存在过的全新内容”。在某种意义上,它可以使用新的方式组织现有信息。ChatGPT有很多潜在的用途,包括“例如,总结长篇文章,或制作一份演示文稿的初稿,然后再进行调整。”它可以帮助研究人员、学生和教育工作者产生想法,甚至可以就某一特定主题撰写质量合理的论文。因此,大学不得不改变教学方式。 ChatGPT具有许多限制,正如其创造者承认:“ChatGPT有时会写出看似合理但不正确或荒谬的答案……理想情况下,当用户提供模棱两可的查询时,模型应当提出明确性的问题。相反,我们当前的模型通常会猜测用户的意图……尽管我们努力使模型拒绝不适当的请求,但有时它会对错误的指令做出反应或表现出不恰当行为。“而且,“与谷歌一样,ChatGPT不会在网上搜索当前事件的信息,其知识仅限于2021之前所学的内容,这使得一些答案显得过时。”OpenAI目前正在开发一个改进版本,“比以前的版本更擅长生成文本”,其他几家公司正在创建自己的“生成AI工具”。 聊天机器人使用现有文本库进行“训练”。因此,响应操作员的特定输入(“问题”或“种子文本”),聊天机器人会以“答案”或其他输出做出响应。最终,该输出包括根据算法调整的训练材料的选择。由于聊天机器人没有意识,它们只能重复和重新排列现有的材料。它们的内容中没有新的思想:它们只能是偶然的原创。由于聊天机器人利用了他们接受过培训的现有文本库,因此在某些情况下,他们可能会逐字逐句地重复这些文本,而不会透露其来源。根据最近一份使用ChatGPT生成文本的预印本,“直接从ChatGPT获得的初步文本中正确引用的百分比仅为6%。”,因此,如果聊天机器人的输出内容要在学术期刊上发表,为了避免抄袭,人类作者和编辑必须确保文本包含完全正确的参考文献,其程度与人类作者的要求完全相同。 聊天机器人不是法律实体,也没有法律人格。一个人不能以任何方式起诉、传讯或惩罚聊天机器人。使用软件的公司发布的许可文件中规定了使用条款和使用软件结果的公认责任。此类文档与被其他书写工具(如Word、PowerPoint等)生成的文档类似。正如微软对使用Word编写的任何内容不承担任何责任一样,ChatGPT的创建者OpenAI对使用其产品生成的任何文本不承担任何责任:其使用条款包括赔偿、免责声明,以及责任限制。只有ChatGPT的用户可能会对其所犯的任何错误负责。因此,将ChatGPT列为作者(这已经在发生,甚至被鼓励)可能是错误的,在法律上是不可辩护的。 虽然ChatGPT可能被证明是对研究人员的有用工具,但它对学术期刊构成了威胁,因为ChatGPT生成的文章可能会在已发表的文献中引入虚假或剽窃的内容。同行评审可能无法检测到ChatGPT生成的内容:研究人员很难区分ChatGPT产生的摘要和作者撰写的摘要。那些最了解该工具的人很警惕:一个大型人工智能会议禁止在会议论文中使用ChatGPT和其他人工智能语言工具。 从另一个角度来看,聊天机器人有助于制作欺诈论文;这种行为违背了科学哲学。可能会有人认为,聊天机器人的使用与papermill差别很小——尽管后者显然有欺骗的意图,但对于聊天机器人的应用来说不尽然。然而,人工智能能够帮助生成错误的想法,这一事实本身就不科学,也不可靠,因此编辑们应该感到担忧。 与此相关的是,2022年还发布了DALL-E 2,这是另一个基于ML的系统,可以根据OpenAI提交的自然语言文本描述创建逼真的图像和艺术,OpenAI是制作ChatGPT的同一家公司。最近,谷歌还发布了一款名为Imagen的类似产品。这些工具也引发了与ChatGPT类似的担忧。有趣的是,使用DALL-E2生成的每个图像都在右下角包含一个签名,以说明图像的来源;然而,这个标签可以被网络搜索到的几个简单方法中的一种很容易地删除。 随着ChatGPT和DALL-E2的出现,以及更多工具的出现,编辑们需要制定使用此类技术的期刊政策,并要求工具能够检测其生成的内容。针对作者的学术出版指南应根据不同群体的意见制定,包括第一语言不是英语的研究人员。这可能需要一些时间。同时,我们为编辑和作者提供以下建议。 WAME建议: 1.聊天机器人不能是作者。聊天机器人无法满足成为作者的要求,因为他们无法理解作者的角色或对论文负责。聊天机器人无法满足ICMJE的作者标准,特别是“最终批准将要发布的版本”和“同意对作品的所有方面负责,以确保与作品任何部分的准确性或完整性相关的问题得到适当调查和解决。”聊天机器人无法理解利益冲突声明,或具有签署声明的法律地位。聊天机器人没有独立于其创建者的从属关系。他们不能持有版权。提交手稿的作者必须确保所有被命名为作者的人都符合作者标准,这显然意味着聊天机器人不应被视为作者。 2.当使用聊天机器人时,作者应该是透明的,并提供有关他们如何使用的信息。由于该领域目前发展迅速,使用聊天机器人帮助撰写论文的作者应声明这一事实,并在提交的论文中提供所用聊天机器人的完整技术规范(名称、版本、模型、来源)和应用方法(查询结构、语法)。这与ICMJE关于承认书面协助的建议一致。 3.作者对聊天机器人在其论文中所做的工作(包括所呈现内容的准确性,以及没有抄袭)负责,并对所有来源的适当归属(包括聊天机器人制作的内容)负责。借助聊天机器人撰写文章的人类作者对聊天机器人的贡献和其准确性负责。他们必须能够确定他们的论文包括聊天机器人产生的文本没有抄袭。人类作者必须确保所有引用的材料都有适当的属性,包括完整的引用。他们应该声明聊天机器人使用的特定查询函数。作者需要寻找并引用支持聊天机器人生成的内容来源。由于聊天机器人可能被设计为忽略反对其输出中表达的观点的来源,因此作者有责任查找、审查并在其文章中包含此类观点。 4.编辑需要适当的工具来帮助他们检测人工智能生成或更改的内容,无论他们是否能付费,这些工具都必须可用。许多医学期刊编辑使用20世纪的手稿评估方法,但现在发现自己面对的是21世纪的人工智能创新和行业,包括被篡改的抄袭文本和图像以及papermill生成的文档。他们在试图将合法的与捏造的区分开来时已经处于劣势,像ChatGPT这样的聊天机器人将这一挑战提升到了一个新的水平。编辑需要访问帮助他们高效准确地评估内容的工具。通过STM工作的出版商已经在开发这样的工具。为了科学和公众的利益,无论编辑是否有能力支付这些工具,都应该向他们提供这些工具。通过将其纳入开源出版软件(如公共知识项目的开放期刊系统),以及关于筛选输出的使用和解释的培训,将使自动筛选提交的稿件成为许多编辑翘首以待的现实。