人工智能Artificial Intelligence已成为我们生活的重要组成部分,人工智能工具的快速发展有助于自动化和简化当今一些具有挑战性和繁琐的任务,即使在科学和研究领域也是如此。随着语言工具获得全球关注,2023年1月20日,RESEARCHER.life上发表了一篇博文,讨论了 ChatGPT 如何在学术写作过程中帮助研究人员,并探讨了围绕使用此类 AI 工具撰写研究论文的局限性和伦理问题,文章内容如下:
什么是Artificial Intelligence ?
ChatGPT是一个由OpenAI开发的预训练语言模型。它使用Transformer架构的一个变种,该架构在Vaswani等的论文 "Attention Is All You Need "中有所介绍。该模型在人类生成的文本的大型数据集上进行训练,并针对特定任务进行微调,如问题回答、语言翻译和文本完成。ChatGPT能够理解和生成类似人类的文本,使其对广泛的自然语言处理任务有用。它可以针对不同的任务进行微调,并可通过OpenAI的API和各种开源框架获得。
2022年11月30日推出的ChatGPT正以其理解关键用户输入并生成类似人类反应的对话的迷人能力而风靡世界。除了ChatGPT、OpenAI,一家位于加州旧金山的人工智能公司也因创造了DALL-E而闻名,这个AI工具因能够将文本变成图像而名声大噪。
ChatGPT是如何工作的?
大型语言模型旨在准确预测一个句子中的下一个词,这使它们能够编写整页的内容。这些人工智能模型是在大量人类生成的文本上训练的神经网络,以学习如何执行任何任务。例如,ChatGPT是在5700亿字节的文本上训练的,有1750亿个参数(其前身GPT-2只有15亿个参数),这有助于它执行没有明确训练的任务。除了是有史以来最大的语言模型,ChatGPT还带有额外的人类反馈强化学习(RLHF),这使它比早期工具具有明显的优势。因此,难怪它被视为内容生成的一个突破性模型。
OpenAI聊天机器人目前正处于“研究预览”阶段,用户可以免费试用,并分享反馈意见,以便改进其回答问题的方式。过去45天左右,全世界的人都在广泛使用ChatGPT,互联网上充斥着关于这个AI工具对特定线索表现好坏的讨论。有些人已经把它与谷歌相提并论。
为什么研究人员正在转向使用ChatGPT
学生和研究人员已经越来越多地转向AI工具,以帮助他们更容易和更有效地进行学术写作。ChatGPT可以提供听起来很智能、写出来很好的文本,已经成为帮助研究人员,尤其是英语为非母语的研究人员进行学术写作的有力工具。
以下是研究人员可以使用ChatGPT的一些场景:
(1)创建研究论文纲要
ChatGPT是研究人员的一个很好的辅助工具,它可以根据用户的输入为博士论文或研究论文产生一个结构良好的大纲或一个令人印象深刻的标题。研究人员可以评估这个大纲,并在开始写作前根据需要进行修改。
(2)撰写研究论文摘要
研究人员经常发现很难以完善的摘要有效地展示他们的工作,这是ChatGPT证明其有用的另一个领域。在最近的一项研究中,由ChatGPT生成的摘要设法欺骗了科学家,甚至通过了抄袭和AI输出检测检查。
(3)将一种语言的文本翻译成另一种语言
ChatGPT非常适用于自然语言处理任务,如将一种语言的文本翻译成另一种语言,但仍需要研究人员对照真人翻译来评估其性能,以确保完全准确。
(4)重写困难的文本段落
ChatGPT对于研究人员,特别是英语为非母语的人是一个很好的选择,可以重写翻译文本,并为常见的概念生成定义或类比。研究人员在努力以清晰、简洁的方式传达复杂的想法时,也可以使用ChatGPT将现有的文本变成写得很好的内容,同时保留原始信息,且没有语言和语法错误。
(5)总结长篇文章或文件
ChatGPT通过生成长篇文件的简短摘要,帮助忙碌的研究人员进行文献搜索和阅读。这些短小精悍的摘要可以帮助他们快速掌握观点,并锁定可能与他们工作相关的研究论文。
(6)为实验设计提出新建议
像ChatGPT这样的语言模型可以帮助设计实验,根据输入的描述提供有趣的变化,或者为既定的实验方案提供一个新的视角。
(7)自然语言处理任务的训练
ChatGPT是一个多功能的语言模型,可以为特定的任务进行微调和定制,如理解语言的训练模型、文本生成、对话系统、数据增强和预训练。
使用ChatGPT进行研究写作的局限性
虽然ChatGPT是一个强大的研究写作工具,但研究人员在使用它时需要考虑一些限制。
(1)ChatGPT不能产生原创性想法,它只能根据在训练数据中看到的模式来创造文本,这就提高了抄袭的风险,因为AI生成的文本可能不包括对研究写作至关重要的参考文献或引文。
(2)ChatGPT是一个统计模型,根据训练数据中的模式生成文本,其优秀程度无法超越它收到的提示。由于它不能理解内容的含义,这可能意味着它偶尔会建议一些听起来合理但不正确或无意义的答案。
(3)OpenAI聊天机器人可能并不总是代表研究的特定领域,这可能导致生成的研究内容不准确或不一致。这对研究人员来说是个问题,他们需要生成特定领域专业知识的文本。
(4)如果训练数据包含偏见,ChatGPT偶尔可能会生成有偏见或攻击性的文本。因此,在使用该模型进行研究写作时,必须意识到这种局限性,并采取必要的措施来消除这种情况。
(5)最后,ChatGPT对世界和2021年之后发生的全球事件了解有限。必须记住,这个AI聊天机器人产生的任何内容都需要深入检查和编辑,以确保它符合关键的提交要求。
华盛顿大学和艾伦人工智能研究所的计算机科学家Yejin Choi说:“我们今天拥有的基本上是一张没有大脑的嘴。”弄清楚如何教大型语言模型进行因果推理、常识或道德判断仍然是研究人员的一大挑战。
使用ChatGPT进行学术写作的伦理问题
学术写作是研究过程中的一个关键部分,需要仔细考虑和关注细节。ChatGPT可以在几秒钟内提供基于提示的文本,这可以节省时间并提高生产力,但重要的是要考虑使用此类工具进行研究写作的道德影响。
(1)偏见渗入写作的风险
虽然已经采取了额外的安全措施,但ChatGPT是在现有的数据集上训练的,如果这些数据集包含负面信息或偏见,就可能渗入结果。研究人员需要意识到这一点,并检查所提供的答案或文本,以确保它们是准确和无偏见的。
(2)内容被剽窃的可能性
AI工具可以帮助研究人员快速创建论文草稿,但它们也可能被用来快速复制文本,导致抄袭的可能性。研究人员应采取必要的措施,以确保所有来源都得到适当的引用和注明。
(3)列入攻击性或有害的文本
如果训练数据集包含任何攻击性或有害的语言,ChatGPT可能会在其生成的文本中复制这些语言。这对负责确保文本尊重和包容的研究人员来说可能是个问题。
(4)对学术文本质量的担忧
ChatGPT可以实现学术写作的自动化,甚至可以生成引文和参考文献,但它并不能保证可靠、高质量的研究。学术界必须注意这一缺陷,并仔细编辑自动化文本,以确保其可靠、可复制、科学准确,并符合提交所需的所有严格的质量标准。
总之,使用像ChatGPT这样的AI工具来撰写研究论文应该是负责任的和符合道德的。研究人员必须了解这些工具是为了提高他们的能力,而不是完全取代他们,从而为他们的研究做出最佳决定。就像《算法大师》一书的作者Pedro Domingos所说:“这不是人与机器的问题,而是有机器的人与没有机器的人的问题。数据和直觉就像马和骑手,你不要试图超越一匹马;你要驾驭它。”