作者:托德·卡彭特 (Todd Carpenter) ,美国国家信息标准组织 (NISO) 的执行董事。他还在多个组织中担任过各种领导职务,包括ISO识别和描述技术小组委员会 (ISO TC46/SC9)、巴尔的摩县公共图书馆基金会等。
自2022年10月法兰克福书展以来,如果要用两个问题定义这一年(2023),它们无疑就是诚信和人工智能。纵观“学术厨房”活动,这两个话题占据了“数字餐桌”的大部分空间。过去一年,自然语言模型的应用在学术界和大众的想象中受到了爆炸性的关注,许多人都在思考人工智能对学术交流的影响。
特别是,人工智能技术如何影响学术话语中的开放存取和研究诚信等关键趋势?这一问题一直困扰着法兰克福展览馆和许多相关活动。因此,当“学术厨房的几位主厨”和其他领导在法兰克福工作室登台时,这两个话题引起热烈讨论。当然,讨论的结果也没有让人失望。
我(托德·卡彭特)有幸与罗伊-考夫曼(Roy Kaufman)和罗伯特-哈灵顿(Robert Harrington)两位“大厨”以及嘉宾莱斯利-麦金托什(Leslie McIntosh)、阿妮塔-德-瓦德(Anita de Waard)和茱莉亚-科斯托娃(Julia Kostova)一起主持了这场生动的对话。在短暂的时间里,我们讨论了很多概念性问题,从开放内容的版权问题到人工智能生成模型如何影响对作者身份的关注,从模型如何消费开放科学内容到人工智能如何挑战我们的责任概念。如果您想观看小组讨论的重播,请访问法兰克福展览公司的 Youtube频道。
●如何训练你的模型?
目前,一方面是开放内容和人工智能工具的发展,另一方面是开放内容的创造和使用的影响,这两者之间有着令人着迷的相互作用。正如考夫曼在小组讨论中指出的那样,开放内容的定义越来越多地集中在该内容的许可和版权共享框架上。与此同时,许多版权和许可问题也成为多起诉讼和日益增多的法规的主题——至少在版权方面是如此——以专门应对人工智能的使用。
这促使一些开发大型语言模型(LLMs)的人在公开内容上训练他们的模型,而现在公开内容的语料库数量庞大且增长迅速。值得注意的是,许多组织显然是在公开内容上训练他们的模型,而这些内容很可能不在知识共享许可协议的范围内,甚至是一般公众无法访问的专有内容,因此出现了诉讼。其他公开许可的内容,如各种类型的数据集,也可以作为额外的训练资源。如前所述,使用可信和经过审核的学术内容来训练这些重要的模型,而不是“模型在互联网上找到的任何东西”,这符合每个人的利益,因为互联网上的内容可能是可疑的或有问题的,甚至是故意不正确的。
●人工智能在开放内容中的积极应用?
正如科斯托娃强调的那样,开放内容可以在创建大型语言模型(LLM)方面发挥重要作用,而这些工具在加速和推进开放科学方面也具有巨大潜力。基于人工智能的工具已经在科学的各个领域被广泛采用和使用,使研究人员能够更准确、更快速地生成学术成果。我们必须记住,虽然目前大部分注意力都集中在ChatGPT、BARD和LLaMa等生成模型上,但许多领域都在使用相同类型的人工智能计算模型来审查医学图像、扫描空间图像数据和开发气象模型。同样,在生物科学、化学、基因组学和许多其他领域,计算模型正在为语义理解和科学进步开辟新的道路,从而为发现、导航和分析提供支持。哈灵顿指出,使用机器生成工具还可以为更广泛的社区参与提供重要机会,可以通过翻译或与从事这项工作的核心学者之外的人建立联系,这也是大多数学术团体的另一项使命。他还提到了关于这一主题的几个想法,如美国学术学会在考虑如何将基于人工智能的工具纳入编辑和教育推广工作中。虽然我们有理由保持警惕,但我们不应将这些新工具的存在视为坏事,也不应将其带来的干扰视为完全负面的。
●我们想要信任人工智能,但是如何呢?
在诚信方面,与会者还热烈讨论了越来越多地使用人工智能工具可能带来的机遇和挑战。从为什么诚信问题对学术交流如此重要的问题开始,话题很快转向了人工智能工具如何提供机遇和挑战。正如麦金托什所比喻的:世界上大部分地区都有充足的免费水源,但你会喝从流经工业城市的河流中接的免费的水吗?还是相信从水龙头里流出来的水的质量?麦金托什强调说,学术研究也应如此。德-瓦德以此为基础,思考了标准在开发新的数字学术共享框架中的作用,以及学术著作的每个元素如何结合在一起形成一个有凝聚力的整体。人工智能工具可以帮助发现、浏览和理解这一复杂的生态系统。
同样,麦金托什指出,任何技术都存在固有的风险。在造纸厂或图像处理中,每一种技术的积极使用都会引起人们对其滥用的担忧。麦金托什介绍了Ripeta所做的工作,即使用基于人工智能的工具,识别与论文相关的潜在信任指标网络,这些工具是根据信任指标计算出来的,并已应用于数百万个对象。爱思唯尔同样也部署了其他人工智能工具来协助编辑和生产流程。一旦实施了这些工具,是否有办法将这些信息与内容一起共享,并指出进行了哪些类型的完整性检查。在这里,德-瓦德提到了 NISO 最近发布的一项技术标准,即内容简介/链接文档规范,该规范旨在支持此类交流。归根结底,我们(即学术出版业)所做的最重要的一件事就是将可信的信息传递给后人。因此,我们必须以合理的方式使用每一种工具,确保记录尽可能保持活力和可信度,这一点至关重要。
●我们可以去哪里?
会议结束时,我在德-瓦德的评论基础上在会议结尾插入了关于标准和信任的作用的观点。本月早些时候,我所在的组织主办了以学术交流中的人工智能应用为主题的 NISO Plus论坛,在论坛上与会者提出了一些可以尝试在社区鼓励开展的潜在项目。半数以上的潜在项目构想可被广泛视为解决有关诚信和信任的问题。
例如,项目中的一个想法涉及扩展 CReDIT 术语,将机器生成内容包括在内。还有两个想法涉及使用人工智能相关工具生成机器输出的输入。第一个想法涉及用于开发模型的数据的可信度,以便在质量、偏差或科学严谨性方面值得信赖。另一个想法侧重于评估模型及其在特定目的中的应用。类似的项目设想也有针对工程学问题提出的,但不是专门围绕学术交流问题提出的。提出的想法之多,超出了 NISO 的能力范围。我们希望,当论坛报告分发后,社区成员将参与到我们的工作中来,以确保合理、公平、包容地使用基于人工智能的工具。
也许现在完全了解这些新工具的全部影响还为时过早,但可以从很多角度来看待挑战和机遇。理想情况下,由 SSP 学术厨房主办的此类社区对话将帮助人们把握对其组织和整个学术界的潜在影响。希望从事这些不同领域工作的人们能够共同努力,探索在我们的社区应用这些工具的创新方法。当然,有很多东西需要探索,有很多东西需要讨论,也有很多东西需要实施。