《Science改变对使用生成式人工智能和大型语言模型的政策》

  • 来源专题:科技期刊发展智库
  • 编译者: 张恬
  • 发布时间:2024-02-22
  •   采用ChatGPT及相关大型语言模型来支持研究和生成学术内容的速度不断加快。Science的政策一直认为在方法部分将使用上述工具适当予以披露是可以接受的。不过,Science最初对使用ChatGPT制作文本和图表采取了非常严格的限制态度,同时也在关注整个科学界的想法和反应,正如其在2023年早些时候表态:“我们认为,谨慎的做法是等待,直到我们更清楚地了解科学界认为哪些用途是被允许的。”

      一些组织最近更新了它们的政策。例如,国际医学期刊编辑委员会(ICMJE)就如何在文本和图表的编写中使用人工智能提供了指导。世界医学编辑协会(World Association of Medical Editors)和科学编辑委员会(Council of Science Editors)也发布了类似的公告。

      Science现已调整了关于图像和文本完整性的编辑政策,将以下内容纳入其中:

      人工智能辅助技术,如:大型语言模型(LLM)、聊天机器人和图像创建器不符合Science的作者标准,因此不得列为作者或共同作者,期刊内容中引用的资料也不得由人工智能工具撰写或共同撰写。作者如果将人工智能辅助技术作为其研究的组成部分,或作为撰写或发表稿件的辅助工具,应在投稿信和稿件致谢部分注明。详细信息应在方法部分提供,应披露作品制作过程中所使用的完整提示词以及人工智能工具及其版本。作者应对作品的准确性负责,并确保没有抄袭行为。他们还必须确保适当引用所有资料来源,并应仔细审阅作品,防止人工智能可能带来的偏见。如果人工智能使用不当,编辑可能会拒绝继续处理稿件。审稿人在生成或撰写审稿意见时不得使用人工智能技术,因为这可能会破坏稿件的保密性。

      未经编辑明确许可,Science不允许使用人工智能生成的图像和其他多媒体。在某些情况下可能会有例外,例如在专门涉及人工智能和/或机器学习的稿件中使用图像和/或视频。此类例外将逐案评估,并应在投稿时披露。Science认识到这一领域正在迅速发展,其对人工智能生成的多媒体的立场可能会随着版权法和行业道德使用标准的演变而改变。

      Science将继续关注这一充满挑战的领域,并根据需要谨慎调整。

相关报告
  • 《生成式人工智能十大趋势与公共文化机构的应对策略》

    • 编译者:杨小芳
    • 发布时间:2025-07-23
    • 本文探讨了生成式人工智能(GAI)的十大发展趋势及其对公共文化机构的影响。这些趋势包括AI驱动的科学研究普及、具身智能机器人提升服务体验、多模态大模型走向实用化、合成数据与数据治理挑战凸显、世界模型与因果推理能力突破、AI算力与模型优化协同发展、智能体技术普及带来产品爆发、资本投入与产业整合加速、开源生态与小模型应用扩展以及AI伦理与治理框架完善。公共文化机构应把握AI带来的机遇,提升服务效率与质量,实现智能化转型。 AI驱动的科学研究普及:大模型与深度学习的发展催生了“人工智能助力科学研究”的新模式。2024年,大型语言模型在多个领域取得重大进展,如OpenAI的o3推理模型和谷歌的Gemini 2.0,以及DeepSeek R1推理模型的问世,降低了模型训练和推理成本,推动了AI4S和AI4DH的普及。图书馆等机构可借助这一趋势优化馆藏管理,构建智能数字档案库。 具身智能机器人提升服务体验:2024年是人形机器人技术的“应用元年”,特斯拉、波士顿动力公司和优必选等企业在具身智能领域取得重大进展。2025年,特斯拉的Optimus和国内智元机器人的批量生产标志着具身智能技术的重大突破。图书馆可利用具身智能机器人提升工作效率和服务质量。 多模态大模型走向实用化:2024年,多模态技术持续爆发,视频生成与理解模型迎来“GPT时刻”。如OpenAI的Sora、快手科技的Kling和DeepSeek的Janus-Pro等模型的出现,预示着AI在多模态综合处理能力上的提升。未来,图书馆服务平台可借助多模态大模型实现跨媒体数字化展示。 合成数据与数据治理挑战凸显:2024年下半年,多个先进模型采用合成数据。合成数据技术可降低对真实数据的依赖,解决数据隐私和版权问题,但也面临数据质量、安全性和合规性等挑战。图书馆等机构需强化数据治理体系,确保数字资源的质量和合规性。 世界模型与因果推理能力突破:2024年,世界模型成为人工智能领域的焦点议题。世界模型的核心特征包括物理世界建模、因果推理能力和动态场景生成。未来,具备因果推理能力的AI系统将能预测未来动态,解决复杂问题。图书馆可利用世界模型技术辅助空间规划、构建沉浸式虚拟展览等。 AI算力与模型优化协同发展:在GAI技术的发展中,算力和模型优化呈现出协同发展态势。2024年多项研究发现,单纯扩充数据和增加算力的边际收益下降,未来模型训练将重视数据质量、后训练和强化学习技术的应用。图书馆等机构可结合本地算力配置,依托高性能硬件,支持大规模数据存储和智能检索。 智能体技术普及带来产品爆发:2025年被视为智能体发展的元年,智能体框架日益繁荣与标准化。未来,机器人流程自动化、个人助理、客户服务和数据分析等领域将基于智能体技术开发新一代应用。图书馆可利用智能体实现自动化客服、智能问答和个性化推荐。 资本投入与产业整合加速:2024年,AI技术发展显著,多款产品在实际应用场景中取得广泛应用。全球主要科技公司和投资机构加大对AI领域的投入,推动AI产业生态的整合与升级。图书馆应抓住资本投入带来的机遇,与科技公司合作获取技术支持。 开源生态与小模型应用扩展:开源生态系统降低了AI技术的学习和使用门槛,推动了技术的创新和迭代。2025年初,DeepSeek的开源推动了算力护城河的倒塌,开源生态可望超越Meta成为AI领域的安卓。未来,更多高级AI将转向在个人设备上运行。图书馆等机构可利用开源基座模型训练自己机构的领域模型。 AI伦理与治理框架完善:随着GAI技术的发展,其潜在风险和不确定性日益受到关注。2024年,联合国、世界卫生组织和中国信息通信研究院等纷纷强调建立AI伦理与治理框架的重要性。图书馆等机构需关注数据安全、隐私保护与版权管理,制定数据使用规范,确保AI服务的公平透明。
  • 《Elsevier关于人工智能和人工智能辅助技术在科研写作中的应用政策》

    • 来源专题:科技期刊发展智库
    • 编译者:孟美任
    • 发布时间:2023-03-31
    • 生成式人工智能和人工智能辅助技术已被内容创作者广泛使用。爱思唯尔制定《关于人工智能和人工智能辅助技术在科研写作中的应用政策》,旨在为给予作者、审稿人、编辑和投稿人更加透明的指导。爱思唯尔将继续跟踪该领域的发展,并在适当的时候调整或完善这一政策。 如果作者在写作过程中使用人工智能和人工智能辅助技术,这些技术只能用于语言润色和提高作品的可读性,而不能取代关键的研究任务,如产生科学见解、分析和解释数据或得出科学结论。应用该技术应该在人为监督和控制下进行,作者应该仔细审查和编辑结果,因为人工智能可以生成看上去很权威的输出,但这些输出可能不正确、不完整或有偏见。作者对作品的内容负最终责任和义务。 作者应在手稿中披露对人工智能和人工智能辅助技术的使用,并在已发表的作品中增加声明,以增强作者、读者、审稿人、编辑和贡献者之间的透明度和信任,并遵守相关工具或技术的使用条款。 作者不应将人工智能和人工智能辅助技术列为作者或合作者,也不应引用人工智能作为作者的内容。作者身份只能属于人类并由人类承担的责任和执行的任务。每个(共同)作者都有责任对与研究内容任何部分的准确性或完整性有关的问题进行调查和解决,并且所有作者都需确定并同意提交最终版本。作者还应确保作品是原创的、声明的作者有资格获得作者身份、作品不侵犯第三方权利,并且在提交之前应充分了解爱思唯尔的出版道德政策。