《学术出版中负责任的AI》

  • 来源专题:科技出版市场动态监测
  • 编译者: 崔颖
  • 发布时间:2025-03-05
  • 在技术快速变革的时代,采用负责任的人工智能实践的组织不仅是在维护伦理标准,更是在为可持续增长和持久的竞争优势定位。负责任地使用相关技术对于推动创新以及赢得客户和社会的信任至关重要。

    负责任的人工智能是一种战略性资产,推动科学、研究及更广泛领域的实质性进步。每一次成功的AI部署背后,都有一支由数据科学家、技术专家、领域专家、软件工程师和用户体验设计师组成的团队,致力于构建道德、可靠且透明的系统。这种以人为中心的AI方法能够增强信任,并在整个AI生命周期中加速持续创新,从而为组织及其服务的社区带来更好的成果。

    一、责任感——竞争的核心优势

    负责任的人工智能框架不仅是道德要求,更是战略必要。随着公司竞相实施最新的AI技术,他们需要成熟的、精心设计的战略,优先考虑长期稳定而非短期收益。负责任的AI是一种结构化的方法,可以降低风险、建立信心并促进更快的创新,从而赋予企业竞争优势。

    研究表明这一点——麻省理工学院斯隆管理评论(MIT Sloan Management Review)2022年的研究发现,拥有负责任AI实践的组织在人才招聘与留用、客户保留和加速创新方面获得益处的可能性是其他组织的三倍。贝恩公司(Bain & Company)2023年的数据显示,采用有效负责任AI方法的组织可以将利润翻倍。

    负责任的AI开发促进了信任和透明度,创造了一个自我维持的创新循环。员工在与其价值观一致的环境中会更加投入,这增强了创造力并进一步推动创新。结果是一个反馈循环,其中负责任的AI实践推动了业务成功和员工满意度,并使组织能够在创新领域处于领先地位。

    二、负责任的AI——社会技术挑战

    负责任地使用AI是一项社会技术问题,需要人类监督和技术解决方案共同应对固有的偏见、伦理考量和透明度挑战。尽管技术可以在一定程度上纠正数据和AI生成内容中的某些偏见,但人类判断在评估、完善、沟通和安全应用AI方面仍然不可或缺。

    这体现在以下几个关键实践中:

    ·通过包容性的数据收集、模型训练和结果评估,解决决策中的无意识偏见;

    ·在AI生命周期中引入领域专家,确保技术决策与实际应用和伦理标准保持一致;

    ·提供透明性和可解释性,让用户能够了解AI工具的决策过程和信息来源;

    ·公开沟通局限性和风险,确保用户理解AI生成见解的应用范围和背景。

    通过嵌入这些实践,组织建立了一个问责制的基础,尊重AI的社会技术本质——AI不仅仅是算法的产物,而是技术和人类价值观的共同努力。

    三、集体责任——基于团队的伦理AI方法

    构建和实施负责任的AI是一项集体努力。从数据科学家和产品设计师到客户和客户体验专家,每个利益相关者都有助于确保AI系统具有伦理性、透明性和无偏性。在Elsevier,这种方法体现为一种全面的方式,贯穿教育、反馈和共享价值观的各个阶段。

    一个典型的例子是Scopus AI,它利用生成式AI从世界上最大的同行评审期刊数据库中整理研究摘要。该平台设计时采用了强大的安全保障措施,由图书馆员和研究人员提供指导,并基于经过验证的可靠内容。负责该平台的团队遵循明确的伦理框架,包括透明性、问责制和隐私保护。开发过程中还不断收集用户反馈,以优化系统、满足实际需求并保持信任。

    该框架的关键要素包括:

    ·培训和教育用户识别AI输出中的偏见和局限性;

    ·将用户反馈纳入开发周期,使AI系统能够根据需求进化;

    ·定义责任原则,确保AI工具符合伦理和信任标准。

    为了评估每次AI部署可能带来的风险,我们还会进行算法影响评估,由熟悉数据集的多样化数据科学家团队和了解用户需求的产品设计师共同参与,同时最终用户提供关键反馈。跨职能团队构建的AI解决方案不仅技术强大,而且具有社会责任感并以用户为中心。

    随着AI不断发展,以人为中心的方法至关重要。但负责任的AI远不止“人性化的触角”,而是将人性融入技术的各个方面——承诺每项决策都符合伦理、尊严和社会福祉。我们必须确保AI赋能积极成果,防止偏见,并支持知识发现而不损害其完整性。

    负责任的AI是真正创新和商业成功的核心。如果没有它,行业转型的潜力可能会被风险、幻觉、低效和公众不信任所掩盖。通过承诺负责任的实践,可以推进值得信赖且高效的工具,加速进步、推动发现并丰富我们对世界的理解。



  • 原文来源:https://www.researchinformation.info/analysis-opinion/responsible-ai-in-academic-publishing/
相关报告
  • 《【动态】ChatGPT 与学术出版》

    • 来源专题:数智化图书情报
    • 编译者:于彰淇
    • 发布时间:2024-01-18
    • OpenAI 开发出 ChatGPT 后,在全世界各行各业掀起了轩然大波,有人倍感焦虑的思考未来的职业发展方向,也有人在充满希望地探索如何使用这项技术以及它如何使我们受益于未来。对于出版行业而言,AI 为我们带来了许多便捷,并且可以预见在未来的工作中 AI 也将为我们提供更多帮助。 ChatGPT 横空出世的短短几个月以来,各行各业已经都在经历剧烈的变化。学术出版也在激烈地就 AI 写作与出版的问题一次次进行讨论。学术伦理成为了所有问题里最引人注目的问题,能否假手 AI 进行文章写作、学术诚信问题怎么解决、人机合作可以合作到什么程度、是不是应该全面禁止在写作过程中使用 AI 进行协助、等等。但是不可否认的是,ChatGPT 确实已经在为我们的生活带来了一些便捷。 通向便捷工作的工具 AI 已经成为了我们日常工作和生活的便捷工具,比如在 ChatGPT-4中可以植入插件,利用AI帮助我们快速完成旅行计划、翻译、甚至一些数学计算。从出版社的角度来看,我们非常希望 AI 在校对和排版方面协助我们快速完成工作。虽然预印本(Preprint)平台逐渐增多,但是对于作者来说,稿件投递到发表的时间长短仍然对很多方面产生潜在影响。因此,如果能够缩短稿件处理时间,帮助稿件快速发表,对于作者来说也是一件有益的事情。 从作者的角度来看,在写作过程中,如果 AI 能够在不违背伦理道德的前提下,提供适当的帮助,也会极大地对作者的工作情绪和工作结果产生正向的影响。比如在 ChatGPT-4中的插件 – ScholarAI,你可以利用它来查找参考文献。可以问:“Find 5 research articles published in 2023 about xxx. Make a table of those titles, DOIs, first authors, and journal names. ”。文献检索一直都是文章写作过程中耗时耗力的工作之一,有了 AI 的帮助,作者可以省时省力地找到自己所需要的文献。 可能存在的问题 先进的科技向来都是一把双刃剑,在给我们带来便捷和高效的同时,AI 也会带来相应的社会问题。例如,在校学生利用 AI 完成自己的作业、一些科研人员借助 AI 完成自己的文章写作等等。以上这些例子便是触及到了诚信问题或学术伦理道德问题。而作业作为选拔制度或者评估制度的一环,AI 的协助造成的不公平怎么解决?AI 是没有承担责任能力的机器和工具,如果作为作者参与研究,如何解决潜在的风险?科技的浪潮已经不允许我们通过全面抵制解决问题,我们急需相应的措施,以应对 AI 给我们带来的这些问题。 而 ChatGPT 作为工具本身,也并非无懈可击,比如它可能会给出错误答案,可能在描述论证的时候毫无根据的进行观点表达,甚至有些数据案例都是模糊或者造假的。ChatGPT 确实被训练过,也接受了过去和现在世界各地各种语言写作的内容,但编写的程序还是会出现各种各样的问题。同时,由于模型数据库是来自现实世界的写作内容,这意味着现实世界中存在的偏见也会出现在模型中。比如,ChatGPT 会生成一些不符合我们价值观和道德观的答案,甚至涉及歧视等问题。当然,在一代代的更新迭代过程中,我们相信很多问题都会被修正,可是这也提醒了我们,纯粹依赖 AI 不会是一个明智的决定。 我们的未来 社交媒体上有很多声音都在讲述 ChatGPT 可能会取代一部分人的工作。Duolingo 和 Khan Academy 已经在与人工智能平台深入合作,提供的 AI 导师会取代原有的大量人工职位。其他行业也在面临同样的问题,包括律师助理、律师、撰稿人、记者和程序员在内的很多职位,都在可被取代的名单上。 对于出版行业,无论是作者还是从业者,都很难被 AI 取代。AI 只能根据现有的内容,通过拼贴整合做出新的内容,但是本质上却没有进行创新,作为作者,需要创造不曾存在过的内容,并不是整合整理能够做到的,这也是人类智慧不能被AI取代的部分。所以人机合作、人机交互很可能才是将来 AI 和人类和平共处的方式。作为从业人员,无论是技术的开发还是与人的沟通交流,都是AI替代不了的。但是 AI 将毋庸置疑地协助出版行业为作者提供更高效、便捷的服务。 科学技术的突破性进步对方方面面产生剧烈的影响,不可否认,ChatGPT 及其基础技术将彻底重塑我们的现代世界,而我们也需要在重塑的世界里,适应新的学习和工作模式。 总结 对于出版行业,AI 的出现带来了一系列的问题和风险,但是作为新技术,它可以帮助我们创造更好的产品,节省时间提高效率,从而使我们能够加深和扩大我们对全世界知识和学习的惊人影响,相信在未来,出版行业和 AI 的合作会越来越多,相应的问题也会被一一解决。 剑桥大学出版社为帮助研究人员成功发表他们的研究成果提供必要支持,提供作者稿件质量并顺利发表,剑桥作者服务和作者服务供应商AJE合作,为来自全球各地的研究人员提供一系列高质量的作者服务,包括英文语言润色、学术论文翻译、图表处理等。点击“阅读原文”,了解更多剑桥作者服务信息。
  • 《全球出版和新闻组织联合发布人工智能 (AI) 全球综合原则》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-21
    • STM加入了代表全球数千名创意专业人士的26个组织,包括学术出版部门,新闻,娱乐,杂志和图书出版公司发布了全球人工智能 (AI)原则 。这些开创性的全球原则是同类产品中的首创,为人工智能(AI)系统和应用程序的开发、部署和监管提供了指导,以确保商业机会和创新能够在道德和负责任的框架内蓬勃发展。《人工智能全球原则》旨在确保出版商持续创造和传播优质内容的能力,同时促进创新和负责任地开发值得信赖的人工智能系统。 《人工智能全球原则》涉及与知识产权、透明度、问责制、质量和诚信、公平、安全、设计和可持续发展有关的关键问题,标志着一次前所未有的合作,保障了内容创作者、出版商和消费者的利益。 在《原则》中,这些组织呼吁负责任地开发和部署人工智能系统和应用程序,并指出这些新工具只能根据保护出版商知识产权、品牌、消费者关系和投资的既定原则和法律进行开发。该原则明确指出,人工智能系统“不分青红皂白地盗用我们的知识产权是不道德的、有害的,侵犯了我们受保护的权利。 除其他事项外,《全球人工智能原则》规定,人工智能系统的开发人员、运营商和部署者应:尊重知识产权,保护组织对原创内容的投资。利用高效的许可模式,通过培训值得信赖的高质量 AI 系统来促进创新。提供精细的透明度,允许发布者在其内容包含在训练数据集中时行使其权利。明确将内容归因于内容的原始发布者。认识到出版商在生成用于培训、展示和合成的高质量内容方面的宝贵作用。遵守竞争法和原则,并确保人工智能模型不被用于反竞争目的。促进可信和可靠的信息来源,并确保人工智能生成的内容准确、正确和完整。不歪曲原创作品。尊重与其互动的用户的隐私,并在人工智能系统设计、培训和使用中充分披露其个人数据的使用情况。与人类价值观保持一致,并按照全球法律运营。完整的人工智能全球原则, 可以在这里找到,更详细地阐述了上述每一点。 签署全球人工智能原则的组织包括: ?  AMI – Colombian News Media Association ?  Asociación de Entidades Periodísticas Argentinas (Adepa) ?  Association of Learned & Professional Society Publishers ?  Associa??o Nacional de Jornais (Brazilian Newspaper Association) (ANJ) ?  Czech Publishers’ Association ?  Danish Media Association ?  Digital Content Next ?  European Magazine Media Association ?  European Newspaper Publishers’ Association ?  European Publishers Council ?  FIPP ?  Grupo de Diarios América ?  Inter American Press Association ?  Korean Association of Newspapers ?  Magyar Lapkiadók Egyesülete (Hungarian Publishers’ Association) ?  NDP Nieuwsmedia ?  News/Media Alliance ?  News Media Association ?  News Media Canada ?  News Media Europe  ?  News Media Finland ?  News Publishers’ Association ?  Nihon Shinbun Kyokai (The Japan Newspaper Publishers & Editors Association) ?  Professional Publishers Association ?  STM ?  World Association of News Publishers (WAN-IFRA)