《定义和概念维度的负责任的研究和创新》

  • 来源专题:科研诚信
  • 编译者: 于改红
  • 发布时间:2016-04-28
  • 治理的新产品开发和金融部门负责创新的看法 ︰ 从民族志的案例研究的见解。杂志上的响应...

相关报告
  • 《生成式人工智能对公共文化机构的影响及其负责任创新之路 -- 肖鹏》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-10-21
    • 2023年 , 生 成 式 人 工 智 能 ( G e n e r a t i v e Artificial Intelligence,以下简称生成式AI)的浪潮席卷全球,深刻地影响了(至少展现了影响的可能性)医疗、科技、教育等诸多当前人类文明最典型的生活场景。麦肯锡一份关于美国就业市场的报告称: 从工作时间计算,约30%的劳动会在2030年被自动化取代,而这一未来将是在生成式AI的影响下推动实现的——客观来说,麦肯锡的表述是取巧且难以验证的,但“30%”这个数字或能帮助我们从更为具化的角度感受此项技术的影响。在上述背景下,我们需要讨论两个问题:其一,生成式AI将对公共文化机构带来哪些影响?其二,面对这些影响,公共文化机构 及其从业者应当秉持何种行动原则? 1 从基础向内核:生成式 AI 对公共文化机构的可能影响 生成式 AI 展现的威能无远弗届,公共文化和相关机构自难以回避,尤其是身跨文化、信息、教育等诸多关键领域的公共图书馆行业,更成为生成式 AI 研讨中的焦点之一。综合目前的争论、研究和本课题组的调查,我们可以从资源、服务、业务(专业)和伦理等四个维度剖析生成式 AI 对公共文化机构的影响。具 体来讲,这些影响包括: (1)重构文化资源体系。从最基础的功能层面而言,生成式 AI 是“内容生成”领域的技术,将为公共文化机构带来更为丰富、更多形态的文化/信息资源。 随着内容生成的便利化,或将重塑公共文化机构的文化/信息资源观。上述“丰富”和“多样”指的不仅仅是出版或影视行业的生产制作速度迭代加快,公共文化机构有机会获取或存藏更多内容产品;通过生成式AI的赋能,公共文化机构还可以更轻易地把已有资源转换或生产成另一种形态的资源,以开展具有针对性和专门性的服务,如博物馆可以基于数字化文物打造有创意的数字藏品;图书馆可以迅速将图书翻译为其他语言或制作成音频、盲文版图书等——这些均已出现落地的案例。 (2)拓宽个性服务边界。最早产生世界级影响力的生成式 AI 是以“Chat”的形式出现的,其特点是高度个性化的对话与互动。教育领域很快利用相应技术实现个性化教育,如可汗学院(Khan Academy) 在人工智能助手 Khanmigo 中引入 GPT-4 模型,为学生提供定制化的虚拟导师。前期调查发现,当前国内公共文化机构对生成式AI技术的应用探索也多是从个性化服务出发,主要聚焦于日常问答和参考咨询。例如,广东某图书馆已经在其新场馆内布设内置“类 ChatGPT”模块的导航机器人;另外一家机构称已经开始探索如何借助生成式 AI 提供个性化的阅读指导服务。传统的公共文化机构受限于基础服务量级大、专业人员编制少等束缚,个性化服务更多只是一种理念,实际开展比较有限(如个性化定制访问页面、 RSS 订阅服务或专业咨询服务等),而生成式 AI 有望推动其在精细化、个性化、定制化服务层面实现突破。 (3)赋能专业支持体系。同一项公共文化活动, 称其为“服务”是从用户体验的维度出发, 称之为“业务”则是从员工工作的维度出发。在面向员工的专业 支持场景中,生成式 AI 可能发挥更为积极的作用。以当前公共文化机构中最为常见的工作——举办文化活动(不管是阅读推广活动亦或艺术普及活动等)为例, 生成式 AI 在用户分析、方案制定、场景设计、创意诞生,乃至宣传海报和新闻稿生成等工作中都有其用武之地。随着迭代升级,生成式 AI 未来所能介入的工作场景及内容领域可能比我们想象的更多。当前的实践探索已经初步发现,这一技术在诸如元数据生成、文献摘要自动化、艺术风格识别和再创造等领域都具有极大的潜力。而在赋能公共文化机构专业业务的同时, 生成式 AI 也将对管理与服务人员的数字素养及更深层次的专业水准提出挑战,某种程度上而言,这也是另一个维度的专业服务体系“改造”。 (4)再塑专业伦理内涵。 如果说资源、服务和业务都是公共文化机构显而易见的“外在”,那么, 支撑这一外在的便是专业伦理与内涵。生成式AI给文化事业的专业性带来的伦理挑战是显而易见的,如虚假与错误消息生成以及进一步的信息过载(更多涉及公共图书馆的业务和服务)、对个人文化艺术风格和版权的侵犯(更多涉及文化馆、博物馆业务和服务)、对数据资料和用户隐私的泄露(涉及所有的公共场所或机构)等。以上问题自然需要通过建立规则予以规避,但生成式AI对专业和伦理议题带来的某些深远影响并不是那么容易直接观察到。一方面,从公共文化机构的社会使命来说,生成式AI作为新一代的信息技术,或将扩大本就深阔的数字鸿沟,限制数字弱势群体的发展机会,这无疑给秉持均等、普惠理念的公共文化服务体系带来新的挑战。另一方面,任何技术冲击最终都将转化为社会冲击,生成式AI的技术冲击看似只在内容层面,但“内容”不仅仅是“内容”,它还塑造价值观、左右文化认同,存藏和供给“内容”的公共文化机构在这一技术面前自然要慎之又慎。例如,从内部业务伦理来看,图书馆是否要收 藏生成式AI创作的文献信息?博物馆要如何处理相应的数字藏品或艺术装置?等等。更进一步地,公共文化机构要考量技术冲击背后的社会冲击,谨慎思考生 成式AI对内容的介入以及自身对前述问题的回答会如何影响国家安全、社会公共利益等重大议题。我们需要与这一技术进行长期的磨合,在外部公共性与内部机构性的互动交融中重塑专业伦理和话语。 作者有意采纳了一条“基础要素—服务方式—业务体系—伦理内核”的分析路径。通过这一渐进的分析历程,有心者可以发现:公共文化的资源、服务、业务,最终无不由专业伦理和职业理念而引领。资源问题是基础,服务、业务是深化,而最终,当我们谈论生成式 AI 时,要面对的还是“老调重弹”却又无法绕过的专业伦理问题。 至此,需要考量的第二个问题是:既然专业伦理如此要紧,那么我们要以何种专业态度、以怎样的职业认识应对生成式 AI 的到来?或者更直白点:身为公共文化人,我们要如何行动? 2 超越敌友之界:“批判性且负责任地使用” 生成式 AI 国际图书馆届的职业行动应当引起公共文化机构从业者的关注。在即将召开的2023年国际图联大会上,国际图联的数字人文/数字学术特别兴趣小 组(DH/DS SIG)和人工智能特别兴趣小组(AI SIG)就设立了一个颇为“标题党”的开放议程“面 向未来的图书馆事业,生成式AI是友是敌?”。该议程既涉及老生常谈的“XX对图书馆的挑战和影响”视角(如生成式AI在图书馆参考服务等相关业务中的应用),也提出了一些新话题,如伦理数据素养(Ethical data literacy)、提示工程(Prompt Engineering)等。而更早之前,人工智能特别兴趣小组提出了一份名为《面向图书馆和信息专业人员的生成式 AI(草案)》的指引性文本并在国际图联多个邮件组征询意见。或许是考虑到生成式AI发展颇为 迅猛的缘故,这份草案相当简洁,主要通过列举参考文献和资源的方式介绍生成式AI的基本定义、可能涉及的伦理和信息问题、主要用途(尤其对图书馆和信息科学领域而言)、更多可用的AI资源等。尽管简洁如斯,该草案却已然初步揭示了生成式AI对伦理道德、信息公平、数据隐私等领域的应对逻辑,在笔者看来,有一个未曾彻底言明的基本原则潜藏在这些文字之下,回应并超越了“是友是敌”的问题:图书馆应当指导用户批判性且负责任地使用生成式AI。“批判性且负责任地使用”是这一回答的“答眼”,事实上,这一原则不仅适用于图书馆用户,也适用于图书馆员乃至于更广泛的图书馆社群;不仅适用于图书馆,也适用于公共文化、信息与记忆机构及它们的利益相关方。超出图书馆和公共文化的机构化视角来看,“批判性且负责任地使用”的提法与近年国际社会对人工智能的态度大体一致,是不少国家和地区比较认同的思路。具有代表性的,欧盟在生成式 AI 爆火之后,很快调整了 2021 年拟定的《欧盟人工智能法》草案, 对生成式AI的训练数据披露、生成内容应用等内容提出了规制举措。与前期某些“封杀”的呼声不同, 欧盟在生成式 AI 管制上选择的并不是一条全面压制其 发展的道路,而是延续了“负责”与“创新”(创意性、 创造性地使用)并进的“负责任创新”之路。 我国对生成式 AI 的管理和规范问题同样反应迅 速。国家互联网信息办公室(以下简称网信办)于 2023 年 4 月发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),并在 7 月正式联合国家发展改革委、教育部、科技部等七部 门颁布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),以促进生成式 AI 的健康发展和 规范应用。从《征求意见稿》发布之日起,这一文本 就引发了产业界和学术界的热烈讨论。在《暂行办法》 发布之后,许多研究者基于《征求意见稿》与《暂行办法》的文本比对探讨两个文本之间管理思路和规范逻辑的不同之处,其基本观点是:相比《征求意见稿》, 《暂行办法》在兼顾安全责任之余,也给相关机构留出了创新和发展的空间。可以说,这一内核精神与“批判性且负责任地使用”“负责任创新”是互相呼应的。《暂行办法》对生成式人工智能 AI 提供者和使用者的责任要求贯穿全文,包括且不仅限于对法律法规的遵守,对社会公德和伦理道德的尊重,对知识产权 侵害的防范,对内容真实性、准确性、可靠性的规定, 对服务者完善处置措施的要求等。而对生成式 AI 的创新鼓励则涉及生态营造、技术探索、平台建设、算力利用等层面。值得注意的是,这种鼓励恰好在《暂 行办法》涉及“公共文化机构”的两个条款中均有所体现。直接提及“公共文化机构”的第二条和第五条 都是支持相关机构积极探索、创新应用生成式人工智 能的重要条款。其中,第二条属于例外条款,将“研发、应用生成式人工智能技术”,但“未向境内公众提供生成式人工智能服务的”机构排除在本办法的适用范围之外,有研究者指出,这种“不适用”的提法“说明《办法》的目的是兼顾生成式人工智能的发展与安全, 为生成式人工智能的研究与发展留足空间”“让规制对象目标更明确、针对性更强,体现出我国对生成式人工智能在研究与应用方面的支持和鼓励”。第五条则与构建良好的生态体系相关,同时支持相关机构“在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”,着力引导技术向善。
  • 《学术出版中负责任的AI》

    • 来源专题:科技出版市场动态监测
    • 编译者:崔颖
    • 发布时间:2025-03-05
    • 在技术快速变革的时代,采用负责任的人工智能实践的组织不仅是在维护伦理标准,更是在为可持续增长和持久的竞争优势定位。负责任地使用相关技术对于推动创新以及赢得客户和社会的信任至关重要。 负责任的人工智能是一种战略性资产,推动科学、研究及更广泛领域的实质性进步。每一次成功的AI部署背后,都有一支由数据科学家、技术专家、领域专家、软件工程师和用户体验设计师组成的团队,致力于构建道德、可靠且透明的系统。这种以人为中心的AI方法能够增强信任,并在整个AI生命周期中加速持续创新,从而为组织及其服务的社区带来更好的成果。 一、责任感——竞争的核心优势 负责任的人工智能框架不仅是道德要求,更是战略必要。随着公司竞相实施最新的AI技术,他们需要成熟的、精心设计的战略,优先考虑长期稳定而非短期收益。负责任的AI是一种结构化的方法,可以降低风险、建立信心并促进更快的创新,从而赋予企业竞争优势。 研究表明这一点——麻省理工学院斯隆管理评论(MIT Sloan Management Review)2022年的研究发现,拥有负责任AI实践的组织在人才招聘与留用、客户保留和加速创新方面获得益处的可能性是其他组织的三倍。贝恩公司(Bain & Company)2023年的数据显示,采用有效负责任AI方法的组织可以将利润翻倍。 负责任的AI开发促进了信任和透明度,创造了一个自我维持的创新循环。员工在与其价值观一致的环境中会更加投入,这增强了创造力并进一步推动创新。结果是一个反馈循环,其中负责任的AI实践推动了业务成功和员工满意度,并使组织能够在创新领域处于领先地位。 二、负责任的AI——社会技术挑战 负责任地使用AI是一项社会技术问题,需要人类监督和技术解决方案共同应对固有的偏见、伦理考量和透明度挑战。尽管技术可以在一定程度上纠正数据和AI生成内容中的某些偏见,但人类判断在评估、完善、沟通和安全应用AI方面仍然不可或缺。 这体现在以下几个关键实践中: ·通过包容性的数据收集、模型训练和结果评估,解决决策中的无意识偏见; ·在AI生命周期中引入领域专家,确保技术决策与实际应用和伦理标准保持一致; ·提供透明性和可解释性,让用户能够了解AI工具的决策过程和信息来源; ·公开沟通局限性和风险,确保用户理解AI生成见解的应用范围和背景。 通过嵌入这些实践,组织建立了一个问责制的基础,尊重AI的社会技术本质——AI不仅仅是算法的产物,而是技术和人类价值观的共同努力。 三、集体责任——基于团队的伦理AI方法 构建和实施负责任的AI是一项集体努力。从数据科学家和产品设计师到客户和客户体验专家,每个利益相关者都有助于确保AI系统具有伦理性、透明性和无偏性。在Elsevier,这种方法体现为一种全面的方式,贯穿教育、反馈和共享价值观的各个阶段。 一个典型的例子是Scopus AI,它利用生成式AI从世界上最大的同行评审期刊数据库中整理研究摘要。该平台设计时采用了强大的安全保障措施,由图书馆员和研究人员提供指导,并基于经过验证的可靠内容。负责该平台的团队遵循明确的伦理框架,包括透明性、问责制和隐私保护。开发过程中还不断收集用户反馈,以优化系统、满足实际需求并保持信任。 该框架的关键要素包括: ·培训和教育用户识别AI输出中的偏见和局限性; ·将用户反馈纳入开发周期,使AI系统能够根据需求进化; ·定义责任原则,确保AI工具符合伦理和信任标准。 为了评估每次AI部署可能带来的风险,我们还会进行算法影响评估,由熟悉数据集的多样化数据科学家团队和了解用户需求的产品设计师共同参与,同时最终用户提供关键反馈。跨职能团队构建的AI解决方案不仅技术强大,而且具有社会责任感并以用户为中心。 随着AI不断发展,以人为中心的方法至关重要。但负责任的AI远不止“人性化的触角”,而是将人性融入技术的各个方面——承诺每项决策都符合伦理、尊严和社会福祉。我们必须确保AI赋能积极成果,防止偏见,并支持知识发现而不损害其完整性。 负责任的AI是真正创新和商业成功的核心。如果没有它,行业转型的潜力可能会被风险、幻觉、低效和公众不信任所掩盖。通过承诺负责任的实践,可以推进值得信赖且高效的工具,加速进步、推动发现并丰富我们对世界的理解。