《生成式人工智能对公共文化机构的影响及其负责任创新之路 -- 肖鹏》

  • 来源专题:数智化图书情报
  • 编译者: 闫亚飞
  • 发布时间:2023-10-21
  • 2023年 , 生 成 式 人 工 智 能 ( G e n e r a t i v e

    Artificial Intelligence,以下简称生成式AI)的浪潮席卷全球,深刻地影响了(至少展现了影响的可能性)医疗、科技、教育等诸多当前人类文明最典型的生活场景。麦肯锡一份关于美国就业市场的报告称:

    从工作时间计算,约30%的劳动会在2030年被自动化取代,而这一未来将是在生成式AI的影响下推动实现的——客观来说,麦肯锡的表述是取巧且难以验证的,但“30%”这个数字或能帮助我们从更为具化的角度感受此项技术的影响。在上述背景下,我们需要讨论两个问题:其一,生成式AI将对公共文化机构带来哪些影响?其二,面对这些影响,公共文化机构 及其从业者应当秉持何种行动原则?

    1 从基础向内核:生成式 AI 对公共文化机构的可能影响


    生成式 AI 展现的威能无远弗届,公共文化和相关机构自难以回避,尤其是身跨文化、信息、教育等诸多关键领域的公共图书馆行业,更成为生成式 AI 研讨中的焦点之一。综合目前的争论、研究和本课题组的调查,我们可以从资源、服务、业务(专业)和伦理等四个维度剖析生成式 AI 对公共文化机构的影响。具

    体来讲,这些影响包括:

    (1)重构文化资源体系。从最基础的功能层面而言,生成式 AI 是“内容生成”领域的技术,将为公共文化机构带来更为丰富、更多形态的文化/信息资源。 随着内容生成的便利化,或将重塑公共文化机构的文化/信息资源观。上述“丰富”和“多样”指的不仅仅是出版或影视行业的生产制作速度迭代加快,公共文化机构有机会获取或存藏更多内容产品;通过生成式AI的赋能,公共文化机构还可以更轻易地把已有资源转换或生产成另一种形态的资源,以开展具有针对性和专门性的服务,如博物馆可以基于数字化文物打造有创意的数字藏品;图书馆可以迅速将图书翻译为其他语言或制作成音频、盲文版图书等——这些均已出现落地的案例。

    (2)拓宽个性服务边界。最早产生世界级影响力的生成式

    AI 是以“Chat”的形式出现的,其特点是高度个性化的对话与互动。教育领域很快利用相应技术实现个性化教育,如可汗学院(Khan Academy) 在人工智能助手 Khanmigo 中引入 GPT-4 模型,为学生提供定制化的虚拟导师。前期调查发现,当前国内公共文化机构对生成式AI技术的应用探索也多是从个性化服务出发,主要聚焦于日常问答和参考咨询。例如,广东某图书馆已经在其新场馆内布设内置“类 ChatGPT”模块的导航机器人;另外一家机构称已经开始探索如何借助生成式 AI 提供个性化的阅读指导服务。传统的公共文化机构受限于基础服务量级大、专业人员编制少等束缚,个性化服务更多只是一种理念,实际开展比较有限(如个性化定制访问页面、 RSS 订阅服务或专业咨询服务等),而生成式 AI 有望推动其在精细化、个性化、定制化服务层面实现突破。

    (3)赋能专业支持体系。同一项公共文化活动, 称其为“服务”是从用户体验的维度出发, 称之为“业务”则是从员工工作的维度出发。在面向员工的专业 支持场景中,生成式 AI 可能发挥更为积极的作用。以当前公共文化机构中最为常见的工作——举办文化活动(不管是阅读推广活动亦或艺术普及活动等)为例, 生成式 AI 在用户分析、方案制定、场景设计、创意诞生,乃至宣传海报和新闻稿生成等工作中都有其用武之地。随着迭代升级,生成式 AI 未来所能介入的工作场景及内容领域可能比我们想象的更多。当前的实践探索已经初步发现,这一技术在诸如元数据生成、文献摘要自动化、艺术风格识别和再创造等领域都具有极大的潜力。而在赋能公共文化机构专业业务的同时, 生成式 AI 也将对管理与服务人员的数字素养及更深层次的专业水准提出挑战,某种程度上而言,这也是另一个维度的专业服务体系“改造”。

    (4)再塑专业伦理内涵。 如果说资源、服务和业务都是公共文化机构显而易见的“外在”,那么, 支撑这一外在的便是专业伦理与内涵。生成式AI给文化事业的专业性带来的伦理挑战是显而易见的,如虚假与错误消息生成以及进一步的信息过载(更多涉及公共图书馆的业务和服务)、对个人文化艺术风格和版权的侵犯(更多涉及文化馆、博物馆业务和服务)、对数据资料和用户隐私的泄露(涉及所有的公共场所或机构)等。以上问题自然需要通过建立规则予以规避,但生成式AI对专业和伦理议题带来的某些深远影响并不是那么容易直接观察到。一方面,从公共文化机构的社会使命来说,生成式AI作为新一代的信息技术,或将扩大本就深阔的数字鸿沟,限制数字弱势群体的发展机会,这无疑给秉持均等、普惠理念的公共文化服务体系带来新的挑战。另一方面,任何技术冲击最终都将转化为社会冲击,生成式AI的技术冲击看似只在内容层面,但“内容”不仅仅是“内容”,它还塑造价值观、左右文化认同,存藏和供给“内容”的公共文化机构在这一技术面前自然要慎之又慎。例如,从内部业务伦理来看,图书馆是否要收 藏生成式AI创作的文献信息?博物馆要如何处理相应的数字藏品或艺术装置?等等。更进一步地,公共文化机构要考量技术冲击背后的社会冲击,谨慎思考生 成式AI对内容的介入以及自身对前述问题的回答会如何影响国家安全、社会公共利益等重大议题。我们需要与这一技术进行长期的磨合,在外部公共性与内部机构性的互动交融中重塑专业伦理和话语。

    作者有意采纳了一条“基础要素—服务方式—业务体系—伦理内核”的分析路径。通过这一渐进的分析历程,有心者可以发现:公共文化的资源、服务、业务,最终无不由专业伦理和职业理念而引领。资源问题是基础,服务、业务是深化,而最终,当我们谈论生成式 AI 时,要面对的还是“老调重弹”却又无法绕过的专业伦理问题。

    至此,需要考量的第二个问题是:既然专业伦理如此要紧,那么我们要以何种专业态度、以怎样的职业认识应对生成式 AI 的到来?或者更直白点:身为公共文化人,我们要如何行动?

    2 超越敌友之界:“批判性且负责任地使用”

    生成式 AI 国际图书馆届的职业行动应当引起公共文化机构从业者的关注。在即将召开的2023年国际图联大会上,国际图联的数字人文/数字学术特别兴趣小 组(DH/DS SIG)和人工智能特别兴趣小组(AI SIG)就设立了一个颇为“标题党”的开放议程“面 向未来的图书馆事业,生成式AI是友是敌?”。该议程既涉及老生常谈的“XX对图书馆的挑战和影响”视角(如生成式AI在图书馆参考服务等相关业务中的应用),也提出了一些新话题,如伦理数据素养(Ethical

    data literacy)、提示工程(Prompt Engineering)等。而更早之前,人工智能特别兴趣小组提出了一份名为《面向图书馆和信息专业人员的生成式 AI(草案)》的指引性文本并在国际图联多个邮件组征询意见。或许是考虑到生成式AI发展颇为 迅猛的缘故,这份草案相当简洁,主要通过列举参考文献和资源的方式介绍生成式AI的基本定义、可能涉及的伦理和信息问题、主要用途(尤其对图书馆和信息科学领域而言)、更多可用的AI资源等。尽管简洁如斯,该草案却已然初步揭示了生成式AI对伦理道德、信息公平、数据隐私等领域的应对逻辑,在笔者看来,有一个未曾彻底言明的基本原则潜藏在这些文字之下,回应并超越了“是友是敌”的问题:图书馆应当指导用户批判性且负责任地使用生成式AI。“批判性且负责任地使用”是这一回答的“答眼”,事实上,这一原则不仅适用于图书馆用户,也适用于图书馆员乃至于更广泛的图书馆社群;不仅适用于图书馆,也适用于公共文化、信息与记忆机构及它们的利益相关方。超出图书馆和公共文化的机构化视角来看,“批判性且负责任地使用”的提法与近年国际社会对人工智能的态度大体一致,是不少国家和地区比较认同的思路。具有代表性的,欧盟在生成式 AI 爆火之后,很快调整了 2021 年拟定的《欧盟人工智能法》草案, 对生成式AI的训练数据披露、生成内容应用等内容提出了规制举措。与前期某些“封杀”的呼声不同, 欧盟在生成式 AI 管制上选择的并不是一条全面压制其 发展的道路,而是延续了“负责”与“创新”(创意性、 创造性地使用)并进的“负责任创新”之路。 我国对生成式 AI 的管理和规范问题同样反应迅 速。国家互联网信息办公室(以下简称网信办)于 2023 年 4 月发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),并在 7 月正式联合国家发展改革委、教育部、科技部等七部 门颁布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),以促进生成式 AI 的健康发展和 规范应用。从《征求意见稿》发布之日起,这一文本 就引发了产业界和学术界的热烈讨论。在《暂行办法》 发布之后,许多研究者基于《征求意见稿》与《暂行办法》的文本比对探讨两个文本之间管理思路和规范逻辑的不同之处,其基本观点是:相比《征求意见稿》, 《暂行办法》在兼顾安全责任之余,也给相关机构留出了创新和发展的空间。可以说,这一内核精神与“批判性且负责任地使用”“负责任创新”是互相呼应的。《暂行办法》对生成式人工智能 AI 提供者和使用者的责任要求贯穿全文,包括且不仅限于对法律法规的遵守,对社会公德和伦理道德的尊重,对知识产权 侵害的防范,对内容真实性、准确性、可靠性的规定, 对服务者完善处置措施的要求等。而对生成式 AI 的创新鼓励则涉及生态营造、技术探索、平台建设、算力利用等层面。值得注意的是,这种鼓励恰好在《暂

    行办法》涉及“公共文化机构”的两个条款中均有所体现。直接提及“公共文化机构”的第二条和第五条 都是支持相关机构积极探索、创新应用生成式人工智

    能的重要条款。其中,第二条属于例外条款,将“研发、应用生成式人工智能技术”,但“未向境内公众提供生成式人工智能服务的”机构排除在本办法的适用范围之外,有研究者指出,这种“不适用”的提法“说明《办法》的目的是兼顾生成式人工智能的发展与安全, 为生成式人工智能的研究与发展留足空间”“让规制对象目标更明确、针对性更强,体现出我国对生成式人工智能在研究与应用方面的支持和鼓励”。第五条则与构建良好的生态体系相关,同时支持相关机构“在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”,着力引导技术向善。

  • 原文来源:https://kns.cnki.net/kcms2/article/abstract?v=Mw9W0jY1lXAc3Xa9GnMkh6H2K-MIZPdWkCBwTq3NRSL55ITUBOuPkP7UKivBZ6W0Jon7U4YvFehVieu8NMunaL_hUl0v2TvbvYwxqUtqkmGY2qJKFF6HfAWIdDAr51lTWIFoLX5ZC54=&uniplatform=NZKPT&language=CHS
相关报告
  • 《生成式人工智能专家笔谈》

    • 来源专题:数智化图书情报
    • 编译者:于彰淇
    • 发布时间:2023-11-28
    • 2023年5月,习近平总书记在主持召开中共中央政治局会议时提出,“要重视通用人工智能发展,营造创新生态,重视防范风险”,为推动生成式人工智能的发展指明了方向。为深入贯彻落实习近平总书记的重要指示精神和党中央决策部署,2023年7月,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)。《办法》明确提出了生成式人工智能服务与管理主要原则,“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”,并从基本概念、发展举措、服务方式、监督检查、法律责任等方面提出规范要求,为生成式人工智能的健康发展提供了重要保障,是我国在人工智能治理之路上迈出的关键一步。 本刊编辑部对《办法》的制定和出台一直保持密切关注。早在2023年4月,《生成式人工智能服务管理办法(征求意见稿)》发布不久之后,编辑部即邀请多位专家聚焦这一议题,持续跟踪《办法》与生成式人工智能的进展。与以往的笔谈相比,此次专栏的独特之处可以用八个字来概括:跳出边界、奔向未来。生成式人工智能的影响力无远弗届,已经开始深入人类社会的政治、经济、文化、伦理等方方面面,这些影响力亦在互相渗透,逐步编织起一个崭新的智能时代——《办法》第五条也提出,“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系”。面对这种纵跨多行业和领域的新型技术,唯有“跳出边界”,以跨学科的宏阔视域、多领域的密切合作、全场景的实践方案,方能更好地应对其滔天翻浪式的影响和冲击;唯有以预见式的眼光、带入负责任创新的理念,汇聚多方面的思想资源和行动力量,方能奔向“积极健康、向上向善”的未来,有力地回应其带来的、复杂且复合的“技术-社会”议题!
  • 《Science | 生成式人工智能对艺术与科学的影响》

    • 来源专题:数智化图书情报
    • 编译者:黄雨馨
    • 发布时间:2023-06-17
    • 来自包括麻省理工学院在内的多个组织的 14 名研究人员在《Science》上发表了一篇评论文章,这有助于为更广泛地讨论生成式人工智能对创造性工作和社会的直接影响奠定基础。 论文链接:https://www.science.org/doi/10.1126/science.adh4451 一类新工具的功能,俗称生成人工智能 (AI),是一个备受争议的话题。迄今为止,一个突出的应用是为视觉艺术、概念艺术、音乐和文学以及视频和动画制作高质量的艺术媒体。例如,扩散模型可以合成高质量的图像,大型语言模型 (LLM) 可以在广泛的上下文中生成听起来合情合理、令人印象深刻的散文和诗歌。 这些工具的生成能力可能会从根本上改变创作者形成想法并将其投入生产的创作过程。随着创造力被重新构想,社会的许多部门架构也可能被重新构想。了解生成式人工智能的影响——并围绕它制定政策决策——需要对文化、经济学、法律、算法以及技术与创造力的相互作用进行新的跨学科科学研究。 生成式人工智能工具,乍一看,似乎完全自动化了艺术创作——这种印象反映了过去传统主义者认为新技术威胁「艺术本身」的例子。事实上,这些技术变革的时刻并不表示「艺术的终结」,而是产生了更为复杂的影响,重塑了创作者的角色和实践,并改变了当代媒体的美学。例如,一些 19 世纪的艺术家将摄影的出现视为对绘画的威胁。然而,摄影并没有取代绘画,而是最终将其从现实主义中解放出来,从而引发了印象派和现代艺术运动。相比之下,人像摄影确实在很大程度上取代了人像绘画。同样,音乐制作的数字化(例如数字采样和声音合成)被谴责为「音乐的终结」。相反,它改变了人们制作和聆听音乐的方式,并帮助催生了新的流派。与这些历史类比一样,生成式 AI 并不是艺术消亡的预兆,而是一种具有自己独特功能的新媒体。作为人类创作者使用的一套工具,生成式 AI 的定位是颠覆创意产业及其他领域的许多领域——在短期内威胁现有的工作和劳动模式,同时最终实现新的创意劳动模式并重新配置媒体生态系统。 然而,与过去的颠覆不同,生成式人工智能依赖于人类制作的训练数据。这些模型通过从现有艺术媒体中提取统计模式来「学习」生成艺术。这种对训练数据的依赖引发了新的问题——例如数据的来源、它如何影响输出以及如何确定作者身份。通过利用现有工作来自动化创作过程的各个方面,生成式 AI 挑战了作者身份、所有权、创意灵感、采样和混音的传统定义,从而使媒体制作的现有概念复杂化。因此,重要的是要考虑生成式人工智能对美学和文化的影响、所有权和信用的法律问题、创意作品的未来以及对当代媒体生态系统的影响。在这些主题中,有一些关键的研究问题可以为这项技术的政策和有益用途提供信息。 要正确研究这些主题,首先有必要了解用于描述 AI 的语言如何影响对技术的看法。「人工智能」这个词本身可能会误导性地暗示这些系统表现出类似人类的意图、代理甚至自我意识。基于自然语言的界面现在伴随着生成人工智能模型,包括使用「我」代词的聊天界面,这可能会给用户一种类人交互和代理的感觉。当这些系统造成损害时,这些看法可能会损害对创造者的信任,他们的劳动是系统输出的基础,并转移开发者和决策者的责任。未来的工作需要了解对生成过程的看法如何影响对输出和作者的态度。这可以促进系统的设计,公开生成过程并避免误导性的解释。 生成式 AI 的特定功能反过来会产生新的美学,可能对艺术和文化产生长期影响。随着这些工具变得越来越普遍,并且它们的使用变得司空见惯(就像一个世纪前的摄影一样),它们输出的美学将如何影响艺术输出仍然是一个悬而未决的问题。生成人工智能的低门槛可以通过扩大从事艺术实践的创作者群体来增加艺术产出的整体多样性。与此同时,训练数据中嵌入的审美和文化规范和偏见可能会被捕获、反映甚至放大——从而降低多样性。AI 生成的内容也可以为未来的模型提供支持,创造一个自我参照的审美飞轮,可以延续 AI 驱动的文化规范。未来的研究应该探索量化和增加输出多样性的方法,并研究生成式人工智能工具如何影响美学和审美多样性。 社交媒体平台的不透明、最大化参与度的推荐算法,可以通过产生「耸人听闻」内容与可共享内容的反馈循环,进一步强化审美规范。由于算法和内容创建者试图最大限度地提高参与度,这可能会进一步使内容同质化。然而,一些初步实验表明,在管理 AI 生成的内容时结合参与度指标在某些情况下可以使内容多样化。推荐算法会放大哪些风格,以及这种优先顺序如何影响内容创作者制作和分享的类型,这仍然是一个悬而未决的问题。未来的工作必须探索由生成模型、推荐算法和社交媒体平台之间的相互作用形成的复杂动态系统,以及它们对美学和概念多样性的影响。 生成式 AI 依赖训练数据来自动化创作的各个方面,这引发了关于作者身份的法律和伦理挑战,因此应该促使对这些系统的性质进行技术研究。版权法必须平衡创造者、生成人工智能工具的用户和整个社会的利益。如果不直接复制受保护的作品,法律可以将训练数据的使用视为非侵权;如果培训涉及基础数据的实质性转换,则合理使用;只有在创作者给予明确许可的情况下才允许;或受制于允许将数据用于培训的法定强制许可,前提是创作者得到补偿。许多版权法都依赖于司法解释,因此目前尚不清楚收集第三方数据进行培训或模仿艺术家的风格是否侵犯版权。 法律和技术问题交织在一起:模型是直接从训练数据中复制元素,还是产生全新的作品?即使模特不直接复制现有作品,也不清楚艺术家的个人风格是否应该受到保护以及如何受到保护。什么样的机制可以保护和补偿作品被用于培训的艺术家,甚至允许他们选择退出,同时仍然允许使用生成式 AI 模型做出新的文化贡献?要回答这些问题并确定版权法应如何处理训练数据,需要进行大量技术研究以开发和理解人工智能系统,进行社会科学研究以了解对相似性的看法,以及进行法律研究以将现有先例应用于新技术。 一个明显的法律问题涉及谁可以要求对模型输出拥有所有权。回答这个问题需要了解系统用户与其他利益相关者(例如系统开发人员和训练数据的创建者)的创造性贡献。AI 开发人员可以通过使用条款声明对输出的所有权。相比之下,如果系统的用户以有意义的创造性方式参与(例如,该过程不是完全自动化的,或者不模仿特定作品),那么他们可能被视为默认版权所有者。但是,用户的创造性影响力有多大才能让他们拥有所有权?这些问题涉及研究使用基于 AI 的工具的创作过程,如果用户获得更直接的控制,这些问题可能会变得更加复杂。 无论法律结果如何,生成式人工智能工具都可能改变创造性工作和就业。流行的经济理论 [即偏向技能的技术变革 (SBTC)] 假设认知和创造性工作者面临较少的自动化对劳动力的干扰,因为创造力不容易编码为具体规则(即波兰尼悖论)。然而,新工具引发了对作曲家、平面设计师和作家等创造性职业就业的担忧。这种冲突的产生是因为 SBTC 未能区分分析工作和创造性思维等认知活动。需要一个新的框架来描述创意过程的具体步骤,这些步骤中的哪些步骤可能会受到生成 AI 工具的影响,以及对工作场所要求和不同认知职业活动的影响。 尽管这些工具可能会威胁到一些职业,但它们可以提高其他人的生产力,并可能创造新的职业。例如,从历史上看,音乐自动化技术使更多的音乐家能够创作,即使收入出现偏差也是如此。生成式 AI 系统每分钟可以创建数百个输出,这可以通过快速构思来加速创意过程。然而,这种加速也可能通过消除与白板相关的原型制作的初始阶段来破坏创造力的各个方面。无论哪种情况,生产时间和成本都可能下降。反过来,对创造性工作的需求可能会增加。然而,创意产品的生产可能会变得更有效率,从而以更少的工人获得相同数量的产出。此外,许多使用传统工具(如插图或股票摄影)的雇佣工作可能会被取代。几个历史例子证明了这一点。最值得注意的是,工业革命使传统手工艺品(例如陶瓷、纺织品和炼钢)的大规模生产成为可能,而无需非手工业者的劳动;手工制品成为特产。同样,摄影取代了肖像画。音乐的数字化消除了学习物理操作乐器的限制,并使更多贡献者能够进行更复杂的安排。这些工具可能会改变谁可以作为艺术家工作,在这种情况下,即使平均工资下降,艺术家的就业率也可能会上升。 由于这些工具会影响创造性劳动,它们还会对更广泛的媒体生态系统带来潜在的下游危害。随着大规模制作媒体的成本和时间的减少,媒体生态系统可能会因合成媒体的创建而变得容易受到 AI 生成的错误信息的影响,尤其是为声明提供证明证据的媒体。这些生成逼真的合成媒体的新可能性,可能会通过所谓的「说谎者的红利」(虚假内容通过破坏对真相的信任而使说谎者受益)破坏对真实捕获媒体的信任,并且还会增加欺诈和非自愿性图像的威胁。这提出了重要的研究问题:平台干预(例如跟踪源出处和检测下游合成媒体)在治理和建立信任方面的作用是什么?合成媒体的激增如何影响对真实媒体(例如未经编辑的新闻照片)的信任?随着内容生产的增加,集体注意力可能会减少。AI 生成内容的激增反过来可能会阻碍社会在气候和民主等重要领域进行集体讨论和采取行动的能力。 每一种艺术媒介都反映和评论其时代的问题,围绕当代人工智能生成艺术的争论反映了围绕自动化、企业控制和注意力经济的当前问题。最终,我们通过艺术表达我们的人性,因此理解和塑造人工智能对创造性表达的影响是关于其对社会影响的更广泛问题的核心。对生成人工智能的新研究应该为政策和技术的有益用途提供信息,同时与关键的利益相关者,特别是艺术家和创造性劳动者本身进行接触,他们中的许多人积极参与解决社会变革先锋的难题。 相关报道:https://techxplore.com/news/2023-06-qa-art-humanity-ai.html