2023年 , 生 成 式 人 工 智 能 ( G e n e r a t i v e
Artificial Intelligence,以下简称生成式AI)的浪潮席卷全球,深刻地影响了(至少展现了影响的可能性)医疗、科技、教育等诸多当前人类文明最典型的生活场景。麦肯锡一份关于美国就业市场的报告称:
从工作时间计算,约30%的劳动会在2030年被自动化取代,而这一未来将是在生成式AI的影响下推动实现的——客观来说,麦肯锡的表述是取巧且难以验证的,但“30%”这个数字或能帮助我们从更为具化的角度感受此项技术的影响。在上述背景下,我们需要讨论两个问题:其一,生成式AI将对公共文化机构带来哪些影响?其二,面对这些影响,公共文化机构 及其从业者应当秉持何种行动原则?
1 从基础向内核:生成式 AI 对公共文化机构的可能影响
生成式 AI 展现的威能无远弗届,公共文化和相关机构自难以回避,尤其是身跨文化、信息、教育等诸多关键领域的公共图书馆行业,更成为生成式 AI 研讨中的焦点之一。综合目前的争论、研究和本课题组的调查,我们可以从资源、服务、业务(专业)和伦理等四个维度剖析生成式 AI 对公共文化机构的影响。具
体来讲,这些影响包括:
(1)重构文化资源体系。从最基础的功能层面而言,生成式 AI 是“内容生成”领域的技术,将为公共文化机构带来更为丰富、更多形态的文化/信息资源。 随着内容生成的便利化,或将重塑公共文化机构的文化/信息资源观。上述“丰富”和“多样”指的不仅仅是出版或影视行业的生产制作速度迭代加快,公共文化机构有机会获取或存藏更多内容产品;通过生成式AI的赋能,公共文化机构还可以更轻易地把已有资源转换或生产成另一种形态的资源,以开展具有针对性和专门性的服务,如博物馆可以基于数字化文物打造有创意的数字藏品;图书馆可以迅速将图书翻译为其他语言或制作成音频、盲文版图书等——这些均已出现落地的案例。
(2)拓宽个性服务边界。最早产生世界级影响力的生成式
AI 是以“Chat”的形式出现的,其特点是高度个性化的对话与互动。教育领域很快利用相应技术实现个性化教育,如可汗学院(Khan Academy) 在人工智能助手 Khanmigo 中引入 GPT-4 模型,为学生提供定制化的虚拟导师。前期调查发现,当前国内公共文化机构对生成式AI技术的应用探索也多是从个性化服务出发,主要聚焦于日常问答和参考咨询。例如,广东某图书馆已经在其新场馆内布设内置“类 ChatGPT”模块的导航机器人;另外一家机构称已经开始探索如何借助生成式 AI 提供个性化的阅读指导服务。传统的公共文化机构受限于基础服务量级大、专业人员编制少等束缚,个性化服务更多只是一种理念,实际开展比较有限(如个性化定制访问页面、 RSS 订阅服务或专业咨询服务等),而生成式 AI 有望推动其在精细化、个性化、定制化服务层面实现突破。
(3)赋能专业支持体系。同一项公共文化活动, 称其为“服务”是从用户体验的维度出发, 称之为“业务”则是从员工工作的维度出发。在面向员工的专业 支持场景中,生成式 AI 可能发挥更为积极的作用。以当前公共文化机构中最为常见的工作——举办文化活动(不管是阅读推广活动亦或艺术普及活动等)为例, 生成式 AI 在用户分析、方案制定、场景设计、创意诞生,乃至宣传海报和新闻稿生成等工作中都有其用武之地。随着迭代升级,生成式 AI 未来所能介入的工作场景及内容领域可能比我们想象的更多。当前的实践探索已经初步发现,这一技术在诸如元数据生成、文献摘要自动化、艺术风格识别和再创造等领域都具有极大的潜力。而在赋能公共文化机构专业业务的同时, 生成式 AI 也将对管理与服务人员的数字素养及更深层次的专业水准提出挑战,某种程度上而言,这也是另一个维度的专业服务体系“改造”。
(4)再塑专业伦理内涵。 如果说资源、服务和业务都是公共文化机构显而易见的“外在”,那么, 支撑这一外在的便是专业伦理与内涵。生成式AI给文化事业的专业性带来的伦理挑战是显而易见的,如虚假与错误消息生成以及进一步的信息过载(更多涉及公共图书馆的业务和服务)、对个人文化艺术风格和版权的侵犯(更多涉及文化馆、博物馆业务和服务)、对数据资料和用户隐私的泄露(涉及所有的公共场所或机构)等。以上问题自然需要通过建立规则予以规避,但生成式AI对专业和伦理议题带来的某些深远影响并不是那么容易直接观察到。一方面,从公共文化机构的社会使命来说,生成式AI作为新一代的信息技术,或将扩大本就深阔的数字鸿沟,限制数字弱势群体的发展机会,这无疑给秉持均等、普惠理念的公共文化服务体系带来新的挑战。另一方面,任何技术冲击最终都将转化为社会冲击,生成式AI的技术冲击看似只在内容层面,但“内容”不仅仅是“内容”,它还塑造价值观、左右文化认同,存藏和供给“内容”的公共文化机构在这一技术面前自然要慎之又慎。例如,从内部业务伦理来看,图书馆是否要收 藏生成式AI创作的文献信息?博物馆要如何处理相应的数字藏品或艺术装置?等等。更进一步地,公共文化机构要考量技术冲击背后的社会冲击,谨慎思考生 成式AI对内容的介入以及自身对前述问题的回答会如何影响国家安全、社会公共利益等重大议题。我们需要与这一技术进行长期的磨合,在外部公共性与内部机构性的互动交融中重塑专业伦理和话语。
作者有意采纳了一条“基础要素—服务方式—业务体系—伦理内核”的分析路径。通过这一渐进的分析历程,有心者可以发现:公共文化的资源、服务、业务,最终无不由专业伦理和职业理念而引领。资源问题是基础,服务、业务是深化,而最终,当我们谈论生成式 AI 时,要面对的还是“老调重弹”却又无法绕过的专业伦理问题。
至此,需要考量的第二个问题是:既然专业伦理如此要紧,那么我们要以何种专业态度、以怎样的职业认识应对生成式 AI 的到来?或者更直白点:身为公共文化人,我们要如何行动?
2 超越敌友之界:“批判性且负责任地使用”
生成式 AI 国际图书馆届的职业行动应当引起公共文化机构从业者的关注。在即将召开的2023年国际图联大会上,国际图联的数字人文/数字学术特别兴趣小 组(DH/DS SIG)和人工智能特别兴趣小组(AI SIG)就设立了一个颇为“标题党”的开放议程“面 向未来的图书馆事业,生成式AI是友是敌?”。该议程既涉及老生常谈的“XX对图书馆的挑战和影响”视角(如生成式AI在图书馆参考服务等相关业务中的应用),也提出了一些新话题,如伦理数据素养(Ethical
data literacy)、提示工程(Prompt Engineering)等。而更早之前,人工智能特别兴趣小组提出了一份名为《面向图书馆和信息专业人员的生成式 AI(草案)》的指引性文本并在国际图联多个邮件组征询意见。或许是考虑到生成式AI发展颇为 迅猛的缘故,这份草案相当简洁,主要通过列举参考文献和资源的方式介绍生成式AI的基本定义、可能涉及的伦理和信息问题、主要用途(尤其对图书馆和信息科学领域而言)、更多可用的AI资源等。尽管简洁如斯,该草案却已然初步揭示了生成式AI对伦理道德、信息公平、数据隐私等领域的应对逻辑,在笔者看来,有一个未曾彻底言明的基本原则潜藏在这些文字之下,回应并超越了“是友是敌”的问题:图书馆应当指导用户批判性且负责任地使用生成式AI。“批判性且负责任地使用”是这一回答的“答眼”,事实上,这一原则不仅适用于图书馆用户,也适用于图书馆员乃至于更广泛的图书馆社群;不仅适用于图书馆,也适用于公共文化、信息与记忆机构及它们的利益相关方。超出图书馆和公共文化的机构化视角来看,“批判性且负责任地使用”的提法与近年国际社会对人工智能的态度大体一致,是不少国家和地区比较认同的思路。具有代表性的,欧盟在生成式 AI 爆火之后,很快调整了 2021 年拟定的《欧盟人工智能法》草案, 对生成式AI的训练数据披露、生成内容应用等内容提出了规制举措。与前期某些“封杀”的呼声不同, 欧盟在生成式 AI 管制上选择的并不是一条全面压制其 发展的道路,而是延续了“负责”与“创新”(创意性、 创造性地使用)并进的“负责任创新”之路。 我国对生成式 AI 的管理和规范问题同样反应迅 速。国家互联网信息办公室(以下简称网信办)于 2023 年 4 月发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),并在 7 月正式联合国家发展改革委、教育部、科技部等七部 门颁布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),以促进生成式 AI 的健康发展和 规范应用。从《征求意见稿》发布之日起,这一文本 就引发了产业界和学术界的热烈讨论。在《暂行办法》 发布之后,许多研究者基于《征求意见稿》与《暂行办法》的文本比对探讨两个文本之间管理思路和规范逻辑的不同之处,其基本观点是:相比《征求意见稿》, 《暂行办法》在兼顾安全责任之余,也给相关机构留出了创新和发展的空间。可以说,这一内核精神与“批判性且负责任地使用”“负责任创新”是互相呼应的。《暂行办法》对生成式人工智能 AI 提供者和使用者的责任要求贯穿全文,包括且不仅限于对法律法规的遵守,对社会公德和伦理道德的尊重,对知识产权 侵害的防范,对内容真实性、准确性、可靠性的规定, 对服务者完善处置措施的要求等。而对生成式 AI 的创新鼓励则涉及生态营造、技术探索、平台建设、算力利用等层面。值得注意的是,这种鼓励恰好在《暂
行办法》涉及“公共文化机构”的两个条款中均有所体现。直接提及“公共文化机构”的第二条和第五条 都是支持相关机构积极探索、创新应用生成式人工智
能的重要条款。其中,第二条属于例外条款,将“研发、应用生成式人工智能技术”,但“未向境内公众提供生成式人工智能服务的”机构排除在本办法的适用范围之外,有研究者指出,这种“不适用”的提法“说明《办法》的目的是兼顾生成式人工智能的发展与安全, 为生成式人工智能的研究与发展留足空间”“让规制对象目标更明确、针对性更强,体现出我国对生成式人工智能在研究与应用方面的支持和鼓励”。第五条则与构建良好的生态体系相关,同时支持相关机构“在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”,着力引导技术向善。