《培养人工智能时代负责任和有创造力的公民——联合国教科文组织《学生人工智能能力框架》报告要点与思考》

  • 编译者: 程冰
  • 发布时间:2024-10-31
  • 随着人工智能技术在教育教学中的广泛应用,将人工智能学习目标纳入学校正式课程,培养学生人工智能能力,对于学生安全、符合伦理地使用人工智能至关重要。联合国教科文组织制定的《学生人工智能能力框架》,定义了学生在人工智能时代必须掌握的知识、技能和价值观。该框架以增强人类能动性、遵循以人为本、促进可持续发展、确保包容性和促进终身学习为原则,采用二维矩阵的方法,构建了涵盖以人为本的思维方式、人工智能伦理、人工智能技术与应用以及人工智能系统设计 4 个能力维度,横跨理解、应用和创造 3 个能力等级的 12 个人工智能能力模块。


    一、问题提出

    人工智能不仅直观地展示出其洞见未来的诸多可能,而且推动着教育新范式的形成、新文化的构建和新型学习型人才培养模式的诞生。联合国教科文组织 2024 年发布的《学生人工智能能力框架》(以下简称《框架》),界定了学生应具备的人工智能知识、技能和价值观,帮助学生了解人工智能在教育中的作用。


    二、制定原则

    (一)培养对人工智能的批判性思维方法

    (二)优先考虑以人为本的人工智能互动

    (三)鼓励环境可持续发展的人工智能

    (四)促进人工智能能力发展的包容性

    (五)培养终身学习的核心人工智能能力


    三、内容框架

    (一)二维内容结构

    (二)四个能力层面

    1. 以人为本的人工智能思维方式

    2. 人工智能伦理

    3. 人工智能技术和应用

    4. 人工智能系统设计

    (三)三个能力等级

    1. 理解等级

    2. 应用等级

    3. 创造等级


    四、应用对策

    (一)评估国家人工智能战略制定情况

    (二)开发跨学科的核心人工智能课程

    (三)设计面向未来的本地人工智能课程

    (四)定制适合年龄的螺旋式课程序列

    (五)构建支持人工智能课程的学习环境

    (六)支持人工智能教师的终身专业发展

    (七)设计基于群组的教学活动和项目

    (八)制定基于能力的人工智能评估标准


    五、简要思考

    (一)研制以人为本的国家人工智能战略,创建支持人工智能教育的数字化环境

    (二)构建新型的人工智能教师培养体系,筑牢高水平的人工智能人才队伍基座

    (三)重视人工智能工具与学科深度互融,形成人机协同的智能素养教育新生态

    (四)研发符合伦理原则的能力评估工具,动态评估和提升师生的人工智能能力

相关报告
  • 《数智时代的人工智能素养:内涵、框架与实施路径》

    • 编译者:饶海侠
    • 发布时间:2024-10-31
    • 在数字化和智能化以及人工智能(AI)快速发展的背景下,技术的进步不仅改变了我们的日常生活和工作方式,也对教育领域,特别是高等教育中的素养教育提出了新的挑战和要求。2024年2月20日,蔡迎春等在《中国图书馆学报》期刊上发表《数智时代的人工智能素养:内涵、框架与实施路径》一文。文章梳理了AI素养的内涵、框架和实施路径,提出高校图书馆应积极参与AI素养教育。通过引入KSAVE模型,构建涵盖知识、技能、态度、伦理、价值观五个领域的AI素养框架,并建议高校图书馆从跨学科知识体系构建、能力构建与实践应用、道德觉醒与责任担当三个方面开展AI素养教育,培养具有批判性思维和责任感的AI素养人才。 研究内容 文章聚焦于人工智能(AI)素养的内涵、框架以及实施路径。 1.文章探讨了AI素养的概念,认为它不仅是对AI技术的理解和应用,更是一种全面的、与时俱进的技能和知识体系,强调了AI素养在数字化和智能化背景下的重要性。接着,文章通过引入KSAVE模型,构建了AI素养的框架,该框架包括知识(Knowledge)、技能(Skill)、态度(Attitude)、伦理(Ethics)和价值观(Values)五个关键领域,这一框架为全面理解AI素养提供了理论基础。 2.文章重点分析了高校图书馆在AI素养教育中的角色和实施路径。作为长期从事素养教育的核心机构,高校图书馆被赋予了推动时代素养发展的重要使命。文章提出了高校图书馆应从跨学科知识体系构建、能力构建与实践应用、道德觉醒与责任担当三个方面开展AI素养教育,以培养适应数智时代的新型人才。 3.总结部分叙述了AI素养教育的挑战和前景,强调了高校图书馆在推动AI素养教育中的关键作用,并对未来的发展趋势进行了展望。 研究结论 1.指出人工智能素养不仅包括对AI技术的理解和应用能力,还涉及到伦理观念、价值取向以及社会责任感等多维度内容,这一结论强调了人工智能素养教育的全面性和深度,不仅要求个体掌握技术知识,还要注重伦理、价值和社会参与的培养。 2.提出了一个全面的人工智能素养框架,该框架包括知识维度、技能维度和态度、价值观和伦理维度,这一框架为人工智能素养教育提供了指导和参考,帮助教育者明确教育目标和内容,同时也为学习者提供了一个清晰的学习路径。 3.文章最后强调了高校图书馆在人工智能素养教育中的关键作用。作为知识的宝库和传播枢纽,图书馆不仅提供与AI相关的资源,还承担着推动跨学科知识整合和培养创新思维的重要任务。文章提出图书馆需要积极应对AI技术与多学科知识的融合,设计创新教育课程,并引导学生适应AI技术带来的社会变革。
  • 《欧洲议会通过《人工智能法案》》

    • 来源专题:计量基标准与精密测量
    • 编译者:李晓萌
    • 发布时间:2024-04-18
    • 近日,欧洲议会批准了《人工智能法案》(EU AI Act),该法案确保安全和遵守基本权利,同时促进创新。 该条例于2023年12月在与成员国的谈判中达成一致,获得欧洲议会议员523票赞成、46票反对和49票弃权的支持。 它旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新,使欧洲成为该领域的领导者。该条例根据人工智能的潜在风险和影响程度为其规定了义务。 被禁止的应用程序 新规定禁止某些威胁公民权利的人工智能应用程序,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情绪识别、社会评分、预测性警务(仅基于对一个人的剖析或评估其特征)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。 执法豁免 原则上禁止执法部门使用生物识别系统,除非在详尽列出和狭义定义的情况下。只有在满足严格的保障措施的情况下,才能部署“实时”RBI,例如其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。例如,这种用途可能包括有针对性地搜寻失踪人员或防止恐怖袭击。事后使用此类系统(“远程RBI后”)被视为高风险使用案例,需要与刑事犯罪相关的司法授权。 高风险系统的义务 其他高风险人工智能系统也有明确的义务(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害)。高风险人工智能使用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行)、执法、移民和边境管理、司法和民主进程中的某些系统(如影响选举)。此类系统必须评估和降低风险,维护使用日志,透明准确,并确保人为监督。公民将有权提交关于人工智能系统的投诉,并获得关于基于影响其权利的高风险人工智能系统决策的解释。 透明度要求 通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能构成系统性风险的更强大的GPAI模型将面临额外的要求,包括进行模型评估、评估和减轻系统性风险以及报告事件。 此外,人工或操纵的图像、音频或视频内容(“deepfakes”)需要明确标记。 支持创新和中小企业的措施 必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以在创新人工智能投放市场之前开发和培训创新人工智能。 引述 在周二的全体辩论中,内部市场委员会联合报告员Brando Benifei(意大利S&D)表示:“我们终于有了世界上第一部具有约束力的人工智能法律,以降低风险、创造机会、打击歧视并提高透明度。多亏了议会,欧洲将禁止不可接受的人工智能做法,工人和公民的权利将得到保护。现在将成立人工智能办公室,支持公司在规则生效前开始遵守这些规则。我们确保人类和欧洲价值观处于人工智能发展的核心”。 公民自由委员会联合报告员德拉戈斯·图多拉切(更新,罗马尼亚)说:“欧盟已经实现了这一目标。我们已经将人工智能的概念与构成我们社会基础的基本价值观联系起来。然而,除了《人工智能法案》本身,还有很多工作要做。人工智能将推动我们重新思考民主国家核心的社会契约、我们的教育模式、劳动力市场和我们进行战争的方式。《人工智能法》是一个新的起点围绕技术构建的治理模式。我们现在必须集中精力将这项法律付诸实践”。 下一步安排 该条例仍需接受律师和语言学家的最终检查,预计将在立法机构结束前(通过所谓的更正程序)最终通过。该法律还需要得到安理会的正式认可。 它将在《官方公报》上发表后20天生效,并在其生效后24个月完全适用,但以下情况除外:禁止被禁止的做法,将在生效之日后6个月适用;行为守则(生效后九个月);通用人工智能规则,包括治理(生效后12个月);以及高风险系统的义务(36个月)。 背景 《人工智能法》直接回应了欧洲未来会议(COFE)公民的建议,最具体的是关于增强欧盟在战略部门竞争力的建议12(10)、关于建立一个安全可信的社会(包括打击虚假信息和确保人类最终掌握控制权)的建议33(5)、,(3)在确保人工监督的同时,(8)可信和负责任地使用人工智能,制定保障措施并确保透明度,以及关于使用人工智能和数字工具改善公民(包括残疾人)获取信息的建议37(3)。