...

《人工智能动态快报》

  • 来源专题:人工智能
  • 编译类型:快报,简报类产品
  • 发布时间:2023-10-09
人工智能动态快报
  • 1. 智慧农业“脚步”加快,人工智能构建农业发展新引擎
    高楠
         当前,我国正处于传统农业向数字化、智能化现代农业转型发展时期,智慧农业的发展和人工智能紧密相连,以人工智能技术构建的智慧农业将成为大势所趋。人工智能在农业领域的研发及应用早已普及,这其中包括在生产环节的耕作、播种和采摘等智能机器人,也有植保方面的智能探测土壤、探测病虫害、气候灾难预警等智能识别系统,更有利用导航系统全自动耕种等机械化作业等。以下是一些生人工智能在农业中的应用领域:      农作物优化和预测: 生成式模型可以分析大量的农业数据,包括土壤、气候、作物生长情况等,从而预测最佳的种植时间、施肥量和灌溉方案。这有助于最大程度地提高农作物产量,减少浪费,并节约资源。 病虫害识别和管理: 生成式人工智能可以训练出对不同病虫害的识别模型,通过监测作物图像,及时发现并预测潜在的病害风险。这有助于农民及时采取措施,减少病虫害对产量的影响,同时也减少了农药的使用。      病虫害远程诊断: 提供图片共享、文件共享等功能,农民可以把田间病虫害样本实物图样通过系统传给专家,专家根据实际病症予以诊断并提出解决方案。 无人化设施栽培: 主要应用于果菜、花卉育苗管理、水肥一体化、病虫害防治、采收运输、加工包装等环节。      气候适应性: 生成式人工智能可以帮助农民预测气候变化对农作物产量和品质的影响,从而调整作物种植选择,以适应不断变化的气候条件。      农产品质量检测: 生成式模型可以分析图像、声音和其他传感器数据,用于检测农产品的质量和成熟度。这有助于确保农产品符合标准,提高市场竞争力。 农业机器人和自动化: 生成式人工智能可以用于开发智能农业机器人,这些机器人可以自动执行种植、收获、除草等任务,从而减轻人工劳动压力,提高生产效率。      市场预测和供应链管理: 生成式模型可以分析市场趋势和消费者需求,帮助农民和农业企业预测市场需求,优化产销匹配,减少食物浪费。      作物育种和基因进步: 通过加速基因进步,生成式人工智能有可能彻底改变作物育种。通用人工智能(AI)算法可以通过研究植物遗传学和特征的大型数据库来复制虚拟育种试验。人工智能算法预测各种育种策略的结果,帮助育种者快速找到获胜配对。      “耕种管收”环节全覆盖人工智能赋能平台系统,人工智能在农业中又有哪些应用案例呢?   江苏省淮安市盱眙县的一家桃园,枝头正挂满硕果。橙黑相间,造型酷炫的果园机器人SMART—350正借助无人驾驶技术行驶在预定路线上,巡视果园。“这款果园机器人自动驾驶距离可达5公里。加装拓展,还能满足开沟、托运、除草等需求。”中苏科技股份有限公司董事长宋成法在接受中国城市报记者采访时,详细介绍这款自研产品的应用场景,“不需要控制,植保机自动上下摇摆,喷送雾化农药,为果园驱除虫害。” 江苏省徐州市睢宁县庆安镇伙房村的智慧农场示范区内,作物正在蓬勃生长。安装在农场里的虫情测报仪和孢子捕捉仪将实时信息传输到中苏科技云平台,AI识别系统分析出虫病害类别、对作物的危害和治理方法,并且开出打药“处方图”。未来将至,人工智能发展迅速,将会应用到农业生产的方方面面,会在农业领域中可以发挥出重要的作用。  

    发布时间: 2023-08-23

  • 2. 探访机器人产业的多元化、智能化、生态化
    袁晨
       既能搬运、打磨、焊接,也会售货、拼图、浇花……近日在上海举行的第23届中国国际工业博览会上,超5万平方米的 机器人展区,成为全球范围内规模最大、 工业机器人企业参与数量最多的全产业链平台之一。令人目不暇接的“秀技艺”之外,众多 机器人展台上也刮起了多元化、智能化、生态化三股新风。   从制造业到服务业,下游 应用“多元化”   工博会是我国工业领域的国家级展会,机器人是整个工博会的高光展区。据介绍,本届工博会机器人展区汇聚了350多家国内外产业链上下游相关企业,首发300余项机器人新技术、新产品、新应用。   在人们的传统印象中,机器人往往被用来做搬运、喷涂等简单又辛苦的工种。随着机器人技术的不断进步,其下游应用场景越来越多元化。除了为汽车、日化、电子等传统产业增效,也为新能源汽车、光伏、生物医药等新兴领域赋能。   随着新能源汽车越来越多,快捷充电成为一种刚需。本土机器人品牌节卡在工博会上带来了一款新能源车充电机器人。在感应到汽车停好后,充电机器人就会自动过来取下充电枪,插入汽车充电接口。通过准确识别规划路径,机器人可以完成电动汽车插拔充电全过程,目前已在一些充电站“上岗”。   “是机器人,更是无限可能”——来自瑞士的工业巨头 abb,在近800平方米的机器人展台上发布了一系列创新机器人产品和解决方案,其中首发了一台工业教育机器人。这款机器人负载3.5公斤,相较于上一代产品,其占地面积减少了10%、重量减轻了20%。使用这款机器人的学生,将学习在不同领域和应用中部署机器人自动化。 近日在上海举行的第23届中国国际工业博览会上,一个机器人在展台上进行魔方游戏展示。新华社记者方喆摄   除了制造业,服务领域的机器人也大放异彩。冲咖啡、拼魔方、蛋雕……工博会上的机器人“技能值”满满。本土机器人品牌非夕在本届工博会上,带来了基于自适应机器人产品的智能理疗解决方案。这款产品结合人工智能、3D视觉、智能感应等先进技术,可模拟人手对人体软组织进行压揉式的物理放松与治疗。   根据工业和信息化部等十七部门今年年初印发的《“机器人+”应用行动实施方案》,到2025年我国制造业机器人密度较2020年实现翻番, 服务机器人、特种机器人行业应用深度和广度显著提升,机器人促进经济社会高质量发展的能力明显增强。   近年来,人工智能等技术的快速发展,为机器人产业带来新的可能。走在工博会机器人展区,可以感觉到现在的机器人越来越“智能化”,越来越“聪明”了。   协作机器人是机器人产业发展的一大趋势,本届工博会展出的协作机器人有上百款。相比传统工业机器人负载大、格式化,通常需要在“安全笼”中工作,协作机器人更为灵活和安全,可以配合人一起工作,满足小批量、多样化、柔性化的生产需求。   在ABB展台,展出了用于实验室领域的协作机器人,从事加药、混药和移液等任务,配合研究人员开展实验。“生物医药行业更多是小的工作站。这些地方要实现自动化,人机互动情境非常多,协作机器人就比较适合于这些场景。”ABB机器人业务部中国区市场和销售负责人王彤说。   在节卡展台,记者尝试着走近一台协作机器人,发现它的运动速度降低了,试图用手触摸机器人时,它自动停止了。“这是节卡的视觉防护相机在发挥作用,它可以灵活设置防护区域,支持多级防护,让人机协作更安全。”节卡机器人市场经理王蕾说。   据介绍,为了进一步提升机器人的感知和决策能力,节卡在工博会首发首展了自研的2.5D视觉定位技术,可以实现空间位姿动态估算,精准定位模式下精度可达到0.2毫米。   本土机器人品牌捷勃特董事长蒋耀说:“我们十分看好协作机器人市场的发展,未来将加大投资力度,继续研发创新,为中国高端智能制造助一臂之力。”   攻克关键零部件,推动机器人产业链“生态化”   近年来,我国机器人产业实现蓬勃发展。统计显示,2022年我国机器人产业营业收入超过1700亿元,工业、服务、特种机器人产量快速增长。同年,我国工业机器人装机量占全球比重超过50%,稳居全球第一大市场。   包括控制器、伺服电机和 减速机等关键零部件,曾是国产机器人发展的一大制约。过去,三大核心零部件大多是欧洲、日本企业生产。本届工博会现场,不少国内供应链企业“晒”出了最新成果,机器人产业“生态”日益完善。   比如,今年工博会的美的和 库卡联合展位上,展出了一款高精度谐波减速机产品。美的相关负责人陈世星介绍,从2019年开始,美的就开始着手谐波减速机的研发工作,2022年终于实现了量产。这款减速机,瞄准的是航空航天、半导体生产等对产品精度要求极高的领域。   来自上海张江科学城的思岚科技公司在工博会上展出了多款激光雷达。思岚科技工作人员陈德喜说:“激光雷达等传感器是智能制造的关键零部件,希望通过我们的努力能让国产机器人‘看’得更准、‘走’得更顺。”   “可以预见,未来机器人产业发展将深度融合,产业链将不断完善,深入推进智能制造的步伐。”上海机器人产业技术研究院院长黄慧洁说。

    发布时间: 2023-10-08

  • 3. 韩国加大对人工智能领域资助力度
    高楠
        2023年1月9日,韩国中小风险企业部发布2033年智能工厂建设推进计划,拟投入1462亿韩元。主要任务包括:一是重点支持建设聚焦生产信息实时采集、分析和控制的高水平智能工厂,继续支持聚焦生产信息数字化的基础型智能工厂;二是围绕半导体、核电等国家战略技术领域构建特色智能工厂,面向高碳排放行业支持建设碳中和型智能工厂;三是建设供应链型智能工厂,支持供应链上多家企业的智能工厂通过数据和网络设施进行连接;四是推动制造数据利用,为中小企业开发定制化人工智能模型;五是支持云运营商开发智能工厂综合解决方案;六是为企业进行智能工厂认定和专家咨询提供补贴。     2023年1月26日,韩国召开国家数据政策委员会第二次会议,讨论了《人工智能产业升级计划》《数据产业基本规划》等文件。会议指出,人工智能领域是数据产业的核心,韩国的目标是到2027年跃升为人工智能第三大强国。为此,政府自2023年起将向人工智能领域投资7129亿韩元,围绕三个方面推进十大重点任务:一是创造人工智能需求,包括推进服务机器人、医疗人工智能等项目,扩大人工智能在司法等公共服务领域的应用;二是支持人工智能企业成长和全球化,包括开放训练数据、预训练大模型等资源,支持国产人工智能产品开拓国际市场,在嵌入式神经网络处理器、存内计算、尖端封装等领域形成超差距技术优势,以国产人工智能半导体为基础建立超高速、低功耗数据中心;三是建立人工智能法律制度,包括制定支持培育人工智能产业的《人工智能基本法》,建立人工智能可信度检验,认证体系以及人工智能影响评估体系等。

    发布时间: 2023-06-07

  • 4. 全国首个《人工智能法示范法 1.0(专家建议稿)》发布
    高楠
         8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行。会上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组(以下简称“起草组”)发布了《人工智能法示范法1.0(专家建议稿)》(以下简称《示范法》)。据介绍,《示范法》坚持中国式治理思路,既发展,又坚持安全底线。《示范法》创设性地提出多项措施,如负面清单管理制度,同时又对人工智能产业链各主体的责任、义务划分等难题,做出回应。 《人工智能法示范法 1.0(专家建议稿)》部分要点摘录如下:      第一章 总则第四条(以人为本原则) 从事人工智能研发、提供和使用活动应当以人为本、智能向善,确保人类能够始终监督和控制人工智能,始终以促进人类福祉为最终目标。      第五条(安全原则) 从事人工智能研发、提供和使用活动,应当采取必要措施保障所研发、提供和使用的人工智能及其相关网络数据的安全。      第七条(可问责原则) 从事人工智能研发、提供和使用活动,应当分别对其研发、提供和使用活动负责。      第二章 人工智能支持与促进第十五条(人工智能发展规划) 国家实施新一代人工智能发展规划,坚持人工智能研发攻关、产品应用和产业培育共同推进,全面支撑科技、经济、社会发展和国家安全。省级以上人民政府应当将人工智能发展纳入本级国民经济和社会发展规划,并根据需要制定人工智能发展规划。      第二十条(专业人才培养) 国家支持高等院校完善人工智能领域学科布局,设立人工智能专业,推动人工智能领域一级学科建设。鼓励高等学校、科研机构和企业等开展面向人工智能领域重大科学前沿问题的基础理论研究和关键共性技术研发,承担重大科技和产业创新专项。国家支持建立有利于促进人工智能发展的项目管理创新机制、创新人才评定机制、科技成果转化激励机制等。      第二十一条(财政资金支持) 国家鼓励各地方各部门发挥投资引导基金扶持作用,聚焦人工智能核心领域与关键环节开展专项扶持。国家鼓励社会资本参与人工智能产业发展。

    发布时间: 2023-08-23

  • 5. 解读|新产业标准化领航工程实施方案(2023-2035年)
    高楠
    一、制定 《新产业标准化领航工程实施方案(2023─2035年)》 的背景是什么?   新产业是指应用新技术发展壮大的新兴产业和未来产业,具有创新活跃、技术密集、发展前景广阔等特征,关系国民经济社会发展和产业结构优化升级全局。习近平总书记高度重视新产业发展,作出构建新一代信息技术、生物技术、新能源、新材料、高端装备等一批产业增长新引擎的重要指示。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》提出发展壮大新兴产业,前瞻谋划未来产业。   标准化在推进新产业发展中发挥着基础性、引领性作用。习近平总书记强调,以高标准助力高技术创新、促进高水平开放、引领高质量发展。《国家标准化发展纲要》提出“实施新产业标准化领航工程,开展新兴产业、未来产业标准化研究,制定一批应用带动的新标准,培育发展新业态新模式”。为此,工业和信息化部联合科技部、国家能源局、国家标准委等部门制定形成《新产业标准化领航工程实施方案(2023—2035年)》(以下简称《实施方案》),持续完善新兴产业标准体系建设,前瞻布局未来产业标准研究,充分发挥新产业标准对推动技术进步、服务企业发展、加强行业指导、引领产业升级的先导性作用,不断提升新产业标准的技术水平和国际化程度,为加快新产业高质量发展、建设现代化产业体系提供坚实的技术支撑。 二、《实施方案》新产业主要聚焦哪些领域?   根据《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》《国家标准化发展纲要》等文件,综合考虑产业发展现状与发展潜力,《实施方案》主要聚焦新兴产业与未来产业标准化工作,形成“8+9”的新产业标准化重点领域。其中,新兴产业聚焦新一代信息技术、新能源、新材料、高端装备、新能源汽车、绿色环保、民用航空、船舶与海洋工程装备等8大领域;未来产业聚焦元宇宙、脑机接口、量子信息、人形 机器人 、生成式人工智能、生物制造、未来显示、未来网络、新型储能等9大领域。 三、《实施方案》推进的总体思路是什么?   《实施方案》以习近平新时代中国特色社会主义思想为指导,全面贯彻落实党的二十大精神,立足新发展阶段,完整、准确、全面贯彻新发展理念,服务新发展格局,坚持新型工业化道路,以推动新兴产业创新发展和抢抓未来产业发展先机为目标,以完善高效协同的新产业标准化工作体系为抓手,按照创新引领、应用带动、系统布局、工程推进、开放合作的基本原则,统筹推进新产业标准研究、制定、实施和国际化,充分发挥新产业标准对推动技术进步、服务企业发展、加强行业指导、引领产业升级的先导性作用,不断提升新产业标准的技术水平和国际化程度,为加快新产业高质量发展、建设现代化产业体系提供坚实的技术支撑。 四、《实施方案》的主要目标是如何考虑的?   为兼顾新产业标准化中长期发展,《实施方案》以定量与定性结合的方式,分别提出2025年、2030年和2035年的“三步走”目标,工程化推进实施。   到2025年,支撑新兴产业发展的标准体系逐步完善、引领未来产业创新发展的标准加快形成。共性关键技术和应用类科技计划项目形成标准成果的比例达到60%以上,标准与产业科技创新的联动更加高效。新制定国家标准和行业标准2000项以上,培育先进团体标准300项以上,以标准指导产业高质量发展的作用更加有力。开展标准宣贯和实施推广的企业10000家以上,以标准服务企业转型升级的成效更加凸显。参与制定国际标准300项以上,重点领域国际标准转化率超过90%,支撑和引领新产业国际化发展。   到2030年,满足新产业高质量发展需求的标准体系持续完善、标准化工作体系更加健全。新产业标准的技术水平和国际化程度持续提升,以标准引领新产业高质量发展的效能更加显著。   到2035年,满足新产业高质量发展需求的标准供给更加充分,企业主体、政府引导、开放融合的新产业标准化工作体系全面形成。新产业标准化发展基础更加巩固,以标准引领新产业高质量发展的效能全面显现,为基本实现新型工业化提供有力保障。 五、《实施方案》的重点任务是什么?   《实施方案》根据新产业发展不同阶段的标准化需求,分解设置了五项主要任务,回答了新产业标准化需要“做什么”与“怎么做”的问题。   一是建体系:完善高效协同的新产业标准化工作体系,主要包括协同推进新产业发展战略、规划、政策、标准实施,协同推进新产业各类型标准研制,协同推进新产业标准全生命周期管理,协同推进新产业技术基础标准化建设,协同推进新产业标准化技术组织建设与管理,协同推进大中小企业标准化融通发展等六项具体工作。二是强能力:强化标准支撑产业科技创新体系建设的能力,提升标准与产业科技创新联动水平、提升先进适用科技创新成果向标准转化水平、提升标准制定质量水平、提升标准制定效率水平等四方面工作。三是抓新兴:全面推进新兴产业标准体系建设,明确新一代信息技术、新能源、新材料、高端装备、新能源汽车、绿色环保、民用航空、船舶与海洋工程装备等8个新兴产业重点标准研制方向,并以专栏形式细化分解标准研制重点。四是谋未来:前瞻布局未来产业标准研究,提出元宇宙、脑机接口、量子信息、人形机器人、生成式人工智能、生物制造、未来显示、未来网络、新型储能等9个未来产业标准研究方向。五是拓空间:拓展高水平国际标准化发展新空间,主要有扩大标准制度型开放、加快国际标准转化、深度参与国际标准化活动、推动构建良好的国际标准化合作环境等四项工作。 六、如何保障《实施方案》的落地实施?   《实施方案》提出五个方面的保障措施。一是加强组织领导,统筹推进各项任务实施。二是加大资源投入,推动国家科技计划项目和重大产业化专项加大对标准研究的支持力度。三是动态考核评估,加强方案实施情况的动态监测和效果反馈,做好新产业标准化工作新进展、新成效的总结和推广。四是健全人才队伍,鼓励标准化研究机构培养和引进标准化高端人才,加强国际标准化研究机构建设。五是注重宣传激励,支持在新产业标准化工作方面做出突出贡献的单位和个人参与国家级奖励的评选表彰。 .

    发布时间: 2023-08-23

  • 6. 各国人工智能计划的关注重点有何规律
    高楠
    2023年4月25日,布鲁金斯学会(Brookings Institution)发布其技术创新中心客座高级研究员Kevin C. Desouza,加拿大皇家军事学院(Royal Military College of Canada)管理系教授James S. Denford以及美国亚利桑那州立大学凯瑞商学院(W. P. Carey School of Business) 助理教授Gregory S Dawson共同撰写的评论文章《WEIRD AI:了解各国在其人工智能计划中包含的内容(WEIRD AI: Understanding what nations include in their artificial intelligence plans)》。本文从34个已制定公共人工智能政策的国家的基本国家特征的角度出发,分析了这些国家的战略要素及其战略动力,以及在文化取向上相似的国家是否对人工智能政策采取了相同的方法。   首先,作者分析了各个国家的人工智能计划中的数据管理、算法管理等六个关键要素,以从中了解各个国家如何进行人工智能部署,并按照“WEIRD框架”将国家分组,来研究其文化相似性。六要素中的数据管理是指国家设想如何获取和使用从人工智能获得的数据;算法管理涉及到国家对算法问题的认识;人工智能治理指的是人工智能的包容性、透明度和公众信任,以及适当监督的必要性;研发能力发展的重点是政府对私营部门投资人工智能的激励计划;教育能力发展的重点是人们在中学、高等教育和职业阶段对人工智能的学习,公共服务改革能力发展的重点是将人工智能应用于面向公民或支持公民的服务。“WEIRD框架”是基于西方的、受教育程度、工业化程度、富裕程度和民主程度(Western,Educated, Industrialized, Rich, and Democratic)进行国家类型分类,以确定它们在通过共同的国家假设和偏见形成的类似决策过程的基础上对各种问题的处理是否有共同之处。文章中的“西方”使用《世界人口评论》对拉丁文西方的定义,即是否属于以西欧及其后殖民时代的足迹为中心,拥有共同语言和文化背景的国家。“受教育程度”是基于联合国人类发展指数中的平均受教育年限,其中12年(高中毕业)被认为是高教育和低教育之间的分界点。“工业化”采用世界银行的国内生产总值工业增加值,按照人均增加值的中位数3500美元将高工业化和低工业化分开。“富裕”采用瑞士信贷全球财富数据库中衡量每个成年人的平均财富,其中12.5万美元的财富是各国的中值。“民主”采用经济学人智库的民主指数,该指数区分了民主和专制政权的不同程度,其中混合政权的中点(5.0分)是民主和非民主的分界点。图1描绘了研究样本中的34个国家,具体如下。结果来自于纯粹的WEIRD国家,包括许多西欧国家和一些密切的贸易伙伴和盟国,如美国、加拿大、澳大利亚和新西兰。所有34个国家根据它们具有的西方、受教育、工业化和民主等属性的排列组合和分类。   其次,作者通过定性配置分析(Qualitative Configuration Analysis,QCA)比较每个国家分组与六个要素的存在与否,阐释了各国“WEIRD框架”分类和人工智能战略之间的相关性和每个国家如何单独看待人工智能以及在其特定分组中的情况。首先,在数据管理方面,拥有高度发达计划的国家有三种不同的配置。对于第一种配置为WeIRD国家(如法国、意大利、葡萄牙和西班牙)来说,“属于西方国家”是预测其是否将数据管理纳入人工智能计划的最佳因素,没有受过教育也是核心因素,因为这很可能会使这些国家意识到他们需要在数据管理方面迎头赶上。对于第二种配置的WEIrD国家(捷克、爱沙尼亚、立陶宛和波兰等)来说,民主是核心,也是预测其如何制定人工智能计划的最重要的因素,这表明这些国家已经有效地制定了数据管理计划,并将联合其民主盟友来达成目的。对于第三种配置的weirD国家(墨西哥、塞尔维亚、乌拉圭和印度等)来说,唯一重要的因素是民主程度,这些国家能够在低财富、低教育和低工业化的背景下做到这一点,表明了投资人工智能数据管理作为低成本建立人工智能政策的重要性。综合来看,这些国家有许多共同点,但一个国家属于西方国家和/或民主国家是预测一个国家如何在其计划中制定数据治理战略的最佳因素。文章还研究了哪些原因导致一些国家缺乏高度发展的数据管理计划。例如,既不富裕也不民主是wEIrd国家(俄罗斯、阿联酋)的核心原因,不属于西方国家,但受过高等教育是wEIRD国家(日本和韩国)中的核心原因。这两个组合的共同点都是工业化国家,但不是西方国家。其次,在算法管理方面,除了WeriD国家(墨西哥、塞尔维亚和乌拉圭)外,没有明显的模式显示某一类国家承认算法管理的价值。算法管理的低结果有两种配置,第一种wEIRD(日本和韩国)以及weIRD(新加坡)的核心条件是富裕和民主,第二种wEIrd(俄罗斯和阿联酋)的核心条件是不富裕和不民主,这两种配置的共同点是不属于西方国家,但属于工业化。第三,在人工智能治理方面,除了WeirD国家(墨西哥、塞尔维亚和乌拉圭)以外没有明显的人工智能治理高结果模式。而人工智能治理的低结果对应有三种不同的配置,第一种wEIRD以及weIRD,其核心原因是不属于西方国家,但属于富裕和民主国家,第二种wEIrd的核心要素是受教育,第三种weirD的核心要素是民主。六个国家的三种配置的共同点是不属于西方的分类。这三点都表明西方国家普遍比非西方国家更关心数据管理、算法管理和人工只能治理的问题。   最后,作者分析了其余三个关键要素,并从东、西方国家发展的不同出发,给出切实建议。在研发能力发展方面,东、西方国家一样,无论民主与否,同样注重能力发展和研发投资。高研发能力有四种配置,第一种配置是WEIRD国家和WEIrD国家,对于后者来说,他们虽然不是较富裕的国家,但他们仍然设法在研发方面进行大量投资。第二种配置的WeirD国家的加入是由于其普遍的民主性质,但教育、工业化和财富水平较低。第三种配置包括非西方、非民主的国家,如welRd国家(卡塔尔),对这些国家来说能力发展相较于其他要素是最重要的,其投资于人工智能的应用比其治理要重要得多。第四种配置包括非西方但民主的国家,如wEIRD国家(日本、韩国)和weIRD国家(新加坡)。在高教育能力发展方面,有WEIrD和WeirD两种配置,共七个国家,其都具有属于西方、民主但不富裕的核心条件,并且这些国家似乎正专注于创造教育机会,以便在人工智能领域追赶其他国家。三种低教育能力发展的配置则包括,第一种wEIRD国家(日本和韩国)以及weIRD国家(新加坡),第二种weIRd国家(卡塔尔),而第三种wEIrd国家(俄罗斯和阿联酋)以及weirD国家(印度),这些国家的共同因素是非西方国家。这表明改善人工智能结果而进行的教育投资主要是西方现象,与其他计划要素无关。作者就公共服务改革能力发展指出,目前没有发现任何一致的高公共服务改革能力发展的配置,但有三种对此类计划的低投资配置。第一种是wEIRD国家(日本和韩国),第二种是weIRd国家(卡塔尔),第三种是weirD国家(印度),其共同核心因素是它们都不是西方国家。作者表示其期望各国在包括某些要素方面有更多的共同点,但研究结果的零散性可能反映了各国仍处于人工智能应用的早期阶段,仍在不断摸索,但随着时间的推移,WEIRD国家将开始在什么是重要的方面趋于一致,并在他们的国家计划中得到反映。同时,东、西方在其计划中对人工智能发展采取了非常不同的方法:东方几乎只专注于建立其研发能力,在很大程度上忽视了技术管理的传统“护栏”(例如,数据治理、数据管理、教育、公共服务改革),而西方国家几乎只专注于确保这些“护栏”是否到位,在建设对人工智能发展至关重要的研发能力方面花费的精力相对较少。许多西方技术领袖呼吁暂停人工智能发展六个月,以让合适的”护栏”到位,但面对中国的领先地位,唯一审慎的策略是在继续从事人工智能发展的同时建立“护栏”,否则即使西方开发出一套伟大的“护栏”,也没有有价值的东西可以守护。

    发布时间: 2023-06-09

  • 7. 一文剖析:决定未来的十大人工智能技术
    高楠
    人工智能(AI)不仅仅是一个技术流行语,其是一种迅速重塑我们生活和工作方式的变革力量。当我们站在一个新时代的顶端时,人工智能技术已经做好了未来的准备,在各个领域释放出前所未有的可能性。从医疗保健到金融、从教育到自治系统,人工智能的影响是普遍而深远的。   本文将深入探究主导未来的十大人工智能技术。这些技术是人工智能创新的前沿,,是解决复杂问题、提高效率和重新定义行业的关键。 1、自然语言处理(NLP)   自然语言处理(NLP)是人工智能领域的先锋力量,其使机器不仅能够理解,而且能够解释和生成人类语言。这种源于语言学、计算机科学和机器学习原理的变革性技术正以惊人的速度发展。随着人工智能不断突破界限并解锁新功能,NLP应用将经历显著的改进。 2、计算机视觉   计算机视觉是人工智能的基石,赋予机器以非凡的能力来解释和理解来自我们周围世界的视觉信息。这种多方面的技术已经超越了科幻小说的领域,在许多行业都有广泛的应用,有望在医疗保健、自动驾驶汽车、安全和增强现实等领域实现突破性的变革。 3、强化学习   强化学习是机器学习的一个迷人的子集,其是一种深刻的变革技术,超越了单纯的数据驱动的洞察力。其引入了智能体的概念,通过与环境的直接互动来学习和进化,就像人类通过试错获得技能一样。在追求奖励或目标的驱动下,这种动态过程赋予了机器做出适应性决策的能力,预示着 机器人 、游戏和自主系统创新的新时代的到来。 4、对抗性生成网络(GAN)   GAN用于生成与现实世界内容非常相似的合成数据、图像和视频。其在艺术、娱乐和创造逼真的模拟中找到了应用,推动了创造力的界限。 5、自治系统   人工智能驱动的自主系统,如自动驾驶汽车和无人机,正变得越来越复杂。这些系统将改变运输、配送服务和监控,提高效率和安全性。 6、医疗保健中的人工智能   人工智能在疾病诊断、药物发现和个性化治疗计划方面的应用有望彻底改变医疗保健行业。人工智能驱动的远程医疗和健康监测将改善患者护理和可及性。 7、边缘人工智能   边缘人工智能在设备上本地处理数据,而不是依赖于集中式云服务器。这项技术将为物联网设备、工业自动化和智慧城市等应用带来更快的实时决策。 8、金融领域的人工智能   人工智能技术正在通过算法交易、欺诈检测和机器人顾问重塑金融行业。人工智能驱动的洞察力和预测将推动更明智的财务决策和风险管理。 9、教育领域的人工智能   人工智能驱动的个性化学习平台正在根据个人需求定制教育。虚拟导师、适应性评估和数据驱动的见解将增强所有年龄段学生的学习体验。 10、人工智能道德与治理   随着人工智能技术的进步,道德考虑和治理变得至关重要。未来将更加关注负责任的人工智能开发、透明度和监管,以确保人工智能造福社会而不是损害。

    发布时间: 2023-10-08

  • 8. ChatGPT创造者谈最大担忧 吁美政府加强人工智能监管
    高楠
     中新网 5月17日电 据外媒报道,当地时间16日,开发ChatGPT的美国人工智能公司OpenAI的首席执行官(CEO)山姆·阿尔特曼在参议院一场听证会上,呼吁美国政府加强对快速发展的人工智能领域的监管。  据报道,阿尔特曼在参议院司法委员会下属的隐私、技术和法律委员会举办的听证会上就人工智能监管表示,他支持成立一个联邦机构,对具有某些“关键能力”的人工智能模型设立许可证制度。如果模型不符合政府制定的安全准则,则可以撤销其许可。  他还建议,政府应为高性能人工智能模型制定安全标准,并制定模型必须通过的特定功能测试。 当地时间2023年5月16日,OpenAI首席执行官山姆·阿尔特曼 (Samuel Altman) 出席参议院司法委员会下属的隐私、技术和法律委员会举办的听证会。  阿尔特曼虽未明确说明监管门槛的标准,但他表明,“政府监管、干预对于降低人工智能工具所带来的风险至关重要”。  当被问及他对人工智能的最大担忧时,阿尔特曼表示,“我最担心的是,我们——这个领域、这项技术、这个行业——会对世界造成重大伤害。我认为这可能会以很多不同的方式发生……我认为,如果这项技术出了问题,它可能会出很大的问题。”  他说,“我们希望对此发表意见。我们希望与政府合作,防止这种情况发生。但我们必须对此保持清醒的头脑。”  OpenAI2022年发布了聊天机器人程序ChatGPT。ChatGPT能够通过理解和学习人类语言来进行对话,甚至撰写文案等。  ChatGPT发布后立刻引发各界关注。有教育工作者担心ChatGPT会导致学生在完成作业时作弊,也有专家担忧ChatGPT会误导公众、违反版权保护法规等。  今年3月,美国推特公司CEO马斯克和人工智能领域顶尖专家本吉奥等千人联名签署了一封公开信,主张在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的,并呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。  5月初,美国副总统哈里斯会见了微软、谷歌和另外两家开发人工智能的公司的负责人,讨论人工智能的潜在风险。拜登政府明确向这些企业高层表示,他们必须在推出产品之前确保其安全性。  随着ChatGPT等人工智能应用快速发展,部分国家政府机构开始重视该应用并对其加强监管。据此前报道,3月,意大利个人数据保护局宣布,暂时禁止使用ChatGPT。美欧多所大学已禁止学生使用ChatGPT,纽约市教育局禁止当地的公立学校电脑以及网络使用ChatGPT。

    发布时间: 2023-06-09

  • 9. 数字经济与人工智能监管
    高楠
    在数字经济及平台监管方面,市场监管总局公布《公平竞争审查条例(征求意见稿)》,向社会公众征求意见。北京  互联网法院通过案件审判明确付费会员权益应涵盖至该自然日的全部时间。 在数据安全及个人信息保护方面,工信部就四项有关汽车的强制性国家标准公开征求意见,两项聚焦于汽车数据安全。丰田汽车因人为错误致日本215万用户的车辆数据已被公开十年,面临数据泄露风险。超23.7万名美国政府雇员数据遭泄露。 知识产权保护方面,“同人作品第一案”金庸诉江南案终审宣判,法院认定构成著作权侵权和不正当竞争。AI孙燕姿等火爆平台,引起多种担忧。 目光转向海外。当地时间5月11日,欧盟通过《人工智能法(The AI Act)》提案的谈判授权草案。欧盟委员会近期根据《数字服务法》划定总计19个超大型平台。 数字经济及平台监管 1.市场监管总局公布《公平竞争审查条例(征求意见稿)》      5月12日,市场监管总局官网公布《公平竞争审查条例(征求意见稿)》(以下简称《条例》),通过在行政法规层面作出制度性规定,进一步完善公平竞争审查制度,切实强化竞争政策基础地位,促进加快建设高效规范、公平竞争、充分开放的全国统一大市场,助力构建新发展格局,推动高质量发展。    《条例》为总则、审查内容、审查程序、监督保障、附则五章,共41条。在审查内容方面,《条例》新增对审查内容的总体要求,对市场准入和退出、商品和要素自由流动、影响生产经营成本、影响生产经营行为等四方面审查内容做了进一步完善。同时,《条例》进一步完善了例外规定的适用情形,并优化了适用条件,规定了比例原则,增强针对性和指导性。 审查程序方面,《条例》在以自我审查为主的基础上,在地方层面建立了重大政策措施公平竞争审查会审制度。《条例》规定四种情形,属于规定情形之一的政策措施,政策制定机关在作出公平竞争审查结论后,应当提请本级公平竞争审查工作协调机制办公室开展会审。 2.北京互联网法院:付费会员权益应涵盖至该自然日的全部时间.      近日,北京互联网法院审结了石某诉A公司网络服务合同纠纷一案。双方产生争议的焦点在于会员服务结束的时间应为2021年7月9日20时46分48秒还是该日24时。      法院认为,会员权益应涵盖至该自然日的全部时间。首先,涉案会员服务协议相应条款中关于服务期限届满的计算单位表述为“日”,按照一般理解,“日”应该涵盖该自然日的全部时间。其次,涉案会员服务协议属于格式条款,在存在两种解释时,应按照有利于非格式条款提供方进行理解。此外,被告在其网站的“帮助中心”中对于会员有效期的说明,虽然不是涉案会员服务协议中的内容,但是也具有对相应格式条款进行解释的效果。由于“到期时间”的提示在用户充值成为会员后方可查看,不能视为在合同成立之前已经明确告知用户的内容。综上,被告提前结束向原告提供会员服务的行为构成违约,应承担相应的违约责任。 法院判令被告A公司向原告石某的账号提供VIP会员权益一日,驳回原告石某的其他诉讼请求。目前,该案判决已经生效。 南财点评:该案的亮点主要在于:一是明确了常见的会员平台服务的法律性质和法律效力,在该案中,法院将《VIP会员服务协议》认定为格式条款;二是明确了非以“协议”形式存在的官网说明为服务协议的组成内容;三是明确会员权益届满的计算方式,认定服务协议中的“日”应当涵盖自然日的全部时间。 数据安全及个人信息保护 1.汽车信息安全再添新标:严控智能网联汽车自动驾驶数据记录      近日,工信部就四项有关汽车的强制性国家标准公开征求意见,其中《汽车整车信息安全技术要求(征求意见稿)》与《智能网联汽车自动驾驶数据记录系统(征求意见稿)》两项聚焦于汽车数据安全。    《汽车整车信息安全技术要求(征求意见稿)》提出,应建立包括车辆的开发阶段、生产阶段及后生产阶段在内的车辆全生命周期的汽车信息安全管理体系。该体系涉及企业内部信息安全管理,车辆信息安全风险识别与处理,车辆信息安全测试,监测、响应、上报针对车辆的网络攻击和威胁,以及相关主体之间信息安全依赖关系五个方面的流程。同时,提出车辆不得直接通过车辆自身的数据出境功能或接口向境外传输数据,以避免大批车辆避开管理部门的监管向境外直传数据。    《智能网联汽车自动驾驶数据记录系统(征求意见稿)》对自动驾驶的数据记录、存储、读取等做出了严格规定,要求自动驾驶数据记录系统应记录车辆及自动驾驶数据记录系统基本信息、车辆状态及动态信息、自动驾驶系统运行信息、行车环境信息和驾驶员操作及状态信息五类数据元素。同时,区分了A级和B级车辆数据元素,其中A级数据元素指的是配备自动驾驶数据记录系统的车辆应记录的数据元素;B级数据元素指的是配备自动驾驶数据记录系统的车辆在相关功能处于自动驾驶系统调用的状态时应记录的数据元素。 南财点评:尽管此次出台的征求意见稿体现了多方面的考量与进步,但《汽车整车信息安全技术要求》等文件对与已有的信息安全制度衔接机制尚未明确,如网络安全等级保护、车联网定级备案等制度,如果未来相关制度的衔接机制不明确,可能会导致企业需要就信息安全进行重复建设。 2.丰田汽车:人为错误致日本215万用户车辆数据公开十年 或存数据泄露风险 丰田汽车公司周五表示,由于云环境中的设置错误,日本215万用户的车辆数据已被公开了十年。报道称,这几乎涵盖自2012年以来注册其主要云服务平台的全部客户群。这起事件也影响了其豪华品牌雷克萨斯的客户。丰田公司发言人说,这个问题从2013年11月开始,一直持续到4月中旬,源于人为错误,导致一个云系统被设置为公共的而不是私人的。该公司说,数据可能包括车辆位置和车辆设备的识别号码等细节,但没有关于恶意使用的报告。 3.超过23.7万名美国政府雇员数据遭泄露.     据海外网消息称,当地时间12日,美国交通运输部向国会报告称,该机构超23.7万名联邦雇员的个人信息遭泄露。 此次事件影响11.4万名现任员工和12.3万名前员工,他们都从美国交通运输部领取福利津贴。美国交通运输部表示,事件并未影响任何运输系统,但目前尚不清楚是否有任何个人信息被用于犯罪目的,将展开进一步调查。 知识产权保护 1.  “同人作品案”终审宣判 法院:构成著作权侵权和不正当竞争      近日,广州知识产权法院对“同人作品案”作出终审判决。 2016年,金庸将江南告上法庭起诉《此间的少年》侵权,被誉为“同人作品”第一案。2018年,该案一审判决后原告被告均提起上诉。二审期间,金庸去世,林某怡系其遗产执行人并作为上诉人参加了诉讼。      对于人物名称、人物关系、基本性格特征等元素能否构成作品的部分内容,《此间的少年》是否侵害查良镛作品著作权,是否构成不正当竞争,各执一词,莫衷一是,成为讼争焦点。 二审法院审理认为,认定被诉侵权行为分别构成著作权侵权和不正当竞争,判令被诉侵权作品《此间的少年》作者立即停止不正当竞争行为,并登报声明消除影响,赔偿经济损失168万元及为制止侵权行为的合理开支20万元,北京联合出版公司、北京精典博维公司就其中33万元承担连带赔偿责任。 二审法院考虑到《此间的少年》与《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品在人物名称、性格、关系等元素存在相同或类似,但情节并不相同,且分属不同文学作品类别,读者群有所区分。为满足读者的多元需求,衡平各方利益,促进文化事业的发展繁荣,采取充分切实的全面赔偿或者支付经济补偿等替代性措施的前提下,不判决停止侵权行为。但明确《此间的少年》如需再版,则应向《射雕英雄传》《天龙八部》《笑傲江湖》《神雕侠侣》四部作品的权利人支付经济补偿。从《此间的少年》所利用的元素在全书中的比重,酌情确定经济补偿按照其再版版税收入的30%支付。 2. AI孙燕姿爆红网络 面临多种侵权风险      一段时间以来,AI孙燕姿爆火网络。在相关平台上,你可以听到AI孙燕姿的各类单曲,比如《我记得》、《发如雪》、《下雨天》等,每天多首发歌频率,得到了广泛的喜爱。值得注意的是,这并不是孙燕姿本人演唱的歌曲,而是在So-VITS-SVC 4.0技术的帮助之下,对孙燕姿的声音数据进行训练得到模型,通过模型推理,最终实现声音替换。 南财点评:AI歌手出现的背后,或涉嫌侵犯歌手本人声音权,以及音乐词、曲作者著作权等。同时,考虑互联网上公开传播,导致任何人都可以在选定时间、地点不受限制的接触,一般会认为超出“必要范围”,相关行为一般不构成合理使用。 海外动态 1.欧洲议会通过关于《人工智能法》提案的谈判授权草案      欧洲议会的官网消息显示,当地时间5月11日,欧洲议会两个关键委员会:内部市场委员会和公民自由委员会,通过《人工智能法(The AI Act)》提案的谈判授权草案。 草案将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。      草案提出了新的保障措施,并禁止各种危险用例,包括禁止在公共场所进行大规模面部识别程序,以及禁止使用预测性警务系统(即AI犯罪预测系统)。草案还要求建立一个公共数据库,记录政府部门部署的“高风险”人工智能系统,公开数据,以便公民能够了解他们将何时以及如何受到这项技术的影响。 这一草案将于6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。欧洲议会声明显示,一旦获得批准,这将成为全世界首部有关人工智能的法规。 2.欧盟数字服务法新动态:划定首批大型平台、成立算法透明中心      近日,欧盟委员会通过了《数字服务法》(Digital Services Act,以下简称“DSA”)下的第一批确定决议,划定总计19个超大型平台,这些平台将履行欧盟规定的一系列义务。 根据《数字服务法》, 在2023 年 2 月 17 日每月活跃用户达到4500万及以上的平台将被认为是大型平台。此次划定了17个超大型在线平台(Very Large Online Platforms,以下简称“VLOP”)和2个超大型在线搜索引擎(Very Large Online Search Engines,以下简称“VLOSE”)。其中VLOP包括:阿里巴巴全球速卖通、亚马逊商店、苹果应用商店、谷歌地图、TikTok、推特、维基百科等,而VLOSE则是必应、谷歌搜索。 在接下来四个月内,这些平台需要履行DSA规定的多项义务。包括发布关于内容审核决策和风险管理的透明度报告;识别、分析和缓解平台的系统性风险等。 南财点评:DSA对超大型平台和搜索引擎提出了更加全面的监管要求,在算法治理方面的要求也更为直接和明确。DSA的落地施行、算法透明度中心以及划定超大型平台体现了欧盟打造人工智能领域规范性力量的野心。当前,人工智能革命的浪涌给算法透明带来了新的影响和挑战,未来,监管、企业侧均应发力实现算法综合治理。

    发布时间: 2023-06-09

  • 10. 英国发布人工智能监管白皮书
    高楠
    3月30日,一封发布自安全机构生命未来研究所的联名信让人们意识到,技术成果日新月异的背后,对人工智能潜在风险和危害的担忧也在与日俱增。“让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲入秋天。”联名信以此为结尾,呼吁暂停相关AI研究,直到各方协商后制定出相关安全协议。      风口浪尖之上,近日,英国政府发布了针对人工智能产业监管的白皮书(下称“白皮书”)。 白皮书提出了监管人工智能的新方法,并概述了监管机构应考虑的5条明确原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。 受访专家指出,在白皮书提出的五项原则中,透明度和可解释性作为人工智能技术研究和应用的基础,需要得到特别重视。此外,白皮书提出的在现有法律框架下对人工智能治理的思路,以及可信人工智能、监管沙盒等举措,能够在防范潜在风险的同时促进产业发展,对我国未来的人工智能治理有一定借鉴意义。      AI治理的五个原则      “人工智能不再是科幻小说中的东西,其发展惊人,我们需要有新的规则来确保它安全地发展。”英国科学、创新和技术部(DSIT)部长表示。 在白皮书中,DSIT概述了针对ChatGPT等人工智能治理的五项原则,分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性和补救性。      具体而言,安全性和稳健性指人工智能应用应当以安全和稳健的方式运行,并持续识别、评估和管理风险,监管机构可采取举措确保人工智能系统整个生命周期按预期可靠运行;透明度和可解释性指开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配使用人工智能带来的风险;公平性指人工智能的使用方式应符合英国现行法律,例如《2010年平等法》或英国GDPR,不得歧视个人或创造不公平的商业结果;可竞争性和补救性则指需要有明确的途径来质疑人工智能产生的有害结果或决定。      “透明度和可解释性是技术发展的关键要素,也是人工智能保证可信任度的基础。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括解释道,也因此,其他原则的贯彻实施都以透明度和可解释性为基础。“这也是目前人工智能产业中各参与主体特别关注并投入资源建设的重点区域。”他说。      白皮书显示,英国政府将避免可能扼杀创新的严厉立法,并采取适应性强的方法来监管人工智能。英国计划在其人权、健康和安全以及竞争监管机构之间分配管理人工智能的责任,而不是创建一个专门负责该技术的新机构。 在吴沈括看来,人工智能治理的相关问题和目前现行的法律制度之间存在一定的逻辑关联和事实匹配,因此,现行法律仍能治理人工智能技术的相关问题。 不过他也指出,技术发展过程中出现的算法透明度、人工智能伦理等问题是最初法律制定过程当中难以预见的。“因此我认为,适时研判并引入专项人工智能法律规则有其必要性。”他表示。 据了解,在接下来的12个月里,英国监管机构将向人工智能公司发布实用指南,以及其他工具和资源,如风险评估模板,以阐明如何在其行业中实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管机构始终如一地考虑这些原则。      失控和刹车?       耐人寻味的是,白皮书推出的时间点,正值ChatGPT等高级AI技术遭受质疑的风口浪尖。 就在白皮书发布前不久,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的系统至少六个月,理由是这种系统对社会和人类构成潜在风险;同时,要求在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。      图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。甚至OpenAI CEO Sam Altman的名字一度也出现在公开信上,尽管不久之后便无端消失。 这封信在产业界掀起了轩然大波。 对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,这封联名信及其呼吁反映了科技从业者、技术社群、社会公众以及监管机构对于人工智能的技术信任焦虑。“在技术展现其强大力量和极高发展速度的情况下,规则缺位带来的人工智能技术的种种不确定性将会影响人们对这一技术的信任。”      此次英国发布的人工智能产业监管白皮书所搭建的监管体系,能否有效让存在“失控”风险的AI“悬崖勒马”,在一定程度上提振行业的发展信心? 吴沈括表示,英国对新兴产业,如数字经济等的监管展现出实用主义色彩。其监管主要目的是增强英国市场的吸引力和活力,推动本国产业的发展,因此也更具产业友好性。 “此次产业白皮书的发布,将进一步提升监管框架的确定性、明确性,有利于增强该国甚至外国投资者的信心。”他说。      据媒体报道,英国在近日宣布将投资9亿英镑(约合人民币 75.06亿元)来打造百亿亿级(exascale)超级计算机。这样的超级计算机将被用于创建类似于ChatGPT的语言模型,并暂时命名为“BritGPT”。英国政府认为“BritGPT”将为英国在人工智能领域发展带来新的机遇。      可信AI、监管沙盒等举措助力我国产业发展      虽然人工智能并非近几年才出现的新概念,但该市场目前正处在起步发展阶段,而我国、乃至全世界对应的规则、监管机构还在逐步建构和明确。英国此次公布的监管举措及整体框架对我国未来的人工智能治理有一定的借鉴意义。 人工智能技术是否值得信任,是横亘在技术的理论和实际应用间的重要问题。英国政府在白皮书中宣布将提供相关技术和技术标准保障可信人工智能的落地,具体举措包括提供保证技术工具箱衡量研发流程中的可信度,计划分类分层拟定技术标准等。      “未来,可信人工智能仍然是各国在人工智能监管工作中的重点。”张欣指出,只有技术被确保可信,人工智能技术的研发和产业应用才能放心迈开脚步。 近年来,人工智能领域内可信人工智能的研究与应用步伐都在加快。中国信通院数据显示,截至2022年 4月,全球可信人工智能领域相关论文数量论文共计 7059 篇。美国、中国、英国是可信人工智能领域论文发表的主要国家,三国发表的论文总数占全球论文总数 53%以上。 此外,在具体举措上,英国政府还表示,将资助2万英镑建立一个监管沙盒,为人工智能企业提供测试环境。企业可以测试如何将监管应用于人工智能产品和服务,以支持创新者将新想法推向市场。而不会受监管规则的约束。      “监管沙盒与人工智能产业迭代速度快的特点相适应,对我国对人工智能产业治理亦有参考价值。”在张欣看来监管沙盒模式一方面,则能够在“沙盒”模拟中预判可能出现的风险,帮助监管方早日知晓和防范;另一方面,能够帮助激发技术创新活力,拓展产业发展的空间。 去年9月发布的《上海市促进人工智能产业发展条例》就提出,政府应当顺应人工智能快速迭代的特点,探索分级治理和沙盒监管。 吴沈括认为,从整体的监管框架上看,英国重视现行法律法规的思路对我国具有一定参考意义。针对人工智能带来的新挑战和新问题,应该充分挖掘和发挥现有的制度资源和监管资源,然后再“查漏补缺”适当引入必要的治理规范。      此外,重视产业发展的价值也值得深入思考。“本次白皮书研究并发布了一个结论——繁重、不适宜的监管可能会为中小企业的创新带来负担。”张欣指出,白皮书中体现出的监管互操作性、一致性及监管比例性,对我国未来促进中小企业科技创新就有借鉴意义。  “人工智能的治理不应当以牺牲产业发展为代价。”吴沈括表示,应当充分兼顾各方利益和诉求,在保护、保障、保卫核心价值的基础之上,兼容技术发展和产业发展的需求,最大限度推动人工智能发展的一个良性生态。

    发布时间: 2023-06-09

  • 11. 布鲁金斯学会:暂停人工智能训练是不可取的
    高楠
    2023年4月11日,布鲁金斯学会(Brookings Institution)发布其客座高级研究员约翰·维拉塞纳(John Villasenor)撰写的评论文章《暂停训练大型人工智能系统会产生的问题(The problems with a moratorium on training large AI systems)》。文章针对生命未来研究所(Future of Life Institute)在今年三月底发布的公开信提出异议,该公开信呼吁“所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少六个月,并且这种暂停应该是公开的、可核查的,并包括所有关键行为者。如果不能迅速颁布这种暂停令,政府应介入并实行暂停”。该公开信还指出,“只有在我们确信强大的人工智能系统的效果是积极的、其风险是可控的时候,才应该开发这些系统。”该公开信最初有包括许多知名的技术领袖在内的一千多人签名,后又有数千人加入签名。 文章认为,个别公司和大学应有权决定是否进行人工智能的研发工作,以及以何种速度进行人工智能的研发工作,并且,美国政府出面暂停训练强大的人工智能系统可能会引起以下六点担忧。首先,禁令将推迟人工智能能带来的好处。目前,人工智能已助力于药物开发、医疗诊断、气候建模、天气预报、教育等许多领域,而大型人工智能系统更将产生我们无法提前预见的好处。如果推迟某些应用,如用来改善教育和扩大法律服务的使用范围的大型语言模型,也将产生严重的后果。因此,如果政府在全国范围内强行停止一种关键类别的人工智能的研发工作,将不可避免地推迟获得该技术的好处。其次,禁令本身在法律上存疑。美国联邦政府或州政府实体都没有明确的法律权力来发布暂停训练大型人工智能系统的禁令。例如,联邦贸易委员会(Federal Trade Commission, FTC)的使命是“保护公众免受欺骗性或不公平的商业行为和不公平的竞争方法的影响”。但FTC的暂停令将阻碍开发更好的人工智能系统的公平企业竞争,反而促使它们步调一致地停止然后再重新开始训练大型人工智能模型的工作,尽管国会在商业条款下有广泛的立法权,但这种权力也受到限制。同时,这一禁令也会对《第一修正案(the First Amendment)》产生影响,该修正案保护信息接收,如通过互联网获得的数字信息。当然,正如最近对制造人工智能图像生成器的公司提起的几起诉讼所强调的,当人工智能模型使用第三方数据进行训练时,存在复杂且未解决的版权法问题。但是,如果一家公司能够以避免违反版权法或合同的方式建立一个大型数据集,就有充分的理由(尽管未经测试)认为《第一修正案》赋予了使用这些数据来训练大型人工智能模型的权利。简而言之,无论是来自政府机构还是国会的暂停令都会立即在法院上受到质疑。第三,禁令难以有效执行。美国政府显然不会对涉嫌进行未经授权的人工智能训练的公司进行突击检查,政府也没有人力或技术资源来明确地核实暂停令在全国范围内的遵守情况。相反,暂停令可能会通过自我报告的方式实施,要求公司和大学证明他们没有从事被禁止的人工智能工作,但要获得需要被约束的公司和大学名单也并非易事。执法的另一个问题是,除非有举报人站出来,否则违反暂停令的行为几乎不可能被发现。不同于核武器开发这样的项目,其相关的材料和技术,如铀和核离心机,都很难得到,难以操作,且用途非常有限,而人工智能系统所需的关键数据和计算能力都很容易获得,而且基本上有无限的不违反禁令的用途清单。第四,禁令存在界定问题。哪些与人工智能有关的工作是应该被禁止的?受暂停令约束的人工智能系统的规模阈值是多少?什么指标或一组指标将被认为足以描述人工智能系统的规模,又由谁来测量?能否在不产生漏洞的情况下写出暂停特定规模的人工智能系统的监管语言,并避免被轻易规避?暂停令是只适用于大型人工智能系统的实际训练,还是也适用于相关技术的发展?如其中一些技术可能可以做到用更小的系统或比以前更少的训练建立强大的人工智能。第五,禁令之后依然难达共识。6个月的暂停期后人们对下一步该做什么依然缺乏共识。部分人提议将暂停令再延长六个月或更长时间,其他人则认为应该完全取消,还有人主张建立一个全新的框架。这种不确定性将使公司在招聘、研发投资和人工智能相关产品规划方面的决策非常困难。第六,禁令将使美国处于地缘政治不利地位。在美国暂停训练最大的人工智能模型的禁令在国际上不会产生任何效力。因此,其他国家的政府和公司将继续投资建设大型人工智能系统,而这项工作所带来的进步、知识和创造的就业机会将使美国在人工智能技术方面处于不利地位。 最后,作者总结,人工智能拥有非凡的前景的同时,也产生了一系列新的风险,无论美国采取什么政策,大型人工智能系统的技术都将继续在全球范围内发展。因此,对于美国来说,保持在人工智能的最前沿来推动技术发展,并利用这些知识更好地识别和减轻风险,将比美国政府试图在全国范围内对大型人工智能系统的训练工作施加一个法律上可疑的、无法执行的、容易规避的禁令要好得多。

    发布时间: 2023-06-09

  • 12. 七国集团一致同意:给AI套上紧箍咒,推出人工智能监管法案
    高楠
    4月30日,为期两天的七国集团(G7)数字和技术部长会议在日本结束, G7同意推出基于风险的人工智能监管法案,这是人工智能监管领域的重要里程碑。这项法案将有望规范人工智能技术的发展和应用,确保人工智能技术的长期可持续发展。      人工智能技术已经成为全球科技领域最为热门的话题之一,同时也是政治、法律、道德等多个领域的挑战。人工智能技术的发展已经带来了巨大的社会和经济价值,但也带来了许多风险和挑战。因此,各国政府都在积极探索如何监管人工智能技术的发展和应用,以确保人工智能技术的健康和可持续发展。      此次G7数字和技术部长的会议达成的协议,强调了监管应该为人工智能技术“保持一个开放有利的环境”,并以所谓的民主价值观为基础。这为各国政府提供了一个新的思路和方向,即在确保人工智能技术的发展和应用的同时,也需要考虑人类的长期利益。      在人工智能技术的应用领域,ChatGPT等生成式人工智能工具引起了各国政府的关注。为了解决版权和教育风险,欧盟提出了要求ChatGPT等人工智能工具的开发商透露他们在构建AI系统时使用的版权材料的新的立法草案。这是人工智能监管领域的又一重要举措,可能为制定全球首个全面监管AI技术的法规铺平道路。      此外,G7计划在未来召开关于生成式人工智能的讨论,包括治理、如何保障知识产权、促进透明度、解决虚假信息以及外国势力的信息操纵等主题。这些讨论将为各国政府提供更多的思路和方向,以确保人工智能技术的健康和可持续发展。 在这个全球化的时代,人工智能技术已经成为各国政府探索科技发展的重要领域之一。各国政府应该加强合作,共同探讨人工智能技术的监管机制,确保人工智能技术的健康发展,更好地造福人类。

    发布时间: 2023-06-09

  • 13. 欧盟达成《人工智能法》协议,为生成式AI设立版权规则
    高楠
        当地时间4月27日,经过几个月的紧张谈判,欧洲议会成员已经弥合分歧,就《人工智能法(The AI Act)》提案达成临时政治协议,要求部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的受版权保护的材料。该协议为可能是世界上第一部综合性人工智能法律的《人工智能法》出台铺平道路。在定于5月11日进行的关键委员会投票前,提案文本可能仍需在技术层面上进行细微调整,6月中旬预计将进行全体投票。 最后一刻的变化:生成式人工智能监管     《人工智能法》预计将成为欧盟一项具有里程碑意义的立法,已经酝酿了两年多。立法者提议根据他们认为的风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接受。使用这些工具的政府机构和企业将根据风险级别承担不同的义务。该法案范围广泛,将管辖所有人工智能产品或服务的提供方,涵盖可以生成内容、预测、建议或影响环境的决策的系统。除了企业对人工智能的使用外,法案还将研究公共部门和执法部门使用的人工智能,并与《通用数据保护条例 (GDPR)》等法律协同工作。与人类互动、用于监视目的或生成“深度伪造”内容的人工智能系统的使用者将面临严格的透明度义务。直到最后一刻,欧盟立法者还在对提案中一些最具争议的部分进行讨论。     “通用目的人工智能系统(General Purpose AI System)”是立法者提出的一个类别,用于解释具有多个应用程序的人工智能工具,例如ChatGPT这样的生成式人工智能模型。如何处理 “通用目的人工智能系统”一直是讨论中争论激烈的话题。欧洲议会确认了之前的提案,即对“通用目的人工智能系统”的一个子类别——基础模型施加更严格的要求 。根据要求,开发ChatGPT等生成式人工智能工具的公司必须披露他们是否在系统中使用了受版权保护的材料。协议达成前夕唯一重要的变化就是关于生成式人工智能模型,“这些模型的设计和开发必须符合欧盟法律和基本权利,包括表达自由。”     《人工智能法》还禁止“有目的的”操纵。“有目的的”这个词有争议,因为可能难以证明故意性,但仍被保留下来。另外,在执法、边境管理、工作场所和教育领域,法案要求禁止使用AI驱动的情绪识别软件。欧盟立法者对预测性警务(predictive policing)的禁令从刑事犯罪扩展到了行政犯罪,其依据是荷兰儿童福利丑闻,该丑闻中成千上万的家庭因有缺陷的算法而被误判为欺诈。 高风险分类变化     许多人工智能工具可能被认为是高风险的,例如用于关键基础设施、执法或教育的工具。它们比“不可接受”低一级,因此不会被完全禁止,但需要在操作中保持高度透明。高风险人工智能的使用者可能需要完成严格的风险评估,记录他们的活动,并向当局提供数据以供审查。这可能会增加公司的合规成本。最初的提案将某些关键领域和用例的人工智能解决方案自动归类为高风险,这意味着供应商必须遵守更严格的制度,包括对风险管理、透明度和数据治理的要求。欧洲议会引入了一个额外的层次,使这些类别的人工智能模型只有在对健康、安全或基本权利构成重大风险的情况下才会被视为高风险。重大风险被定义为“由于其严重性、强度、发生的概率和影响的持续时间而具有重大意义的风险,并且能够影响一个人、多个人或一个特定群体”。     根据绿党的要求,用于管理能源网或水系统等关键基础设施的人工智能,如果带来严重的环境风险,也将被归类为高风险。此外,中左翼立法者还争取到了一个规定:根据《数字服务法》(DSA)的定义,超大型在线平台的推荐系统将被视为高风险。欧洲议会议员为高风险人工智能模型的提供者处理敏感数据(如性取向或宗教信仰)以检测负面偏见的过程,纳入了额外的保障措施。此外,评估必须发生在受控环境中。敏感数据不能被传输给其他方,并且必须在偏见评估后被删除。提供者还必须记录数据处理发生的原因。     《国家法律评论》4月26日报道称:“《人工智能法》将产生全球性的影响,因为它将适用于在欧盟提供或使用人工智能系统的组织;以及位于第三国(包括英国和美国)的人工智能系统的提供者或使用者,如果这些人工智能系统产生的输出在欧盟使用。”

    发布时间: 2023-06-07

  • 14. 英国发布首份人工智能白皮书
    高楠
    2023年3月29日,英国政府发布题为《创新型人工智能监管》(A pro-innovation approach to AI regulation)的白皮书,以建立公众对前沿技术的信任,并使企业更容易创新和成长,从而创造更多就业的机会。 白皮书提出了一种创新的基于原则的人工智能监管框架,供监管机构在其职权范围内解释和应用人工智能,以最大限度地促进人工智能在相关行业中的安全和创新使用。这种协作和迭代的方法可以跟上人工智能快速发展的脚步,从而加强英国作为全球人工智能领导者的地位。监管机构应该考虑的5条明确原则分别是:(1)安全性、可靠性和稳健性:人工智能的应用应该以一种安全、可靠和稳健的方式运行,并警惕管理风险;(2)透明度和可解释性:开发和部署人工智能的组织应该能够沟通何时以及如何使用它,并以适当的详细程度解释系统的决策过程,以匹配人工智能的使用所带来的风险;(3)公平性:人工智能的使用应符合英国现有的法律,例如《2010年平等法案》或英国GDPR,不得歧视个人或产生不公平的商业结果;(4)问责制和治理:需要采取措施以确保对人工智能的使用方式进行适当的监督,并对结果进行明确地问责;(5)可争议性和补救:需要有明确的途径来对人工智能产生的有害结果或决定提出异议。 白皮书指出,人工智能监管制度的基本特征包括:(1)促进创新:促进而非扼杀创新;(2)均衡性:避免给企业和监管机构带来不必要或不相称的负担;(3)可信性:培育公众对人工智能的信任,以促进和鼓励人工智能的应用;(4)可适用性:随着人工智能技术的发展,确保英国经济的发展能够快速有效地适应,足以应对突发的机遇和风险;(4)明确性:让人工智能生命周期中的参与者,如使用人工智能的企业更容易知道规则是什么,它们适用于谁,由谁执行,以及如何遵守;(5)协同性:鼓励政府、监管机构和产业界共同努力,促进人工智能创新,建立公众信任,并确保公众的声音能够得到倾听并被考虑。 在接下来的12个月里,监管机构将向各组织发布实用指南,以及风险评估模板等其他工具和资源,以阐明如何在各自的领域实施这些原则。在议会时间允许的情况下,可以引入立法,以确保监管者一致考虑这些原则。除此之外,英国政府还将提供200万英镑创建一个新的沙箱机制,为人工智能创企提供产品和服务测试环境。

    发布时间: 2023-06-07

  • 15. 工信部:加快推进新型工业化 推动人工智能创新应用
    袁晨
       9月25日,工业和信息化部党组书记、部长金壮龙主持召开党组会议、党组理论学习中心组(扩大)学习会议。与会领导一致表示,要加快推进新型工业化,为中国式现代化构筑强大物质技术基础。   会议强调,要准确把握推进新型工业化的战略定位,加快建设制造强国,持续提升工业现代化水平,构建以先进制造业为骨干的现代化产业体系,为中国式现代化构筑强大物质技术基础。要准确把握推进新型工业化的阶段性特征,完整、准确、全面贯彻新发展理念,更好统筹发展和安全,更好统筹国内国际两个大局,把高质量发展的要求贯穿新型工业化全过程。   要准确把握推进新型工业化面临的环境条件变化,积极主动适应和引领新一轮科技革命和产业变革,把建设制造强国同发展数字经济、产业信息化等有机结合,全力战胜前进道路上各种困难和挑战。要汇聚加快推进新型工业化的强大合力,坚持把党的全面领导贯穿推进新型工业化全过程各方面,强化统筹协调,充分调动各方面积极性,协同做好政策和要素保障,不断把新型工业化推向纵深。   会议强调,要着力提升产业链供应链韧性和安全水平,统筹推进补短板、拉长板、锻新板,深入实施产业基础再造工程和重大技术装备攻关工程,打造自主可控、安全可靠的产业链供应链。要加快提升产业创新能力,落实企业科技创新主体地位,强化需求和场景牵引,激励企业加大创新投入,高质量建设一批国家制造业创新中心和中试、应用验证平台。要持续推动产业结构优化升级,加快改造升级传统产业,推进工业“智改数转”,巩固提升优势产业,积极培育新产业新赛道,大力发展现代生产性服务业,打造中国质量和中国品牌。   要大力推动数字技术与实体经济深度融合,深入实施智能制造工程和中小企业数字化赋能专项行动,推动人工智能创新应用,继续适度超前推进网络、算力等新型信息基础设施建设,加快工业互联网规模化应用,提升网络安全保障能力。要全面推动工业绿色发展,统筹推进重点行业碳达峰,加快节能降碳技术研发和推广,深入实施绿色制造工程,做好新能源汽车废旧电池等废旧资源回收利用。   要进一步促进各类企业优势互补、竞相发展,坚持抓大育小、梯度发展,大力弘扬优秀企业家精神,培育更多具有国际竞争力的世界一流企业,不断壮大专精特新企业群体。要以主体功能区战略引导产业合理布局,更好发挥高新区、工业园区等各类园区作用,推动形成优势互补、高质量发展的区域制造业布局,建设一批国家先进制造业集群。要以扩大开放拓展工业发展空间,大力支持企业拓展国际市场,更大力度引导外资投向先进制造业和高新技术产业,持续做好外资企业服务保障。   此外,会议要求,要深入贯彻党中央国务院决策部署,着力稳预期、强信心,落实落细工业稳增长系列政策举措,深入推进新能源汽车、绿色建材、智能家电下乡活动,加快工业和信息化领域重大项目实施,大力培育新质生产力,增强发展新动能,全力以赴完成年度目标任务。 

    发布时间: 2023-10-08

  • 16. 日本发布《人工智能战略2022》
    高楠
         2022年4月,日本政府在第11届综合创新战略推进会上正式发布《人工智能战略2022》,其战略目标包括:构建符合时代需求的人才培养体系,培养人工智能时代各类人才;运用人工智能技术强化产业竞争力,使日本成为全球产业的领跑者;确立一体化的人工智能技术体系,实现多样性、可持续发展的社会;发挥引领作用,构建国际化的人工智能研究教育、社会基础网络。除此之外,还要运用人工智能技术应对新冠疫情等大规模灾害,确保国民的生命和财产安全。      为了实现上述战略目标,日本政府提出了一系列促进措施包括:建立“具有国家复原力的人工智能”,应对国家层面的危机;在“人工智能促进全球复原力”方面建立领导地位;在“强大而负责任的人工智能”方面建立领导地位;促进人工智能社会应用。未来,日本政府还将进一步深化其在教育及研发体制方面的改革,继续推进数据合作与标准化,构建数据存储的基础设施,加强数字化管理。此外,还将促进中小企业对人工智能技术的应用,参与制定与推广人工智能伦理规则。

    发布时间: 2023-05-05

  • 17. 互联网诊疗监管办法征求意见 严禁使用人工智能自动生成处方
    高楠
           北京市卫健委日前牵头组织制定了《北京市互联网诊疗监管实施办法(试行)》,并向社会公开征求意见,公众可于9月16日前向市卫健委反馈意见。根据办法:医疗机构开展互联网诊疗活动要加强药品管理,严禁使用人工智能等自动生成处方,严禁在处方开具前向患者提供药品。        医疗机构应当对开展互联网诊疗活动的医务人员进行实名认证,确保医务人员具备合法资质。医师开展互联网诊疗活动应当依法取得相应执业资质,具有3年以上独立临床工作经验,并经其执业注册的医疗机构同意。医务人员如在主执业机构以外的其他互联网医院开展互联网诊疗活动,应按照国家及本市相关要求进行多机构备案或执业注册。医师接诊前需进行实名认证,确保由本人提供诊疗服务。其他人员、人工智能软件等不得冒用、替代医师本人提供诊疗服务。互联网诊疗实行实名制,医疗机构应当告知患者,其有义务向医疗机构提供真实的身份证明及基本信息,不得假冒他人就诊。患者就诊时应当提供具有明确诊断的病历资料,如门诊病历、住院病历、出院小结、诊断证明等,由接诊医师留存相关资料,并判断是否符合复诊条件。医疗机构应当明确互联网诊疗的终止条件,当患者病情出现变化、本次就诊经医师判断为首诊或存在其他不适宜互联网诊疗的情况时,接诊医师应当立即终止互联网诊疗活动,并引导患者到实体医疗机构就诊。       互联网诊疗病历记录按照门诊电子病历的有关规定进行管理,保存时间不得少于15年。诊疗中的图文对话、音视频资料等过程记录保存时间不得少于3年。医疗机构开展互联网诊疗活动要加强药品管理,处方应由接诊医师本人开具,经药师审核合格后方可生效,严禁使用人工智能等自动生成处方;处方药应当凭医师处方销售、调剂和使用;严禁在处方开具前,向患者提供药品;严禁以商业目的进行统方。互联网诊疗的医疗服务收费项目和收费标准应当在互联网诊疗平台进行公示,方便患者查询。医疗机构要严格执行有关规定,医务人员的个人收入不得与药品收入相挂钩,严禁以谋取个人利益为目的转介患者、指定地点购买药品、耗材等。市卫健委将建立北京市互联网诊疗监管平台,对开展互联网诊疗活动的医疗机构进行监管。医疗机构应当主动与平台对接,及时上传、更新相关执业信息,主动接受监督。市区卫健行政部门要及时向社会公布依权限批准开展互联网诊疗的医疗机构和互联网医院的名单、服务入口及监督电话或者其他监督方式,及时受理和处置违法违规行为。

    发布时间: 2023-08-23

  • 18. 《机器学习》领域研究成果在人工智能领域发表系列研究成果
    高楠
     近日,计算机科学与工程学院(网络空间安全学院)杨国武教授团队先后 在人工智能领域顶级期刊TPAMI、TIP和CCF A类会议KDD、ICCV发表一系列高水平研究成果。   论文《Noisy Label Learning With Provable Consistency for a Wider Family of Losses》被CCF人工智能领域A类期刊《IEEE Transactions on Pattern Analysis and Machine Intelligence》(TPAMI)接收。博士生刘德富为第一作者,杨国武教授为通讯作者。 该论文研究了机器学习中的标签噪声学习问题。标签噪声学习是机器学习领域的热点问题之一,为了解决深度模型过度拟合训练集的错误标签,受量子叠加特性的启发,该论文设计了一个动态标签学习算法来训练深度模型,可以利用大量为传统深度学习设计的损失函数进行标签噪声学习,甚至是交叉熵损失函数(交叉熵损失函数被证明在传统深度学习算法下不具备标签噪声鲁棒性)。论文从理论上证明提出的动态标签算法具有良好的噪声鲁棒性,能在有噪声的训练集中有效地收敛到最优模型,并且该算法不依赖于损失函数和标签分布。实验结果不仅验证了本文对该方法的理论分析的正确性,还表明了本文设计的动态标签学习算法明显优于当前标签噪声学习的其他先进算法,也表明该算法具有良好的鲁棒性、扩展性和通用性。    TPAMI是计算机视觉和人工智能领域公认的顶级国际期刊,是中国计算机学会(CCF)推荐的A类期刊,在2023年的影响因子是23.6。主要收录人工智能、模式识别、计算机视觉及机器学习领域的原创性科研成果。在TPAMI上发表的文章对于人工智能领域的研究人员和从业者来说都具有很高的参考价值。   论文《Semantic Consistent Embedding for Domain Adaptive Zero-Shot Learning》被CCF计算机图形学与多媒体领域A类期刊IEEE Transactions on Image Processing(TIP)接收。博士生张见阳为第一作者,杨国武教授为第二作者。该论文主要通过提取语义一致嵌入,研究了领域适应零样本学习问题,在图像分类领域有重要应用。该论文提出将语义空间、源域与目标域映射到一个共享空间中,从而实现了一种崭新的端到端三重语义一致嵌入方法,有效解决了领域适应零样本学习问题的主要挑战,即如何同时实现跨类别与跨域知识迁移。此外,该文提出的提取语义一致嵌入的方法相比于现有领域适应零样本学习方法在实验数据集上有显著优势。   TIP是计算机图形学与多媒体领域A类期刊,具有很高的学术声誉。TIP涵盖的主题包括:图像处理、成像系统、图像扫描、显示和打印的信号处理等。在TIP上发表的文章对于图像处理领域的研究人员和从业者来说都具有很高的参考价值。   论文《Partial-label Learning with Mixed Closed-set and Open-set Out-of-candidate Examples》被数据挖掘研究领域的顶级学术会议ACM SIGKDD 2023接收、论文《Candidate-aware Selective Disambiguation Based On Normalized Entropy for Instance-dependent Partial-label Learning》被计算机视觉研究领域的顶级学术会议International Conference on Computer Vision(ICCV 2023)接收。博士生贺硕为两篇论文的第一作者,杨国武教授为通讯作者。   第一篇论文针对混合的闭集与开集噪声偏标记(CS-OOC、OS-OOC)数据提出一个统一的训练框架。具体来说,利用提出的wooden交叉熵损失(WCE),分别计算每个训练样本的候选标签和非候选标签上的对应WCE,并基于此提出样本选择准则来区分正常样本、CS-OOC样本和OS-OOC样本;然后,对于CS-OOC样本采用反向标签消歧方法在非候选标签集中识别真实标签;对于OS-OOC样本提出随机候选生成来动态地分配随机的候选标签集合,并通过学习这些难以识别的样本来消耗额外的模型容量,缓解对噪声样本的过拟合。该方法有效地缓解了混合OOC数据对于模型训练的负面影响,显著提高了模型的泛化性能。   ACM SIGKDD国际会议是由ACM的数据挖掘及知识发现专委会主办的数据挖掘研究领域顶级会议,属于CCF A类会议。由于该会议的交叉学科性和广泛应用性,其影响力也越来越大,吸引了来自统计、机器学习、数据库、万维网、生物信息学、多媒体、自然语言处理、社会网络计算、高性能计算及大数据挖掘等众多领域的从业者和研究学者。   第二篇论文发现传统偏标记学习(PLL)方法在instance-dependent(ID)偏标记数据上的性能下降是因为在训练过程中存在的部分不完全消歧(UD)样本的不准确监督信息,影响了模型的训练与收敛。为了解决这个问题,该论文提出一种新的两阶段训练框架,包括选择性消歧和自适应阈值化。具体来说,前者首先选择部分完全消歧(WD)样本和剩余样本的补充监督信息进行联合训练;后者分别维持两种动态自适应的WD和UD阈值来选择额外的完成消歧的样本加入训练中。该方法有效地缓解了UD样本对于模型训练过程的影响,提高了模型的泛化能力。   IEEE International Conference on Computer Vision(ICCV)由IEEE主办,在世界范围内每两年召开一次,是计算机视觉方向的三大顶级会议之一,在业内具有很高的评价,其论文集代表了计算机视觉领域最新的发展方向和水平。   杨国武,教授,博士生导师,主要研究方向为形式化验证,逻辑综合,量子计算和机器学习,主持了5项国家自然科学基金面上项目;近几年在TCAD、IEEE Transactions on Computers、TPAMI和KDD等CCF A类期刊和会议发表论文10余篇。   论文链接:   1.Noisy Label Learning With Provable Consistency for a Wider Family of Losses    https://ieeexplore.ieee.org/document/10185026   2.Semantic Consistent Embedding for Domain Adaptive Zero-Shot Learning   https://ieeexplore.ieee.org/document/10183844   3.Partial-label Learning with Mixed Closed-set and Open-set Out-of-candidate Examples    https://dl.acm.org/doi/10.1145/3580305.3599460

    发布时间: 2023-10-08

  • 19. 人工智能助力应对科研大挑战
    高楠
            近年来,人工智能(AI)领域发生了巨大变化,ChatGPT横空出世,引发生成式AI创业热潮。英国《新科学家》杂志网站在近日的报道中指出,很多科研团队和公司正在利用AI应对人类目前面临的最大的科学挑战:从破译蛋白质的秘密,到研制出新药,再到应对气候变化以及实现可商用的核聚变发电等。   揭示蛋白质结构     根据蛋白质氨基酸序列来确定其折叠结构一直是生物学领域的“老大难”。有些氨基酸和其他氨基酸相互吸引、相互作用,有些氨基酸则具有疏水性,而且氨基酸链形成了复杂的形状,令人难以精准确定,研究人员往往需要数年时间才能解决一个折叠结构。英国“深度思维”公司于2020年底首次宣布研发出一种AI方法来精准预测蛋白质的折叠结构。2021年,他们宣布已绘制出人体中98.5%的蛋白质的结构图。2022年7月,该公司AI程序“阿尔法折叠”已经预测出迄今已知几乎所有蛋白质结构,在短短18个月内破解了生物学领域的重大难题之一。这些数据能帮助人类抗击疟疾、应对抗生素耐药性,以及制造出能够分解塑料的酶,还将推进新药研发进程。     研制未来的药品     在AI出现之前,研制出新药所需的时间越来越长,成本也越来越高。如今,科学家已开始使用AI来自动化部分过程,例如获取庞大而混乱的数据集,并以更容易分析的方式对其进行组织,或者使用AI编写代码来完成这些工作等。今年初,加拿大多伦多大学与Insilico医学公司合作,利用AI药物发现平台,发现了一种新的肝细胞癌靶点,这是以前未被发现的治疗途径,并开发出了一种可与该靶点结合的“新型打击分子”,在30天内研制出肝细胞癌的潜在治疗药物。科学家还使用生成式AI来生成分子结构。互联网数据资讯网数据显示,预计到2024年,AI新药研发的市场规模将达到31.17亿美元。不过截至目前,全球还没有一款由AI研发的药物成功上市。     应对气候变化     气候变化是人类面临的最大的难题之一。鉴于此,法国巴黎理工学院研究人员使用AI确保涡轮机更频繁地指向风中,从而将产能提高了0.3%。如果得到推广,增加的电力足以让170万户英国家庭使用。“深度思维”公司开发了AI来改进矩阵乘法和排序算法,将两者的效率分别提高了20%和70%。这两大算法每天都在世界各地的计算机上执行数万亿次,效率的提高为减少计算产生的温室气体排放作出了重大贡献。元宇宙公司(me ta)利用AI开发出了一种新的混凝土制造工艺,可将碳排放降低40%。由于混凝土碳排放占全球碳排放总量的8%,新工艺也可能对人们应对气候变化有重要意义。     帮助商用核聚变发电     人们一直在努力创建高效、可靠的核聚变发电厂,但这一任务极具挑战性。在托卡马克聚变反应堆内,试图精确而快速地控制多个线圈,并将等离子体压缩成一个有限的形状是非常困难的。尽管AI并没有真正解决这个问题,但它正在提供帮助。去年,“深度思维”公司和瑞士联邦理工学院创建了一个能够控制19个磁线圈的神经网络,AI还能帮助将托卡马克中的等离子体随意改变形状。英国曼彻斯特大学的李·马吉茨说,AI可能是核聚变发电“梦想照进现实”的转折点。 .

    发布时间: 2023-08-23

  • 20. 韩国计划投资1076亿韩元建设光州人工智能综合项目
    高楠
         2022年1月,韩国科技信息通信部表示,今年将投资1076亿韩元,继续推进光州人工智能综合项目。韩国光州人工智能综合项目位于首尔南部约330公里处,其目标是建成包括数据中心、自动驾驶和能源等领域设施的人工智能综合中心。作为韩国国家均衡发展计划和国家人工智能战略的重点任务之一,光州人工智能综合项目计划在2020-2024年投入4119亿韩元,将光州建设成集各类基础设施、人才、企业为一体的人工智能综合中心,推动光州的汽车、医疗保健、能源这三大主导产业和人工智能的融合。2022年光州人工智能综合项目的任务主要围绕核心基础设施建设、人工智能企业培育、核心人才培养、产业融合型技术开发4个方面进行部署。其中,核心基础设施建设方面是其中的重点,具体举措包括:(1)建设人工智能数据中心,提供人工智能产品和服务开发所需的高性能计算资源;(2)面向汽车、医疗保健、能源三大支柱产业的智能化需求,开发验证装备。此外,产业融合型技术开发方面,将支持智能汽车、智能能源、智能医疗保健三个方向的14个技术开发项目。

    发布时间: 2023-05-05

  • 21. 英国皇家国际事务研究所:我们需要重新审视对人工智能的假设
    高楠
    2023年4月12日,英国皇家国际事务研究所(The Royal Institute of International Affairs)/查塔姆学会(Chatham House)发表卡内基国际事务伦理委员会高级研究员阿瑟·霍兰德·米歇尔(Arthur Holland Michel)撰写的研究文章《对人工智能的假设进行重新校准(Recalibrating assumptions on AI)》。文章逐一分析了目前主导的关于人工智能的四个假设:人工智能是“智能的”、“更多的数据”是更好的人工智能的必要条件、人工智能的发展是国家之间的“竞赛”,以及人工智能本身可以是“道德的”。并通过说明以证据为基础的、具有包容性的讨论如何产生更好的政策。且主张建立一个结构上更加多样、智力上更加包容的政策创新生态系统。   首先,作者针对“人工智能是智能的”这一说法指出,目前被称为“人工智能”的技术在复制人类智能方面的能力是有限的,它们甚至在未来仍然无法实现某些应用。由于目前的自然限制,人工智能在数字环境中的突破并不能作为其将在真实的物理世界中取得成功的证明,人工智能在一系列广泛的领域表现出的持续失败,在某种程度上都是因为这些系统还未能复制真正的人类智能。例如,在交通领域,尽管投资了数千亿美元,但自动驾驶汽车仍未大规模部署;在医学领域,与新冠肺炎疫情有关的人工智能实验则基本上没有达到预期效果。由于人工智能的进展是沿着一系列基本上不可预测的“人工智能的春天”和“人工智能的冬天”进行,我们也无法预料人工智能会在何时取得这些突破。此外,在人工智能政策中,有一种趋势是给予该技术的预期利益与其已知的缺点和风险同等的权重,但是将风险视为可以权衡利益的工具是有误导性的,如在实践层面上,它可能会破坏国家机制用来区分是否应该发展或监管某种人工智能工具的能力。在缺乏这种鉴别力的情况下,由于人工智能的局限性经常表现为反映偏见的方式,在技术上不适合的任务中或在缺乏足够的监管护栏的情况下使用人工智能,对弱势群体造成伤害的风险将会升高。此外,人工智能也无法模仿人类智能的道德推理,因而很难用现有的监管框架对人类和可预测的系统(如机械部件)使用相同的衡量标准和工具来评价和说明人工智能的可靠性,提高人工智能系统的的自主性和开放性以期提高其可靠性的努力甚至最终可能加剧伦理挑战。同时,目前的人工智能政策也可能会阻碍限制人工智能的使用或能力的措施。例如,一些国家的人工智能战略明确指出,他们的目的并不是要探索人工智能的可能性和局限性,而是“支持人工智能在整个经济中的普及”。这种心态不仅存在道德危险,还存在经济风险。随着目前的人工智能繁荣周期进入第二个十年,其没有达到曾经预期的系统采用规模,值得疑问的是其中存在的金融风险是否实际上可能比预期更大。为了在语言上避免对“人工智能”的“智能”产生惯性思维和模糊印象,一些机构已经在寻求新的具体的术语来替代“人工智能”这一说法。例如,乔治城大学法学院的隐私和技术中心(Center on Privacy and Technology at Georgetown Law)已宣布将在其工作中停止使用“人工智能”和 "机器学习",而将使用具体的术语。   其次,作者针对“更多的数据是更好的人工智能的必要条件”这一说法指出,为人工智能发展服务的数据化有可疑的好处和具体的风险。首先,数据对人工智能的价值因应用而异。例如,如果一个用于医疗分流或诊断的机器学习系统必须在经过审查的历史病人数据上进行训练,这些数据的统计属性与它将用于的病人群体的数据相同,但随着人工智能所要完成的任务越来越复杂,生产和维护干净的、有代表性的真实数据的挑战也成倍增加。其次,任何数据的收集和分发活动都有严重的泄露风险,这些风险和漏洞来自不同行为者,因而不一定能通过隐私控制和安全措施来解决,甚至在某些情况下,这些风险会超过数据可能为人工智能发展带来的预期收益。但目前很多国家的政策强调人工智能的数据可用性,这可能会阻碍严格的隐私保护,并会滋生一种“任何社会挑战都可以通过训练机器学习模型而得到科学上的精确解决”的错误心态。因此,我们依然要关注并优先采取那些不涉及数据收集也能取得相同效益的解决方法。最后,大规模的数据化自然会给拥有处理数据能力和计算资源的社区和部门带来特权,比如科技部门和金融等高收入行业。   第三,作者认为“人工智能的发展是国家之间的竞赛”这一说法可能会阻碍强有力且公平的政策实施。虽然数据、投资、庞大的人工智能劳动力和宽松的法规可能使一个国家比其同行拥有更多的人工智能,但鉴于人工智能在关键功能方面的持续限制,这并不能保证净战略优势,对人工智能优势的竞争性追求也可能会导致人工智能政策与负责任的技术治理的核心原则之间出现潜在的严重错位,这种竞争性的心态还可能会导致将监管和创新框定为对立的利益,例如,豁免特定的风险,以牺牲安全和公平为代价来承担监管风险。此外,恶性的竞争也会破坏人工智能治理的多边努力,就像《特定常规武器公约(Convention on Certain Conventional Weapons)》未能为自主武器制定有约束力的规则,就是由于一些国家担心其会阻碍国家技术能力的发展。此外,“人工智能竞赛”的概念本身就与真正的包容性讨论过程相抵触,其忽视了其他可能更准确地表明一个国家以真正服务于公共利益的方式采用人工智能的能力指标,如机构的开放性和透明度、公民社会和新闻自由、法治和经济平等。另外,目前主流的“人工智能指数”并不能完美衡量各国在人工智能方面的相对进展,只能通过不一致的、不同的替代指标来衡量。这些指数中常用的一些个别指标也可能不适合用于国家间任何形式的同类比较,例如,人工智能项目数量指标并不总能区分人工智能的类型;排名中使用的一些关键指标似乎也来自不可靠或不公开的数据;并且在指数数据和建构中还存在潜在的区域和人口偏见等。  第四,作者针对“人工智能本身可以是道德的”这一说法指出,要实现道德的人工智能不仅要解决技术问题,还要解决开发、管理和使用技术的人的问题。在技术上,有道德的人工智能首先应是可解释的,但创造可解释的高性能人工智能,特别是深度学习模型,仍是一个公开的研究挑战,甚至可能在数学上是无法实现的,鉴于每个用户独一无二的理解能力,也很难为系统的可理解性制定广泛的标准。另外,在使用数据集和模型消除偏见时会发现,如果人工智能系统中数据和模型代表性不足,就只能减少偏见,可靠性和可预测性等伦理原则也无法得到技术上的保证,又因为人工智能系统只能捕捉历史趋势、模式、现象和统计分布,我们无法在有限测试里穷尽所有情况。此外,人工智能系统实现其目标的数学定义过程,与人类处理灰色地带案例、考虑不确定性和有效处理决策中的模糊性的能力之间存在着巨大差异,机器充其量只能提供一种对道德决策的计算模仿,其在第一次接触到意料外状况时就可能会失败。而在技术之外,人工智能中的偏见还必须在整个开发和实施过程中加以解决。系统的稳健性需要通过改善用户在决定是否应该首先部署系统时的判断力来解决,许多利益相关者还需要努力提高透明度、责任感和公平性来部署一个避免造成伤害的人工智能系统,这也需要政策制定者和监管者努力保障基本人权、赋予所有公民平等权利、为所有利益相关者平等地预防和减轻伤害。  最后,作者强调,政策假设本身对人工智能政策的讨论仍有意义,但最具变革性和最公平的人工智能政策是那些积极与所有反面观点和所有代表性不足的观点接触的政策。为了抵消未经质疑的人工智能假设的潜在有害影响,利益相关者应该:认识到缺乏确凿、明确证据的假设正在被用作政策的基础,并提供一个用来考虑该假设的后果和反驳观点的框架;确定这些假设的服务对象,并考虑这些团体或个人是否代表所有利益相关者;探索替代性或额外的决策假设;让人工智能应用和组织接受事前审计,对最不利的潜在结果进行评估,并在必要时包括对冲这些结果的措施;衡量国家以真正服务于共同利益的方式采用人工智能的能力。

    发布时间: 2023-06-09

  • 22. 没有社会性的人工智能是危险的
    高楠
     缺乏社会性的人工智能常常存在着一定的潜在危险性,这是因为:首先,社会性对于人类而言是非常重要的,我们通过社交互动、合作和沟通来建立联系、理解他人以及共同解决问题。人类具有复杂的情感和道德价值观,这些因素在我们的决策和行为中起着重要作用。缺乏社会性的人工智能可能无法理解和适应这些社会互动的规则和背后的含义,从而导致与人类的交流和合作困难。其次,社会性也与伦理和道德相关。人工智能系统能够以无偏见、公正和道德的方式进行决策和行为至关重要。如果人工智能缺乏社会性,并没有对社会价值观和伦理准则进行深入理解,那么它的决策可能不符合人类的期望,并产生不可预测的结果。       因此,确保人工智能具备一定程度的社会性是一个重要的研究方向。研究者们正在努力开发具备社会认知、情感理解和道德意识的人工智能系统,以更好地与人类进行交互,并在各个领域中得到可靠和安全的应用。尽管如此,我们也必须意识到,实现完全具备社会性的人工智能仍然是一个巨大的挑战,并且需要遵循伦理原则和法律规定来确保其安全和可靠性。在推动人工智能发展的过程中,我们应该关注社会影响和伦理问题,并确保人工智能技术的进步与人类价值和利益相一致。为此,我们可以从人机环境系统的角度来理解和开发智能产品或系统: 一、人机环境系统可以让许多对象都可以进行连接      人机环境系统的概念旨在实现各种对象之间的互联互通。随着物联网、云计算和无线通信技术的发展,越来越多的物理设备和数字系统可以通过网络连接,实现信息的交流和共享。在人机环境系统中,各种智能设备、传感器、计算机系统和人类用户都可以成为系统的一部分,并通过网络进行连接和通信。这种连接可以是有线的,比如通过以太网或USB接口;也可以是无线的,比如通过Wi-Fi、蓝牙或其他无线通信技术。通过连接,各个对象可以相互传递数据、交换信息并协同工作。     人机环境系统的应用领域也非常广泛。在智能家居中,家庭中的各种设备和电器可以通过网络连接,实现远程控制和自动化管理。在智能城市中,各种基础设施和服务可以通过互联网连接,提高城市的效率和便利性。在工业生产中,各种机器和传感器可以连接成为一个智能化的生产系统,实现自动化和优化。此外,人机环境系统还广泛应用于交通、医疗、农业、教育等领域。然而,需要注意的是,在实现对象的互联互通时,我们也要重视信息安全和隐私保护。确保连接的安全性、加密通信以及权限管理等技术措施非常关键,以保护用户数据和系统的安全。总而言之,人机环境系统提供了一种创新的方式,使得各种对象都可以通过网络连接,实现信息的交流和共享。这将为我们的生活、工作和社会带来更多的便利和智能化。 二、人机环境系统智能可以让许多的应用模型化       人机环境系统智能的一个关键目标是通过模型化来实现应用程序的智能化。模型化是指将应用程序的功能和逻辑抽象成数学模型或计算模型,以便进行问题建模、决策推理、数据分析等操作。通过模型化,可以将复杂的应用程序分解为更小、更具可管理性的模块或组件。这些模块可以是传感器、执行器、算法、规则等,通过互相协作,实现系统的整体功能。通过建立准确的数学模型和算法模型,可以更好地理解和描述应用程序的行为和特征。模型化使得应用程序的智能化变得更加可行和高效。通过对数据和输入进行建模,可以让系统更好地理解和解释用户需求,从而做出更智能的决策和响应。同时,模型化还可以帮助优化系统的性能、资源利用和运行效率。       在人机环境系统智能中,模型化被广泛应用于各个层面和领域。在智能家居中,通过对家庭环境、用户习惯和设备状态等进行建模,可以实现自动化控制和智能调度。在智能交通领域,通过建立交通流模型和优化算法,可以实现交通信号的智能调控和拥堵预测。在医疗健康领域,通过对患者数据和疾病模型进行建模,可以实现个性化诊断和治疗方案的制定。模型化并非一劳永逸的过程,而是一个不断演化和迭代的过程。随着数据的积累和算法的改进,模型会不断更新和优化,从而提升系统的智能化水平。因此,人机环境系统智能通过模型化为应用程序的智能化提供了一种有效的方法,使得各种应用可以更好地理解和适应动态的环境和用户需求。 三、人机环境系统智能让许多的决策都可以计算       人机环境系统智能的目标之一是通过计算和算法来辅助或自动化决策过程。借助计算能力和智能算法,可以处理大量的数据、分析复杂的情境,并基于这些分析结果做出决策。在人机环境系统中,通过建立决策模型和算法模型,可以将决策问题抽象成数学或计算模型。这些模型可以包括优化算法、机器学习算法、决策树等,用于分析和推理输入数据,预测可能的结果,并生成决策方案。例如,在智能交通领域,通过收集和分析交通流数据、车辆信息及其他相关数据,可以建立交通流模型,并利用优化算法进行路网调度和交通信号优化,以最大程度地减少拥堵和提高交通效率。同样地,在智能供应链管理中,通过对供应链各环节的数据进行建模和分析,可以使用基于规则或机器学习的算法,实现即时库存管理、供应链路径优化以及需求预测等决策。然而,需要注意的是,尽管人机环境系统智能可以辅助决策过程,但并不意味着所有决策都可以完全由计算和算法替代。某些决策仍然依赖于人类的判断、经验和道德等因素,特别是在涉及伦理、社会和人类价值观等方面的决策。因此,人机环境系统智能可以通过计算和算法来辅助和优化决策过程,但在关键决策中仍需要结合人类的智慧和决策(算计)能力,实现最佳的决策结果。 四、人类的智能超越了“与或非门”及其组合       人类智能远远超出了简单的“与或非门”及其组合。虽然逻辑门是计算机中处理信息的基本组件,但人类智能涵盖了更广泛的认知和思维能力。构建一个有思想的大脑远远超出了二极管逻辑门的能力范围。人类智能具备复杂的感知、思考、决策和创造等能力。我们能够理解语言的含义、从各种感官中获取信息、将经验和知识应用于新情境中,并进行逻辑推理和问题解决。我们还能够表达情感、拥有主观意识和自我意识,并展示出创造性和想象力。这些能力并不仅仅取决于简单的逻辑运算,而是由大脑的结构和神经网络的复杂性所支持。大脑中的神经元通过复杂的连接和化学信号交互,形成了高度分布式的信息处理系统。这种复杂性使得人类能够同时处理多个任务、灵活地适应不同的情境,并做出判断和决策。此外,人类智能还受到情感、价值观、道德和伦理等因素的影响。我们的决策和行为不仅仅基于逻辑推理,还涉及情感体验、道德判断和社会因素等综合考量。       因此,尽管逻辑门在计算机科学中具有重要的作用,人类智能远超过了“与或非门”及其组合的简单逻辑运算。人类智能是一个复杂而多层次的概念,远远超越了目前技术所能实现的范畴。 五、多模态基础模型是构建人机环境系统智能的基础     人机环境系统智能是一种将人与机器环境相结合,通过多种感知模态的信息获取和处理,从而实现智能化决策和交互的系统。在这个系统中,多模态基础模型是构建人机环境系统智能的基础。多模态基础模型是指能够处理来自不同感知模态的信息的模型。在人机环境系统中,我们通常会有多种感知模态,比如视觉、听觉、语音、触觉等。多模态基础模型能够将这些不同感知模态的信息进行融合和处理,从而提供更全面、准确的情境理解和决策支持。多模态基础模型通常由多个子模型组成,每个子模型负责处理一种感知模态的信息。这些子模型可能包括计算机视觉模型、语音识别模型、音频处理模型等等。这些子模型可以分别对不同的感知模态进行特征提取、数据处理和模式识别,然后将处理后的信息进行融合,得到更全面、准确的情境理解结果。多模态基础模型在人机环境系统智能中起到了关键的作用。通过融合和处理不同感知模态的信息,多模态基础模型能够提供更全面、准确的情境理解和决策支持,从而使得人机环境系统能够更智能地应对各种情境和任务。同时,多模态基础模型也为后续的高层模型和应用提供了基础,如情感识别、自然语言理解、人机交互等。       总之,多模态基础模型是构建人机环境系统智能的基础,通过融合和处理不同感知模态的信息,提供更全面、准确的情境理解和决策支持,为人机环境系统的智能化提供基础。 人类智能是一个复杂的概念,它涉及到多个方面,包括时空的认知和非时空的心理过程。 时空方面,人类智能包括对于时间和空间的感知、理解和利用,人类能够感知时间的流逝,理解时间的概念,以及在时间的基础上进行规划、预测和记忆。同时,人类也能够感知和理解空间的概念,包括位置、方向、距离等,并在空间中进行导航、定位和操作。除了时空方面,人类智能也涉及到非时空的心理过程。这包括我们对于思维、情感、意识和意义的理解和表达,人类能够进行推理、解决问题、学习和创造,这些都属于非时空的智能表现。此外,情感和情绪也是人类智能的重要组成部分,它们能够影响我们的决策、行为和交互方式。所以,人类智能既涉及到时空方面的认知和操作,包括时间和空间的感知和利用,也包括非时空的心理过程,如思维、情感和意识,这些方面共同构成了人类智能的多维度特征。       人机环境系统智能是时空事实和社会价值共同作用的结果。时空事实是指系统所处的具体时空背景和环境条件。不同的时空条件会对人机环境系统智能的发展和运行产生影响, 例如,技术的发展、资源的可及性、环境的稳定性等都会对系统智能的实现提供必要的条件。 社会价值是指社会对人机环境系统智能的期待和评价,社会价值的形成与社会的需求和价值观密切相关。 例如,对于智能交通系统而言,社会价值可能包括减少交通事故、提高交通效率、节约能源等。社会价值的认同和支持对于人机环境系统智能的发展和应用至关重要。时空事实和社会价值的共同作用使得人机环境系统智能得以实现和发展。时空事实提供了系统所需的基础条件,而社会价值则推动了系统的应用和发展。只有时空事实和社会价值相辅相成,人机环境系统智能才能真正发挥作用,为人们带来实际的便利和改善。 考虑到社会性对于人机环境系统智能的安全性和可靠性至关重要。只有系统能够与社会和人类的价值观相一致,并能够理解和适应社会环境,才能更好地为人类服务,避免潜在的危险和问题。

    发布时间: 2023-10-08

  • 23. 比尔·盖茨:人工智能时代充满了机遇和责任
    高楠
    2023年3月28日,世界经济论坛(World Economic Forum)与Gatesnotes(盖茨笔记)合作发布比尔·盖茨(Bill Gates)撰写的评论文章《在比尔·盖茨看来,人工智能时代对世界意味着什么(Here's what the age of AI means for the world, according to Bill Gates)》。作者分享了其对一些技术发展的看法,并指出在充满了机遇和责任的人工智能时代,世界需要建立规则,以规范人工智能仍存在的问题和风险,并使每个人都能享受来自人工智能的好处。   作者指出,在其一生中最重要的两个技术演示,并阐释了人工智能的定义和发展的意义。其一是1980年图形用户界面(Graphical User Interface,GUI)的问世,这是每一个现代操作系统(如Windows)的前身,其二便是2022年,OpenAI的团队仅用数月成功训练其人工智能通过大学先修(Advanced Placement,AP)生物学考试的挑战。作者将人工智能(Artificial Intelligence, AI)定义为“为解决特定问题或提供特定服务而创建的模型”, 将通用人工智能(Artificial General Intelligence, AGI)定义为“能够学习任何任务或主题的人工智能软件”,ChatGPT的技术属于前者,业内对于后者是否有可能存在仍在激烈辩论,但二者都是计算机行业的伟大梦想。作者认为,随着机器学习和大量计算能力的快速提升,复杂的人工智能已经成为现实并将快速发展。人工智能的发展将改变人们工作、学习、旅行、获得医疗保健和相互沟通的方式,与微处理器、个人电脑、互联网和移动电话的诞生一样具有革命性的意义。而从公益事业的视角来看,作者一直思考和相信人工智能可以缓解一些世界范围内的严重不平等现象,并相信人工智能的使用可以扭转教育、健康、气候变化等问题的局势。但人工智能作为颠覆性的新技术还会引发劳动力、法律制度、隐私、偏见等方面的棘手问题,其自身也会犯一些事实性错误,这必然会让人们感到不安。   作者还阐述了人工智能在生产力、医疗健康和教育三个方面可发挥的积极作用。在提升生产力方面,人工智能可以帮助许多不需要持续学习能力的日常决策,如电话营销、应付账款、会计或保险索赔纠纷,最终,人们只需用简单的语言来表达自己的需求。其将作为一个数字个人助理改善人们想做的工作,并把人们从不想做的工作中解放出来。在企业场景中,代理人将提高员工效率,为员工提供咨询并参加会议,还会接触到与公司有关的销售、支持、财务、产品时间表和文本,并阅读与公司所处行业相关的新闻。但目前个人代理还有很多现实问题仍待解决,如保险公司是否可以在未经许可的情况下通过客户的个人助理查询客户的个人信息。当生产力上升时,人们可以将时间用在其他事情上,政府就需要思考可以提供怎样的支持和再培训来帮助工作者转换角色,让人们能够去做软件永远做不到的事情,如教学、照顾病人和老人,从而使整个社会受益。在医疗领域,人工智能将首先提升医疗工作者的工作效率,并加快医疗系统的运转效率,这一点对贫穷国家尤为重要。其次,在医学研究方面,人工智能将极大地加速医学突破,例如,人工智能可以用于解决艾滋病、结核病和疟疾等影响世界上最贫困人口的健康问题。此外,在农业方面,人工智能可以帮助开发更好的种子并提供播种建议,以及帮助开发牲畜的药物和疫苗。随着极端天气和气候变化给低收入国家的农民带来更大的压力,政府和慈善机构应该鼓励公司分享人工智能产生的相关有助于贫穷国家更好地发展种植业和畜牧业的成果。而在教育领域,人工智能目前的作用尚未达到人们此前期望的成果,教育游戏和线上信息源(如维基百科)都没有对学生成绩衡量标准产生实质性影响。但作者认为,在未来5到10年内,人工智能驱动的软件最终将彻底改变人们的教学和学习方式,但其仍无法取代学生和教师在课堂上的共同的工作。同时,我们还需要确保世界各地的低收入学校也可以拥有新的、无偏见的人工智能教学工具,以避免和弥补教育领域的数字鸿沟问题。   最后,作者指出了人工智能仍存在的风险和未来的技术趋势,并提出了引导人工智能公共讨论的三个原则。首先是技术问题,人工智能不善于理解人类提出请求的语境,无法判断应该提供编造信息还是真实信息,导致出现了很多虚构信息;此外,人工智能不善于抽象推理,容易给出错误的数学问题答案。其次是风险问题,政府应与私营部门合作规避人工智能被带来的风险。随着时间的推移,还应当考虑人工智能失控的可能性,以及未来我们是否应该在人机冲突时,阻止其发展等问题。关于未来的前沿领域,作者指出,硬件方面,正在研发的新芯片将提高硬件处理能力,人们最终将可以在自己的设备上运行人工智能,而无需在云端运行;软件方面,开发者可以通过限制人工智能在具体领域上进行大量的数据训练,生成十分准确的结果,但是,我们是需要许多不同用途的人工智能,还是有可能开发一个通用人工智能,仍有待商榷。在可预见的未来,人工智能的主题将主导公众的讨论,作者对此提出三个引导原则:第一,我们既要防范风险,又要让更多人享受其好处。第二,提供正确的政策和可靠的资金,可以让政府和慈善机构确保贫困地区及其人口可以平等地使用人工智能产品和服务,并让世界上最好的人工智能专注于亟待解决的问题。第三,虽然我们仍处在人工智能的初创阶段,但如今它的很多局限会很快消失。

    发布时间: 2023-06-09

  • 24. 英国欲成全球人工智能安全治理中心
    袁晨
       无论是几年前打败知名棋手的AlphaGo还是今年初爆火的ChatGPT,人工智能(AI)可以说是近年来全球舆论关注的重中之重,人工智能行业更是各个国家“抢滩登陆”的新领域,英国也不例外。2021年9月,英国政府公布了为期10年的国家人工智能战略,旨在将英国打造为“人工智能超级大国”。根据英国政府今年3月份发布的最新报告,英国目前共有3170家人工智能公司,超过五万名员工从事AI相关的工作。在最近一个财年2021-2022年,英国人工智能公司的总收入约为106亿英镑。今年上半年,英国政府在进一步加速布局AI行业、加快英国AI领域发展方面,可谓动作频频。3月,发表人工智能白皮书,加大包括1亿英镑预算在内的投资;5月底,英国首相苏纳克会晤DeepMind、OpenAI等AI企业负责人,商讨监管框架;6月6日,在经合组织科技论坛上,英国与包括美国和日本在内的多国高官就AI议题举行会谈;6月7日,英国宣布于今年秋天举办世界首届人工智能峰会;6月18日,苏纳克宣布,科技投资人和AI专家伊恩·霍加斯将领导英国人工智能基础模型工作组,以研究人工智能带来的安全风险。6月中旬,苏纳克在伦敦科技周上明确表示,希望把英国打造成全球人工智能安全监管的中心。他表示,有意在英国设立一个类似于国际原子能机构(IAEA)的全球人工智能监管机构。    美国政治新闻网站Politico指出,苏纳克希望将英国打造为全球AI治理的领导者,利用标准制定作为软实力工具,同时推动英国AI行业的发展,但其他AI大国是否愿意配合英国成为全球治理者仍有待观察。根据英国媒体Tortoise Media今年6月底发布的最新一期全球人工智能指数报告,英国人工智能领域的综合情况目前全球排名第四,前三名分别是美国、中国和新加坡。报告显示,英国人工智能领域的优势主要体现在其强大的科研能力和人才储备——人才和研究这两项指标英国均排名全球第五。英国还是多家全球重要研发机构的所在地,包括开发了AlphaGo和AlphaFold的DeepMind,其最近与“谷歌大脑”合并为Google DeepMind。研发了ChatGPT的美国实验室OpenAI也将其首个海外分部设在伦敦。此外,英国人工智能行业的商业化水平也在全球名列前茅。英国AI领域的创业和投资都十分活跃。自2011年以来,平均每年有269家新公司在英国注册成立;自2016年以来,英国AI公司已获得总计188亿英镑的私人投资,其中2021年是AI投资创纪录的一年,共筹集了超过50亿英镑。    然而,Tortoise的报告指出,英国AI发展亦面临着不少挑战,主要体现在运营发展环境和基础设施两方面。运营发展环境重点关注人工智能的监管环境和公众舆论是否对AI发展友好。基础设施则涉及到从电力和互联网到超级计算能力等内容,主要评估的是基础设施的可靠性和规模。DeepMind的联合创始人穆斯塔法·苏莱曼表示,英国要成为AI超级大国需要改善其发展环境。他说:“我认为英国需要做出的文化转变是更鼓励大规模投资,更鼓励冒险,对失败更宽容,更加欢迎失败和错误。”霍加斯在接受英国广播公司采访时也表示,英国的环境对初创企业特别友好,但并不适合他们发展壮大,他们总是早早地被美国的巨型企业收购。他说:“我认为我们的AI生态系统需要上升到一个新的水平,以面对这样的挑战。” 

    发布时间: 2023-08-23

  • 25. 经合组织发布《国家人工智能算力建设蓝图》
    高楠
        2023年2月28日,经济合作与发展组织(OECD)发布《国家人工智能算力建设蓝图》(A Blueprint for Building National Compute Capacity for Artificial Intelligence, 以下简称“蓝图”)。人工智能正在改变经济和社会,为提高经济生产力、加速经济恢复带来机遇。     人工智能的创造和使用依赖于一些关键要素,如熟练的劳动力、利好的政策环境、数据可访问性以及足够的计算资源,通常被称为“算力”。基于机器学习的人工智能系统有两个依托算力的关键步骤:(1)训练,包括模型/算法的创建、选择及其校准;(2)推理,即使用人工智能系统来确定输出。虽然部分人工智能关键使能因素,如数据、算法和技能等在政策圈中受到了相当大的关注,但让人工智能进步成为可能的硬件、软件和相关算力的基础设施受到的关注相对较少。 随着机器学习技术的不断发展,特别是深度学习与神经网络系统对人工智能算力的需求急剧增长。确保各国拥有足够的人工智能算力来满足其经济发展的需求,对于充分发挥人工智能的经济潜力至关重要。然而,许多国家在没有充分评估他们是否有足够的国内人工智能算力来实现其经济目标的情况下,就制定了人工智能计划。一方面,目前国家人工智能算力的标准化衡量,尤其是人工智能算力标准化指标的开发,仍然是一个政策空白。另一方面,国家政策制定者亟需准确可靠的人工智能算力评估方法以及国内人工智能算力概况,以辅助相关政策的制定。     由此,OECD制定了人工智能算力的评估框架,以供各国评估其国内人工智能算力现状,建立各自的人工智能算力基线,并指导其公共政策的制定和资源的配置。蓝图指出,在人工智能高速发展的当下,世界各国尚未出台较为专业和全面的人工智能算力发展战略和国家计划。为了避免算力短板阻碍本轮人工智能的进一步发展,报告提供了三个维度的人工智能算力评估框架:能力(可用性和使用情况)、有效性(人员、政策、创新、可访问性)和弹性(安全、主权、可持续性),并进一步对具体的操作和障碍提供了建议。蓝图算力评估框架的建立,采用了混合的研究方法,包括专家访谈、问卷、调研等定性方法,以及基于学术文献分析的定量方法。根据该评估框架,蓝图帮助各国回答了三个基本问题:该国拥有多少人工智能算力;一个国家需要多少人工智能算力才足以支持该国人工智能战略目标的实现;一个国家的算力与其他国家相比处于什么水平。蓝图认为,世界各国应该尽快着手进行人工智能算力评估和战略建设,以提升其人工智能能力。

    发布时间: 2023-06-07

  • 26. 人工智能动态快报
    高楠
    重要行业动态

    发布时间: 2024-11-22

  • 27. 德国对5个人工智能中心提供永久资助
    高楠
         2022年7月,德国联邦教研部宣布,从即日起对柏林学习基础与数据研究所(BIFOLD)、莱茵-鲁尔机器学习能力中心(ML2R)、德累斯顿-莱比锡可扩展数据分析与解决方案能力中心(ScaDS.AI)、图宾根人工智能中心(TUEAI)、慕尼黑机器学习能力中心(MCML)这5个新成立的人工智能中心提供永久资助,旨在以稳定支持的方式,为人工智能研究提供长期保障,使研究人员投入到复杂问题中。联邦教研部将提供每年5000万欧元的资助,人工智能能力中心所在的联邦州政府也将提供一比一配套资助经费。德国人工智能研究中心(DFKI)此次没有获得机构资助,因为德国政府已经于2021年10月与其所在的联邦州就增加DFKI建设资金达成了一致,2022年起,联邦政府将每年为DFKI提供1100万欧元的项目资金,联邦州政府也将提供同样金额的配套资金。除此之外,德国研究基金会也对人工智能研究加大了资助力度。德国科学基金会(DFG)根据其在人工智能领域的战略资助计划将资助八个研究机构,第一期资助总额约为3140万欧元,他们将获得最多两个四年的资助。

    发布时间: 2023-05-05

  • 28. 防范人工智能给决策带来风险
    袁晨
    习近平总书记指出,“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。”人工智能的快速发展不仅推动经济社会的深刻变革,同时也为政府决策模式的变革提供了新路径,对于建立健全大数据辅助科学决策机制、全面提升政府决策科学化民主化水平具有重要意义。 信息是决策的基础,但信息规模越大,结构性越复杂,意味着处理难度也越大。与人类决策相比,人工智能技术可以更加高效、快速、准确地搜集和处理海量非结构化数据,并将主次矛盾、因果关系、约束条件等呈现出来,为确定政策目标提供有价值的参考,便于决策者把握决策需求、认清问题症结、抓准主要矛盾、科学制定对策。 人工智能的机器学习方法可以通过分析数据中的模式和规律,自动训练和模拟模型,更加精准地预测潜在问题和风险的发生概率、复杂性与严重程度,事前预估不同政策方案实施后果,从而帮助决策者设置政策议程、优选政策方案。同时,人工智能的自然语言处理技术和文本情感分析技术使政府与公众可利用文字、声音、图片等多种形式进行互动,这不仅拓宽了公众参与决策的渠道,还丰富了政府回应民众诉求的途径,提高政府决策的透明度。政府还可利用计算机识别技术和深度学习技术对海量民意进行识别、整理、分析,了解公众共同的利益诉求、把握“最大公约数”,进而制定更符合民意的政策,实现价值聚合,提高政府信任度。 尽管人工智能提高了政府的决策能力,但也给政府决策带来诸如决策失灵等相关问题。 一是公平性风险。公平是政府决策的核心价值之一,但数据偏见和算法偏见使人工智能辅助政府决策面临公平性风险。一方面,大数据虽是海量数据,但却不是全数据。与理想化的全数据相比,大数据反映的现实是不完备的,例如,一些数字素养较弱群体的数据信息就难以被人工智能抓取。在带有“参与者偏差”的不完备数据基础上进行的决策可能会延续数据本身蕴含的价值偏差,加剧社会不公平。另一方面,算法决定了海量数据的应用方向及其计算效果,而算法设计过程中难免受到研发者价值倾向的影响。当前绝大多数算法由经营主体开发,其价值导向与公共部门未必完全一致,加之算法黑箱的存在使政府决策的公平性难以得到有效保证。 二是安全性风险。利用人工智能技术辅助政府决策通常需要收集大量数据,其中包含涉及个人隐私、商业机密、国家安全等敏感信息。有些信息单个或少量的存在并不敏感,但海量汇聚和挖掘分析后可能具有一定的敏感性。如果这些数据未能受到足够保护,可能会造成数据滥用甚至泄露,不仅损害个人和企业的隐私权,还可能对国家安全构成威胁。 三是伦理风险。算法和技术的加入使政府决策的影响因素日益复杂,原有的权责配置发生变化,造成责任主体虚化,带来伦理风险。运用人工智能辅助政府决策在一定程度上赋予了算法与技术决策权,一旦出现算法失灵,就会导致决策失误,公共利益受损。由于人工智能算法并不拥有责任主体地位,因此,决策失灵的责任追究和政治问责出现困境。 为防范人工智能技术给政府决策带来的风险,更好地推动人工智能赋能政府决策,需要在审视现行决策模式和制度基础上,针对人工智能技术的特点,采取多方面措施。 一是建立参与式算法决策框架。公共的价值观既包括决策结果的公平公正,也包括决策过程的公开参与。为化解因数据偏见和算法偏见带来的公平性风险,一方面,吸纳政策利益相关主体代表参与算法设计与构建,提高算法的公开性和透明性,将公共价值融入到算法设计中去。另一方面,加强对算法决策的前期审核与后期评估,建立人工智能辅助政府决策的伦理审查机制,组织技术专家、公众和协会等定期参与伦理审查,防范人工智能辅助政府决策的伦理风险。 二是加强适配算法决策的制度建设。一方面,建立算法救济制度。算法的不透明性与不可解释性客观上压缩了公众遭遇算法不公时的申诉与反馈渠道。为此,在制度上保障公众的知情权、选择权与要求人工介入权,畅通算法决策的救济渠道,及时根据公众意见修正算法缺陷,矫正价值偏差。另一方面,建立算法问责制度。当基于特定算法决策严重损害公众利益时,立即开展算法问责,清晰判定算法开发者、审查者和实施者责任,倒逼各方以更高价值标准开发、审查和执行决策算法。 三是注重复合型人才的分散化储备。兼具技术能力和决策能力的复合型人才是推动人工智能赋能政府决策的关键,可以有效降低决策人员与技术专家之间的沟通成本,预估并规避算法决策的潜在风险。而复合型人才在少数组织的过度集中可能阻碍技术进步,更可能导致掌握人工智能前沿技术的大企业不当介入和影响政府决策。为此,政府积极设立专门的人工智能技术部门,促进复合型人才的分散化储备,建立与经营主体的日常性互动及合作,掌握前沿技术进展,增强利用人工智能技术辅助决策的主动性。 四是动态选择决策模式。根据算法对决策过程主导性的高低,可将决策模式分为算法主导型、算法辅助型和算法咨询型三类。虽然人工智能为提高政府决策能力提供了重要的技术价值,但目前的算法决策仍然是一种有限理性的决策输出,还需要发挥人类决策在价值判断和自由裁量上的优势。因此,既要在制度上明确算法决策的地位和权限,赋予算法决策应有的权威,也要根据决策任务的复杂性审慎选择决策模式,实现人类决策与算法决策的耦合协同,有效防范政府决策风险。

    发布时间: 2023-10-08

  • 29. 欧洲的人工智能监管困局与焦虑
    高楠
     近期,来自不同政治派别的11位欧洲议会议员发出一封公开信,呼吁行业、研究人员和决策者更加关注“非常强大的人工智能”的潜在危险。鉴于当前人工智能技术的快速发展,欧洲有不少人担心欧盟的监管政策跟不上技术发展的步伐,希望欧盟更加关注不断变化的人工智能技术格局。 1.政策监管出台即过时    欧盟在尝试推动出台人工智能监管政策方面是先行者。2021年,欧盟委员会推出了全球第一个关于人工智能的法律框架——欧盟人工智能法案,希望通过该框架来应对人工智能技术可能带来的风险与挑战。在欧委会设计的框架中,根据应用场景、使用技术等多个方面,人工智能技术被划分为四个不同的风险等级,配有不同的监管要求。    当时的框架设计者们相信,尽管人工智能是一项快速发展的技术,但是欧洲的制度设计足以适应技术变化。但事实似乎并不尽然。仅仅几年间,人工智能技术的发展就让那些规则设计者们感叹欧盟的设计似乎已经过时了。欧盟人工智能法案的主要起草人之一、来自德国的欧洲议会议员阿克塞尔·沃斯指出,人工智能技术在两年前还没有这么先进,而未来两年中还会进一步发展,“如此之快”的发展速度让当时的大部分法律设计在实际生效时可能已经不再适用了。    此次,欧洲议会成员在公开信中要求,欧盟人工智能法案应保证未来人工智能发展本着“以人为本、安全、可信赖”的理念发展,甚至让涵盖整个欧盟市场的监管“可以成为全球不同监管传统和环境中其他监管举措的蓝图”。    引人关注的是,公开信还呼吁欧盟委员会主席冯德莱恩和美国总统拜登举行一次高级别峰会,就“研发、控制和部署非常强大的人工智能的初步管理原则达成一致”。 2.语言模型人工智能引发担忧    欧洲议员们的呼声很大程度上受到时下火爆的语言模型人工智能应用的影响。大型语言模型让人工智能可以进行深度学习和训练,使其不仅可以模仿人类对话,甚至还可以编写和调试代码、创作诗歌和论文。不过,这样的人工智能应用自推出伊始,人们对其技术伦理就纷争不断,各方监管机构也十分关注。    今年2月,参与欧洲人工智能法案讨论的欧洲议员曾提议,人工智能语言模型技术在没有人类监督的情况下生成复杂文本应该被列入“高风险”列表,以阻止这类应用大规模制造虚假信息。    意大利数据保护机构认为,开发语言模型人工智能使用的数据,可能违反了欧洲的通用数据保护条例。意大利数据保护机构要求研发公司必须对用户更加透明地说明数据是如何处理的,如果要将用户的数据用于进一步的软件开发(即帮助人工智能学习),必须获得用户的许可,并且必须设置未成年人的访问权限。西班牙和法国也表示了类似的担忧。    目前,欧洲议会仍在讨论欧盟委员会两年前提出的人工智能法案,尚未确定通过该法案。法案即使在欧洲议会获得批准,仍需欧盟成员国逐一审核通过。有分析认为,该法案可能要到2025年初才能生效。    沃斯议员在接受欧洲媒体采访时表示:“出于竞争原因,也因为欧洲在技术上已经落后,欧洲实际上需要以更多的乐观态度来看待人工智能。但正在发生的情况是,欧洲议会中大多数人都被恐惧和担忧所引导,试图排斥一切。”他说,欧盟成员国有关方面希望设立一个独立机构来监控人工智能技术,并且修改现有的数据保护立法。 3.英国与欧盟不同的监管思路    今年3月,英国政府公布了人工智能监管拟定办法白皮书。英国政府表示,计划在相关部门和领域中迅速采用新的监管框架,未来数月将向金融、市场等行业领域的监管机构提供人工智能监管准则。    英国采取的人工智能监管思路与欧盟提出的监管设计框架截然不同。欧盟试图推出高度规范性指令,针对高风险人工智能系统的研发者和使用者做出具体的技术和机构规定;而英国则有意对人工智能研发和使用采取宽泛的监管原则,实施更为灵活、平衡的监管办法。此外,英国政府希望,由行业监管机构在参考政府的一系列指导原则的基础上,制定具体的监管办法。    未来一年里,英国政府监管机构将面向人工智能研发和应用企业推出更加具体的监管指南,引导后者对人工智能进行风险评估。在此基础上,英国议会再适时开启人工智能立法,以确保监管机构有法可依。    英国政府希望在人工智能领域掌握更多的话语权。英国前财政大臣杰里米·亨特此前在一次演讲中表示,英国在培育人工智能技术方面必须“全速前进”,以保证“赢得这场竞赛”,为新兴技术制定全球标准。2022年亨特就表示要将英国变成“世界的下一个硅谷”,提出为量子计算技术投入数十亿美元,并承诺投资一台新的超级计算机来推动人工智能研究。 4.政府与科技公司的博弈    有业内分析认为,当前欧盟和英国加快对人工智能的监管规则设计,都是希望在规则制定上抢夺话语权,但它们的规则设计都难以在消费者保护、监管、经济和科研的自由发展之间取得平衡。    很多欧盟官员认为,监管机构必须承担更多责任,仅用风险级别来管理人工智能应用程序是远远不够的。欧盟内部市场专员蒂埃里·布雷顿提出,研发人员和科技公司应该监控每个人工智能应用程序的风险,因为科技公司有时无法预测其人工智能产品在第二天可能会做什么,甚至对做了什么感到惊讶。    但是,很多科技公司对部分欧盟监管规则并不满意。2022年欧盟曾推动出台人工智能责任规定,作为对欧盟人工智能法案的补充,以使消费者在因人工智能技术受到伤害时能够更容易起诉技术所属的科技公司。而很多科技公司坚称,这将给欧洲的技术创新带来“寒蝉效应”,科技公司的程序员不仅要为人工智能的程序错误负责,还要为人工智能技术对用户产生的潜在心理健康影响负责,这是一种苛责。    欧洲监管困局的背后,还有欧洲各国在人工智能技术领域失去领先位置后的忧心忡忡。两年前欧盟提出人工智能立法时,布雷顿就表示,欧盟此举不是要赶走人工智能的研发者,而是要鼓励和说服他们留下来。欧盟不应依赖外国供应商,人工智能数据也应在欧盟存储和处理。    沃斯议员的话更是充满焦虑:“如果欧盟规则过于复杂,科技公司就会去其他地方搞人工智能研发。欧盟还不迅速采取行动的话,将成为其他国家的‘数字殖民地’,并有可能最终失去政治和社会的稳定。” .

    发布时间: 2023-06-09

  • 30. 法国《国家人工智能战略》进入以人才为先的第二阶段
    高楠
          法国政府推出《国家人工智能战略》(简称“战略”),该战略分多阶段实施,其中,2018年3月,法国政府启动国家人工智能战略第一阶段(2018~2022年),该阶段旨在加强研究能力,已投入15亿欧元并取得显著成果,包括:建成人工智能跨学科研究所(3IA)网络,带动法国成立81家AI实验室,提供1.3万个就业机会,成立502个AI初创公司。2021年11月,法国政府启动国家人工智能战略第二阶段(2021~2025年),将调动约22亿欧元公共与私人投资,重点推动人工智能相关人才培养吸引和科技成果转化。       人才培养主要措施包括:加强跨学科与多学科教育;扩大高等教育各阶段人工智能人才培养规模,计划每年资助培养2000名本专科生、1500名硕士与200名博士;建立数据科学、人工智能与机器人全国高等教育门户网站,帮助高校学生更好地选择深造机构;开展全国数据科学、人工智能与机器人继续教育情况调研,以服务于未来经济与数字化职业的需求。科技成果转化主要措施包括:设立人工智能颠覆性技术研究计划;加大边缘与嵌入式人工智能应用;推动可信赖和节能型人工智能发展;提供更好的数据服务推动企业应用人工智能;构建人工智能初创企业生态系统。

    发布时间: 2023-05-05

相关报告