《关于人工智能的六大担忧》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2018-04-17
  • 2017年,人工智能的发展又到达了一个高峰期,首席信息官、顾问和学者们纷纷表示,这项技术将使得从商业、IT运营到客户联系在内的任何事情实现自动化。然而,进入2018年,越来越多的媒体开始报道人工智能的潜在威胁。

    然而,Babson College 的教授Thomas Davenport在其认知技术课上表示:“在媒体上有这么多的炒作,这只是记者试图通过谈论消极的一面来扩大炒作罢了。” 即便如此,这些担忧并不新鲜,从对种族、性别和其他因素的偏见到自动驾驶的无人机可能会带来致命的后果,这些问题一直都存在。

    不久前,《麻省理工学院技术评论》(《MIT Technology Review》)发表了一篇题为《如果人工智能最终杀死了一个人,该谁负责?》的文章,这篇文章提出了一个问题:如果自动驾驶汽车撞击并杀死了一个人,应该适用什么样的法律呢?在这篇文章发表仅一周之后,一辆自动驾驶的Uber汽车在亚利桑那州撞死了一名女子。

    为此,CIO.com详细列举了一些关于采用人工智能的担忧和隐患,以及为希望开始测试使用该技术的首席信息官们提供的建议。

    对人工智能的担忧:

    1.不可控的“粗鲁行为”

    正如我们从微软的Tay聊天机器人事件中了解到的,会话式消息系统可能是荒谬的、不礼貌的、甚至是非常令人不快的。首席信息官们必须对自己使用的东西以及使用它们的方式非常小心。要摧毁一个品牌的形象,只需要聊天机器人一次令人恼怒的爆发就足够了。

    2.感知能力很糟糕

    谷歌人工智能科学家及斯坦福大学教授李飞飞在《纽约时报》的一篇专栏文章中表示,人工智能虽然是由人类开发的,但是具有讽刺意味的是,它根本不像人类。她表示,人类的视觉感知是高度背景化的,但人工智能对图像感知的能力却非常的狭隘。为此,人工智能程序员必须与领域专家合作——回归该领域的学术根源——以缩小人与机器感知之间的差距。

    3. 黑匣子难题

    许多企业都想使用人工智能,但金融服务等行业的公司必须非常小心,因为对于人工智能是如何得出其结论这个问题尚未能解决。Fannie Mae的运营和技术负责人Bruce Lee表示:“企业如果不能解决好样本数据偏见对借贷公平造成的影响,就无法提供更好的抵押贷款利率。在诸如信贷决策之类的工作里,人工智能实际上受到了很多监管的阻碍,很多问题有待解决。所以我们所做的很多事情都必须进行彻底的回溯测试,以确保没有引入不恰当的偏见。”

    如果人们不清楚人工智能软件如何检测模式并观察结果,那么对机器的信任能够到达何种程度也有待考究。Fox Rothschild律师事务所技术实践联席主席Dan Farris表示:“背景、道德和数据质量是影响人工智能价值可靠性的重要因素,特别是在受到高度监管的行业中更是如此。”他表示:“在任何受到高度监管的行业中部署人工智能都可能会导致合规性问题。”

    4. 民族和社会经济方面的偏见

    在进行一个使用谷歌街景汽车图像来确定全美国城镇人口结构的项目中,斯坦福大学的博士生Timnit Gebru对于她的研究中对种族、性别和社会经济方面的偏见感到担忧。根据彭博社的报道,正是这种担心促使Gebru加入微软,她正在这里努力地挖掘人工智能的偏见。

    即使是人工智能虚拟助手也会受到偏见的影响。你有没有想过为什么虚拟助理技术——例如Alexa、Siri和Cortana都设定为女性?客户服务软件专家LivePerson的首席执行官Rob LoCascio对CIO.com表示:“这源于人类自己对职场中女性的期望。许多人认为,女性本质上是‘助手’;她们更爱‘唠叨’;她们更多地担任行政职务;她们更擅长接受订单......”

    5. 黑客利用人工智能发动致命的攻击

    一份由剑桥大学、牛津大学和耶鲁大学25位技术和公共政策研究人员撰写的98页的报告指出,人工智能的快速发展意味着存在恶意用户很快就会利用该技术进行自动黑客攻击,模仿人类传播错误信息或将商业无人机转化为目标武器。

    牛津大学未来人类研究所(Future of Humanity Institute)的研究人员Miles Brundage 对路透社表示:“我们承认,人工智能有很多积极的应用。但是,它也的确存在着一个有关恶意使用问题的缺口。”

    6. 奴役理论

    以特斯拉和SpaceX成名的企业家Elon Musk警告说,人类冒着成为独立“家猫”的风险创造具有卓越智慧和能力的人工智能。最近,以色列历史学家Yuval Noah Harari也提出,以自动化为核心的人工智能的出现,可能会造成一个“全球无用阶级”。 在这样的世界里,民主会受到威胁,因为人类并不像机器那样了解自己。

    IT规划未受影响

    即便如此,仍然有人抱着乐观的太对。Davenport表示,这些担心在很大程度上都是被夸大了。例如,偏见长期以来也一直存在于普通的分析项目之中。“我从来没见过任何一个曾经从事过分析工作的人会说偏见不存在。” Davenport最近完成了一本新书——《人工智能优势:大企业使用人工智能的一切》,他表示几家大公司正在非常负责任地测试人工智能。

    “很多企业已经在实践中应用人工智能技术,并且没有停止这一系列IT计划的想法。”Davenport补充说,“虽然这项技术仍然不成熟,但聪明的公司知道如何更好地应用,并且尽力避免受到来自媒体的各种正面和负面看法的左右。”

    事实上,根据Gartner的统计,IT领导者似乎基本上不被炒作困扰,据统计,有超过85%的首席信息官将在2020年前通过购买、构建和外包的方式试点人工智能。

相关报告
  • 《推进我国人工智能深入发展的六大关键点》

    • 来源专题:装备制造监测服务
    • 编译者:zhangmin
    • 发布时间:2020-10-10
    • 作为新一轮科技革命的通用目的技术,人工智能将对经济体系产生重要而深刻的影响,对推进中国经济高质量发展和抢占全球科技战略制高点具有重大意义。目前我国人工智能产业的发展基础比较薄弱,数据安全、伦理道德、收入分配、科技泡沫、区域空间等也都面临着严峻挑战。加大联合攻关、实现科技突围,整合数据资源、防范安全风险,立足人的立尝应对伦理挑战,降低失业冲击、调整赢家通吃模式,拓展应用场景、防范科技泡沫,应对虹吸效应、优化空间结构,是推进我国人工智能深入发展的关键所在。   在摩尔定律、大数据技术和深度学习等的综合推动下,人工智能迎来第三次浪潮。作为一种通用目的技术,与蒸汽机、电力、信息通信技术一样,人工智能将对经济体系产生重要而深刻的影响。随着中国跨过刘易斯拐点、老龄化程度不断加快、产业转型压力不断加大,人工智能具有巨大的市场需求空间。同时,5G产业化、云服务提供商等的发展也为人工智能提供巨大的供给支撑。人工智能将对推进中国经济高质量发展和抢占全球科技战略制高点具有重大意义。   2020年突如其来的新冠肺炎疫情,在给宏观经济造成巨大影响的同时,也推动了人工智能在各行各业的深入应用。在疫情防控与复工复产过程中,人工智能在医学影像识别、病毒基因检测、辅助治疗、智能制造、金融风险防控、公共安全防护、智慧物流与智慧零售、在线教育、智慧城市等领域发挥了越来越突出且不可替代的作用。   与此同时,我国人工智能的发展也存在诸多风险和挑战。以人工智能为代表的新一轮科技革命带来的大国竞争前所未有,中国面临巨大的科技突围压力;由于数据本身的价值很高、人工智能技术自身不完善和使用不当等原因,人工智能系统已成为不法黑客攻击的重要目标;人工智能的兴起冲击传统的伦理关系,挑战人类的道德权威;机器替人会带来失业冲击与收入再分配;巨大的科技收益预期加大投机风险,会引发人工智能泡沫;虹吸效应会促进人工智能企业过度聚集,进一步拉大区域差距。这些挑战既有人工智能自身的不足,也有人工智能发展而引发的伦理、社会、经济等问题。提前谋划并妥善解决这些问题,是推进我国人工智能深入发展的关键所在。   一、加大联合攻关,实现科技突围   当今世界正经历百年未有之大变局。随着中国成为世界第二大经济体并逐步迈入创新型国家行列,世界经济中心加快向亚太转移,百年来西方国家主导的国际政治经济秩序正在发生大调整。以人工智能为代表的第四次工业革命方兴未艾,将深刻地改变人类的生产和生活方式,一定程度上决定了一个国家未来的国际竞争力。为此,世界主要大国之间围绕人工智能等进行的科技竞争日趋激烈,特别是中美关系历经多年未遇的重大挑战,国际间的人才交流、科技合作、投资并购、产业链分工等都受到不同程度的限制,单边主义、保护主义不断抬头,经济全球化遭遇逆流。   目前中国人工智能产业的核心技术比较薄弱,集成电路超过原油成为第一大进口商品,基础软件90%以上依赖国外企业;顶尖人才数量与美国等发达国家还有较大差距。当今世界国际技术环境的剧烈变化决定了中国必须跳出传统的模仿创新模式, 加快走自主创新之路,实现科技突围。中国既要大力拓宽国际科技合作新渠道,大力加强顶尖人才的培养与引进。        更为重要的是,积极发挥市场经济条件下的新型举国体制优势,围绕人工智能核心基础零部件和元器件、先进基础工艺、关键基础材料、产业技术等“卡脖子”的共性问题实施专项行动,集中优势资源,加大研究投入,设定目标,分解任务,协同攻关,实现突破。同时,技术标准也是全球化时代各国争夺市场话语权的重要手段,是市场竞争的制高点。要以《国家新一代人工智能标准体系建设指南》(2020)为指引,对标世界一流,加强多部门协作,制定和完善人工智能标准体系,抢占国际标准主导权乃至控制权。        此外,还要借鉴德国弗劳恩霍夫研究所等机构的经验,调动各类智商高、情商高、有知识、肯下功夫钻研以及接地气、了解市场的人建立技术转移机构或担任技术经理人,搭建科技与产业的桥梁,实现技术到创新的转化(黄奇帆,2020)。最终通过加大联合攻关,突破瓶颈制约,形成标准体系,畅通转化渠道,实现中国人工智能产业的科技突围。   二、整合数据资源,防范安全风险   数据是人工智能的三大支柱之一,人工智能因大数据而重生, 制约人工智能广泛应用的不是算法不够先进,而是缺乏高质量的数据。目前我国运行着多种信息化系统,这些多源异构的系统之间彼此割裂,而且由于历史原因很多数据没有被数字化,致使系统之间处于孤岛状态。分散各处难以融合的数据孤岛,无法很好地训练模型,成为制约中国人工智能产业发展的最大障碍。就像土地是农业时代的原材料、钢铁是工业时代的原材料一样,数据是信息时代的原材料。限制数据读取无异于在农业时代管控土地使用、工业化时代限制工厂的产品生产(罗斯,2016)。         为了加快人工智能的发展与应用,需要加快数据的开放和大力整合,实现数据准确与有效联通。在规范数据使用、保护隐私等前提下,借助区块链等技术,建设数据中台,汇聚多种来源数据,形成统一标准和体系。在此基础上,根据用户的各种需求, 快速响应,及时提供可视化、智能化、便捷化的数据服务方案(付登坡等,2020)。   由于数据本身的价值很高、人工智能技术自身不完善和使用不当等原因,人工智能系统已成为不法黑客攻击的重要目标,面临着巨大的安全风险。保障数据与网络安全需要政策法规与技术手段等的结合。   1.完善细化法律法规,保护数据安全。首先要立法确定数据的所有权,并且数据所有者有删除个人数据的“被遗忘权”(王坚,2018)。其次,完善细化法律法规,明确数据收集、存储、处理、使用等各个环节的边界。在数据汇聚和使用之前,利用大数据和人工智能技术完成数据的清洗、脱敏、结构化和标准化(冯登国,张敏和李昊,2014)。保障数据使用的可追溯性,完善追责问责机制,规范数据使用范围。   2.使用“联邦学习”策略,保护数据安全。在数据不出本地的前提下,各个数据拥有方依托各自数据建立模型,将各地的模型参数上传到云端,再在云端训练人工智能模型。然后将优化的人工智能模型参数返回到各地共享。这种策略既实现了数据共享,又保证了数据安全(世界人工智能大会组委会,2019)。   3.借助大数据和人工智能等技术,保障网络安全。基于人工智能技术在软件二进制分析、网络攻击检测、安全行为辅助分析、网络信息过滤等领域的应用,建立一套基于“大数据+威胁情报+安全知识+安全专家”的全新战法,构建覆盖整个国土空间的智能网络防御系统,即国家网络安全大脑,从而应对网络战争,保障网络安全。此外,加强政府、科研院所、企业和行业等各方紧密合作,共建有利于网络安全的大生态(周鸿,2019)。   三、立足人的立场,应对伦理挑战   随着中国跨过刘易斯拐点、老龄化进程加快与产业转型升级的压力加大,人工智能在中国具有巨大的应用前景。人工智能的使用,一方面提高了生产效率,赋予劳动力和资本更多能量,拉动经济增长(Aghion,Benjiamin and Charles,2017);人工智能也促使生产方式趋向人性化,使得人们逐步从重复、单调、危险的工作中解放出来,促进人的自由全面发展。另一方面,人工智能的兴起与发展也对人类的传统伦理关系、人的本质等发起了深层次的挑战。   首先,人工智能的兴起,冲击传统的伦理关系,挑战人类的道德权威。(1)隐私问题。人工智能系统的建立需要大量数据来训练模型,这将会产生隐私泄露等问题。(2)安全与责任问题。目前人工智能技术大多基于云端或互联网开放平台,互联网与人工智能技术本身的漏洞可能造成巨大的安全隐患。(3)算法歧视。数据质量和隐含的信息决定了深度学习模型得到的结果可能存在算法歧视(莫宏伟,2018)。(4)智能鸿沟。人们使用人工智能产品的能力有很大差异,尤其是对于老年人使用人工智能产品的能力有限,从而导致这些人被人工智能技术排斥在外,形成智能鸿沟。   其次,人工智能的发展与应用,引发人类对于人的本质的深层次挑战。随着生物技术和智能技术的发展,强人工智能时代将会到来。人的自然身体与智能机器日益“共生”,“共生体”究竟是“人”还是“机器”?当智能机器具备了人的思维,会制造工具,并且具有人的外形、声音与行为,智能机器是否是“人”?如果智能机器在一定意义上是“人”,那么它是否享有人权等基本权利?是否应该承担相应的行为后果?超级智能是否会“失控”,反过来取代、控制或统治人类?这些都是极具挑战性的问题(孙伟平,2017)。   目前国际上有两套被普遍认可的人工智能伦理共识。一套是“阿西洛马人工智能原则”,另一套是国际电气电子工程师学会提出的“人工智能设计的伦理准则” (杨放、刘开、常运立,2020)。        2019年中国也发布了《新一代人工智能治理原则发展负责任的人工智能》,提出了八项原则。应对人工智能带来的伦理挑战,须要以伦理共识与治理原则为准绳,立足人的立场,按照人本、公正和责任原则,早做谋划,让人工智能服务人类。一是,在人工智能的系统设计中,要将人类社会的伦理规范和价值观念嵌入人工智能系统。二是,制定人工智能算法规范和标准。对软件和算法设计进行规范和监管,同时加强代码和决策透明性。建立第三方检测、评估、认证和审批制度,对不符合监管标准的产品不允许推向市场(莫宏伟,2018)。三是,不断细化完善现行法律法规,明确人工智能产品设计者、生产者和使用者的责任范围。同时需要确保用户对算法等有知情权与被解释权。此外,还需要加强人工智能伦理风险方面的宣传与教育。   四、降低失业冲击,调整赢家通吃模式   人工智能革命通过变革技术体系、产业结构与生产方式影响就业结构与就业形态。人工智能的就业效应主要包括创造效应和替代效应。人工智能对就业的创造效应主要表现为间接效应,即人工智能通过提高企业经济效率与降低生产成本,带来人工智能研发企业、产品供应商、应用企业和其他企业的发展,进而促进就业增长(邱和何勤,2020) 。         人工智能的就业替代效应主要通过技能偏向型技术进步和程序偏向型技术进步而实现。技能偏向型技术进步会增加对高技能劳动者的需求,减少对低技能劳动力的需求,从而对低技能劳动者造成冲击。程序偏向型技术进步将机械性、重复性、逻辑性强、易编程的工作任务自动化,从而对中等技能岗位造成冲击(Autor,Levy and Murnane,2003;Autor and Dorn,2013)。目前人工智能尚处于弱人工智能阶段,就业总体效应还存在争议,但从短期看就业破坏效应大于就业创造效应,会给社会带来一定程度的失业冲击。   在数字化技术变革、信息通信技术进步、网络效应和垄断寻租等因素的综合推动下,人工智能还将创造赢家通吃市场,形成高技能劳动者与低技能劳动者之间、资本和劳动之间、超级明星与其他人之间的巨大财富分化。赢家通吃市场的经济模式与工业化经济模式截然不同。工业化经济中营业收入和个人所得跟天分和努力高度相关,收入分配差异远远小于赢家通吃市常而在赢家通吃市场存在极其不稳定、不均匀的竞争,收入分配呈现幂律分布。这种分配模式下,小规模群体获得不成比例的收入份额,即80/20法则。同时,这种分布具备尺度(标度)不变的特征(第1名在前10名中所占的份额,与前10名在前100名中所占的份额大体上相同)。收入分配向幂律分布转变意味着支撑社会稳定的中产阶级钟形曲线结束了(布莱恩约弗森和麦卡菲,2014)。   人工智能带来的失业冲击和赢家通吃市场,会使很多失业者和失败者被取代、被排斥和被抛弃,可能成为解构社会、破坏秩序稳定的重要因素。因此,一方面需要政府落实反垄断法,强化监管,减少寻租,创造公平的竞争环境,这是缩小收入分配分化的关键(斯蒂格利茨,2013)。另一方面,改革税收体制,降低个人所得税,使得个人所得税率小于或等于企业所得税率,增加农民财产性收入(黄奇帆,2020)。        抑制新自由主义的霸权资本逻辑,逐步推行遗产税收制度,避免寡头统治的形成。同时,扩大社会事业支出。加强教育培训,提高劳动技能与技术发展之间的匹配度。建立健全社会福利和保障体系,增加住房和医疗等方面的支出,对弱势群体进行救助, 维护他们的尊严和合法权益。   五、拓展应用场景,防范科技泡沫   随着经济的不断发展,经济体累积了庞大的、过剩的资本,这些财富亟需投资渠道。科技革命形成良好的前景,为资本提供了众多投资机会,巨大的收益预期也让投资人变为投机家。尽管投机活动大大增加了市场的流动性,提高了交易量,增加了市场参与者,但是投机的结果往往是经济泡沫。历次工业革命时期曾先后出现过19世纪20年代和30年代初的运河泡沫、19世纪30年代和40年代的铁路泡沫、20世纪20年代的航空泡沫、20世纪90年代的互联网泡沫等(戈登,2011;霍布斯鲍姆,2017)。         随着人类步入人工智能时代,人工智能被看作是重现20世纪90年代计算机技术奇迹、拉动全球经济起飞的又一契机,人工智能企业受到资本市场的强烈追逐,全球人工智能公司数量快速增长。20132018年第一季度中国人工智能领域的投融资占到全球的60%,成为全球最“吸金”的国家,人工智能产业出现“盲目跟风、重复投资”的泡沫化倾向(周鸿,2019)。在当前人工智能应用场景变现困难的情况下,科技革命的预期效应可能引发新一轮经济泡沫。   除了完善相关法律法规和加强资金监管之外,攻关应用场景和探索商业模式是引导科技发展、避免泡沫破灭引起经济恐慌的关键。(1)凝聚多方力量,攻关应用场景。人工智能的使用将对企业的组织模式发生变革,其应用场景的攻关需要若干垂直领域的人员共同参与才能有所突破。在国家超算中心等机构和企业提供便捷的算力和算法支撑的基础上,探索人工智能在推动数字技术产业化、传统产业数字化、智慧城市与智慧管理等方面的应用场景。        (2)增加资金渠道,探索商业模式。人工智能的应用场景多是资本密集型的环节,风险很大。一方面,需要完善多层次的资本市场,特别是要发挥科创板的示范作用,为人工智能初创企业注入资本动能;另一方面,根据应用场景的性质,探索财政专项基金、自然科学基金、重大基础科学研究项目群、风险资金等的不同结合方式,增加资金供给渠道。在此基础上,积极探索合适的商业模式。一是在国内外寻求合作者,通过实行开放和反馈的思路,提升人工智能产品性能,提高服务和盈利能力;二是与上下游企业合作, 将人工智能系统搭载在上下游企业的产品上进行销售,既能增加上下游企业的竞争力,又能验证产品的实际效果,还能加快产品通过认证。        (3)政府部门也要加快人工智能产品的审批流程,对符合条件的人工智能产品可先在人工智能示范区内进行应用试点示范,形成可复制的经验,加快人工智能产品的推广与使用。   六、应对虹吸效应,优化空间结构   中国区域差距很大,为了便于分析人工智能在区域空间上的虹吸效应,可将全国分成经济发达和经济不发达两类区域。相比经济不发达区域,经济发达区域具有更高的资本密集度、更好的人力资本和更完善的基础设施,具有更深更广的使用人工智能的能力和动力。在此背景下,人工智能通过生产效率、资本深化、劳动禀赋、技能溢价、产业组织等渠道,促进空间极化。(1)人工智能的使用会提高生产效率,经济发达区域使用较多的人工智能,带来更高的经济效率,从而拉大生产效率对区域差距的贡献。        (2 )人工智能的使用在很大程度上表现为资本替代劳动。相比经济不发达区域,经济发达区域人工智能资本深化程度更高,因此资本收入份额更大,从而拉大资本对区域差距的贡献。        (3)机器替代劳动会降低企业的生产成本,这将大幅降低经济不发达区域的劳动禀赋优势,压缩依托劳动禀赋的发展空间,进而拉大区域之间的差距。        (4 )人工智能的使用使得很多低技能或程序化的工作被机器替代,从而带来失业。在当前中国的户籍制度下,经济发达区域的很多失业者会选择回到不发达区域进行回乡创业。同时人工智能的使用意味着适应人工智能需求的劳动力工资会上涨, 这会引起不发达区域适应人工智能需求的劳动力更多选择流向发达区域,从而获得更多的发展机会与经济收益。劳动力在空间上的双向流动,会降低不发达区域劳动力技能的整体水平与工资水平,提高发达区域劳动者技能的整体水平和工资水平,从而拉大区域差距。        (5)人工智能的使用会对产业组织产生影响。使用人工智能的企业具有更高的生产效率和更低的生产成本,产生更大的竞争力,从而更容易在市场竞争中胜出。经济发达和不发达区域使用不同程度的人工智能技术,这意味着经济发达区域较多的企业在市场竞争中胜出,而经济不发达区域较多的企业在市场竞争中退出。企业的进入和退出差异会加剧区域经济不平衡。当然,人工智能的使用也存在趋同机制, 趋同的力量主要在于人工智能的使用会加快知识的扩散。同时,人工智能技术也不仅仅是劳动力替代技术,也存在劳动力互补技术。但是趋同的力量相比于以上五个分化的力量要小得多,人工智能的使用会加大虹吸效应,促进空间极化。   从经验数据看,中国的人工智能企业和人工智能应用企业表现为较高程度的空间极化。从中国人工智能企业的分布看,2019年科技部公布的15家中国最强人工智能企业只分布于北京、上海、深圳、合肥和杭州等5个城市。从2019年人工智能初创企业100强的分布看,东部地区占据99家,西部只有1家。从人工智能的应用企业看,中国企业500强是人工智能使用的主要示范企业,位于京津冀城市群、长三角城市群和粤港澳大湾区的2019中国500强企业分别有125家、130家和68家,占到全国的64.6%。   人工智能的发展需要科技力量、集群网络、基础设施、知识交流等的支撑,这是人工智能企业出现虹吸效应和空间极化的基本逻辑。近年来,中国的区域经济差距呈现扩大趋势。人工智能带来的空间极化效应会进一步拉大中国的区域差距,这不利于推动形成国内大循环为主体、国内国际双循环相互促进的新发展格局,从而反过来限制人工智能的发展潜力与广泛应用。考虑到中国国土空间很大,为实现区域公平发展,并推动形成双循环发展格局,需要在空间上形成以都市圈为核心的多极空间结构,宜选择长三角城市群、粤港澳大湾区、京津冀城市群、长江中游城市群、成渝城市群、山东半岛城市群、关中城市群等作为中国人工智能发展的研发和使用示范区。以都市圈为核心的多极空间结构,既与国家的资源、环境和人口的分布特征相吻合,与人工智能产业聚集发展的经济诉求相吻合,与形成国内大循环为主体、国内国际双循环相互促进的新发展格局相吻合,也与国土空间结构优化与区域公平发展的需求相吻合。
  • 《人工智能正在改变同行评审——许多科学家对此感到担忧》

    • 来源专题:数智化图书情报
    • 编译者:程冰
    • 发布时间:2025-10-19
    • 同行评审,学术界的基石,竟然被AI入侵了!生态学家Timothée Poisot在审阅稿件时发现,一份评审报告疑似由AI炮制,这就像一颗炸弹,在学术圈炸开了锅。机器评审,是进步还是灾难? 实际上,早在 ChatGPT 等基于 LLMs 的 AI 工具出现前,出版商就已使用多种 AI 应用来简化同行评审流程。如今,AI 系统正改变着同行评审,有的是在出版商鼓励下,有的则违反规则。一项针对 2023 年和 2024 年提交给 AI 会议论文的同行评审报告研究发现,7% - 17% 的报告有被 LLMs “大幅修改” 的迹象。许多资助者和出版商目前禁止评审人员使用 AI,担心信息泄露。但哥本哈根大学的塞巴斯蒂安?波尔斯丹?曼恩表示,若使用离线 LLMs 则不会有此问题。 不同研究者对 AI 在同行评审中的作用看法不一。葡萄牙天主教大学的德里特乔恩?格鲁达认为使用离线 LLMs 改写笔记可加快和优化评审撰写过程;但西雅图华盛顿大学的进化生物学家卡尔?伯格斯特龙反驳称,依赖 AI 可能导致评审分析肤浅。波尔斯丹?曼恩指出,LLMs 能改善部分评审风格,但也存在错误。 斯坦福大学的计算生物学家詹姆斯?邹团队正在开发一种评审 “反馈代理”,可评估人类评审报告并提出改进建议。去年 12 月在伦敦的出版商创新展上,许多 AI 开发者展示了用于改善同行评审的产品,如荷兰世界大脑学者公司的 Eliza 和跨国出版服务公司 Enago 与 Charlesworth 开发的 Review Assistant 等。英国初创公司 Grounded AI 开发的 Veracity 可检查引用论文是否存在及相关内容是否对应。 美国物理联合会的出版部门 AIP Publishing 正在两家期刊试用 Grounded AI 和 Hum 公司开发的 Alchemist Review 软件,主要用于人类评审前辅助工作。2024 年 12 月一项对顶级医学期刊指南的研究发现,大型出版商中,爱思唯尔目前禁止评审人员使用生成式 AI 或 AI 辅助评审,而威利和施普林格?自然允许 “有限使用”,且要求披露 AI 使用情况并禁止上传手稿。在 78 份顶级医学期刊中,59% 禁止在同行评审中使用 AI,其余则有不同程度允许。最激进的 AI 应用是直接提供自动评审手稿的工具,如澳大利亚的 Paper - Wizard,其共同创造者称这是帮助作者的 “预同行评审” 产品。