《比尔·盖茨:人工智能时代充满了机遇和责任》

  • 来源专题:人工智能
  • 编译者: 高楠
  • 发布时间:2023-06-09
  • 2023年3月28日,世界经济论坛(World Economic Forum)与Gatesnotes(盖茨笔记)合作发布比尔·盖茨(Bill Gates)撰写的评论文章《在比尔·盖茨看来,人工智能时代对世界意味着什么(Here's what the age of AI means for the world, according to Bill Gates)》。作者分享了其对一些技术发展的看法,并指出在充满了机遇和责任的人工智能时代,世界需要建立规则,以规范人工智能仍存在的问题和风险,并使每个人都能享受来自人工智能的好处。

      作者指出,在其一生中最重要的两个技术演示,并阐释了人工智能的定义和发展的意义。其一是1980年图形用户界面(Graphical User Interface,GUI)的问世,这是每一个现代操作系统(如Windows)的前身,其二便是2022年,OpenAI的团队仅用数月成功训练其人工智能通过大学先修(Advanced Placement,AP)生物学考试的挑战。作者将人工智能(Artificial Intelligence, AI)定义为“为解决特定问题或提供特定服务而创建的模型”, 将通用人工智能(Artificial General Intelligence, AGI)定义为“能够学习任何任务或主题的人工智能软件”,ChatGPT的技术属于前者,业内对于后者是否有可能存在仍在激烈辩论,但二者都是计算机行业的伟大梦想。作者认为,随着机器学习和大量计算能力的快速提升,复杂的人工智能已经成为现实并将快速发展。人工智能的发展将改变人们工作、学习、旅行、获得医疗保健和相互沟通的方式,与微处理器、个人电脑、互联网和移动电话的诞生一样具有革命性的意义。而从公益事业的视角来看,作者一直思考和相信人工智能可以缓解一些世界范围内的严重不平等现象,并相信人工智能的使用可以扭转教育、健康、气候变化等问题的局势。但人工智能作为颠覆性的新技术还会引发劳动力、法律制度、隐私、偏见等方面的棘手问题,其自身也会犯一些事实性错误,这必然会让人们感到不安。

      作者还阐述了人工智能在生产力、医疗健康和教育三个方面可发挥的积极作用。在提升生产力方面,人工智能可以帮助许多不需要持续学习能力的日常决策,如电话营销、应付账款、会计或保险索赔纠纷,最终,人们只需用简单的语言来表达自己的需求。其将作为一个数字个人助理改善人们想做的工作,并把人们从不想做的工作中解放出来。在企业场景中,代理人将提高员工效率,为员工提供咨询并参加会议,还会接触到与公司有关的销售、支持、财务、产品时间表和文本,并阅读与公司所处行业相关的新闻。但目前个人代理还有很多现实问题仍待解决,如保险公司是否可以在未经许可的情况下通过客户的个人助理查询客户的个人信息。当生产力上升时,人们可以将时间用在其他事情上,政府就需要思考可以提供怎样的支持和再培训来帮助工作者转换角色,让人们能够去做软件永远做不到的事情,如教学、照顾病人和老人,从而使整个社会受益。在医疗领域,人工智能将首先提升医疗工作者的工作效率,并加快医疗系统的运转效率,这一点对贫穷国家尤为重要。其次,在医学研究方面,人工智能将极大地加速医学突破,例如,人工智能可以用于解决艾滋病、结核病和疟疾等影响世界上最贫困人口的健康问题。此外,在农业方面,人工智能可以帮助开发更好的种子并提供播种建议,以及帮助开发牲畜的药物和疫苗。随着极端天气和气候变化给低收入国家的农民带来更大的压力,政府和慈善机构应该鼓励公司分享人工智能产生的相关有助于贫穷国家更好地发展种植业和畜牧业的成果。而在教育领域,人工智能目前的作用尚未达到人们此前期望的成果,教育游戏和线上信息源(如维基百科)都没有对学生成绩衡量标准产生实质性影响。但作者认为,在未来5到10年内,人工智能驱动的软件最终将彻底改变人们的教学和学习方式,但其仍无法取代学生和教师在课堂上的共同的工作。同时,我们还需要确保世界各地的低收入学校也可以拥有新的、无偏见的人工智能教学工具,以避免和弥补教育领域的数字鸿沟问题。

      最后,作者指出了人工智能仍存在的风险和未来的技术趋势,并提出了引导人工智能公共讨论的三个原则。首先是技术问题,人工智能不善于理解人类提出请求的语境,无法判断应该提供编造信息还是真实信息,导致出现了很多虚构信息;此外,人工智能不善于抽象推理,容易给出错误的数学问题答案。其次是风险问题,政府应与私营部门合作规避人工智能被带来的风险。随着时间的推移,还应当考虑人工智能失控的可能性,以及未来我们是否应该在人机冲突时,阻止其发展等问题。关于未来的前沿领域,作者指出,硬件方面,正在研发的新芯片将提高硬件处理能力,人们最终将可以在自己的设备上运行人工智能,而无需在云端运行;软件方面,开发者可以通过限制人工智能在具体领域上进行大量的数据训练,生成十分准确的结果,但是,我们是需要许多不同用途的人工智能,还是有可能开发一个通用人工智能,仍有待商榷。在可预见的未来,人工智能的主题将主导公众的讨论,作者对此提出三个引导原则:第一,我们既要防范风险,又要让更多人享受其好处。第二,提供正确的政策和可靠的资金,可以让政府和慈善机构确保贫困地区及其人口可以平等地使用人工智能产品和服务,并让世界上最好的人工智能专注于亟待解决的问题。第三,虽然我们仍处在人工智能的初创阶段,但如今它的很多局限会很快消失。

相关报告
  • 《人工智能时代的算法素养——内涵剖析与能力》

    • 编译者:杨小芳
    • 发布时间:2024-10-31
    • 人工智能时代的到来强化了技术环境对社会发展的影响,算法的广泛应用塑造着新的社会结构与规则,也对人们的信息处理能力提出了更高的要求。算法素养作为人工智能时代重要的素质能力集合被提出。       在信息时代,信息成为世界运行所仰赖的血液、食物,信息素养则成为人类参与工作和日常生活的基本能力,也成为图书情报学科的重要研究话题。随着信息技术的不断发展,人类社会先后经历了信息时代、数字时代、大数据时代、人工智能时代。为应对技术环境变化,以信息及其载体、表现形式、服务形式为核心,出现了诸如“计算机素养”“数字素养”“数据素养”“AI素养”等概念。       综合已有文献对算法素养的定义,融合功能型定义与解释型定义两大方向,将算法素养定义为:“具备感知、理解和使用算法的能力,能够正确使用以算法为驱动力的产品并具备对算法社会的适应能力。”以此为基础,对算法素养的功能进行更详细的解释,即具备算法素养的人能够:①拥有使用算法及相关技术工具解决所遇问题的能力;②意识到并理解以算法为驱动力的社会及其运行规则;③能够对算法及其产生的正面、负面效应进行客观评价,具备算法风险意识。       算法素养是人工智能时代人类适应社会技术变化的体现。基于对相关概念溯源与算法素养定义的梳理,结合算法素养界定的核心思想,从个体与社会两个角度对算法素养内涵特点进行解读。       首先,算法素养反映的是社会技术环境对个体的能力素质要求,理解其内涵有两个关键点。①时代背景。算法素养的产生以人工智能技术发展为时代标志,是算法普遍应用与算法负面效应暴露等内外动因推动的结果。算法素养与计算机素养、数据素养等概念的核心区别在于时代的独特性。②素养本质。尽管算法素养是素养在人工智能时代的革新,但它与信息素养、数据素养等概念一脉相承,从本质上看仍属于人类素质能力范畴,对算法素养的研究也应以人为核心展开。       其次,算法素养是内化于个体的能力集合,涵盖意识、技能、知识等多个方面。从个体的角度理解算法素养有三个关键点。①面向问题解决。算法素养的核心价值是增强个体对技术环境的适应能力,适应技术环境则要求个体能够使用算法及关联技术工具解决具体问题。②感知并理解以算法为核心驱动力的社会。算法素养要求个体能够感知社会发展中的驱动力变更,并将个人作为这一变更的参与者,共同参与到算法决策和管理中。③辩证理解算法价值。算法素养需要个体全面理解算法应用的价值及其对社会经济、政治、文化的影响,包括积极影响和消极影响。      人工智能技术改变了社会驱动结构,也在一定程度上推动着社会价值和文化观念的转变,对身处社会环境中的“人”也提出了新的能力素质要求。20世纪70年代为应对计算机技术发展,学者们将目光聚焦于信息素养,围绕个人信息处理的意识、能力开展研究。而今以算法为支撑的人工智能时代也为素养研究带来了机遇与挑战。尽管算法素养仍是一个探索中的概念,但随着算法对社会发展的作用日益凸显,应当尽早关注其带来的技术鸿沟与社会风险,算法素养极有可能成为新的突破口。
  • 《人工智能系统影响力(2023)——机遇与挑战并存》

    • 来源专题:科技期刊发展智库
    • 编译者:王传清
    • 发布时间:2024-02-22
    •   生成式人工智能软件ChatGPT已成为2023年的热门话题。作为一个令人惊叹的人类模仿者,它开启了全新的研究时代,但也带来了潜在的风险。   它参与撰写科学论文,有时甚至悄无声息。它不仅为演讲、拨款提案和课程制定大纲,编写计算机代码,还成为了研究想法的传播者。然而,它也曾编造参考文献,捏造事实,甚至发表过激言论。重要的是,它已经引发了人们的无限想象:ChatGPT时而顺从、时而引人入胜、时而寓教于乐、时而甚至令人生畏,它扮演着对话者所期望的任何角色,有些甚至是他们未曾设想过的。   为何要将一个计算机程序列入2023年影响科学的人物名单?ChatGPT并不是一个人。然而,在过去一年里,它在诸多方面对科学产生了深远而广泛的影响。   ChatGPT的目标是以其训练数据的风格继续进行似是而非的对话。然而,在这个过程中,它和其他生成式人工智能(AI)程序正在改变科学家的工作方式。它们还重新引发了关于人工智能的局限性、人类智能的本质以及如何最好地规范两者之间互动的争论。这便是为什么今年的Nature’s 10榜单中增加了非人类成员。   一些科学家早已意识到大型语言模型(LLM)的潜力。然而,对于许多人来说,2022年11月ChatGPT作为免费使用的对话程序发布后,才迅速揭示了这项技术的威力和缺陷。该程序由加利福尼亚州旧金山OpenAI的研究人员创建,其中包括Ilya Sutskever,他也是Nature’s 10之一。它建立在一个拥有数千亿个参数的神经网络上,该网络是在一个巨大的在线书籍和文档语料库上训练出来的,估计耗资数千万美元。此外,还雇用了大量员工来编辑或评价机器人的回复,进一步提升机器人的输出。今年,OpenAI已升级ChatGPT的底层LLM,并将其与其他程序连接起来,使该工具能接收和创建图像,并使用数学和编码软件提供帮助。其他公司也纷纷推出了竞争对手程序。   对于一些研究人员来说,这些应用程序已经成为无价的实验室助手——帮助总结或撰写手稿、润色应用软件和编写代码。马萨诸塞州波士顿哈佛医学院从事人工智能医学研究的Marinka Zitnik表示,ChatGPT和相关软件可以帮助人们集思广益,增强科学搜索引擎,找出文献中的研究空白。Zitnik补充说,以类似方式对科学数据进行训练的模型可以帮助建立指导研究的人工智能系统,也许可以设计出新的分子或模拟细胞行为。   然而,这项技术也充满危险。自动对话程序可能会帮助作弊者和剽窃者;如果不加以控制,它们可能会对科学知识造成不可逆转的破坏。未公开的人工智能内容已经开始在互联网上传播,一些科学家已经承认使用ChatGPT生成文章,但却没有对此声明。   此外,还有错误和偏见问题。这些都源于生成式人工智能的工作原理。LLM通过映射语言的相互联系来建立一个世界模型,然后从这个分布中抽取可信的样本,但没有评估真假的概念。这导致程序在训练数据中重现历史偏见或不准确之处,并编造信息,包括不存在的科学参考文献。   华盛顿大学西雅图分校的计算语言学家Emily Bender认为,很少有合适的方法来使用她所说的“合成文本挤压机”(synthetic text-extruding machines)。她说:“ChatGPT对环境的影响很大,而且存在问题性偏见,会误导用户认为其输出来自于人。此外,OpenAI还因窃取数据而被起诉,并被指控存在剥削劳动力的行为(以低工资雇佣自由职业者)。”   LLM的规模和复杂性意味着它们本质上是“黑盒子”,但当它们的代码和训练语料不公开时,就很难理解它们为什么会产生这样的结果。以ChatGPT为例,其训练数据集本身就是一个黑盒子。开源LLM运动正在发展壮大,但到目前为止,这些模型的能力还不如大型专有程序。   一些国家正在开发国家人工智能研究资源,让大公司之外的科学家也能构建和研究大型生成式人工智能。但目前仍不清楚监管能在多大程度上迫使LLM开发者披露专有信息或建立安全功能。   没人知道类似ChatGPT的系统还能提供多少能量。它们的能力可能还会受到计算能力或新训练数据的限制。然而,生成式人工智能革命已经开始,而且没有退路。