《大型语言模型兴起,我们究竟应该关注什么?》

  • 来源专题:科技期刊发展智库
  • 编译者: 王传清
  • 发布时间:2024-02-22
  •   牛津大学计算机科学教授Michael Wooldridge在英国广播公司(BBC)的英国皇家学会圣诞讲座上谈论人工智能的危险与前景。

      随着大型语言模型(LLM)如ChatGPT的崛起,学术界、政府、企业和媒体都陷入了热烈的争论。这个讨论涵盖了从就业和政治影响,到对人类生存的潜在威胁等各种议题。

      Wooldridge形容这些大语言模型(LLM)的出现,就像是从外太空传送到地球上的神秘力量,突然间让AI领域充满了无限可能。而在三年前,这些事情还只是哲学上的争论。对于wooldridge而言,人工智能对人类生存的威胁被过度夸大了。他认为,它们已经造成的实际伤害——甚至是致命伤害——被低估了。而它们所带来的潜力却令人心动。

      人工智能的真正风险是什么?

      2023年12月12日,在英国皇家学会圣诞讲座上,wooldridge发表演讲,他强调了对人工智能(AI)生存威胁的担忧是不切实际的。他表示,尽管ChatGPT等AI技术引发了一些关于其潜在风险的讨论,但这些担忧在很大程度上是没有根据的。

      Wooldridge指出:深入了解ChatGPT的工作原理会让人明白它并不会像人们担心的那样从电脑中“爬出来接管一切”。他强调,尽管存在关于生存威胁的讨论,但从未有人给出合理的方案来证明AI如何成为一种生存风险。

      相反,Wooldridge认为对AI生存威胁的过度关注分散了人们的注意力,使得其他更直接的风险被忽视。他警告说,目前存在滥用和伤害的风险,这些都需要关注、监管和治理。

      Wooldridge概述了这样一种情况:即有医学症状的青少年可能因为尴尬而不愿去看医生或与护理人员讨论自己的症状。在这种情况下,这些青少年可能会寻求AI的帮助,但得到的建议质量可能很差。

      “负责任的医疗机构会尽量拦截这样的询问,并说‘我不提供医疗建议’。但要绕过这些护栏并不难,当技术扩散时,会有很多不负责任的提供者出现,”Wooldridge说:“人们会因此而死亡,因为所发布的产品没有得到适当的保护。”

      Wooldridge认为,技术在没有防护措施的情况下扩散是AI的主要风险。AI本身不会造成伤害,但滥用AI的人可能会造成伤害。他强调了英国政府一直在非常积极地研究人工智能的风险,并总结了一种被称为“狂野西部”(Wild West)的情况。在这种情况下,每个人都可以获得AI技术而没有任何防护措施,导致技术变得无法控制。

      “这就把强大的工具交到了潜在的坏人手中,他们会利用这些工具做坏事。”Wooldridge警告说,“我们即将迎来英国、美国和印度的大选,在这些国家中,错误信息的传播将会造成严重的问题。”

      最大的挑战是什么?我们该如何应对?

      Wooldridge将这一挑战概括为:如何支持创新者,同时防止技术扩散至无法控制的境地。当前,尚无简单答案。然而,Wooldridge认为社交媒体公司应采取更多措施,实施能够有效发现并防止错误信息传播的系统。当被问及这是否可能侵犯言论自由时,他回应说:“通常的反对意见是,如果你试图解决这个问题,你就是在扼杀言论自由。但我认为,当有明显的虚假信息被传播时,社交媒体公司有义务做得更多。”

      Wooldridge强调在防止伤害与促进创新之间寻找平衡至关重要。他观察到,LLMs领域对于研究人员而言是一个极具潜力的迷人领域。这些新模型的诞生仿佛是一个超级黑洞,彻底改变了整个计算结构,对整个科学界产生了深远影响。Wooldridge进一步指出,他所在大学系里的所有10个研究小组都受到了LLMs进展的影响。在某些情况下,这甚至重塑了他们的研究议程,而在其他情况下,由于相关工作已变得不再相关,他们正在进行收尾工作。

      Wooldridge对多代理系统特别感兴趣,在这种系统中,多个AI系统相互作用解决单个系统无法解决的问题。他对大型语言模型表示出极大热情,这些模型代表了一个诱人的机会,使这些模型能够相互交互而不必使用人类语言。他举例说明,可以通过大型语言模型处理幻觉问题。这些模型基本上处于相互竞争的状态,一个模型提出文案,另一个模型对文案进行批判。其目标是在这一过程中就事实陈述达成某种一致。

      面对这些人工智能模型所代表的剧变,Wooldridge强调科学交流至关重要。作为爱思唯尔出版的《人工智能》(Artificial Intelligence)杂志的联合主编,他深谙如何在研究人员之间交流研究成果。同时,皇家学院的圣诞讲座也为更广泛地传播人工智能知识提供了一个平台。他认为这是他的重要职责,并已经持续了好几年。他说:“随着围绕人工智能的讨论越来越多,我认为有必要尝试让公众了解什么是人工智能。如果我的工作接受公共资助,我就有义务站出来谈论它,因为这是科学的一部分。”

      Wooldridge特别指出公众对AI的误解:人们常常误以为AI拥有自己的意图或思考能力。其中一个最大的误解是人们想象屏幕的另一端有一个大脑,但实际上并不存在。AI并不能思考你的问题。当你深入了解其工作原理时,哪怕只是浅显的了解,你就会明白这只是一种统计算法。这是一种非常先进且令人印象深刻的算法,但它并不会思考或产生任何意识。有些人惊讶地发现,它根本没有 “思想”。围绕人工智能的语言可能会助长这种误解——它 “寻找”信息,它可以被“欺骗”,或者它“想要”提供某种答案。

      “我们使用这种语言是因为它很方便”

      Wooldridge说,“但将人工智能拟人化的危险在于,我们对它的解读远远超出了实际情况。”

      尽管存在诸多讨论、过度解读和潜在的错误信息风波,Wooldridge仍对AI的研究充满热情。他认为这是一个非常有趣的发展阶段。我们已经拥有了非常强大的工具,而我们对它们的探索刚刚开始。这些工具的功能强大且神奇,但我们并不完全清楚它们为何在某些方面会出现问题或其具体的能力范围是什么。探索并绘制出这些工具的能力范围是一项引人入胜的旅程。

相关报告
  • 《什么是外来入侵物种,为什么我们应该关注它们?》

    • 来源专题:外来生物入侵
    • 编译者:刘小燕
    • 发布时间:2021-01-27
    • 入侵物种是指外来物种(在任何生殖阶段,包括种子、卵、孢子或其他繁殖体),其引入会引起或可能造成经济损害、环境损害或对人类健康的损害。这些物种快速生长和繁殖,对它们所在的地区造成了重大干扰。大多数外来物种,包括我们大多数的食物和纤维来源,都是无害的,许多是高度有益的。只有一小部分的外来物种具有入侵性,但那一小部分会造成很大的破坏。(1)如果放任不管,入侵物种会限制土地使用。(2)入侵物种可能会降低户外运动爱好者享受狩猎、钓鱼、露营、远足、划船和其他户外娱乐活动的能力。例如,超过湖泊的入侵水生植物可能使人们 无法在湖中划船或游泳。(3)保守估计在美国,外来入侵物种每年造成1200亿美元的经济损失,包括直接成本损失(例如农作物的损失)和间接成本损失(例如与控制疫情以防止进一步蔓延相关的成本)。(4)在美国,几乎一半的本地物种由于入侵物种而濒临灭绝。(5)与对生物多样性的其他威胁相比,入侵物种仅次于栖息地破坏。(6)入侵植物的花粉增加了呼吸道过敏的严重程度。(7)西尼罗河病毒(WNV)是人类和动物的一种侵入性病原体。在2008年7月,疾病控制与预防中心(CDC)报告说,在美国有1086人死于WNV。(8)入侵物种改变了生态系统过程。这种变化的一个例子是斑马贻贝引起的五大湖生态系统的变化。另一个例子是入侵植物引起火灾的频率或严重程度的变化。这种变化使本地动植物难以或不可能在受影响的生态系统中生存。
  • 《Science改变对使用生成式人工智能和大型语言模型的政策》

    • 来源专题:科技期刊发展智库
    • 编译者:张恬
    • 发布时间:2024-02-22
    •   采用ChatGPT及相关大型语言模型来支持研究和生成学术内容的速度不断加快。Science的政策一直认为在方法部分将使用上述工具适当予以披露是可以接受的。不过,Science最初对使用ChatGPT制作文本和图表采取了非常严格的限制态度,同时也在关注整个科学界的想法和反应,正如其在2023年早些时候表态:“我们认为,谨慎的做法是等待,直到我们更清楚地了解科学界认为哪些用途是被允许的。”   一些组织最近更新了它们的政策。例如,国际医学期刊编辑委员会(ICMJE)就如何在文本和图表的编写中使用人工智能提供了指导。世界医学编辑协会(World Association of Medical Editors)和科学编辑委员会(Council of Science Editors)也发布了类似的公告。   Science现已调整了关于图像和文本完整性的编辑政策,将以下内容纳入其中:   人工智能辅助技术,如:大型语言模型(LLM)、聊天机器人和图像创建器不符合Science的作者标准,因此不得列为作者或共同作者,期刊内容中引用的资料也不得由人工智能工具撰写或共同撰写。作者如果将人工智能辅助技术作为其研究的组成部分,或作为撰写或发表稿件的辅助工具,应在投稿信和稿件致谢部分注明。详细信息应在方法部分提供,应披露作品制作过程中所使用的完整提示词以及人工智能工具及其版本。作者应对作品的准确性负责,并确保没有抄袭行为。他们还必须确保适当引用所有资料来源,并应仔细审阅作品,防止人工智能可能带来的偏见。如果人工智能使用不当,编辑可能会拒绝继续处理稿件。审稿人在生成或撰写审稿意见时不得使用人工智能技术,因为这可能会破坏稿件的保密性。   未经编辑明确许可,Science不允许使用人工智能生成的图像和其他多媒体。在某些情况下可能会有例外,例如在专门涉及人工智能和/或机器学习的稿件中使用图像和/或视频。此类例外将逐案评估,并应在投稿时披露。Science认识到这一领域正在迅速发展,其对人工智能生成的多媒体的立场可能会随着版权法和行业道德使用标准的演变而改变。   Science将继续关注这一充满挑战的领域,并根据需要谨慎调整。