《人工智能的下一个挑战:理解语言的细微差别》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 姜山
  • 发布时间:2018-08-07
  • 语言是人类特有的技能,是人类智慧的体现。在人工智能时代,自然语言处理(NLP)技术为机器赋予了这样的语言功能,让机器有了自然语言识别能力,为用户体验开辟了新路径。

    在近期的Google Cloud Next 18大会上,Google推出了第一个Solution Product (行业解决方案产品)——Contact Center AI,其集虚拟助理、智能信息发掘和情感分析等功能于一身,不但帮助工作人员有效解决了问题而且提升了用户体验,展现了人工智能语言技术的新突破。貌似科幻小说里的场景变成了现实,但是想要维护好人与机器的关系,机器必须能够实现直观的、自然的语言交流,这对于NLP技术来说仍然是一个挑战。很多企业早就开始研究NLP,该项技术的出现几乎跟人工智能一样早,但是目前还处于起步阶段。

    语言是人们进行信息交流的首要工具,要想机器也具备同样的机制,就要理解人类语言的复杂性以及人类使用语言的行为习惯,其中情感分析、问题回答以及多任务学习是机器人逐渐成熟的重要途径。

    情绪分析

    语言本质上是复杂的,一个正常人也要经过数年才能掌握一门陌生的语言。对于机器人而言,我们要想使用人工智能来解析给定的陈述,首先要实现情绪分析,比如,判断电影评价是正面的还是负面的,或者分析发话者是高兴的、生气的、惊讶的还是悲伤的等。从客户服务到在线社区审核再到算法交易,企业能够通过分析成千上万个推文或数百个产品评论,了解公众对产品的看法,对于企业来说,这个价值是很大的。

    研发人员早就开始入手自然语言处理中的情绪分析,随着NLP的进步,情绪分析也在不断进步。比如CRM解决方案提供商Salesforce推出的一款产品——Einstein AI(爱因斯坦人工智能服务),它可以帮助客户对电子邮件、社交媒体聊天文本进行情感分析,然后了解用户信息,帮助确定企业客户的下一步产品策划。

    Salesforce的首席科学家 Richard Socher表示,机器人只实现简单的语意理解是不够的,有时候需要一定的语境,需要通过联系上下文去判断。比如,你是一个生产肥皂的企业,用户在产品评价上说了这样一句话“这款肥皂真的很适合婴儿!”。按照表面的语意来说,可能就是对产品的积极评价,但是如果联系上下文,整个语言环境都是对产品的差评,那么这句话的意思也可以理解成“这款产品真的很差劲!不要给婴儿使用!”。所以,NLP真正的挑战是在特定的语言背景下,去理解语言的细微差别,即需要通过简单的标记数据改进模型训练,也需要能够联系上下文在多种不同任务中共享知识的新模型。

    问题回答

    NLP的发展加快了信息化的速度,Siri和Google Assistant等应用程序的出现,解决了很多常见的自然语言处理问题,但是很多难题,机器仍然没有给到我们想要的答复。

    想要计算机到达理想效果,我们还要确保计算机对问题的理解。如果你问“我的飞机何时到达?”电脑需要知道你说的是飞机的航班还是你从外地订购的某个飞机模型,它需要通过上下文语境,去猜测我们话语中的真实意思。通过NLP,我们可以让机器学习如何通过上下文语境去分析语句,这样的话,人工智能就可以一次性处理所有的上下文,而不会漏掉重要的信息。

    多任务学习

    在IT领域,企业更擅长构建单个任务的人工智能模型,但是一个更直观的、细致入微的、有语境的对话界面则需要一个不断学习的人工智能模型——将新的任务和旧的任务集成在一起,来学习执行更复杂的任务。对于别的领域来说,人工智能达到这样的标准也许是可能的,但是在语言方面,就需要很大的灵活性。

    这里我们来举一个例子:“谁是我的客户?”,这是一个足够简单的任务。但是“谁是我在西部地区的某一产品的最佳客户?”现在,我们增加了一些复杂条件,就需要一系列集成任务来回答这个问题,比如说:“最佳”如何界定?西部地区的客户具体是哪里?哪些因素会使客户对一种产品产生兴趣?这里我们在查询条件里增加了一个项目,问题的复杂性就显著增加。

    Salesforce Research最近创建了自然语言十项全能,利用问答的力量在单一模块中解决NLP中最棘手的10项任务:问答、机器翻译、摘要、自然语言推理、情感分析、语义角色标注、关系抽取、目标导向对话、语义分析、常识代词消解。使用多个任务问答模型,将每个任务作为一种问答形式,单个模型在没有特定参数或模块的情况下共同处理不同的任务,这不仅意味着研发人员不需要为每一项任务构建、训练和优化模型,而且还意味着该模型将具备zero-shot(零样本学习)能力,也就是说,在未经过任何训练的情况下该模型也可以处理它从未执行过的任务。

    Socher解释道,问题回答其实是非常宽泛的——你可以随便问任何问题——该研究相当于提供了解决几个任务的单一模型。

    虽然目前的NLP还处于起步阶段,但是我们可以看到它巨大的发展潜力,随着人工智能的发展,我们期待一个全新的自然语言处理技术体验。

相关报告
  • 《量子计算的下一个超级大挑战》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:husisi
    • 发布时间:2020-08-10
    • Science的这篇科普稿发表于一个月前,事实上国内媒体早已经将其翻译过来介绍给国内的同行和爱好者。我一时兴起决定再译一遍,一方面是希望加深一下自己的印象,另一方面也希望将某些略显晦涩的地方讲的更清晰一些。不过译完之后,我感觉大概我的第二个希望会落空。量子纠错基于量子纠缠,而纠缠的确是一个极难讲清的概念,稍有不慎往往让读者更为迷惑,抑或浮想翩翩,这都是量子方面的科普人所不愿见的。 我们的确生活在一个伟大的时代,前人穷尽思虑也想不到的事物,如今像泉涌般喷薄而出。量子计算显然是其中之一。Peter Shor设计他的量子算法时,恐怕只是作为一个数学玩具而已,如今却眼看要在我辈有生之年内成为现实。就在去年,Google发布了轰动一时的“Sycamore”芯片并演示了“量子霸权”,为量子计算发展史留下浓重一笔,一时间褒贬齐飞,这个事件甚至让我有幸登上一次直播台,真真是件极有意思的事情。本文对于“量子霸权”这件事,感觉是有点“颇不以为然”的。倒不是说量子霸权这个实验演示本身有何问题,或者重要性不够,而是相比本文围绕的量子纠错这一挑战而言,有点不足为道。然而量子纠错这个词汇,却远不如量子霸权来得霸道,有冲击力,所以作者耐心地讲解了开发切实的量子纠错方案有多难,其用心可谓良苦。 几个月前我还译了《福布斯》杂志对Google量子技术核心人物Martinis的专访,有一个地方我印象很深:Martinis教授对他解决了量子芯片设计中的连线问题感到很自豪,但另一位理论物理学家也提出了一个连线方案,Martinis凭实验者的视角认为不可行,但Google却最终支持了那个方案,令他大为失望。我当时内心苦笑道:“连线问题的重要性,似乎只有真正做的人才有所体会。但“解决了连线问题”的话题性与“量子霸权”相比不啻霄壤。 联系到这里,量子纠错的话题性同样远不如“量子霸权”,但对于实用化量子计算而言,量子纠错的重要性比之量子霸权确实如泰山之于土丘。我们确实有必要向关注量子计算的人们传递这一概念,加深这一概念,以免哪天科学家们克尽艰难征服了量子纠错,对外界发出呐喊的时候,吃瓜群众却个个摆出萌懵脸。当然,我更希望科技战略制定者能体会到其重要性,能够准确把握国内量子计算推进的方向,使我国量子计算事业立于世界之巅,为国家、为人类做出不世之贡献! 2019年10月,Google的研究人员高调地对外发布了其量子计算原型机,并以压倒性优势解决了一个目前最好的超级计算机难以解决的问题。很多人认为这是一个里程碑,即所谓“量子霸权”,它标志着量子计算时代黎明的到来。对这件事,一位来自加州大学戴维斯分校的数学家Greg Kuperberg,却颇不以为然。他是一位量子计算的专家,按照他的说法,Google本应该将目标设定在一件尽管不那么耀眼,但却远为重要的事情上。 量子纠错:比量子霸权远为重要的事情 不管是计算你该交多少税,还是玩超级马里奥,我们的计算机总是在长长的0、1比特串上施展魔法。而量子计算却是在量子比特,或者叫qubit上展示魔力。量子比特可以同时处于0和1,就像你同时坐在长沙发的两头那样。它们可以在离子、光子或者微小的超导电路中实现,这种两能级系统赋予了量子计算超强的能力。不过,量子比特同时也是很脆弱的,与周围环境发生哪怕极微弱的相互作用也会导致它们发生改变。所以,科学家们必须学会如何去纠正这些错误,而这正是Kuperberg寄望于Google之所在——Google应该朝这一目标迈出关键一步。“这是一个更有意义的基准”,他这样说道。 当专家们质疑Google的量子霸权实验的重要性时,他们都会强调量子纠错的重要性。Chad Rigetti是一位物理学家,同时也是Rigetti公司的联合创始人,他说:“这差别真的非常大,就像你花了一亿美元,是建了一台10000个量子比特组成的随机噪声发生器,还是一台世界上威力最大的计算机。”在这关键的第一步上,大家都同意Kuperberg的观点:将通常编码在躁动不安的单一量子比特上的信息,以某种形式分散到一群量子比特里去,从而能够在噪声纷扰下依然保持信息的完整性。德州大学奥斯汀分校的计算机科学家Scott Aaronson解释说:“你要建的船还是那艘船,尽管上面的每块木板都已朽烂,到了必须要更换的地步。” 如果一艘船的木板随着时间流逝逐渐腐烂并被替换,直到所有的部件都不是最开始的那些,它依旧是原来的船吗?这是一个古老的思想实验,被称为“特修斯之船”,哲学家们对此有着不同的答案。量子纠错的机制与此类似,一个逻辑量子比特的信息分散在众多物理量子比特中,不过问题的答案却是肯定的,即使物理量子比特受到扰动,逻辑比特中的信息完整性仍得以保持。 量子计算的早期领头羊——Google、Rigetti和IBM——都已经将视角转到了这一目标上。Google量子人工智能实验室的负责人Hartmut Neven说道:“这(量子纠错)非常确定是下一个重要的里程碑”。而IBM量子计算事业的领导人Jay Gambetta则说:“接下来几年内,你们会看到我们在解决量子纠错问题上的一系列成果。” 物理学家们已经开始在小规模实验他们的量子纠错方案了,但是面临的挑战仍极艰巨。为了演示量子霸权,Google的科学家已经与53个量子比特大战三百回合;然而,要想将数据以足够高的保真度编码到一个量子比特中(即实现量子纠错的逻辑量子比特),他们或许需要征服1000个这样的比特。 追寻量子计算机 量子计算机的追寻之路启于1994年。当时麻省理工学院的一位数学家Peter Shor展示了一种尚处于假想中的机器,它可以快速地对一个大数进行因式分解。得益于量子比特的两能级系统,Shor算法用量子波函数来表示一个大数可能的分解方式。这些量子波可以同时在量子计算机所有的量子比特中波动,它们相互干涉,导致错误的分解形式相互抵消,最终正确的形式鹤立鸡群。现在保护着互联网通信的密码系统正是建立在一个基本事实之上,即搜索大数分解形式是常规计算机几乎不可完成的,因此运行Shor算法的量子计算机可以破解这一密码系统。当然,这只是量子计算机能做的很多事情之一。 但是,Shor假设每个量子比特都能够完好地保持其状态,这样量子波只要有必要就可以左右荡漾。真实的量子比特则远没有这么稳定。Google、IBM和Rigetti采用的量子比特都由超导金属刻蚀而成的微纳谐振电路构成。目前已经证明,这种比特比其他类型的量子比特更易于操控和电路集成。每个电路有两个确定的能态,我们可以分别记为0和1。通过在这个电路上施加微波,研究者就能使它处于其中一个状态,或者两个状态的任意组合——比如说30%的0和70%的1。但是,这些“中间态”会在极短的时间内弥散,或者说“退相干”。甚至在退相干发生之前,噪声就可能会“冲撞”并改变这些量子态,让计算结果“出轨”,朝不想要的方向演化。 操纵一个量子比特 不同于常规比特必须处于0或1,量子比特可以同时处于0和1的任意组合状态。量子态的这种组合可以通过一个抽象的角度,或者叫相位来描述。这样,量子比特的状态就像地球仪上的一个点,它的纬度表示量子比特有多少在0,多少在1,它的经度则表示相位。噪声会以两种基本的方式“冲撞” 量子比特,并让这个点在球面上的位置发生改变。其中比特翻转对应0和1发生交换,而相位翻转对应于相位变化180度。 这些噪声几乎淹没了Google量子霸权实验中的信号。研究人员一开始设置53个量子比特以编码所有可能的输出,从0到253。然后在量子比特上执行一组随机选择的两比特门操作,重复很多次,使某些输出结果的概率高于其他结果。研究者说,考虑到相互作用(两比特门)的复杂性,超级计算机需要数千年才能计算出最终的输出模式。于是,通过这一测量,量子计算机就做了一件任何经典计算机都难以匹敌的事情。不过,这一结果仅仅非常勉强地与噪声引起的量子比特随机翻转结果有所区分。“他们的演示中99%是噪声,仅1%是信号”,Kuperberg说。 为了实现最终梦想,开发者希望量子比特能够像常规计算机中的比特那样可靠,正如Neven所说:“我们想要拥有一个保持相干性直到你关机为止的这么一个量子比特。” 从经典纠错到量子纠错 科学家们将一个量子比特——一个“逻辑量子比特”的信息分散到很多物理比特中去的方法,可以追溯到上世纪五十年代开发早期经典计算机的时代。早期计算机中的比特由真空管或者机械继电器(开关)组成,他们有时候会毫无征兆地发生反转。为了克服这个问题,著名数学家冯·诺伊曼(John von Neumann)开了纠错之先河。 冯·诺伊曼的方法利用了冗余。假设一个计算机对每个比特做了三份拷贝,那么即便其中一个翻转了,多数比特仍然保持着正确值。计算机可以通过对这几个比特做两两比对来找到并修正错误比特,这种方法被称为奇偶校验。比如说,如果第一个和第三个比特相同,但第一个和第二个、第二个和第三个都不同,那么最有可能第二个比特翻转了,于是计算机就把它再翻回来。更大的冗余意味着更大的纠错能力。有意思的是,刻在微芯片上的晶体管,也就是现代计算机用来编码其比特的器件竟是如此的可靠,以至于纠错还真用得不多。 但是量子计算机不得不依赖于此,至少对超导量子比特构成的量子计算机而言如此。(由单个离子构成的量子比特受噪声影响更小,但更难集成。)量子力学原理本身又让这一工作变得更为艰难,因为它剥夺了最简单的纠错工具——复制。在量子力学中,不可克隆定理告诉我们,不可能在不改变量子比特原始状态的情况下将其状态复制到其他量子比特上。谢菲尔德大学的一位理论物理学家Joschka Roffe说:“这就意味着我们不可能直接将经典的纠错码转换成量子纠错码。” 简单的纠错 在传统计算机中,一个比特就是一个可以被设置为0或1的开关。为了保护一个比特,计算机可以将它复制到其他比特上。如果噪声引起某个拷贝发生了翻转,通过做奇偶校验,计算机就能定位到错误:将一对比特进行对比,看它们状态相同还是不同。 更糟糕的是,量子力学还要求研究者蒙眼找错误。尽管量子比特可以处在0和1的叠加态上,但根据量子力学,实验者不可能在不引起塌缩的情况下测量这一叠加态,测量总导致量子态向0或1中的某个状态塌缩:测量一个态就会消灭一个态!Kuperberg说:“最简单的纠错方法(经典纠错)就是把所有比特检查一遍,看看哪里出错了。但如果是量子比特,你就必须在不看它的情况下找出错误来。” 这些障碍可能听起来难以逾越,但量子力学又指出了可能的解决方案。研究者虽然不能复制一个量子比特的态,但他们可以将其扩展到其他比特上去,利用一种难以理解的量子关联——量子纠缠。 量子纠错如何实现? 如何实现纠缠,正显示了量子计算有多微妙。在微波的激励下,一个初始量子比特与另一个处于0态的比特通过一个“控制非”(CNOT)门操作发生相互作用。当第一个量子比特处在1态时,CNOT门改变第二个比特的状态,而当第一个比特处于0态时,则保持第二个比特不变。尽管有相互作用,但这个过程并没有对第二个量子比特做测量,因此不会迫使它的量子态塌缩。相反,这个过程保持了第一个量子比特的双向态,并同时处在改变和不改变第二个量子比特的状态,总之,它让两个量子比特处在了同时为0和同时为1的叠加态。 举例来说,如果初始的量子比特处于30%的0和70%的1的叠加态,我们可以将它与其他比特连成一个链,比如三个量子比特共享一个纠缠态,其中30%为全0,70%为全1。这个态与初始比特的三个拷贝构成的态是不同的。实际上,这三个纠缠的量子比特串中的任何一个比特独自来看都没有一个确切的态,但它们完全关联起来了:如果你测量第一个比特而它塌缩到了1,那么另外两个比特一定也同时塌缩到了1;反之亦然,如果第一个塌缩到了0,其他两个也同时塌缩到了0。这种关联是纠缠的本质所在。 在这样一个更大的纠缠态中,科学家们现在就可以留心错误的发生了。为了做到这点,他们继续将更多的“辅助”量子比特与这个三比特链纠缠起来,一个与第一、第二比特纠缠,另一个则与第二和第三比特纠缠。之后再对辅助量子比特进行测量,就像经典比特中的奇偶校验那样。比如说,噪声可能将原先的三个编码比特中的一个翻转了,于是它的0和1部分调换了,改变了它们之间潜在的关联性。如果研究者把事情做好,他们可以在辅助量子比特上做“稳定器”测量以探测这些关联。 尽管测量辅助量子比特导致了它们状态的塌缩,但并没有对编码比特造成影响。“这是经过特别设计的奇偶校验测量,它不会导致编码在逻辑态中的信息塌缩”,Roffe说。举例来说,假如第一个辅助比特的测量结果为0,它只说明了第一和第二编码比特的状态一定相同,但并没告诉我们它们到底处在哪个态,而如果辅助比特测量结果为1,则表明编码比特肯定处于相反的态,仅此而已。如果能在量子比特态趋于弥散之前迅速找到发生翻转的比特,那就可以用微波将它再翻回原来的态并恢复其相干性。 量子修正更困难 量子力学原理使得直接通过复制并测量量子比特(上)并检测错误不可行。物理学家想到的替代办法是将量子比特的态通过纠缠(中)分散到其他量子比特中去,然后监测这些量子比特来探测错误,发现错误后再通过操控让错误比特回到正确的态(下)。 越大越好 物理学家通过将量子比特与其他量子比特纠缠来放大量子比特态,而不是复制。其结果是得到一个纠缠态,对应各个量子比特处于球面上同一个点。 温和校正 如果噪声导致一个量子比特发生了翻转,物理学家可以探测这一变化而不真正测量这个态。他们将一对主量子比特与其他辅助量子比特纠缠起来并测量这些辅助比特,如果主量子比特之间的关联保持不变,结果就应为0,而如果发生了翻转,测量结果就应为1。接下来就可以通过微波将量子比特再翻回去以恢复最初的纠缠态。 这只是最基本的概念。一个量子比特态要比只是0和1的组合更为复杂。它同时还取决于这两部分是如何交织的,换句话说,它还依赖于一个抽象的角度,也就是相位。这个相位角度可以从0°到360°之间变化,它是波动干涉效应的关键,而正是这种量子干涉赋予了量子计算机超强的能力。原理上,任何量子比特态的错误可以被认为是比特翻转和相位翻转的某种组合,比特翻转对应0和1发生交换,而相位翻转对应于相位变化180度。 要修正这两种错误,研究人员可以将上述的纠错方案扩展到另一个维度。既然一个三纠缠的比特串,加上两个辅助比特交织其间,是探测和纠正一个比特翻转错误的最小结构,那么一个3x3的量子比特网格,加上8个分布其中的辅助比特,就是可以同时探测和修正比特翻转和相位翻转错误的最小结构。现在逻辑比特就存在于这样一个9比特的纠缠态中——谢天谢地你不用写出它的数学公式来!在这样一个网格上的其中一个维度上进行稳定器测量可以检测比特翻转错误,而在另一个维度上进行略微变化的稳定器测量则检测相位翻转错误。 将量子比特态放到一个二维网格中进行纠错的方案会随着量子比特的几何排布及稳定器测量的细节而改变,但研究人员进行量子纠错的路线已经清晰了:将单个逻辑量子比特编码到一个物理比特组成的网格阵列中,并展示逻辑比特的保真度随着阵列的尺度增加而增加。 实验物理学家的挑战 实验物理学家已经起了个头。举例来说,6月8号发表的一篇《自然·物理》论文中的研究结果中,苏黎世联邦理工学院(ETH Zurich)的Andreas Wallraff教授及其合作者演示了,他们可以通过三个辅助比特来探测——但不纠正——一个4比特正方网格编码的逻辑量子比特中的错误。 但是实验物理学家面临的挑战令人生畏。“操控各个独立的量子比特都会引入一定的错误,除非这个错误能够低于某个特定的阈值,否则将初始比特与更多的比特纠缠只会增加更多的噪声”,IBM的一位物理学家Maika Takita说,“在演示任何事情之前你必须先设法做到那个阈值以下。”辅助比特以及其他纠错装置会引入更多的噪声,一旦计入这些效应,要求的错误阈值将进一步大幅下降。想要让上述的纠错方案可行,物理学家必须将他们的错误率降到1%以下。Takita说:“当我听到我们达到了3%的错误率时,我觉得那太棒了。现在,我知道它(错误率)还需要大幅降低。” 量子纠错还要求反复地测量量子比特态,这让整个过程的技术要求更强于量子霸权。Google的一位物理学家Marissa Giustina说,在量子霸权中,所有量子比特只需要测量一次,而量子纠错“要求你在一个周期内反复地测呀测呀测呀,而且还要做得又快又准确”。 尽管有那么几个量子比特就足以演示量子纠错的原理,但要建造实用量子计算机,物理学家必须能够控制大量的量子比特。要想运行Shor算法并足以进行大数分解,比如说分解1000位的一个数——这大致上是目前互联网加密方案中常用的大小——需要保持逻辑量子比特的错误率低于十亿分之一。这可能需要上千个量子比特组成的网格来守护一个逻辑量子比特。研究人员说,要想达到这个预期,将需要经过好几代开发来制备出更大、更好的量子芯片。 颇为讽刺的是,一旦完成这一挑战,研究者将一夜回到解放前。20年前,他们集中于研究如何让物理量子比特耦合起来,以实现各种计算所需的逻辑操作,也就是“量子逻辑门”。当科学家掌握了怎么做量子纠错之后,他们又必须重复目前为止量子计算领域所做的几乎所有开发。不过这次是在更稳健、但更复杂的逻辑量子比特上。Giustina打趣地说:“有人说量子纠错是量子计算的下一步,其实它是下25步”。 折回到这些研发步骤上去不容易。不止是现在需要两个量子比特来实现的逻辑门将来需要数千个这么简单,更糟糕的是,另一个量子力学定理告诉我们,不管研究人员用什么样的方案,不是所有的逻辑门都可以很容易地从单个物理比特转换到由分散的大量物理比特组成的逻辑比特上去的。 研究人员认为他们可以设法避开这个问题,如果他们可以将所有量子比特制备到特定的“魔法态”上去的话。这至少能使得那些有问题的逻辑门实现起来事半功倍。不幸的是,要制备这些魔法态,我们又需要提供更多的量子比特。“如果你想运行类似Shor算法这样的东西,可能有90%的量子比特将不得不用于制备这些魔法态”,Roffe说。所以,一个完全成熟的、拥有上千个逻辑量子比特的量子计算机,最终将需要好几百万个物理比特。 Google计划在十年内建造一台这样的机器。乍看上去这显得很荒谬。超导量子比特需要冷却到接近绝对零度的温度,被置于一个房间大小的所谓恒温器中。百万量子比特的量子计算机需要一个有上千个恒温器的超级工厂。不过Google的研究人员认为他们可以让设备更紧凑。Neven说:“我不想剧透,不过我们相信我们已经想到办法了。” 其他的研究者在研究不同的方案。Google的方案需要1000个物理比特来编码一个逻辑比特,因为他们的芯片只允许量子比特之间有近邻相互作用。如果更远距离的量子比特也能发生相互作用,需要的物理比特数量将会少得多,IBM的Gambetta说,“如果我能做到这点,量子纠错所要的这些荒谬恐怖的比特数开销就会急剧下降”。所以IBM的研究者们正在探索量子比特之间有更长程相互作用的纠错方案。 没人愿意预言还需要多长时间能掌握量子纠错。但是时候把这个问题提到最紧迫的日程上了,Rigetti说。“迄今为止,实质上所有自认为是量子纠错专家的都是理论家。我们必须把这个领域变成实证的,在真实的机器上产生的真实的数据基础上做真实的量子反馈。” 量子霸权定格在了2019,而量子纠错将是下一个热点。
  • 《下一个10年,3D打印面临的机遇与挑战》

    • 来源专题:数控机床与工业机器人
    • 编译者:icad
    • 发布时间:2023-02-07
    • 3D打印 的未来是什么?2022年,意味着3D打印行业的第一个十年已宣告结束,我们期待着第二个十年。 图片来源:unsplash 与任何前沿技术一样,3D打印也曾遭受过“泡沫”化的质疑,但现在这项技术用行动证明了它的价值。而未来的3D打印又会有哪些机遇与挑战?让我们一起来看看。 发展趋势: 1,走向规模化生产 下一个十年,3D打印不再只是用于定制产品或高附加值产品,而是将涵盖从概念模型到批量生产及售后备件的整个产品生命周期。尤其是实现最终部件的量产,这将帮助3D打印在未来10年确立其在制造技术中的地位。 如果说目前3D打印在支持和加强供应链上有明显的帮助,那么未来它将在总制造量中占据越来越大的份额,成为制造业中主要的大规模制造技术。无论是在航空航天、工业装备、交通运输、消费级电子产品、医疗等领域,3D打印都将被更加广泛的应用,而当下各种潜在应用都将成为实际应用。 2,自身的迭代更新 3D打印研发将加速,更好地满足实际生产需求。其中,机器将变得更加多样化,实现自由形式的制造;同时能够在最少甚至没有人工参与的情况下进行打印。材料组合将得到扩展,会不断出现新的3D打印合金、聚合物和混合材料/超材料。 3,加速迈向数字化 除了设备和材料的进步外,3D打印将依赖于改进的软件,真正实现数字化生产。同时结合人工智能,机器学习将实现自主制造,提高整个3D打印工作的流程化,并且更智能,生产力也将得到提高。 4,资本将改变格局 展望下一个十年,3D打印行业将迎来一段整合期,格局肯定会发生彻底的转变。大量资本涌入该行业,会出现系列并购活动,将引发一波收购、投资和IPO浪潮。同时,一些“传统”制造公司将“借壳”进入3D打印领域并发挥作用,类似于尼康对SLM Solutions收购的案例还会有很多。 未来十年,资本也可能会从技术押注转变为高度关注植根于现实生产场景的应用端。 5,可持续分布式制造 3D打印将通过轻量化、本地化减少碳足迹、降低能源消耗和减少废物以及向植物基材料过渡,在扭转全球变暖方面发挥关键作用,真正帮助实现可持续性和循环经济。此外,3D打印将能通过本地化、分布式制造,形成一种全新的供应链解决方案。未来更多的行业将借助3D打印转向数字仓储和备件的按需生产。 面临挑战: 3D打印的未来是走向批量化生产,这需要解决三大关键问题:“价格” “速度”  “质量”。 价格。 一个很大的挑战在于成本方面。面临的挑战是在保持质量承诺的同时降低整个价值链的每个零件成本。如果无法降低成本,也就没有竞争优势,无法真正走向可持续规模化生产。 3D打印材料 是发展3D打印技术 的重要基础,实现材料的突破是首要任务。不只是材料单向的成本控制,有效回收对于降低生产规模打印的成本同样至关重要。 速度。 大规模生产需要讲究效率,也就是需要克服3D打印速度的限制。这可能是各大厂商不得不解决的最大困境,不只是需要解决设备本身的运行速度,还需要思考如何实现自动化和可靠地生产,也可以理解为生产需要过程自动化。 这里就需要将3D打印硬件与软件进行有效衔接,通过软件以智能方式控制3D打印的不同阶段,通过人工智能启动运行并监控打印,然后是自动过滤和清洁系统,以获得最终部件。将3D打印的生产过程实现数字化、自动化,这是解决当下速度慢的有效途径。 质量。 想要3D打印零件符合规模生产的质量,还缺乏生产流程的标准化。这主要是因为与大多数传统制造技术不同,3D打印有很多工艺变量,工艺、材料和几何结构之间存在高度耦合关系;传统的工艺开发和优化范式已经不能适应3D打印高度复杂的工艺特点。这也导致了3D打印行业目前仍面临的一系列挑战:工艺开发和优化耗时长、打印过程控制困难、质量一致性低、性能不可预测等。 可参考的解决方案一方面是开发一种语义,提供通用算法工具,使我们能够获取语义输入并定义生产流程、参数和设计。另一个是利用人工智能 (AI) 软件,收集设备的关键过程数据并利用人工智能来分析这些数据。 批量生产,生产的质量和可靠性是关键。如何在平衡打印质量和保证成功率的同时,提高打印速度,降低生产成本是行业参与者需要共同努力解决的问题。为实现这一目标,我们还需要在接下来的10年付出数倍的努力,才能早日实现3D打印在制造业中的C位梦。        原文标题 : 下一个10年,3D打印面临的机遇与挑战 .