《IBM发布据称可“商用”量子计算机》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 冯瑞华
  • 发布时间:2019-01-11
  • 据美国知名科技媒体the verge网站10日消息称,在2019年美国拉斯维加斯消费电子展(CES)上,国际商用机器公司(IBM)最新发布了一款名为“IBM Q系统1”的量子计算机,这是一款据称可“商用”的量子计算机的模型。

    IBM此次发布的这款设备,被称为“世界上第一个专为科学和商业用途而设计的、全集成通用量子计算系统”。其位于2米多高的玻璃盒子内,外形如同吊灯。据IBM介绍,该模型可以操纵20个量子比特,尽管量子比特的数量不及此前曾公布于世的一些系统,但这一款却拥有“前任”们所没有的特性,包括它专为稳定性而设计、结构非常紧凑等,因此它的实用性也大幅提高。

    IBM认为这是一款可“商用”的量子计算机。IBM研究院院长阿尔温德·克里什纳说,它是迈向量子计算商用化进程中,十分重要的一个步骤,该系统有望让量子计算跨过实验室的“高墙”,实现服务于商业和科研界的目标。

    目前IBM所展示出的,仅是这款量子计算机的模型,装配冷却系统的全套设备仍然放在实验室里,体积和一间屋子相当。而同时也有观点认为,该量子计算机仍然是一种实验设备,或者说仍属于原型机,因为它目前还无法用于办公和替代传统计算机完成通用性任务。

    英国苏塞克斯大学量子技术教授温菲尔德·汉辛格认为,该设备更像是前进路上的一块基石,而非真正实用型量子计算机,“还不能把它想象成可以解决量子计算中所有已知问题的计算机。但可以把它看作一个原型机,其允许人们测试并进一步开发在将来大有用处的编程”。

    量子计算专家、上海交通大学天文与物理学院金贤敏教授对记者说:“尽管这款‘商用’量子计算机在绝对计算能力上并没有超过现有超级计算机,但作为一款紧凑型系统,其对科研界大有裨益,使更多科学家可以很方便地在此基础上进行深入探索。此外,产业界也可借助它开展与应用对接的探索,激发新量子算法的诞生和应用,并为量子计算机将来的产业化应用做好准备。”

  • 原文来源:http://www.stdaily.com/index/kejixinwen/2019-01/11/content_746032.shtml
相关报告
  • 《可商用量子计算机问世 短期内仍难解决现实问题》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2019-10-16
    • 量子计算机,已成为引发激烈角逐的科技前沿。而且,相关竞争有愈演愈烈之势。   最近引发强烈关注的,是两大科技巨头在此领域的进展:IBM于上月宣布,将于今年10月中旬正式发布拥有53个量子比特的可商用量子计算机;随后,谷歌研发团队在一篇论文中透露,已首次实现量子霸权。   与经典计算机大不相同   据外媒报道,IBM即将发布的53个量子比特的量子计算机,将通过云端向客户开放。   这个量子计算机系统将成为IBM位于美国纽约州的新量子计算中心的一部分。该中心拥有5台20个量子比特的量子计算机,并计划于10月增加至14台。IBM承诺,将对外开放95%的量子计算机的服务。   上世纪90年代,很多研发量子计算机的科学家,被认为是在“骗人”。如今,量子计算机已成为炙手可热的前沿科技领域,它的发展前景也被众多科技公司看好。   那么,到底什么是量子计算机?   “量子计算机从底层到运算模式都与经典计算机完全不同。”中国科学院物理研究所研究员、固态量子信息与计算实验室主任范桁介绍道,量子计算机遵循量子力学原理,以量子比特为基本量子信息单元,以量子纠缠、相干叠加为特色,以解决实用和科学问题为目标。   举个简单的例子,经典计算机的最基本单元是由0和1组成的比特,量子比特则既可以是0,也可以是1,包含的信息量更大。   “量子计算实现的必要条件包括可扩展、可初始化、长相干等等。”范桁说,其中可扩展性即增加量子比特数目,可实现大规模量子计算;而长相干时间即量子态保持量子相干,能用于逻辑运算。   从用途来看,量子计算机又可以划分为专用和通用两种类型。专用计算机可以解决特定的问题,但不适用于解决所有问题;通用量子计算机能解决的问题则更多。   在量子计算机的相关竞争中,量子霸权特别受到关注。   怎么才算实现了量子霸权?业界通常认为,量子霸权是指量子计算机如果在某个问题上的计算能力超过最强大的传统计算机,就实现了相对传统计算机的“霸权”。业界认为,如能有效操纵50个左右的量子比特,就能实现量子霸权。   据外媒报道,谷歌用来实现量子霸权的量子计算机就拥有53个量子比特。   介于能否解决现实问题边缘   总体而言,现在量子计算机的发展处于什么水平?   “50个左右量子比特的量子计算机,介于能够解决现实问题和不能解决现实问题的边缘。”中国科学技术大学中国科学院量子信息重点实验室韩正甫教授在接受科技日报记者采访时回答道,短时间内,让现有量子计算机去解决现实问题虽有难度,但并非不可能。   在韩正甫看来,量子计算机的未来发展趋势是非常明确的:首先要把量子计算机架构出来;接下来是增加量子比特数量,提高量子比特质量;之后,量子计算机相关应用软件也将成为核心竞争点。   “量子计算机的研发工作目前面临多个核心难题。”韩正甫说。   这些难题一方面涉及保真度,即量子计算机在计算时产生的误差可能有多大。误差越大,保真度就越小。如果保真度小到一定程度,计算结果就会不可信,量子计算机也就失去了存在的意义。所以必须保证保真度达到一定水平。   另一方面是量子相干性的保持。因为量子计算机在计算过程中,必须保持所有量子比特是互相纠缠的,但外部环境干扰会消磨量子的相干性。因此,必须寻找方法让量子相干性保持时间更长一些,从而在量子相干性消失之前,将计算任务执行完。   “目前量子计算机的算法比较少,这或会影响未来量子计算机的应用前景。”范桁指出。   不过韩正甫却给出不同观点。他认为,目前量子计算机领域主要有两类算法,如果量子计算机能够成立的话,这两类算法的应用面已经比较广,并足够让我们解决很多问题。   “当然,如果有更多新算法,就可以解决更多问题,那将更好。” 韩正甫说。   对于量子计算机到底会用什么材料来做,范桁介绍,科研人员仍在不断尝试,目前有多种可能,比如用超导材料、光子材料、原子材料等。无论采用哪种材料,核心原则是适于量子计算机的运行规律。   盲人摸象般探索前行   韩正甫把量子计算机的研发比作“盲人摸象”。   “研发量子计算机就相当于,把现在的经典计算机从头做起,整个再做一遍,材料、硬件、软件、算法等所有环节都要重新考虑。”韩正甫解释道,与此同时,没有任何案例可以借鉴,谁也不知道如何做才能成功,所以各个研发团队只能探索着往前走。   更不要说,研发过程中还会受到量子性质的种种限制,以及各种现实研发条件的限制。   尽管如此,量子计算机诱人的应用前景,仍令人垂涎。   “未来,量子计算机在人工智能、大数据处理、信息搜索、生物制药、物流优化等领域都可以发挥重要作用。”范桁说,以生物制药领域为例,量子计算机能更好地模拟生物反应所涉及的量子过程。   多位业内人士告诉科技日报记者,目前国外的谷歌、IBM、Deep-Wave等公司正在大力研发量子计算机,国内的阿里巴巴、腾讯、华为等企业也成立了量子计算机的研发团队。   从国家层面来看,量子信息技术也受到前所未有的重视。   2018年,美国国会通过了“国家量子倡议法案”。依据该法案,美国将实施国家量子倡议项目,目标是在未来10年加速发展量子信息科学及其技术应用。该法案规定,美国总统必须成立国家量子倡议咨询委员会,以掌握国家量子倡议项目以及量子信息科学技术领域的进展。   欧盟委员会则在2018年宣布了“量子旗舰计划”,预计今后10年在量子研发领域投入10亿欧元。该计划的目标之一是巩固和扩大欧洲在量子技术研发领域的领先地位。   中国也对量子通信和量子计算机的技术研发十分重视。其中量子通信和量子计算机已被列入“科技创新2030—重大项目”。据相关报道,量子信息科学国家实验室的建设工作也正在推进。   “如果今后50年是量子计算机的时代,而在量子计算机领域没有相关核心技术的话,肯定将会受制于人,因此这个领域的竞争是谁也输不起的。”范桁说。
  • 《IBM发布基于内存的人工智能计算架构》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2017-11-28
    • 美国IBM公司发布消息称,该公司研究人员实现了在内存计算技术上的一次重大突破,发明了一种可以运行在100万个相变内存(PCM)上的无监督式机器学习算法,有望比传统计算机在计算速度和能耗利用效率方面提升200倍,非常适合实现人工智能应用中的高密度、低功耗、大规模的并行计算系统。这一成果发表在《自然·通讯》杂志上。 内存计算或可计算储存,是近年来新兴的一个概念,其原理是运用内存设备的物理特性同时进行信息的储存和处理,不采用传统上的内建缓存,并通过总线连接外部内存的阶层式架构,而是省略总线设计,直接把内存和 CPU 核心做在一起,尽最大的可能消除计算过程中因数据迁移所造成的延迟,显著提升计算效率。 IBM此次设计的内存计算架构中使用的相变内存设备由两个电极包夹着一层锗锑碲复合材料构成,微弱的电流可以使其加热,复合材料内部状态随着温度上升而发生改变,从无定形态变成晶态,利用了结晶动力学原理进行运算。这与IBM公司2016年8月发布的人造神经元的工作原理相同。 未来,IBM可能继续将人造神经元与内存计算架构相结合,像大脑一样,使逻辑的产生以及信息的存储都在同一处发生,非常适合于人工智能计算。这一成果也是IBM创造“人工大脑”的又一最新进展。