《人工智能加快计算机建模》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 姜山
  • 发布时间:2018-01-16
  • 华盛顿 —

    科学家建立计算机模型是为了了解交通、天气或癌症进展等复杂系统是如何工作的。 这些现实世界的模拟通常需要数十名科学家工作好几个月。 但是,科学家们发现了一种新方法,再加上人工智能的新进展,可能会大大加快这一进程。

    美国国防部高级研究计划局(DARPA)的科研人员试图回答一个影响全世界人的问题,那就是哪种分子过程会导致癌细胞的发展。

    创建这些流程的计算机模型需要阅读和综合30万篇医学论文中所积累的知识。

    这需要一个研究小组工作几十年,所以科学家们研发了一个计算机程序。

    美国匹兹堡大学计算机科学教授保尔·科恩说:“科研人员建立了一台能够读取癌症生物学文献句子的机器,将它们转化为语言学表征、语义表征,然后将其转化为生物学表征,生成一个模拟器并模拟实际的生物学原理。从英语文字到生物学模拟,整个过程无需人的干预。”

    美国匹兹堡大学参考了从DARPA项目中获得的经验,建立了一个新的部门“计算与信息学院”,以一种激进的跨学科方法来教授计算机科学。

    学院现在努力把学生培养成博学者,使他们能够看到与单个问题相关的各种因素的相似之处。

    例如,在设计校车路线图的时候,就要考虑到诸多因素,包括能源成本、路线如何帮助学生上学以及如何影响社区“士绅化”等等。

    科恩教授说:“为一个复杂的事务制作计算机模型,如果这是一个模拟现实的过程,往往都需要不同学科的人。 这对学校来说似乎是一个很好的关注点,学校的任务就是模拟和管理世界上复杂的互动系统。“

    科恩说,他们的毕业生应该能够认识到不同领域的共同点。 随着人工智能的发展,这种新方法可能会使科研人员加快为复杂的交互系统建立计算机模型。

相关报告
  • 《IBM与AMD将整合人工智能加速器、量子计算机及高性能计算研发》

    • 来源专题:新一代信息技术
    • 编译者:张嘉璐
    • 发布时间:2025-09-04
    •   IBM近日宣布,计划将量子计算机与高性能计算结合起来,发展下一代计算架构,即量子中心超级计算。为了实现这一目标,IBM正与AMD合作开发可扩展的开源平台,利用IBM在量子计算机和软件方面的经验,以及AMD在高性能计算和人工智能加速器方面的经验。   量子计算是一种完全不同的信息表示和处理方式。传统计算机使用只能为0或1的比特,而量子计算机的量子比特根据自然的量子力学定律表示信息。这些特性使得量子计算拥有更丰富的计算空间,可以探索复杂问题的解决方案,而这是传统计算机无法单独完成的。   IBM董事长兼首席执行官阿文德?克里希纳表示:"量子计算将模拟自然世界,并以一种全新的方式呈现信息。通过探索IBM量子计算机和AMD的先进高性能计算技术如何协同工作,我们将构建一个强大的混合模型,突破传统计算的极限。"   AMD董事长兼首席执行官苏姿丰表示:"高性能计算是解决世界上最重要挑战的基础。我们与IBM合作探索高性能计算和量子技术的融合,看到了加速发现和创新的巨大机遇。"   在量子中心超级计算架构中,量子计算机与强大的高性能计算和人工智能基础设施协同工作,这些设施通常由CPU、GPU和其他计算引擎提供支持。在这种混合方法中,问题的不同部分由最适合解决问题的模式来处理。例如,未来量子计算机可以模拟原子和分子的行为,而由人工智能驱动的传统超级计算机可以处理海量数据分析。这些技术结合在一起,可以帮助以前所未有的速度和规模解决现实世界的问题。   AMD和IBM正在探索如何将AMD的CPU、GPU和FPGA与IBM量子计算机集成,以有效加速新一类新兴算法的发展,这些算法是目前两种范式独立工作所无法实现的。这项合作也可能有助于推动IBM在本世纪末实现容错量子计算机的计划。AMD技术有望提供实时纠错能力,这是容错量子计算的关键要素。   研究团队计划在今年晚些时候进行初步演示,展示IBM量子计算机如何与AMD技术协同工作,以部署混合量子经典工作流。两家公司还计划探索开源生态系统(如Qiskit)如何能够促进利用量子中心超级计算的新算法的开发和采用。   IBM已经为实现量子计算和经典计算无缝集成的愿景迈出了第一步,包括最近与日本理化研究所合作,部署IBM模块化量子计算机"IBM Quantum System Two",并将其与世界上最快的经典超级计算机"富岳"直接连接;以及与其他行业领导者合作,展示量子和经典资源的结合如何为难题带来有价值的成果,超越经典计算机单独所能完成的工作。   AMD的CPU和GPU目前为美国能源部橡树岭国家实验室的"前沿"超级计算机提供动力,这是第一台正式打破百亿亿次级计算障碍的超级计算机。该公司的EPYC CPU和AMD Instinct GPU技术也为劳伦斯利弗莫尔国家实验室的"酋长岩"超级计算机提供动力,这意味着根据TOP500名单,AMD为世界上两台最快的超级计算机提供动力。开启新对话
  • 《英特尔推出迄今世界最大神经形态计算机以实现更可持续的人工智能》

    • 来源专题:集成电路
    • 发布时间:2024-04-22
    • 据官网4月17日报道,英特尔公司研制出世界上最大的神经形态计算机Hala Point。它包含11.52亿个人造神经元,分布在1152个Loihi 2芯片上,每秒能进行380万亿次突触操作。英特尔公司希望,这种旨在模拟人脑处理和存储数据方式的计算机能提高人工智能(AI)模型的效率和能力。 这款代号为Hala Point的大型神经形态系统部署在桑迪亚国家实验室,使用英特尔的Loihi 2处理器,旨在支持未来大脑启发式思考的人工智能研究,并应对与当今人工智能的效率和可持续性相关的挑战。Hala Point推进了英特尔第一代大型研究系统Pohoiki Springs的架构改进,使神经元容量增加了10倍以上,性能提高了12倍。 Loihi 2神经形态处理器是Hala Point的基础,它应用了受大脑启发( brain-inspired)的计算原理,如异步计算、基于事件的尖峰神经网络(SNN)、集成内存和计算,以及稀疏和连续变化的连接,以实现能耗和性能的数量级提升。神经元之间直接通信,而不是通过记忆进行通信,从而降低了整体功耗。 Hala Point将1152个Loihi 2处理器封装在一个微波炉大小的六机架数据中心机箱中,这些处理器是在Intel 4工艺节点上生产的。该系统支持分布在140544个神经形态处理核心上的多达11.5亿个神经元和1280亿个突触,最大消耗2600瓦的功率。它还包括2300多个用于辅助计算的嵌入式x86处理器。 Hala Point将处理、内存和通信信道集成在一个大规模并行化的结构中,总共提供了每秒16 PB的内存带宽、3.5 PB的核心间通信带宽和每秒5 TB的芯片间通信带宽。该系统每秒可处理380万亿个8位突触和240万亿个神经元操作。 该系统应用于生物激励的尖峰神经网络模型,其11.5亿个神经元的全容量执行速度是人脑的20倍,在较低容量下执行速度高达200倍。虽然Hala Point不用于神经科学建模,但其神经元容量大致相当于猫头鹰的大脑或卷尾猴的皮层。 基于Loihi的系统可以执行人工智能推理并解决优化问题,使用的能量比传统的CPU和GPU架构少100倍,速度比传统的GPU架构快50倍1。Hala Point的早期结果表明,通过利用高达10:1的稀疏连接和事件驱动活动,该系统可以实现高达15 TOPS/W2的深度神经网络效率,而无需将输入数据分批收集,这是GPU的常见优化,大大延迟了对实时到达的数据(如摄像头视频)的处理。尽管仍在研究中,但未来能够持续学习的神经形态LLM可以通过消除对不断增长的数据集进行定期重新训练的需求,从而节省千兆瓦时的能源。 原文链接:https://www.intel.com/content/www/us/en/newsroom/news/intel-builds-worlds-largest-neuromorphic-system.html