《人工智能加快计算机建模》

  • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
  • 编译者: 姜山
  • 发布时间:2018-01-16
  • 华盛顿 —

    科学家建立计算机模型是为了了解交通、天气或癌症进展等复杂系统是如何工作的。 这些现实世界的模拟通常需要数十名科学家工作好几个月。 但是,科学家们发现了一种新方法,再加上人工智能的新进展,可能会大大加快这一进程。

    美国国防部高级研究计划局(DARPA)的科研人员试图回答一个影响全世界人的问题,那就是哪种分子过程会导致癌细胞的发展。

    创建这些流程的计算机模型需要阅读和综合30万篇医学论文中所积累的知识。

    这需要一个研究小组工作几十年,所以科学家们研发了一个计算机程序。

    美国匹兹堡大学计算机科学教授保尔·科恩说:“科研人员建立了一台能够读取癌症生物学文献句子的机器,将它们转化为语言学表征、语义表征,然后将其转化为生物学表征,生成一个模拟器并模拟实际的生物学原理。从英语文字到生物学模拟,整个过程无需人的干预。”

    美国匹兹堡大学参考了从DARPA项目中获得的经验,建立了一个新的部门“计算与信息学院”,以一种激进的跨学科方法来教授计算机科学。

    学院现在努力把学生培养成博学者,使他们能够看到与单个问题相关的各种因素的相似之处。

    例如,在设计校车路线图的时候,就要考虑到诸多因素,包括能源成本、路线如何帮助学生上学以及如何影响社区“士绅化”等等。

    科恩教授说:“为一个复杂的事务制作计算机模型,如果这是一个模拟现实的过程,往往都需要不同学科的人。 这对学校来说似乎是一个很好的关注点,学校的任务就是模拟和管理世界上复杂的互动系统。“

    科恩说,他们的毕业生应该能够认识到不同领域的共同点。 随着人工智能的发展,这种新方法可能会使科研人员加快为复杂的交互系统建立计算机模型。

相关报告
  • 《英特尔推出迄今世界最大神经形态计算机以实现更可持续的人工智能》

    • 来源专题:集成电路
    • 发布时间:2024-04-22
    • 据官网4月17日报道,英特尔公司研制出世界上最大的神经形态计算机Hala Point。它包含11.52亿个人造神经元,分布在1152个Loihi 2芯片上,每秒能进行380万亿次突触操作。英特尔公司希望,这种旨在模拟人脑处理和存储数据方式的计算机能提高人工智能(AI)模型的效率和能力。 这款代号为Hala Point的大型神经形态系统部署在桑迪亚国家实验室,使用英特尔的Loihi 2处理器,旨在支持未来大脑启发式思考的人工智能研究,并应对与当今人工智能的效率和可持续性相关的挑战。Hala Point推进了英特尔第一代大型研究系统Pohoiki Springs的架构改进,使神经元容量增加了10倍以上,性能提高了12倍。 Loihi 2神经形态处理器是Hala Point的基础,它应用了受大脑启发( brain-inspired)的计算原理,如异步计算、基于事件的尖峰神经网络(SNN)、集成内存和计算,以及稀疏和连续变化的连接,以实现能耗和性能的数量级提升。神经元之间直接通信,而不是通过记忆进行通信,从而降低了整体功耗。 Hala Point将1152个Loihi 2处理器封装在一个微波炉大小的六机架数据中心机箱中,这些处理器是在Intel 4工艺节点上生产的。该系统支持分布在140544个神经形态处理核心上的多达11.5亿个神经元和1280亿个突触,最大消耗2600瓦的功率。它还包括2300多个用于辅助计算的嵌入式x86处理器。 Hala Point将处理、内存和通信信道集成在一个大规模并行化的结构中,总共提供了每秒16 PB的内存带宽、3.5 PB的核心间通信带宽和每秒5 TB的芯片间通信带宽。该系统每秒可处理380万亿个8位突触和240万亿个神经元操作。 该系统应用于生物激励的尖峰神经网络模型,其11.5亿个神经元的全容量执行速度是人脑的20倍,在较低容量下执行速度高达200倍。虽然Hala Point不用于神经科学建模,但其神经元容量大致相当于猫头鹰的大脑或卷尾猴的皮层。 基于Loihi的系统可以执行人工智能推理并解决优化问题,使用的能量比传统的CPU和GPU架构少100倍,速度比传统的GPU架构快50倍1。Hala Point的早期结果表明,通过利用高达10:1的稀疏连接和事件驱动活动,该系统可以实现高达15 TOPS/W2的深度神经网络效率,而无需将输入数据分批收集,这是GPU的常见优化,大大延迟了对实时到达的数据(如摄像头视频)的处理。尽管仍在研究中,但未来能够持续学习的神经形态LLM可以通过消除对不断增长的数据集进行定期重新训练的需求,从而节省千兆瓦时的能源。 原文链接:https://www.intel.com/content/www/us/en/newsroom/news/intel-builds-worlds-largest-neuromorphic-system.html
  • 《英伟达推出云人工智能超级计算机和订阅计划》

    • 来源专题:宽带移动通信
    • 编译者:张卓然
    • 发布时间:2021-05-21
    • 英伟达公司,以该公司的A100 GPU(图形处理器)为基础,推出了一项用于企业超级计算机的原生云、多租户人工智能技术,并且为该公司以办公室为主的系统提供单独的订阅服务 英伟达DGX SuperPOD的基础是大约20多个A100图形处理器(GPU)和该公司BlueField2数据处理单元(DPU)的InfinBand组网。这些数据处理单元可以卸载、加速和隔离用户数据,为客户提供客户人工智能基础设施的安全连接。这使得英伟达公司已经能够以订阅的形式提供这项技术。 英伟达公司的Base Command可以让多个用户和信息技术团队安全地访问、共享和操作DGX SuperPOD基础设施。这将协调配合DGX SuperPOD基础设施上的人工智能培训和业务,使位于全球各地的开发团队能够开展工作。 越来越多的企业信息技术部门需要支持位于不同地点的多个团队的工作,而学术机构和研究机构经常授予外部组织访问他们计算资源的权限。安防包括用户流量、防火墙和多租户对存储的访问。 英伟达同意以400亿美元的价格收购ARM 英伟达与ARM的交易遭遇阻力 “人工智能是迄今为止世界上已知的最强大技术,而英伟达的DGX系统是利用人工智能的最有效工具,”英伟达公司副总裁兼DGX系统总经理查理·博伊尔说道。“新的DGX SuperPOD结合了多个DGX系统,提供了一个交钥匙式的人工智能数据中心,整个研究人员和开发人团队乐意安全地共享这个人工智能数据中心。” 索尼公司正在使用DGX SuperPOD,使索尼公司企业研究与开发团队能够在全公司使用人工智能。俄罗斯最大的电信公司MTS正在将DGX SuperPOD作为该公司人工智能开发基础设施和新的公共云服务产品的基础进行使用,并且将公司各个部门的人工智能和数据科学进行整合。 为了加快人工智能计划的实施,VinAI正在东南亚和世界各地使用该公司的DGX SuperPOD,包括自动驾驶汽车、医疗保健和消费服务,DGX SuperPOD将是越南最快的人工智能超级计算机。 BlueField-2数据处理单元可以卸载、加速和隔离用户及其数据,使得各个组织能够安全地为DGX SuperPOD基础设施提供私有云访问。