《经过实验训练的统计模型可提高核聚变性能》

  • 来源专题:重大科技基础设施领域知识集成服务平台
  • 编译者: 魏韧
  • 发布时间:2019-11-08
  • 在实验室里实现热核聚变(恒星的动力源)必须进行大量的融合,将燃料加热到几千万度使其产生等离子体。如果这种等离子体可以被限制足够长的时间,熔合所释放的能量(也称为产量)将大大超过等离子体投入的能量,这是研究人员致力于实现的目标。

    在惯性约束聚变(ICF)实验中,如果使用诸如激光的高功率驱动器破坏聚变燃料,则会产生聚变等离子体。Gopalaswamy等人报告了在ICF实验中使用经过实验训练的统计模型将融合率提高三倍并大幅改善等离子体的限制。

    Gopalaswamy及其同事在纽约罗切斯特大学的OMEGA激光设备上研究了ICF内爆。在实验中,60束具有高功率的激光束被引入到一个毫米大小、装有聚变燃料的燃料舱上。强光产生巨大的压力,使其与燃料发生高速撞击。当燃料内爆停滞时,动能迅速转化为温度和压力,产生一种受自身惯性约束的聚变等离子体。但由于制造的燃料舱具有不可避免的缺陷以及应用激光的不平衡或不稳定性、“流体动力学”的不稳定性都会严重影响内爆性能,这种内爆系统对设计细节和不稳定性极为敏感。

    Gopalaswamy等人采用了一种不同于以往实验的方法来优化OMEGA的聚变性能。由于模拟和实验都具有相同的输入,他们认为模拟输出和实验数据之间可能存在统计关系。作者利用模拟输出建立了一个统计模型,以匹配一组初始实验数据。之后,他们使用该模型更改内爆设计,聚变产量提高了三倍。

    随后他们通过增加内爆燃料的区域密度(每单位面积的质量),拓展了增加等离子体约束时间的方法。建立了第二个统计模型,来显示激光功率随时间的变化。这些变化使燃料的区域密度增加60%,同时也保持了创纪录的聚变率,大大改善了整体的内爆性能。

    这种方法也可以扩展到其他ICF技术,例如间接驱动激光聚变,其中激光束照射含有燃料舱的小金属圆筒,并非燃料舱本身。到目前为止,间接驱动激光聚变是具有最佳性能的ICF方法。

    Gopalaswamy等人将他们的结果拓展到劳伦斯利弗莫尔国家实验室的国家点火设备(NIF)的能量范围。目前OMEGA和NIF正在进行一项实验,以更好地了解直接驱动激光聚变作为热核聚变途径的前景。

  • 原文来源:https://www.nature.com/articles/d41586-019-00261-3
相关报告
  • 《如何训练评论模型(CriticGPT)》

    • 来源专题:数智化图书情报
    • 编译者:程冰
    • 发布时间:2024-07-20
    • 根据OpenAI展示的论文显示,训练CriticGPT模型的第一步是通过篡改的方式开发一套动态数据生成机制,在数据集中故意地在模型生成的答案中插入错误内容。 这不仅是简单地添加错误,而是要求篡改记录下他们插入的每个错误的详细描述,就像在代码审查中发现了这些错误一样,为训练数据提供了丰富的错误示例。 然后,再训练一个奖励模型来预测人类对评论质量的排名。这个奖励模型的目的是评估评论模型生成的评论是否全面、是否包含了特定的错误,以及是否避免了无关紧要的问题或虚假错误。 通过这种方式,可确保评论模型在生成评论时能够平衡准确性和全面性。 在策略优化阶段,使用了近端策略优化(PPO)算法来优化评论模型的行为策略,允许模型在保持策略更新幅度较小的同时,有效地学习如何改进其输出。 同时引入了一种FSBS的推理采样策略,通过在生成评论时强制模型产生特定的高亮部分,然后根据奖励模型的评分选择最佳评论。这种方法允许模型在生成更长、更全面的评论时,减少虚假问题的产生。 根据实验数据显示,评论模型在检测代码错误的表现非常出色,相比人类高出60%,比很多专业的外包更能发现大模型输出的问题所在。 但OpenAI表示,CriticGPT并非总是正确的,有时候也可能输出不正确的内容来误导人类。所以,在使用时需要搭配使用。
  • 《英伟达的新款 Blackwell GPU 可以训练包含数万亿参数的 AI 模型》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-20
    •       英伟达(Nvidia)目前最新、最快的GPU代号为Blackwell,它将在今年支持该公司的人工智能计划。这款芯片的性能比其前身有所提高,包括炙手可热的H100和A100 GPU。客户要求更高的人工智能性能,GPU正逐渐达到满足对更高性能GPU的需求。       英伟达负责高性能和超大规模计算的副总裁伊恩·巴克在新闻发布会上表示,具有多达576个Blackwell GPU的系统可以配对以训练数万亿参数模型。GPU拥有2080亿个晶体管,采用台积电的4纳米工艺制造。这大约是前代H100 GPU的2.5倍,是性能显著提高的第一条线索。       人工智能是一个内存密集型过程,数据需要临时存储在RAM中。GPU有192GB的HBM3E内存,与去年的H200 GPU相同。英伟达正专注于扩大Blackwell gpu的数量,以承担更大的人工智能任务。Buck表示:“这将使人工智能数据中心的规模超过10万个GPU。该GPU在单个GPU上提供每秒20千万亿次的人工智能性能。”       巴克提供了模糊的性能数字,真实的性能数字是不可用的。然而,英伟达很可能使用FP4 (Blackwell的一种新数据类型)来测量性能并达到20千万亿次的性能数字。前代H100为FP8数据类型提供了4万亿次的性能,为FP16提供了约2千兆次的性能。Buck说:“它的训练性能是Hopper的四倍,推理性能是整体的30倍,能效提高了25倍。”。       FP4数据类型用于推理,将允许以最快的速度计算较小的数据包,并更快地返回结果。AI性能更快,但精度更低。FP64和FP32提供了更精确的计算,但不是为人工智能设计的。GPU由两个封装在一起的芯片组成。它们通过一个名为NV-HBI的接口进行通信,该接口以每秒10tb的速度传输信息。Blackwell的192GB HBM3E内存由8tb /秒的内存带宽支持。       英伟达还创建了带有Blackwell GPU和Grace CPU的系统。首先,它创建了GB200超级芯片,将两个Blackwell GPU与它的Grace CPU配对。其次,该公司创建了一个名为GB200 NVL72的全机架系统,该系统具有液体冷却功能,它有36个GB200超级芯片和72个GPU以网格形式互连。       GB200 NVL72系统提供了720 PB的训练性能和1.4 EB的推理性能。它可以支持27万亿个参数模型大小。GPU通过新的NVLink互连互连,该互连具有1.8TB/s的带宽。GB200 NVL72将于今年向包括谷歌云和甲骨文云在内的云提供商推出。它也将通过微软的Azure和AWS提供。       英伟达正在与AWS合作开发一款名为Project Ceiba的人工智能超级计算机,该计算机可以提供400 EB的人工智能性能。Buck说:“我们现在已经将其升级为Grace Blackwell,支持……20000个GPU,现在将提供超过400 EB的人工智能。该系统将于今年晚些时候上线。”       英伟达还宣布了一款名为DGX SuperPOD的人工智能超级计算机,它有八个GB200系统,即576个GPU,可以提供11.5 EB的FP4人工智能性能。GB200系统可以通过NVLink互连进行连接,该互连可以在短距离内保持高速。此外,DGX SuperPOD可以将数万个GPU与英伟达Quantum InfiniBand网络堆栈连接起来。此网络带宽为每秒1800 GB。       英伟达还推出了另一款名为DGX B200的系统,其中包括英特尔的第五代至强芯片Emerald Rapids。该系统将八个B200 GPU与两个Emerald Rapids芯片配对。它也可以设计成基于x86的SuperPod系统。该系统可提供高达144 PB的AI性能,包括1.4TB的GPU内存和64TB/s的内存带宽。 DGX系统将于今年晚些时候推出。       英伟达DGX系统副总裁Charlie Boyle在接受HPCwire采访时表示,Blackwell GPU和DGX系统具有预测性维护功能,可保持最佳状态。博伊尔说:“我们每秒监测1000个数据点,看看如何以最佳方式完成这项工作。”预测性维护功能类似于服务器中的RAS(可靠性、可用性和可维护性)功能。它是系统和GPU中硬件和软件RAS功能的组合。博伊尔说:“芯片中有一些特定的新功能,可以帮助我们预测正在发生的事情。这个功能并不是查看所有GPU的数据轨迹。”