同步加速器光源是强大的设备,可以通过加速电子以受控光束的方式发出各种“颜色”或波长(从红外线到X射线)的光。
能源部劳伦斯伯克利国家实验室(Berkeley Lab)的高级光源等同步加速器使科学家可以使用这种光以多种方式探索样品,涉及的领域从材料科学,生物学和化学到物理和环境科学。
研究人员已经找到了升级这些机器的方法,以产生更强,更聚焦,更一致的光束,从而可以对各种样本类型进行新的,更复杂和详细的研究。
但是某些光束特性仍然表现出性能波动,这对某些实验提出了挑战。
解决几十年的问题
这些同步加速器设备中的许多设备可为数十种同时进行的实验提供不同类型的光。在这些单独的光束线上进行细微调整以增强光束性能可以反馈到整个设施的整体光束性能中。同步加速器的设计者和操作者数十年来一直在努力采用各种方法来补偿这些最顽固的波动。
现在,伯克利实验室和加州大学伯克利分校的一大批研究人员已经成功地展示了机器学习工具如何通过调整来基本消除这些波动,从而将光束的波动降低到一定程度,从而提高实验光束的稳定性。精度从百分之几降低到0.4%,亚微米(低于一百万分之一米)的精度。
11月6日发表在《物理评论快报》上的一项研究中详细介绍了这些工具。
机器学习是人工智能的一种形式,其中计算机系统分析一组数据以构建可解决复杂问题的预测程序。 ALS使用的机器学习算法被称为“神经网络”的一种形式,因为它们被设计为以某种类似于人脑功能的方式识别数据中的模式。
在这项研究中,研究人员将来自ALS的电子束数据(包括用于从电子束产生光的磁性设备的位置)馈送到神经网络中。神经网络识别出该数据中的模式,并确定不同的设备参数如何影响电子束的宽度。机器学习算法还建议调整磁体以优化电子束。
因为电子束的大小反映了磁体产生的最终光束,所以该算法还优化了用于研究ALS处材料特性的光束。
解决方案可能会产生全球影响
在ALS上的成功演示展示了该技术通常还可以如何应用到其他光源,并且对于通过升级称为ALS-U项目的ALS进行的专门研究特别有益。
伯克利实验室的一个分支机构西村博史(Hiroshi Nishimura)去年退休,他曾就长期解决光束尺寸稳定性问题的机器学习解决方案进行过早期讨论和探索,他说:“这就是它的美。” “无论加速器是什么,无论采用哪种常规解决方案,该解决方案都可以在此之上。”
ALS主管Steve Kevan说:“这对于ALS和ALS-U而言是非常重要的进步。多年来,我们一直在处理X射线显微镜图像中的伪像问题。这项研究提出了一种新的基于机器学习的前瞻性方法,它已在很大程度上解决了这一问题。”
ALS-U项目将把光束的狭窄焦点从大约100微米的水平减小到10微米以下,并且对一致,可靠的光束特性也提出了更高的要求。
机器学习技术建立在自1993年ALS成立以来数十年改进的传统解决方案的基础上,该解决方案依赖于对沿ALS环的磁体的不断调整,以实时补偿各个波束线的调整。
Nishimura是25年前使ALS上线的团队的一员,他说他大约在四五年前就开始研究机器学习工具在加速器应用中的潜在应用。他的对话延伸到了伯克利实验室和加州大学伯克利分校的计算和加速器专家,大约两年前这个概念开始形成。
ALS操作期间成功进行测试
研究人员于今年早些时候在ALS环网的两个不同地点成功测试了该算法。他们提醒ALS用户进行有关新算法测试的实验,并要求他们就任何意外的性能问题提供反馈。
“我们从今年4月到6月对用户操作进行了一致的测试,” ALS的博士后C. Nathan Melton说,他于2018年加入了机器学习团队,并与前加州大学伯克利分校的研究生Shuai Liu紧密合作是这项研究的重要贡献者,并且是该研究的合著者。
ALS加速器运营和开发部副总裁,机器学习工作的主要研究人员西蒙·利曼(Simon Leemann)表示:“我们对测试没有任何负面反馈。该团队使用的监控光束线之一是诊断光束线。不断衡量加速器的性能,另一个是活跃进行实验的光束线。” ALS的高级科学家兼计算程序负责人Alex Hexemer担任了开发新工具的共同负责人。
具有活跃实验的光束线5.3.2.2使用称为扫描透射X射线显微镜或STXM的技术,那里的科学家报告说,实验中的光束性能得到了改善。
机器学习团队指出,增强的光束性能也非常适合于先进的X射线技术,例如谱图技术,可以将样品的结构分解到纳米级(十亿分之一米)。 X射线光子相关光谱法或XPCS,用于研究结构不统一的高浓度材料的快速变化。
Leemann指出,其他需要可靠的,高度聚焦的恒定强度光束并与样品相互作用的实验也可以从机器学习中受益。
他说:“随着对样品的较小区域扫描,对实验的要求越来越严格。” “我们必须找到纠正这些缺陷的新方法。”
他指出,光源界一直在努力解决的核心问题-以及机器学习工具要解决的问题-是电子束线源点处垂直电子束大小的波动。
源点是光源处电子束发射的光,该光传播到特定的束线实验。尽管此时电子束的宽度自然稳定,但其高度(或垂直源尺寸)可能会波动。
打开人工智能的“黑匣子”
Leemann说:“这是团队科学的一个很好的例子。”他指出,这项努力克服了对机器学习增强加速器性能的可行性的最初怀疑,并打开了这种工具如何产生实际收益的“黑匣子” 。
“这不是传统上成为加速器社区一部分的工具。我们设法将来自两个不同社区的人们聚集在一起,以解决一个非常棘手的问题。”大约有15名伯克利实验室的研究人员参加了这项工作。
Leemann说:“机器学习从根本上需要两件事:问题必须是可重现的,并且您需要大量的数据。” “我们意识到我们可以使用所有数据,并拥有识别模式的算法。”
数据显示,由于在各个射束线上进行了调整,电子束性能几乎没有出现斑点,并且该算法找到了一种调整电子束的方法,以使其比传统方法更好地消除了这种影响。
Leemann说:“问题包括大约35个参数-太复杂了,我们无法弄清楚自己。” “一旦经过训练,神经网络便会做些什么-它为我们提供了一个预测,如果它根本不采取任何措施来校正机器中的源尺寸,将会发生什么。
“此模型中还有一个附加参数,描述了我们对某种类型的磁体所做的更改如何影响该源尺寸。因此,我们要做的就是根据神经网络预测选择一个参数,会产生我们想要创建的光束大小并将其应用于机器。” Leemann补充说。
Leemann说,以算法为导向的系统现在可以以高达每秒10次的速度进行校正,尽管每秒3次似乎足以改善此阶段的性能。
寻找新的机器学习应用程序
机器学习团队于2018年8月获得了美国能源部的两年资助,以与SLAC国家加速器实验室的斯坦福同步加速器辐射光源合作开展该项目和其他机器学习项目。 Leemann说:“我们有计划继续进行开发,并且我们还想尝试一些新的机器学习思想。”
西村说,“人工智能”这个流行词似乎已经流行了很多年,但是,“这一次看起来似乎是真实的。”
——文章发布于2019年11月8日