纽约大学坦顿领导的一个研究小组已经开发出一种方法,让自动驾驶汽车间接分享他们对道路状况的了解,使每辆车都有可能从其他车辆的经验中学习,即使它们很少在路上相遇。
这项研究将在2025年2月27日举行的人工智能发展协会会议(AAAI 2025)上发表论文,解决人工智能领域的一个老大难问题:如何帮助车辆相互学习,同时保持数据的私密性。该论文可在 arXiv 预印本服务器上查阅。
通常情况下,车辆只能分享它们在短暂的直接接触中学到的知识,这限制了它们适应新环境的速度。
"一辆只在曼哈顿行驶过的汽车现在可以通过其他车辆了解布鲁克林的路况,即使它自己从未在那里行驶过。研究人员表示:"这将使每辆车都变得更聪明,并能更好地应对它没有亲自遇到过的情况。
研究人员将他们的新方法称为缓存分散式联合学习(Cached-DFL)。与依赖中央服务器协调更新的传统联合学习不同,Cached-DFL使车辆能够在本地训练自己的人工智能模型,并直接与其他车辆共享这些模型。
当车辆相距不到 100 米时,它们会使用设备间的高速通信来交换训练有素的模型,而不是原始数据。 最重要的是,它们还可以传递从以前的交锋中获得的模型,从而使信息的传播远远超出即时互动的范围。 每辆车最多可缓存 10 个外部模型,并每隔 120 秒更新一次人工智能。 为防止过时信息降低性能,系统会根据陈旧度阈值自动删除旧模型,确保车辆优先使用最新的相关知识。 研究人员以曼哈顿的街道布局为模板,通过计算机模拟测试了他们的系统。 在实验中,虚拟车辆以每秒约14米的速度沿城市网格行驶,根据概率在交叉路口转弯,其中50%的几率是继续直行,而转入其他可用道路的几率相同。 传统的分散学习方法在车辆不经常相遇时会受到影响,而Cached-DFL则不同,它允许模型在网络中间接传播,就像信息在容错网络中传播一样,这种网络旨在通过存储和转发数据来处理间歇性连接,直到连接可用为止。 通过充当中继站,车辆可以传递知识,即使它们从未亲身经历过某些情况。这有点像信息在社交网络中的传播方式,设备现在可以从它们遇到的其他人那里传递知识,即使这些设备从未直接遇到过对方。
这种多跳传输机制减少了传统模型共享方法的局限性,因为这种方法依赖于即时、一对一的交换。通过让车辆充当中继站,Cached-DDFL 能够在整个车队中更有效地传播学习成果,而不是仅限于每辆车单独进行直接互动。这项技术允许联网车辆了解路况、信号和障碍物,同时保持数据的私密性。这在城市中尤为有用,因为在城市中,车辆面临的条件各不相同,但很少长时间相遇,传统的学习方法无法胜任。
研究表明,车速、缓存大小和模型到期时间都会影响学习效率。更快的车速和频繁的通信会提高学习效果,而过期的模型则会降低准确性。基于群组的缓存策略可优先处理来自不同领域的各种模型,而不仅仅是最新模型,从而进一步提高学习效率。
原文链接: Xiaoyu Wang et al, Decentralized Federated Learning with Model Caching on Mobile Agents, arXiv (2024). DOI: 10.48550/arxiv.2408.14001