纽约大学坦登工程学院(NYU Tandon School of Engineering)的研究人员与自动驾驶汽车公司梅移动公司(May Mobility)合作推出了MARS(MultiAgent, multitraveRSal, and multimodal)数据集,该数据集具有独特的功能组合,使其有别于该领域以往的研究成果。 纽约大学坦登工程学院团队在上个月举行的电气和电子工程师协会/计算机视觉与模式识别大会(IEEE / CVF Computer Vision and Pattern Recognition, CVPR 2024)上发表了一篇关于MARS的论文。 自动驾驶汽车研究的数据集通常来自单辆汽车一次性通过某个地点的数据。 MARS 提供了更多机会,因为它捕捉到了多辆自动驾驶汽车在固定路线上行驶数百次的真实互动,包括在不同条件下重复通过相同地点。
该数据集由 AI4CE智能实验室和May Mobility公司的工程师共同收集,使用的是May Mobility公司的车队,该车队由四辆丰田Sienna自动驾驶汽车组成,在美国某城市20公里的区域内运行,包括住宅区、商业区和大学区。
MARS 最重要的一点是它的 "多穿越 "特性。 May Mobility 的工程师和纽约大学坦登分校的研究人员确定了沿线的 67 个特定地点,并收集了数千次在不同时间和不同天气条件下穿越这些区域的数据。"这种对相同地点的重复观察对于开发更强大的感知和绘图算法至关重要
由于该数据集是从实际使用的多辆商用车辆中收集的,而不是从专门为收集数据而部署的车辆、单个自动驾驶车辆或数据模拟中收集的,因此它可以在训练和验证为自动驾驶汽车提供动力的人工智能系统方面发挥独特的重要作用。 为了证明该数据集的潜力,纽约大学坦登团队在视觉地点识别和三维场景重建方面进行了初步实验。 这些任务是视听设备自我定位和了解周围环境的基本能力。 "MARS是产学合作的最佳典范。 从我们的实际运营中收集数据,为协作感知、无监督学习和高保真模拟方面的自动驾驶研究开辟了新的途径,"May Mobility 自动驾驶感知总监 Fiona Hua 博士说,"我们对这个数据集可能实现的功能还只是肤浅的了解,我们期待着与研究人员携手合作,共同解决自动驾驶领域当前和未来的挑战。
原文链接: Multiagent Multitraversal Multimodal Self-Driving: Open MARS Dataset
MARS dataset: huggingface.co/datasets/ai4ce/MARS