《日本探索用人工智能指挥交通》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: husisi
  • 发布时间:2019-12-31
  • 据日本共同社21日报道,日本一家机构正在研究开发一套新的交通系统,将应用人工智能技术分析数据来缓解城市交通拥堵。

    报道称,在日本新能源和产业技术综合开发机构研发的这套系统中,人工智能将扮演指挥官的角色。

    通过分析车流量数据,以及摄像头采集到的车辆位置等图像信息,人工智能系统将控制信号灯的切换以及时长等,从而缓解拥堵状况。此外,在行人过马路时,系统还可以感知人行横道上的行人,并适时延长过马路绿灯的时间。

    据日本国土交通省的估算,日本每年因拥堵导致企业活动与物流停滞而造成的经济损失达12万亿日元,约合7682亿元人民币。报道称,该系统反馈的信息还可以应用在城市规划中,提前避免拥堵问题的出现。

相关报告
  • 《人工智能中场之争:大模型在产业变革中的应用探索》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-27
    • 2023年对于人工智能产业而言是非常重要的一年,尤其是以GPT-3、ChatGPT为代表的大模型技术所取得的显著成果标志着以专用小模型训练为主的“手工作坊时代”向通用大模型预训练为主的“工业化时代”的人工智能研究范式转变,敲开了通用人工智能的大门。AIGC(AI-Generated Content)指利用人工智能技术(生成式AI路径)来生成内容的新型内容生产方式。AIGC应用创新的技术支撑为“生成对抗网络(GAN)/ 扩散模型(Diffusion)”与“Transformer预训练大模型”的两类大模型分支。在国外AIGC应用展示出大模型的能量的同时,我国企业也加强了相关产品技术布局,云厂商、AI大厂、创企、各行业公司及技术服务商等产业各领域玩家纷纷发布大模型或基于大模型的应用产品及各类技术服务。 从商业化布局角度来看,如今基础大模型厂商可分为三类参与者,分别为云巨头厂商、人工智能公司或创业公司和学术研究机构,在定位有通用能力基座的同时打通向上商业化路径。其中,云巨头厂商将借助云服务及数据库资源,更强调MaaS能力输出。AI公司或创业公司将借助业务积累或生态资源锚定几个典型行业或业务场景展开商业占领。垂直领域厂商将基于开源模型或基模平台开发部署细分领域模型产品,厂商优势在垂类数据与业务理解。通用模型和各领域专有的知识数据结合,未来垂直大模型是重要的发展方向,本文重点讨论大模型在垂直行业部署与细分场景的落地应用现状。大模型在金融领域的应用探索 金融行业作为人工智能应用场景密集的行业,是大模型技术落地的最佳领域之一。以大模型为代表的新一代人工智能技术将加速金融数字化和金融智能化的发展,重塑现有业务流程,改变产业格局。大模型技术可应用于智能客服、投顾、营销、风控、运营、投研、投行、量化交易、低码研发等多个场景。第一是基于大模型的智能客服将超越人工服务,让高质量顾问式金融服务成为可能。在通用大模型的基础上,叠加金融客服领域的数据和专业服务经验,经过垂直领域定向训练后客服机器人既能与用户进行多轮对话,还能提供具体可行的解决方案。 第二是生成式大模型可以成为理财师、经纪人等从业者的“全能业务助理”。基于大模型的业务助理不仅了解国内外的宏观政策、行业信息、产品信息,还可以自动生成文章、报告,提供专业建议和方案辅助交流。 第三是广告和营销内容一键生成,营销效率大幅提升。以ChatGPT为代表的大模型技术,将带来知识型工作者生产效率的二次飞跃。过去,我们需要在海量信息中检索词条,将大量的精力投入到信息的获取、提炼与整合,自己做检索、设计、制作等工作。未来,大模型技术会适应并普及到所有知识型工作行业,例如文案、设计、编程等,人机协作将大幅提高工作效率。 大模型能够凭借强大的信息挖掘能力,唤醒金融机构大量沉积的信息,就像是一块巨大的磁石,做关键信息的抽取,为判别式小模型进行赋能。比如,在风险决策、信用评估、反欺诈等场景下,大模型能丰满信息的维度,挖掘出小模型无法覆盖到的区域。大模型对于小模型并非是替代或“消灭”,相反,两者将是相互协作的关系,大模型与小模型相互搭配,将大大提升金融决策的精准度和效率。 医疗保健行业充斥着各种类型的基于文本的文档,例如患者病历、索赔文件、临床记录、同意书和弃权书等。大语言模型(Large Language Model,LLM)能够快速阅读、解释大量文本并对其采取行动,这意味着他们可以为医疗机构带来优势,使他们能够以独特的方式安全、可靠地工作。医疗保健非常适合利用大型语言模型,因为给定的医疗系统的医疗记录中存在大量的潜在数据。 在这样一个文档密集的行业中,医疗保健领域并不缺乏大型语言模型的应用场景。以下是大型语言模型功能的示例,这些功能在医疗保健环境中应用时,可以简化流程并改进整体工作流程。 临床记录:医疗健康专业人员可以使用LLM创建准确且全面的临床记录,使用LLM分析患者数据并生成相关摘要。这有助于减轻记录负担,同时确保准确记录重要信息。改进信息提取:从非结构化文本(例如患者记录或研究文章)中识别和提取相关信息是LLM的另一个自然应用。这种能力使医疗保健组织能够释放隐藏在庞大数据存储库中的宝贵见解,最终支持更好的决策。高级沟通能力:由于大语言模型擅长理解自然语言,因此非常适合患者与提供者沟通等任务。这些模型可以通过以上下文相关的方式解释和回应患者的询问、担忧或反馈,促进更有效的互动。文件生成和管理:大语言模型可以自动生成重要的医疗保健文件,例如同意书、弃权书和出院摘要。通过从患者记录中提取相关信息并预先填充这些文档,LLM可以节省时间,最大限度地减少错误风险,并使提供者能够让患者感觉他们了解他们,而无需要求重复信息。当纳入智能入院和登记工作流程时,这些工具能够轻松捕获准确的患者信息,从而最大限度地提高临床和财务成果。 大模型在工业领域的应用探索 大模型在工业的应用,目前在生产制造、研发设计和经营管理领域都形成一些场景,但都处于起步和探索阶段。各工业相关领域技术服务商和行业解决方案商也都在积极布局AI大模型的行业应用,以下是大模型技术在工业领域的应用场景方向探索。 其中生产制造的应用包含运营管理,使用自然语言交互方式,分析操作和运营人员的自然语言指令,进行对应数据、信息的查找、呈现和关联分析等,提高信息查找和分析的效率,帮人员更直观快捷的获取所需的信息。质量安检,使用大模型提供更强的视觉检测能力,用于质检、安全监测等,提高模型泛化能力,降低训练样本需求。生成模拟检测图像的缺陷样本,补充小样本的不足,提高模型准确性等。自动对检测的结果进行分析,并生成检测报告等。在计划调度层面,使用大模型进行排产排程优化、生产和物流调度优化,提高算法能力,基于自然语言自动生成PLC控制代码,提高开发效率,降低开发门槛。在自动化控制层面,使用自然语言与机器人交互,对工业机器人进行智能控制,提高机器人场景适应性降低操作难度。 在可见的未来里,相信随着大模型技术的进一步发展,这类生成式AI产品将在工业互联网领域发挥越来越重要的作用,支持更多工业场景需求的落地实现。大模型在交通领域的应用探索 大模型在交通领域应用的优势:一是自然语言处理能力,如和文字相关的交通报告分析、语音识别等;二是轨迹大数据,在交通出行建模、拥堵研判,主流交通路径等方面有所应用;三是多模态,比如如何从视频转化为交通流指标等,都是交通大模型中非常重要的因素;四是计算机视觉模型,在车道线、红绿灯、交通违法事件等交通要素识别方面的应用广泛。 2023年4月,百度基于文心大模型在高速公路领域发布了数字人“简璐璐”,服务于路网监测、应急指挥、养护管理、公众出行全环节,可以结合用户问题,提供全新对话式交互,实时给出精准答复。随后,在交通管理领域发布了全域信控缓堵解决方案,能够提供全域感知、全域优化、全域协同和全域服务四大能力,实现信控优化的代际提升,可实现超千规模路口的全域拥堵治理。 2023年7月19日,北京交通大学联合中国计算机学会智慧交通分会、足智多模公司等正式发布并开源了国内首个综合交通大模型——TransGPT·致远,依托北京交通大学“交通大数据与人工智能”教育部重点实验室科研团队自主研发。与通用型多模态交通大模型产品不同,致远大模型自研发伊始就瞄准交通运输行业中的实际应用需求,基于研发团队长期汇聚积累的综合交通大数据,在交通态势预测、交通规划设计、公共交通服务、智能咨询助手、交通安全教育、交通协助管理、交通事故分析、自动驾驶辅助等方面形成具有实际应用价值的智能化支撑能力。交通态势的全面及时、精准感知是智慧交通的基础,也是一直以来困扰行业的难题。交通事件识别不准的问题在交通行业是普遍存在的。现阶段在应对AI大规模落地应用问题上,预训练大模型借助其通用、泛化能力优势为AI落地提供了新的解决思路。 交通感知方面,大模型可以进行道路路况识别和车辆车流密度检测。基于某帧画面生成当前路况描述并直接发布,这些数据可以连接到情报版或导航软件,将海量的监控图片、监控数据利用起来。此外,大模型在道路分割、服务区、停车场余位识别、交通事件检测等方面也有所应用,可做到让视频监测真正免配置,大幅提升检测准确率。交通治理方面,通过大模型的语义理解、泛化推理、自动取数能力可对历史交通数据和实时交通数据进行分析,精准定位、判断某路段和某区域的交通状况;快速聚焦交通运行核心痛点问题;预测未来交通状况;提供初步、快速的交通决策支持,缓解交通规划方案和治理经验复用高度依赖高阶人才的难题。交通控制系统优化方面,大语言模型通过集成和调度车辆监管、交通信号调整、智能导航、智能停车等多种智能服务,实现交通系统的动态优化和智能化服务,提高交通治理效率和安全性。交通物流行业应用方面,大模型的应用场景可分为两类,一类是人机交互类场景,如数字人、智能客服。面向问答类场景,通过调用大模型的理解能力、推理能力、解决问题的能力,将一个问题拆分成多个任务,由大模型和交通业务系统共同完成,并将语料资源整合成完整的答案交付给用户,从而开发作业系统增强服务、专业咨询引导和内容生产服务。 尽管大模型具有广阔的应用前景,但在实际应用中仍面临一些挑战。产业大模型的综合能力实际上取决于计算能力、行业专业知识和模型精调的结合。其中,行业专业知识至关重要,它涵盖了专家经验、行业数据、组织能力和工程能力,这是垂直企业的核心竞争优势所在。其次在落地应用过程中,如何确保在保障数据安全的前提下释放其价值,如何提高模型的准确性和可靠性,以及如何确保AI生成的内容的安全性、可信性和可靠性,这些都是在推动大模型产业化落地时需要各方共同努力解决的问题。
  • 《脑启发设计:人工智能的进化之路》

    • 来源专题:人工智能
    • 编译者:高楠
    • 发布时间:2024-07-08
    • 作者:微软亚洲研究院 编者按:你可以用左手(不常用的那只手)的小指与食指拿起一件物品么?         试完你是不是发现自己竟然可以毫不费力地用自己不常用的手中,两根使用频率相对较低的手指,做一个不常做的动作。这就是人类大脑不可思议之处——无需经过特别的训练,大脑就能够在短时间内以低功耗的方式控制身体完成各种复杂行为,甚至是全新的动作。相比之下,人工智能虽然是人类智慧的产物,但在很多方面还远不及人类大脑。 为此,微软亚洲研究院(上海)团队的研究员们从理解大脑结构与活动中获得灵感,开发了一系列涵盖大脑学习、计算过程不同层级的创新技术,包括模仿脑神经回路连接方式,可高效处理众多任务的 CircuitNet 神经回路网络;可应用于时间序列预测,更适配神经拟态芯片的新型 SNN(脉冲神经网络)框架和策略;以及可为具身智能提供理论指导的贝叶斯行为框架。这些探索为未来的人工智能技术发展提供了新的可能。         从能耗的角度来看,人类大脑只需要大约20瓦的功率即可维持运转,这约等于一个节能灯泡的功耗。但随着人工智能大模型参数和规模的增大,其能源需求远高于传统的数据中心。主流的大语言模型训练过程预计会消耗上千兆瓦的电力,相当于数百个家庭一年的用电量。这种能源消耗的增长趋势显然不利于人工智能技术的可持续发展。那么如何通过新的处理机制解决能耗问题,就成了信息科学领域一个紧迫且前沿的挑战。《千脑智能》一书为我们提供了启示:“要创造出真正智能的机器,我们首先需要对大脑进行逆向工程。我们研究大脑,不仅是为了理解它的工作原理,更是为了探索智能的本质。”其实,人工智能本身就是人类对大脑探索的产物,在计算机诞生之初,人们就已经利用神经连接模式+数字计算的方式模拟大脑。但受限于当时的算力和人们对大脑粗浅的认知,人工智能发展非常缓慢,甚至一度被束之高阁。             近几十年来,随着神经科学家对大脑结构的深入理解和计算资源及相关技术的增强,以脑启发为核心的“人工智能文艺复兴”也掀起了新一轮热潮,促使科研人员重新定位大脑机制对人工智能的作用。来自微软亚洲研究院(上海)的研究员们跨越计算机和脑科学专业知识,深入理解大脑的结构与行为活动,针对大脑学习和计算过程,从神经元、网络层和更高级别的系统层出发,分别设计研发了高性能的脉冲神经网络(SNN)、参数效率更高的回路神经网络(CircuitNet),以及提升决策效率的贝叶斯行为框架,促进了人工智能网络向着更低功耗、更高效率、更好性能的方向良性发展,同时也为具身智能发展提供了理论和方法。 CircuitNet:模拟大脑神经元连接,实现更低功耗与更高性能         人工神经网络(ANN)已经被广泛应用于人工智能的众多领域,包括自然语言处理、机器学习、语音识别和控制系统等。这些应用的成功,很大程度上得益于它们对大脑神经元工作模式的模仿。神经元是大脑最基本的单元,它们之间通过复杂的连接模式相互作用来传递和处理信息。但早期的人工神经网络设计相对简单,仅能模拟一两种连接模式。 随着神经科学的发展,人们发现大脑神经元的连接方式多种多样,其中有四种常见模式:前馈激励和抑制、反馈抑制、侧抑制和相互抑制。然而,现有的许多人工神经网络,如具有残差连接的网络,只能模拟前馈激励和抑制模式。即便是能够模拟循环模式的递归神经网络(RNN),在信息传入前也无法处理上游神经元间的复杂相互作用,从而影响了神经网络在不同机器学习任务中的表现。         生物神经网络与人工神经网络的整体连接模式也大不相同。生物神经网络的一个显著特点是局部密集连接与全局稀疏连接的结合。尽管单个神经元可以有数千个突触,但它们大多数位于一个脑区内,形成针对特定任务的功能集群。只有少数突触作为不同脑区之间的桥梁,延伸到其它功能集群,而人工神经网络通常不具备这样的特性。此外,人工神经网络中的许多参数也被证实是冗余的,增加了网络的复杂性。基于对大脑神经连接的新理解,研究员们提出了新的回路神经网络 CircuitNet,它能够模拟包括反馈和侧向模式在内的多种神经元连接模式。CircuitNet 的设计还借鉴了大脑神经元局部密集和全局稀疏连接的特性,通过不同电路模式单元(Circuit Motif Unit, CMU)的输入端和输出端的稀疏连接,实现了信号在不同 CMU 之间的多轮传输。实验结果表明,CircuitNet 在函数逼近、强化学习、图像分类和时间序列预测等任务中的表现超越了当前流行的神经网络架构。而且,在各种类型的任务中,CircuitNet 在达到与其它神经网络相同性能的同时,具有相当或更少的参数,展示了其在机器学习任务中的有效性和强大的泛化能力。 CircuitNet: A Generic Neural Network to Realize Universal Circuit Motif Modeling https://openreview.net/pdf?id=Fl9q5z40e3 让SNN网络更适用于时间序列预测任务的新框架         脉冲神经网络(SNN)因其能效高、事件驱动范式和生物学上的合理性,正逐渐受到业内的重视。SNN 的设计灵感来源于生物神经网络中神经元间的信息传递方式——神经元不是在每次迭代传播中都被激活,只有膜电位达到特定阈值时才被激活,进行信号传递。这种事件驱动机制使得 SNN 只在接收到有效刺激时才进行信息处理,从而避免了无效计算,极大地提高了运算效率和能效比。然而,研究员们发现,现有的 SNN 设计大多聚焦于其离散的事件驱动特性,有的会忽略其时间属性,有的则为了适应事件驱动范式过程,过度简化序列数据模式。这些方法虽然让 SNN 在图像分类、文本分类和序列图像分类任务上实现了与人工神经网络接近的性能,但并未充分发挥 SNN 在处理时间信号方面的潜力。研究员们认为,时间序列预测是 SNN 一个理想的应用场景。作为现实数据分析的重要组成部分,时间序列预测广泛应用于交通、能源、医疗等领域,旨在基于按时间顺序排列的历史数据来预测未来。但是,将 SNN 应用于时间序列预测还面临两大挑战:         SNN 中脉冲值的离散特性与时间序列数据的浮点属性之间存在巨大的差异,需要一种有效的机制来减少在将浮点值转换为脉冲序列时的信息丢失和噪声。如何选择用于时序数据的 SNN 标准化模型目前还缺少一个指导方针,进而加剧了任务的复杂性,这就需要对 SNN 架构及其参数进行深入探索,以适应不同时间序列数据的特定特征。研究员们提出了一个用于时间序列预测任务的 SNN 框架。该框架充分利用了脉冲神经元在处理时间序列信息上的高效性,成功实现了时间序列数据与 SNN 之间的时间同步。研究员们还设计了两种编码层,可以将连续时间序列数据转换为有意义的脉冲序列。这之后,研究员们又利用多种脉冲化的时间序列模型对脉冲序列进行了建模,得到了最终的预测结果。         通过在多个时间序列预测基准集上的测试,研究员们证实了 SNN 方法在时间序列预测中的有效性。该方法不仅展现出与传统时间序列预测方法相媲美或更优的性能,而且显著降低了能耗。此外,在分析实验中,研究员们还展示了 SNN 如何捕获时间序列数据中的时间依赖性,并发现 SNN 确实能够模拟时间序列数据的内在动态。这项研究为 SNN 领域提供了一个既节能,又符合生物学原理的时间序列预测新方案。 Efficient and Effective Time-Series Forecasting with Spiking Neural Networks https://arxiv.org/pdf/2402.01533 大脑中枢模式发生器与位置编码双加持,让SNN序列预测更上一层楼          尽管 SNN 在多个领域取得了显著进展,但它们在适应不同类型任务时仍面临挑战。SNN 作为事件驱动的系统,缺乏有效机制来捕获索引信息、节奏模式和周期性数据,从而限制了它们处理自然语言和时间序列等数据模式的能力。而且,SNN 依赖于脉冲形式的通信,这使得并非所有适用于人工神经网络的深度学习技术都能直接迁移到 SNN 上。为了克服这些限制,研究员们进一步从生物神经学机制中汲取灵感,基于人类大脑中枢模式发生器(Central Pattern Generator, CPG)和位置编码(Positional Encoding,PE)技术,开发了针对 SNN 的新型位置编码技术 CPG-PE。         中枢模式发生器(CPG):在神经科学中,CPG 是一组能够在不需要节奏输入的情况下,产生有节奏的模式输出的神经元。这些神经回路位于脊髓和脑干中,负责产生控制运动、呼吸和咀嚼等重要活动的有节奏信号。位置编码(PE):PE 是人工神经网络中的一项关键技术,尤其在序列处理任务中尤为重要。通过为输入序列的每个元素赋予位置信息,PE 使神经网络能够识别序列中元素的顺序和相对位置。CPG 和 PE 都能产生周期性输出,CPG 是相对于时间的输出,而 PE 则是相对于位置的输出。研究员们将两者类比,使 CPG-PE 可以编码时间或空间的位置信息,预测神经信号的来源或位置。         在 Metr-la(洛杉矶高速公路平均交通速度数据)、Pems-bay(湾区平均交通速度数据)、Electricity(以千瓦时 kWh 测量的每小时电力消耗数据)和 Solar(太阳能发电数据)四个真实世界数据集上进行的时间序列预测实验表明,采用 CPG-PE 策略的 SNN 在时间序列分析方面显著优于没有 PE 特性的神经网络。同时,CPG-PE 可以无缝集成到任何能够处理序列的 SNN 中,理论上可以实现与 SNN 硬件的兼容,适配各类神经拟态芯片。 Advancing Spiking Neural Networks for Sequential Modeling with Central Pattern Generators https://arxiv.org/pdf/2405.14362 贝叶斯行为框架:为具身智能提供理论指导         在心理学和认知神经科学领域,以人类为代表的智能生物群体被认为会执行两类行为:习惯性行为和目标导向行为。习惯性行为是指为了最大化利益而自动执行的动作,无需意识思考或意图的参与,例如寻找食物和避免危险。目标导向行为是指为了实现特定目标而执行的动作,例如有计划地前往某个地点。传统上认为,在认知科学和机器学习中,习惯性行为和目标导向行为由两套独立的系统控制,因此在建模时,研究人员通常会为这两种行为设计独立的模型。         然而,微软亚洲研究院的研究员们认为,这两种系统应该更紧密地结合,实现协同学习和工作。尽管在大脑中这两种系统之间的相互作用尚未完全明了,但习惯性行为和目标导向行为共享着诸如脑干这样的下游神经回路。两种行为共享低级运动技能,且每个系统都可能利用对方学习到的高级动作。例如,习惯性行为虽然缺乏灵活性,但通过练习可以提供熟练的运动技能,这些技能可以被目标导向行为用于更复杂的任务规划。那么如何在保持两种行为差异的同时实现协同?为此,研究员们提出了一个基于变分贝叶斯方法的理论框架——贝叶斯行为(Bayesian Behavior)框架,用于理解感知运动学习中的行为。其核心创新在于引入了一个贝叶斯“意图”(intention)变量,从而有效地连接了习惯性行为与目标导向行为。习惯性行为由感官输入计算的意图先验分布驱动,无需具体目标。目标导向行为则由一个通过最小化变分自由能推断(active inference)的目标条件意图后验分布引导。         在视觉引导的感知运动任务中进行模拟实验的测试结果显示,贝叶斯行为框架所得出的结论与神经科学和心理学实验的观察数据相吻合。这一发现不仅为认知科学中“行为”的理解提供了新的视角,也为具身智能的构建提供了理论基础。例如,人类能够轻松地用左手食指和小指拿起东西,或者原地转圈,未来的具身智能也可能完成这种未曾学习过的动作,展现出更高的适应性和灵活性。 Synergizing Habits and Goals with Variational Bayes https://www.nature.com/articles/s41467-024-48577-7 该论文已在《自然-通讯》(Nature Communications)杂志上发表。 跨领域研究让人工智能向节能高效进化         从达尔文进化论的角度来看,现在的主流人工智能模型在未来可能会面临淘汰。在生物进化的过程中,物种的基因变异是繁殖下一代时的常态。那些有利于生物适应环境的变异,将通过环境的筛选,以“适者生存”的原则被保留下来。然而,将这一概念应用于人工智能时,我们会发现能耗问题并不利于人工智能的发展和“进化”。         借鉴人脑的工作原理,构建脑启发的人工智能,不失为促进人工智能技术向节能高效方向发展的有效途径。这一趋势已经引发了新的研究热潮,包括对大脑理解的研究、基于神经元构建新的语言模型、根据不同脑区功能设计的 MoE 架构等脑启发人工智能正蓬勃发展。在微软亚洲研究院进行脑启发式人工智能研究的过程中,研究员们更加体会到跨学科、跨领域专家协作支持的重要性。CircuitNet、SNN 时间序列框架、贝叶斯行为框架等创新成果的背后,凝聚了来自复旦大学、上海交通大学及日本冲绳科学技术大学院大学等机构的神经科学和脑科学专家的专业知识和贡献。未来,随着对大脑机理的深入理解和技术的不断创新,我们有望增进对智能本质的理解,构建出更加智能、高效且环保的人工智能技术,更好地服务于人类社会。