《HMI的新角色: 智能边缘的大脑?》

  • 来源专题:数控机床与工业机器人
  • 编译者: icad
  • 发布时间:2021-05-15
  • 人机界面(HMI)软件可用于从快速增长的海量工业数据中创造价值。根据国际数据公司(IDC)的预测,到2025年,每天产生的数据高达463艾字节(EB)。大部分数据由以下设备产生:
    ●智能传感器和其他工业物联网(IIoT)设备;
    ●可编程逻辑控制器(PLC);
    ●其它专用控制器;
    ●工业数据收集系统。
    各种类型的设备都在持续增加传感器。传感器越多,收集的数据自然也就更多。工业系统产生的数据呈现指数级增长,超过了可用的网络带宽。尽管很多数据仍然保留在机器和流程中,是未进行开发的资源,但是获得此数据的访问权限,对于获取有价值的业务见解至关重要。
    最新出现的可能性是使用部署在数据源附近的HMI软件进行数据挖掘。这就要求HMI从基本的可视化工具,向智能边缘数据收集器和机器学习处理器等更强大的角色转变。
    HMI软件的新角色
    托管在边缘设备上的HMI软件,需要与不断增长的需求保持一致,这些需求与如何获取、解析、挖掘和完善所有类型的数据相关。所收集的数据量巨大,这意味着需要在运营边缘进行高级分析和机器学习,以在总体数字化转型计划中发挥更重要的作用,从而实现智能化运营。
    HMI通常与数据源(例如PLC和传感器)协同工作。传统上,HMI一般被用作可视化工具,有时还用作在专用控制面板、移动设备或网页浏览器上查看数据的数据收集器。现代HMI仍然承担着这些角色,但它们还必须实时收集数据,将其存储在本地以进行进一步分析,并使用数据来搜索模式和推断以进行预测(图1)。

    图1:传统的机器HMI仅用于可视化,但先进的HMI软件平台可以在运营边缘支持数据存储和分析。图片来源:ADISRA

    HMI正在成为实时机器学习的数据源。时间序列过程数据必须与报警和事件记录数据相关联,以训练机器学习模型。这使模型可以检测产品的质量或预测关键设备的运行状况。当提供大量高保真数据时,机器学习模型的性能表现最佳。当这些模型检测到日常行为出现偏差,并显示出可能发生故障(或可能导致停机)时,就可以进行预测性维护。
    验证工业数据的质量
    从原始数据获取见解,需要HMI解析从资产和工业控制系统传入的数据,并以有序的方式将其存储。将历史数据与实时数据相结合,在为预测模型奠定基础方面起着至关重要的作用。
    确保用于机器学习模型训练的数据集里面的数据足够多,并具有多样性和代表性,这样就可以尽可能多的覆盖成功和失败案例,例如成功/失败的比率为70/30。
    找到经过验证的、质量合格的数据集需要花费大量时间,这意味着要对原始数据进行清洗:
    ●删除NULL值;
    ●确保数据对于所需的信号和比例是正确的;
    ●确保足够的采样率;
    ●捕获感兴趣的条件。
    在进行探索性分析时,可能会丢弃大量数据。而且一般情况下,必须获取最新数据。用户还必须确保训练集没有任何内置偏差。一旦确认数据良好,就可以创建并应用机器学习模型。
    如何建立机器学习模型
    收集到的实时数据,支持构建和完善机器学习模型。创建机器学习模型以后,是为每个边缘设备配置更改机器学习模型的能力,还是由员工来监督这种更新,存在一定的争议。
    如果每个边缘设备能够自主更改模型,那它们就可以以有益的方式进行自适应。但是,动态模型更改的结果是每个边缘设备的机器学习模型可能会有所不同。持续更新的模型更有可能最大程度地减少支持方面的问题。
    大多数用户在模型开发过程中都是从监督学习(一种机器学习的方法)开始的,这些算法包括线性回归、逻辑回归和神经网络。大多数实用价值都来自于有监督式学习。
    接下来,就可以开始将深度学习技术应用于数据。一旦机器学习模型处于合理状态,就可以将该模型部署在边缘设备上,该设备可以处理实时数据并查找异常工况。当任何异常发生时,HMI可以通过发送报警来通知用户。
    现代HMI架构和边缘分析
    现代HMI的作用不仅是收集数据,还包括识别不符合预期模式的项目、事件或观察结果。HMI不仅可以根据数据进行推断,并检测到这些异常情况,还可以通过屏幕、文本或电子邮件,向运行人员发送有关实际或潜在问题的报警。
    通过更靠近数据源执行检测,HMI可以毫无延迟的进行早期报警,而无需将数据发送到云。HMI可以检测已知模式,从而检测关键设备的故障,并在本地进行分析和处理(图2)。

    图2:位于边缘的HMI,定位于分析并快速向用户传递指示和报警。

    HMI也可以执行数据预处理。通过在边缘端创建实时分析,HMI可以在将数据发送到云之前对其进行分类、检测和分段。这可以提高上游处理和联网的效率。
    不过,边缘设备是否应将原始数据、聚合数据或预测性数据传输到云以进行进一步分析,还存在一定的争议。为了进行优化,在高层或基于云的系统中的机器学习模型,需要尽可能高保真的原始数据。不幸的是,这会给用户带来技术和商业负担。
    过滤工业数据的必要性
    随着大量数据的产生,工业用户必须根据存储量和网络带宽,谨慎的做出数据传输决策,以确保在需要分析的位置,能够获得更新的数据(图3)。


    图3:现代HMI超越了简单的可视化,可帮助OEM和最终用户管理数据传输并执行机器学习分析。

    原始数据方法为机器学习模型提供了最佳的基础数据。但是,由于产生的数据量巨大,可能难以进行实时传输。在边缘端对聚合或预测性的实时数据进行预处理以后再传输,数据量就会大大减少。用户必须意识到,这种方法可能会导致过滤或掩盖信息,从而使偏见逐渐扩散到机器学习模型中。
    另一种选择是实时发送聚合或预测数据,并设置其它通道以较慢的速度发送原始数据。使用此方法的潜在缺点是,可能会填满通信队列。
    购买网络带宽和存储设备的经济成本,必须与可用的技术实用性相平衡,例如确定网络是否表现出足够的稳定性。这些最重要的因素将影响机器学习的部署位置:在边缘、在云端还是两者的结合。
    高级分析和异常检测
    现代HMI可以进行高级分析。世界上的许多数据都是流数据和时间序列数据,其中的异常数据提供了指示紧急情况的重要信息。有许多异常检测用例,包括预防性和预测性维护、故障检测和监视。
    异常通常定义为系统行为异常,且与过去行为完全不同的时间点。异常可能是空间异常,这意味着该值超出了典型范围;也可能是时间异常,尽管该值没有超出典型范围,但发生的顺序却不同。状态标签可以与异常关联,并可将其分类为时间或空间。报警系统还可以根据优先级、重要性和频率分配加权值以预测故障。
    任何现代HMI还必须在本地支持以有状态的方式发送和接收消息的机制,并确保远程设备数据是最新且有效的。MQTT和Kafka之类的协议可以确保状态通信,而Sparkplug B规范则处理状态管理。
    一旦进入云,就可以将数据聚合并与来自多个数据源的数据合并。该方法的价值在于,用户可以同时考虑多种运营或一整套设备,而不管其物理位置如何。基于云的过滤和分析模型,可用于完善数据以进行深度分析、预测行为和趋势,例如机器的平均故障间隔时间(MTBF)或使用寿命。然后,可以将该信息发送回部署在边缘的HMI中运行的机器学习模型,以改善其运营活动。
    让数据实现更多价值
    如果IDC的预测准确,则HMI的角色需要扩展以适应更庞大的数据量。 现代HMI可以将大量机器数据连接起来,从而实现:
    ●实时监控和分析这些数据;
    ●以连贯和用户友好的方式对其进行可视化;
    ●帮助用户做出明智的决策;
    ●以有用的方式存储数据,以便可以随意进行挖掘;
    ●克服妥协和限制。
    由于部署了更多的传感器,并且对机器的依赖持续增加, HMI也将被赋予新的角色。随着这些机器的关键特性和功能不断地扩展,HMI或将成为智能边缘的大脑。

     

     

相关报告
  • 《瑞萨电子推出面向AI加速与边缘计算的HMI系统MPU》

    • 来源专题:新一代信息技术
    • 编译者:张嘉璐
    • 发布时间:2025-08-05
    •    瑞萨电子(Renesas Electronics)宣布推出专为高性能人机界面(HMI)应用优化的新型64位RZ/G3E微处理器(MPU)。该处理器采用四核Arm Cortex-A55架构(最高主频1.8GHz)与神经网络处理单元(NPU)的组合设计,旨在实现支持AI推理的高性能边缘计算,提升本地处理速度与效率。    这款MPU具备全高清图形支持与高速连接能力,主要面向工业及消费领域的HMI系统,包括工厂设备、医疗监护仪、零售终端和楼宇自动化等应用场景。其核心配置包括四核Arm Cortex-A55、Cortex-M33内核以及专用于AI任务的Ethos-U55 NPU,该架构可高效运行图像分类、物体识别、语音识别和异常检测等AI应用,同时最大限度降低CPU负载。   作为HMI专用解决方案,该处理器支持在两块独立显示屏上以60fps流畅播放全高清(1920x1080)视频,输出接口涵盖LVDS(双链路)、MIPI-DSI和平行RGB,并配备MIPI-CSI摄像头接口以满足视频输入与传感应用需求。瑞萨嵌入式处理事业部副总裁Daryl Khoo表示:"RZ/G3E在RZ/G系列成熟性能基础上集成NPU以支持AI处理,通过采用与近期发布的RA8P1微控制器相同的Ethos-U55 NPU,我们正在扩展AI嵌入式处理器产品线,为AI开发提供可扩展路径。这些创新以强大的AI能力满足下一代HMI应用在视觉、语音和实时分析方面的需求。"   RZ/G3E配备了边缘设备必备的高速通信接口:包括最高8Gbps的PCI Express 3.0(2通道)、传输速率达10Gbps的USB 3.2 Gen2,以及双通道千兆以太网,可实现与云服务、存储设备和5G模块的无缝连接。从第三代RZ/G3S开始,该系列产品引入先进电源管理功能,待机功耗显著降低。在维持子CPU运行及外设功能的同时,可实现约50mW的低功耗运行,深度待机模式下功耗约1mW,并支持DDR自刷新模式保持内存数据,从而快速从深度待机状态唤醒运行Linux应用。    瑞萨持续提供基于民用基础设施平台(CIP)的验证Linux软件包(VLP)。针对需要最新版本的用户,公司还推出Linux BSP Plus方案,支持最新LTS Linux内核和Yocto。此外还可选用Canonical的Ubuntu和Debian开源操作系统构建服务器或桌面Linux环境。   瑞萨同步推出基于RZ/G3E的系统模块(SoM)解决方案,其生态系统合作伙伴也将提供多样化SoM产品,包括Tria的SMARC模块、ARIES Embedded的OSM(Size-M)规格模块以及MXT的OSM(Size-L)规格模块。RZ/G3E微处理器及评估套件现已上市,套件包含SMARC v2.1.1模块板与载板。
  • 《应对边缘人工智能推理带来的挑战》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-13
    •       GPU无处不在的图形处理单元,可以说是当今最重要的计算技术。它使人工智能处理成为可能,但代价不可持续,巨大的功耗加剧了这种情况。最初构想的统治软件工程的范式是由在传统计算架构上执行的一系列指令组成的,该架构被称为冯·诺伊曼体系结构CPU。这种持久的处理架构只能执行严格可编码的工作。它不能处理任务,如识别物体或乐谱,或写一篇文章。这些任务被称为预测性人工智能和生成性人工智能,可以通过大型语言模型(LLM)处理,这些模型需要在时钟周期内处理数千亿(如果不是数万亿)个参数,远远超出了CPU的领域。       今天,大模型学习和推理是在配备有尖端GPU阵列的数据中心进行的。虽然这种方法有效,但它会导致收购/运营成本飙升和电力消耗螺旋式上升,从而可能使电网不堪重负。边缘推理则不同,它有望服务于工业、商业、医疗、教育和娱乐等不同领域中最大的AI应用市场。       在边缘执行推理时,功耗、成本和延迟不容忽视。高性能、低延迟、低成本和低功耗是边缘推理的关键属性。GPU最初是用于图形并行处理的,在执行AI算法时,可提供的计算能力会下降。在ChatGPT-3的使用情况下,效率下降到个位数。GPU供应商通过增加大量设备来解决这一限制,但代价是数据中心AI处理的能耗呈指数级增长。瓶颈在于内存和处理单元之间的数据传输。从历史上看,内存技术的进步并没有跟上处理逻辑的进步。随着时间的推移,由于内存无法以处理器所需的速率提供数据,这种差距导致了可用处理能力的下降。大多数时候,计算单元会等待数据可用,并且随着处理能力的增加而恶化。处理单元的计算能力越高,为它们提供数据的瓶颈就越大,这就是 20 世纪 90 年代中期出现的内存墙。为了缓解这个问题,创建了一个存储器层次结构。底层是速度较慢的主存储器,顶部是处理单元旁边的寄存器。在两者之间,是一系列容量较小、速度较快的存储器层,用于加速数据传输。虽然寄存器能够以所需的速率向计算单元提供数据,但它们的数量通常限制在数百个或最多几千个,而如今需要数百万个。       现在就需要一种打破内存墙的创新架构。一种建议是将所有分层缓存折叠成紧密耦合内存(TCM),其外观和行为类似于寄存器。从处理单元的角度来看,可以在时钟周期内的任何时间访问任何位置的数据。192兆字节的TCM大约相当于15亿个单比特寄存器。通过寄存器传输级 (RTL) 设计流程实现 192 兆字节的寄存器将是艰巨的,构成了重大的挑战。相反,高抽象级别上的设计实现流程将大大缩短并加速加速器的部署。如果结合 192 千兆字节的板载高带宽内存 (HBM),单个设备可以在单个芯片上完全运行 GPT-3,使其成为高效的实现。在处理 LLM 时,它将达到 50% 到 55% 的效率,比 GPU 大一个数量级以上。外部存储器和计算单元之间的数据传输急剧减少可能导致功耗大幅下降,每千兆次浮点运算约50瓦。同时,与GPU相比,它将使执行延迟减少10倍以上。更为关键的是,架构不应该被硬编码。相反,它应该是完全可编程和高度可扩展的。人工智能应用算法几乎每周都在发展。更频繁的变化仅限于对算法的性能、延迟、功耗等属性的微调,这些属性对成本有影响。定期地,全新的算法结构会淘汰旧版本。新的加速器架构应该能够适应上述所有方面,并允许在该领域进行更新和升级。这种完全可编程的方法还应该支持在逐层的基础上自动进行从4位到64位的整数或浮点数可配置计算量化,以适应广泛的应用。权值和数据的稀疏性也应该得到即时支持。从部署的角度来看,加速器可以作为主处理器的配套芯片,在用户可见的方案中运行。算法工程师可以像在主处理器上运行一样编写他们的算法,让编译器将加速器上运行的代码与主处理器上运行的代码分开。这种方法将简化和简化加速器的部署和使用模型。与在低级别运行的GPU驱动的数据流不同,这种想象中的架构中的数据流将在算法级别工作,通过使用MATLAB代码和图形进行读取,并在本地执行。这可能吗?可能像这样的设备比最先进的基于GPU的加速器快5到10倍,同时消耗其功率的一小部分,并具有显着较低的延迟,满足边缘AI推理的需求。毫无疑问,这将简化部署和使用,吸引大量科学家和工程师。