筑波大学的研究人员开发了一种新的算法,可以自动识别每种方法的最佳比例。该算法有望降低人工智能技术的功耗,并有助于半导体的小型化。研究人员在整数量化、网络精简和深度压缩序列中应用了三种传统的约简技术,提出了一种新的卷积神经网络模型启发式压缩方法。该方法通过迭代裕度计算,自主地找到网络模型的最小尺寸。[来源:IEEE Access(2024)。DOI:10.1010/ACCESS.2024.3399541]
用于图像识别的人工智能技术具有模仿人类视觉和大脑神经元的结构。有三种已知的方法可以减少计算和计算视觉和神经元成分所需的数据量。到目前为止,这些方法的应用比例是通过试错确定的。
卷积神经网络(CNNs)在机场移民的面部识别和自动驾驶汽车的物体检测等应用中发挥着关键作用。细胞神经网络由卷积层和全连接层组成;前者模拟人类视觉,而后者使大脑能够从视觉数据中推断出图像的类型。通过减少计算中使用的数据位数,细胞神经网络可以保持识别精度,同时大大减少计算需求。这种效率允许支持硬件更加紧凑。
到目前为止,已经确定了三种减少方法:网络精简(NS)以最小化视觉分量,深度压缩(DC)以减少神经元分量,以及整数量化(IQ)以减少使用的比特数。以前,对于这些方法的实施或分配顺序没有明确的指导方针。发表在IEEE Access上的这项新研究确定,这些方法中使数据量最小化的最佳顺序是IQ,其次是NS和DC。此外,研究人员还创建了一种算法,可以自主确定每种方法的应用比例,消除了反复试验的必要性。该算法使CNN能够被压缩到比以前的模型小28倍、快76倍。
这项研究的意义是通过显著降低计算复杂性、功耗和人工智能半导体设备的尺寸来改变人工智能图像识别技术。这一突破可能会增强部署先进人工智能系统的广泛可行性。