CVPR 2021丨一个新的深度学习模型,将图像分割带到边缘设备

作者: Ben Dickson

来源: 数据实战派

发布日期: 2021-05-21

DarwinAI和滑铁卢大学的人工智能研究人员设计了一种新的神经网络架构AttendSeg,该架构能够在低功耗、低算力计算设备上执行图像分割任务,解决了边缘设备上图像分割的挑战。AttendSeg在CVPR 2021上被详细介绍,其特点是低精度、高度紧凑,能够在资源有限的设备上运行,且性能接近最优。该研究利用了注意力机制和机器驱动的设计技术,旨在优化神经网络的性能和效率,使其适合于各种边缘设备和应用场景。

CVPR 2021丨一个新的深度学习模型,将图像分割带到边缘设备

由DarwinAI和滑铁卢大学的人工智能研究人员设计的一种新的神经网络架构,将使低功耗、低算力计算设备执行图像分割任务成为可能。图像分割是确定图像中目标物体的边界和区域的过程。人类可以毫不费力地进行图像分割,但对机器学习系统来说,这仍然是一个关键挑战。图像分割对移动机器人、自动驾驶汽车和其他必须与现实世界互动的人工智能系统至关重要。

此前的难题是,图像分割还需要大型的、计算密集型神经网络。这使得在没有云服务器连接的情况下很难运行这些深度学习模型。

在最新的研究成果中,DarwinAI和滑铁卢大学的科学家们已经成功地创建了一个神经网络,它提供了图像分割的近乎最优解,并且足够小,适合资源有限的设备。这个名为AttendSeg的神经网络在论文中有详细介绍,该论文已被计算机视觉领域的顶会CVPR 2021录用。

人们对机器学习系统越来越感兴趣的一个关键原因是它们可以解决计算机视觉中的问题。机器学习在计算机视觉中的一些最常见的应用包括图像分类、目标检测和图像分割等。图像分类决定了某一类型的对象是否存在于图像中。目标检测是进一步的图像分类,并提供被检测目标所在的边界框。图像分割有两种方式:语义分割和实例分割。语义分割把图像中每个像素赋予一个类别标签(比如汽车、人、建筑、地面、天空、树等)。

实例分割将每种类型对象的各个实例分开。在实际应用中,分割网络的输出通常用着色像素表示。图像分割是迄今为止最复杂的分类任务类型。

卷积神经网络(CNN)是计算机视觉任务中常用的深度学习架构,其复杂性通常用其内部参数数量来衡量。神经网络的参数越多,它需要的内存和计算能力就越大。RefineNet是一种流行的语义分割神经网络,包含超过8500万个参数。

其中,每个参数4字节,这意味着使用RefineNet至少需要340兆字节(兆字节=2²⁰字节)的内存才能运行神经网络。神经网络的性能在很大程度上取决于可以执行快速矩阵乘法的硬件,也就是说,必须将模型加载到显卡或某些其他并行计算单元上,而这些并行计算单元的内存比计算机的RAM更为稀缺。

由于其硬件要求,大多数图像分割应用程序都需要网络连接将图像发送到可以运行大型深度学习模型的云服务器才能运行。

因此,云连接可能会限制图像分割算法的使用场景。例如,如果无人驾驶飞机或机器人将在没有互联网连接的环境中运行,那么图像分割将成为一项艰巨的任务。在其他领域,人工智能不得不在敏感环境中工作,将图像发送到云服务器将受到隐私和安全性约束。在机器学习模型需要实时响应的应用程序中,由往返于云服务器造成的延迟也是一个难题。

还有一点需要重视的是,网络硬件本身会消耗大量电能,而向云服务器发送恒定的图像流可能会增加电池负担。综合所有这些原因,边缘AI和微型机器学习模型(TinyML)成为学术界和应用AI领域的关注热点和研究热点。微型机器学习模型的目标是创建可以在内存和功耗受限的设备上运行而无需连接到云服务器的机器学习模型。

通过AttendSeg,DarwinAI和滑铁卢大学的研究人员试图解决边缘设备上的语义分割挑战。

这篇论文将AttendSeg描述为一个为微型机器学习模型应用量身定制的低精度、高度紧凑的深层语义分割网络。AttendSeg深度学习模型执行语义分割的精确度几乎与RefineNet相当,同时将参数数量减少到119万个。研究人员还发现,将参数的精度从32位(4字节)降低到8位(1字节)不会导致显著的性能损失,同时使他们能够将AttendSeg的内存占用空间缩小四倍。

该模型需要的内存仅略高于1兆字节,这足以适合大多数边缘设备。

AttendSeg利用“注意力冷凝器”(Attention condensers)来缩小模型尺寸而不影响性能。Attention机制是通过关注重要信息来提高神经网络效率的一系列机制。自我关注技术已经成为自然语言处理领域的福音。它们是Transformers深度学习架构成功的决定性因素。

虽然之前的架构(如递归神经网络)对长序列数据的能力有限,Transformers使用自我注意机制来扩大其范围。深度学习模型,如GPT-3,利用Transformers和自我注意机制,输出长串的文本,并在长时间内保持连贯性。人工智能研究人员还利用Attention机制来提高卷积神经网络的性能。

去年,Wong和他的同事引入了“注意力冷凝器”作为一种资源高效的注意力机制,并将其应用于图像分类器机器学习模型。

设计TinyML神经网络的关键挑战之一是找到性能最佳的体系结构,同时又要符合目标设备的计算预算。为了解决这一挑战,研究人员使用了“生成合成”技术,这是一种机器学习技术,可以基于特定的目标和约束创建神经网络架构。

基本上,研究人员为机器学习模型提供了一个问题空间,让它发现最佳组合,而不是手动摆弄各种配置和架构。在实验中,研究人员使用机器驱动的设计为Nvidia Jetson调试优化AttendSeg。Nvidia Jetson是机器人和边缘人工智能应用程序的硬件套件,但是AttendSeg不仅限于Jetson。AttendSeg在自动驾驶无人机,机器人和车辆等方面具有明显的应用,其中语义分割是导航的关键。

设备上的语义分割可以有更多的应用。这种高度紧凑,高效的语义分割神经网络可以用于各种各样的场景,包括制造(零件检查/质量评估,机器人控制)、医疗应用(细胞分析,肿瘤识别),卫星遥感应用(土地覆盖物识别)和移动应用(用于增强现实)。

UUID: b4cd39be-566e-49ad-ab17-6407d32cb2fe

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2021年/2021-05-21_CVPR2021丨一个新的深度学习模型,将图像分割带到边缘设备.txt

是否为广告: 否

处理费用: 0.0054 元