基于改进YOLOv5s的轻量化布匹瑕疵检测算法

2024-01-01 00:00:00邹宏睿任佳潘海鹏周传辉
浙江理工大学学报 2024年5期
关键词:注意力机制实时性高精度

摘 要: 针对纺织生产中布匹瑕疵检测高精度、实时性的需求,提出了一种基于改进YOLOv5s的轻量化布匹瑕疵检测算法(GhostNet-CBAM-Partial convolution-YOLOv5s, GCP-YOLOv5s)。该算法首先引入GhostNet中的GhostConv模块,对原主干网络进行优化重构,大幅减少网络参数;其次,在主干特征提取网络中加入CBAM(Convolutional block attention module)注意力机制,增加网络的特征提取能力;最后,设计了基于Partial convolution的改进C3模块(C3-Partial convolution, C3-P),在降低模型参数量的同时提高特征融合能力。在自建布匹瑕疵数据集上进行了对比测试,结果表明:与基准模型YOLOv5s相比,GCP-YOLOv5s的参数量降低了41.6%,计算量降低了43.1%,检测速度提高了12 FPS,检测精度提升了1.7%。GCP-YOLOv5s算法在保证模型轻量化的同时具有较高的检测精度,可以满足布匹瑕疵检测的高精度和实时性要求。

关键词: 布匹瑕疵检测;YOLOv5s;GhostNet;注意力机制;高精度;实时性

中图分类号: TP183

文献标志码: A

文章编号: 1673-3851 (2024) 05-0389-10

引文格式:邹宏睿,任佳,潘海鹏,等. 基于改进YOLOv5s的轻量化布匹瑕疵检测算法[J]. 浙江理工大学学报(自然科学),2024,51(3):389-398.

Reference Format: ZOU Hongrui, REN Jia, PAN Haipeng, et al. A lightweight fabric defect detection algorithm based on improved YOLOv5s[J]. Journal of Zhejiang Sci-Tech University,2024,51(3):389-398.

A lightweight fabric defect detection algorithm based on improved YOLOv5s

ZOU Hongrui1, REN Jia1,2, PAN Haipeng1,2, ZHOU Chuanhui1

(1.School of Information Science and Engineering, Zhejiang Sci-Tech University, Hangzhou 310018, China; 2.Zhejiang Sci-Tech University Changshan Research Institute Co., Ltd., Quzhou 324299, China)

Abstract:" A lightweight fabric defect detection algorithm, GhostNet-CBAM-Partial convolution-YOLOv5s (GCP-YOLOv5s) based on improved YOLOv5s was proposed to meet the high-precision and real-time requirements of fabric defect detection in textile production. Firstly, this algorithm introduced the GhostConv module in GhostNet to optimize and reconstruct the original backbone network, significantly reducing network parameters. Secondly, CBAM (convolutional block attention module) attention mechanism was incorporated into the backbone network to increase its feature extraction capability. Finally, an improved C3 module C3-P (C3-Partial convolotion) module based on Partial convolution was designed to reduce the number of model parameters while improving the feature fusion capability. Comparative tests were conducted on a dataset of self-built fabric defects on site, and the results showed that compared with the benchmark model YOLOv5s, the parameters and computational complexity of GCP-YOLOv5s were reduced by 41.6% and 43.1%, respectively, while the detection speed and detection accuracy were increased by 12 FPS and 1.7%, respectively. The GCP-YOLOv5s algorithm has high detection accuracy while ensuring model lightweighting, meeting the requirements of high precision and real-time performance in fabric defect detection at the same time.

Key words: fabric defect detection; YOLOv5s; GhostNet; attention mechanism; high-precision; real-time

0 引 言

布匹瑕疵检测在纺织生产的质量控制中起着至关重要的作用。布匹瑕疵检测主要包括规格尺寸、疵点、色差等内容,通过瑕疵检测可以及时发现并解决生产过程中的质量问题。目前,大部分纺织企业采用人工检测的方式进行布匹瑕疵检测,但该方法成本高、准确率低并且效率低下。部分纺织企业采用传统机器视觉的方式进行布匹瑕疵检测,通过阈值分割、形态学等图像处理方法对布匹图像进行瑕疵检测,但是这些方法对图像的质量有较高要求,在布匹瑕疵与图像背景对比度低等情况下检测效果差,并且算法的参数设置依赖专家经验,难以迁移近年来,随着深度学习算法的发展,布匹瑕疵检测逐渐向自动化、智能化发展。深度学习算法在计算复杂度、检测精度等方面较传统机器视觉方法有着显著优势,可以实现布匹瑕疵的实时检测。

基于深度学习的布匹瑕疵检测算法,根据训练数据是否带有标签信息可以分为有监督学习[1]、半监督学习[2]、无监督学习[3]三类。布匹瑕疵检测的目标主要是找出布匹中瑕疵的位置,并将其正确分类,因此可以将其视为目标检测任务。目标检测任务相关算法可以按照候选区域的处理方式分为单阶段和双阶段两大类,其中:单阶段算法的代表有SSD(Single shot multibox detector)[4]和YOLO(You only look once)[5],双阶段算法的典型代表为Faster R-CNN(Faster region-cnn)[6]。YOLO系列算法作为单阶段检测的代表算法,将特征提取、目标分类和位置回归任务进行合并,具有参数量小、检测精度高、检测速度快的优点。

布匹瑕疵检测任务是特殊的目标检测任务,具有数据集样本不均衡、瑕疵目标占比小、瑕疵种类多样以及精度、实时性要求等特点,往往需要结合其任务特点来设计算法。针对布匹瑕疵数据集中类别数量不均衡的问题,蔡兆信等[7]改进了RPN(Region proposal network)网络中anchors(锚框)的大小和数量,提高了瑕疵检测的准确率;该方法的不足之处在于锚框数量难以确定,并且在锚框数量过多时检测的速度较慢。针对网络参数量大的问题,Zhou等[8]使用了CARAFE轻量化上采样技术,减少了特征融合网络的参数。针对瑕疵样本不足的问题,Liu等[9]使用GAN(Generative adversarial network)网络来生成瑕疵图像,进行训练样本扩充;这种方法可以有效增加样本图像数量,但是也带来了训练时间过长的问题。针对小瑕疵难以检测的问题,李辉等[10]提出一种双路高分辨率转换网络算法,利用双路高分辨率特征提取方法来消除背景的噪声干扰,提高了小瑕疵的检测准确率,以满足布匹瑕疵检测中高准确率的要求;但是该算法检测速度慢,难以满足实时性要求,不能在嵌入式设备上进行部署。

尽管基于深度学习的布匹瑕疵检测方法已经取得了大量的成果,但这些方法普遍存在计算复杂度高、耗时长等问题,在实际应用时存在一定的局限性[11],如布匹瑕疵检测不及时、布匹瑕疵定位不精准等。难以满足布匹瑕疵检测的高精度和实时性要求,也不适合在嵌入式和移动设备中进行部署。随着MobileNet[12-13]、ShuffleNet[14-15]、GhostNet[16-17]等轻量化网络的提出,兼顾检测精度和实时性的深度学习算法成为了新的研究方向。

为了实现布匹瑕疵的高精度和实时检测,本文提出了一种基于YOLOv5s的轻量化布匹瑕疵检测算法(GhostNet-CBAM-Partial convolution-YOLOv5s, GCP-YOLOv5s)。该算法首先引入GhostNet来实现主干特征提取网络的轻量化;然后添加CBAM(Convolutional block attention module)注意力机制来增强主干网络的特征提取能力;最后设计了一种基于Partial convolution的改进C3模块C3-P(C3-Partial convolution),在降低模型参数量的同时提高特征融合能力。本文在课题组采集的布匹瑕疵数据集上进行了实验,以验证该算法的有效性。

1 YOLOv5算法介绍

YOLOv5是YOLO系列发展至今的第5代检测算法,它在更加轻量化的同时实现了更高的检测精度。根据网络的深度和宽度,YOLOv5有4个主要版本,分别为YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x;这4个版本的检测精度与模型大小依次提升,本文选用最轻量化的YOLOv5s作为基准模型。

YOLOv5s主要由Backbone(主干)、Neck(颈部)、Head(头部)3部分组成,其结构如图1所示。

Backbone部分由CBS模块和C3模块组成,其功能是进行充分的特征提取[18]。Neck部分由特征金字塔网络(Feature pyramid networks,FPN)和路径聚合网络(Path aggregation network, PAN)[19]组成,其功能是实现多尺度特征的融合,FPN自上而下地将深层特征图的语义信息传递给浅层,PAN则自下而上地将浅层特征图的位置信息传递给深层[20]。Head部分由3个检测器组成,其功能是完成物体位置和类别的检测[21]。

2 GCP-YOLOv5s算法设计

本文的主要工作是对YOLOv5s的网络结构做出改进。GCP-YOLOv5s在YOLOv5s的基础上,通过GhostNet网络来实现模型的轻量化;引入CBAM注意力机制,增强主干网络的特征提取能力;设计基于Partial convolution的改进C3模块,在降低模型参数量的同时提高特征提取能力。

GCP-YOLOv5s的网络结构如图2所示,由Backbone、Neck、Head 3部分组成。

Backbone部分由GhostCBS模块和C3Ghost模块组成,实现了主干网络的大幅轻量化;同时在主干网络尾部添加CBAM注意力机制,增加主干网络的特征提取能力。Neck部分由特征金字塔网络和路径聚合网络组成,使用Partial convolution改进Bottleneck结构,提出C3-P模块,在降低模型参数量的同时提高了模型的特征融合能力。Head部分由3个检测器组成,其功能是完成物体位置和类别的检测。下面分别进行阐述。

2.1 轻量化Ghost主干特征提取网络

本文以YOLOv5s为基准网络,为了实现主干网络的轻量化,引入Ghost模块对其主干网络进行重构。普通卷积和Ghost卷积操作示意图如图3所示,其中:Conv表示卷积操作;Identity表示恒等映射;Φ1, Φ2, …, Φk表示线性变换。

由图3可知:普通卷积获得的特征层内存在一定程度的冗余,部分特征图的特征信息较为相似;Ghost卷积使用简单的操作生成部分特征图,在几乎不影响检测精度的情况下,能有效减少模型的参数量和计算量。Ghost卷积模块首先通过常规卷积获取一般特征图,然后对一般特征图中的每一个通道进行线性运算,以此来获得同等通道数的简单特征图。这些经过线性运算得到的简单特征图就是常规卷积中相似的冗余特征图。最后,将一般特征图和简单特征图在通道维度进行堆叠,得到最终的输出特征图。

具体计算过程描述如下:假设输入特征图的尺寸为h×w×c,使用卷积核为k×k的卷积块,产生尺寸为h′×w′×n的输出特征图,其中:h、w、c分别是输入特征图的高、宽和通道数,k为卷积核尺寸,h′、w′、n分别是输出特征图的高、宽和通道数。

使用普通卷积进行一次特征提取所需要的运算量pnormal如下:

pnormal=n×h′×w′×c×k×k(1)

Ghost卷积的计算过程如下:先使用普通卷积生成特征图,其通道数n=c/2;再对特征图中的通道进行简单的线性运算增加通道数:

yij=j(yi′),i=1,…,m,j=1,…,s(2)

其中:s代表线性运算的次数,yi′代表第i个一般特征图,j代表对一般特征图进行第j个线性变换得到的简单特征图。对m个特征图进行s次线性运算可以获得的相似特征图数量为m×s个,为了使输出通道和原输出特征通道相同,取前n个相似特征图作为最后的输出结果。

使用Ghost卷积进行一次特征提取所需要的运算量pGhost如下:

pGhost=ns×h′×w′×k×k×c+(s-1)×ns×h′×w′×k×k(3)

普通卷积和Ghost卷积的参数量之比和计算量之比见式(4)—(5):

rp=n·h′×w′×c×k×kns×h′×w′×k×k×c+(s-1)×ns×h′×w′×k×k=c×k×k1s×c×k×k+s-1s×d×d≈s×cs+c-1≈s(4)

rc=n×c×k×kns×c×k×k+(s-1)×ns×d×d≈s×cs+c-1≈s(5)

其中:rp为普通卷积和Ghost卷积的参数量之比,rc为普通卷积和Ghost卷积的计算量之比。

由于Ghost卷积利用了特征图冗余信息,所以其参数量和计算量相比普通卷积都有着大幅度下降,更适合部署在嵌入式设备之中。在YOLOv5s的主干特征提取网络中,CBS模块由普通卷积、批正则化、Silu激活函数组合而成。将其中的普通卷积模块替换为Ghost卷积,得到由Ghost卷积、批正则化、Silu激活函数组成GhostCBS模块。为了避免主干网络特征提取能力的过度下降,本文保留主干网络中的第一个CBS模块,将其他CBS模块替换为GhostCBS模块。

由于主干特征提取网络中的C3模块包含多个卷积操作,参数量和计算量较大,本文考虑对其进行轻量化改进。为了在不影响主干网络的特征提取能力,将C3模块内Bottleneck结构中的卷积操作替换为Ghost卷积,C3模块内其余卷积操作保持不变。将改进后的C3模块命名为C3Ghost模块。

2.2 CBAM注意力机制模块

CBAM注意力机制模块包含通道注意力和空间注意力:通道注意力用于增强网络对图像特征的提取能力,空间注意力用于增强网络对目标的聚焦能力,二者结合可有效淡化无用信息,增强模型鲁棒性和检测准确率。本文采用串联形式的CBAM模块,其结构如图4所示,其中:图4(a)是CBAM注意力机制的整体结构图,图4(b)是图4(a)中通道注意力机制的结构图,图4(c)是图4(a)中空间注意力机制的结构图。

通道注意力模块关注特征图中的重要信息,计算流程如下:

Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))

=σ(W1(W0(Fcavg))+W1(W0(Fcmax)))(6)

其中:F为原始特征图;Mc(F)为输出的通道注意力值;σ为Sigmoid函数;W0和W1为权重参数;Fcavg为平均池化特征;Fcmax为最大池化特征。

将通道注意力模块的输出值输入到空间注意力模块之中,空间注意力模块的计算流程如下:

Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))

=σ(f7×7([Fsavg;Fsmax]))(7)

其中:Ms(F)为输出的空间注意力值;f7×7是卷积核尺寸为7×7的卷积运算;Fsavg为平均池化特征;Fsmax为最大池化特征。

考虑到注意力机制模块利用了空间和通道维度的信息,在只增加了少量计算量的情况下,可以有效地提高网络的特征提取能力,本文选择将CBAM注意力机制模块放在主干特征提取网络的SPPF模块之后,利用注意力机制来增强主干特征提取网络的特征提取能力。

2.3 基于Partial Convolution的改进Bottleneck结构

Ghost模块考虑到特征之间的相关性和冗余性,舍弃了部分常规卷积操作,使用简单操作来获得冗余特征图。受Ghost模块的启发,本文引入一种更轻量化的卷积模块Partial convolution(PConv)。对于连续或者规则的内容访问,PConv将第一个或者最后一个连续的通道视为整个特征图的代表,并只对少数几个通道应用滤波器,其余的通道则保持不变。一般情况而言,输入和输出拥有相同数量的通道。PConv只需要在输入通道的一部分上应用常规卷积进行空间特征提取,并保持其余通道不变,即可生成与输入拥有相同通道的输出。因此,PConv可以减少冗余计算以及内存访问,它拥有比常规卷积更低的浮点运算数(floating-point operations, FLOPs)以及比深度可分离卷积更高的每秒浮点运算数(floating-point operations per second, FLOPS)。PConv和普通卷积、深度可分离卷积的操作示意图如图5所示。

在原YOLOv5s模型中,C3模块由三个卷积模块和Bottleneck结构组成,其主要功能是增加网络的深度和感受野,通过Bottleneck引入残差结构,降低模型的优化难度。Bottleneck结构的核心思想是使用多个小卷积来替代大的卷积,从而达到降低参数量的目的。在原始的C3模块中,Bottleneck由1×1卷积和3×3卷积组成,通过1×1卷积来降低通道数,再使用3×3卷积进行下采样。与此同时,使用Shortcut操作将输入和输出连接起来。

PConv和GhostConv相比,参数量、计算消耗更小,但其特征提取能力因此也有所下降。在主干网络中,考虑到模型需要更充分地进行提取特征,故选择了参数量稍大的GhostConv。主干网络中使用的C3Ghost模块结构示意图如图6所示。在特征融合阶段,为了进一步加快模型的推理速度,在保证特征融合能力的情况下利用冗余信息减少计算量,本文选择了更轻量化的PConv,将C3模块内Bottleneck结构中的卷积操作替换为PConv,C3模块内其余卷积操作保持不变。将改进后的C3模块命名为C3-P,其结构示意图如图6所示。由于Bottleneck结构是由多个相同模块串行连接而成,PConv中未参与卷积的通道会在其他的相同模块中参与卷积,从而缓解了单独使用PConv所带来的特征提取不充分的现象。

3 实验结果及分析

本文的实验环境配置如下:操作系统 Windows11(64位),CPU 11th Gen Intel(R)Core(TM)i5-11400H,显卡为RTX3060,运行内存16 GiB,软件运行环境为Pycharm。

模型参数设置如下:初始学习率为0.01,动量设置为0.937,使用随机梯度下降法(SGD)进行优化,batch_size设置为16,epoch设置为300。

3.1 数据集介绍

本文数据集采集自某纺织生产企业,数据集图像由面阵CCD相机拍摄而成。为了实现布匹瑕疵的实时监测,将相机设置于出布口,采集图像为3072×96像素。由于现场实际采集到的图像为3072×96像素的极端尺寸,直接处理会丢失经向瑕疵特征信息,因此将采集到的瑕疵图像切割成96×96像素的图像后再用于训练。图像在切割之后使用LabelImg标注并制作数据集,数据集中含有毛纬、带纬、白档子、曲纡、双经和断经共6种类型的瑕疵图以及正常图像样本。考虑到布匹由经线和纬线两组线组纺织而成,为了进行机器故障的定位,将瑕疵样本按照瑕疵产生的原因分别标注为“jing”和“wei”两类,瑕疵样本以及标注类别示例图像如图7所示。在经过旋转、噪声、调节亮度等数据增强方法扩充样本数量后,数据集中共含有图像样本1356张,其中训练集1220张,测试集136张。在线检测时,把待检测的采样图像按顺序切分成32张96×96像素的图像,如果模型的检测速度大于32 FPS,即可满足布匹瑕疵的实时检测需求。

3.2 评价指标

本文选用的算法评价指标有参数量、浮点计算量(FLOPs)、查准率(Precision)、查全率(Recall)、平均精度(Average precision, AP)、平均精度均值(Mean average precision, mAP)、每秒传输帧数(Frames per second, FPS)、检出率和误检率,其公式分别如式(8)— (12)所示:

Pmis=1-Pp=1-TPTP+FP(8)

其中:Pmis为误检率,表示模型检测为正样本但是检测错误的目标数占正样本的比例;Pp表示查准率,即所有预测为正样本中,实际有多少样本是正样本的比例;TP为模型预测正确的正确样本数;FP为模型预测错误的正确样本数。

Ptrue=Pr=TPTP+FN(9)

其中:Ptrue为检出率,表示模型正确检测出的目标数占总目标数的比例;Pr表示查全率,即所标注为正样本中被正确检测为正样本的比例;FN为模型预测错误的错误样本数。

SAP=∫10P(R)dR(10)

其中:SAP为召回率和准确率曲线下的面积。

PmA=∑Ni=1SAPiN(11)

其中:PmA为所有类别的SAP均值,N为检测的总次数。

FPS=1tinf+tNMS(12)

其中:FPS表示每秒检测帧数,tinf表示模型的推理时间,tNMS表示模型进行非极大值运算的时间。

3.3 实验结果及分析

3.3.1 不同输入尺寸的对比实验

由于数据集中的瑕疵在整幅图像中的占比小,卷积过程中容易造成瑕疵特征信息丢失或失真,因此考虑对图像进行等比例放大再进行输入。本文使用双线性插值的方法进行图像等比放大,再放大图像时,目标像素的值是通过源图像中4个最近邻像素点的值进行加权和计算而来。为了探究不同的图像输入尺寸对瑕疵检测造成影响,本文设计了不同输入图像尺寸的检测效果对照实验,结果如表1所示,选取每秒检测帧数FPS、Pmis、Ptrue、PmA@0.5、PmA@0.50-0.95作为评价指标。

根据表1实验结果可以看出,当在输入图像尺寸在640像素点之内时,检测效果随输入尺寸变大而提高。输入尺寸大于640像素点时,检测效果的提升不明显,但是模型的预测时间增加,会导致每秒检测帧数的下降。为了平衡精度与计算成本,本文选择将数据集中的图像等比例放大至640×640像素作为模型的输入。

3.3.2 CBAM注意力机制加入位置的对比实验

CBAM注意力机制模块作为一种即插即用的模块,可以添加在YOLOv5s网络中的主干特征提取网络、特征融合网络以及检测头之中。因此,为了选择CBAM注意力机制模块在YOLOv5s网络中合适的加入位置,分别选取Pmis、Ptrue、PmA@0.5、PmA@0.50-0.95作为评价指标进行了对照实验,其结果如表2所示。

由表2可知,CBAM注意力机制添加在主干特征提取网络中时,误检率降低、检出率提高,同时检测精度维持不变。当CBAM注意力机制添加在特征融合网络以及检测头中时,误检率降低、检出率提高,但是检测精度有所下降。因此,本文选择将CBAM注意力机制添加在主干特征提取网络之中。

考虑到轻量化主干网络降低了参数量,可能会弱化特征提取能力,本文选择将CBAM注意力机制模块添加到主干特征提取网络的末端,以补偿模型轻量化可能带来的特征提取能力损失。

3.3.3 不同注意力机制的对比实验

为了衡量CBAM注意力机制对于主干网络特征提取能力的提升效果,分别选取参数量、Pmis、Ptrue、PmA@0.5、PmA@0.50-0.95作为评价指标,并将SE注意力机制(Squeeze-and-excitation attention)、CA注意力机制(Coordinate attention)、CBAM注意力机制分别与GhostConv-YOLOv5s相结合,检测结果如表3所示。

由表3可知,CBAM和SE注意力机制虽然少量增加了模型的参数量,但是提升了主干网络的特征提取能力,查准率、查全率、PmA@0.50-0.95得到提升,本文选择在主干网络中使用表现更佳的CBAM注意力机制。

3.3.4 横向对比实验和消融试验

本文在测试样本中进行消融实验和对比实验,进一步测试所提方案的性能,实验结果分别如表4—表5。

表4给出了在相同测试集下,本文算法同7种主流目标检测算法的对比测试结果。通过分析表4可知,本文提出的GCP-YOLOv5s模型在保证检测精度的同时,降低了模型的参数量和浮点计算量,提高了每秒检测帧数。

表5展示了本文算法的消融实验对比结果。对比YOLOv5s和G-YOLOv5s可知:在更换主干网络之后,模型的参数量下降,同时PmA也有所下降。对比G-YOLOv5s和GC-YOLOv5s可知:在使用了注意力机制后,模型的参数量略微上升,PmA@0.50-0.95提升了1.5%,在少量增加参数的情况下,使主干网络的特征提取能力得到提升。对比GC-YOLOv5s和GCP-YOLOv5s可知:在使用PConv改进了C3模块之后,模型的参数量下降了19.9%,PmA@0.5提高了0.3%,PmA@0.50-0.95提高了0.1%,Neck部分在更少的参数下得到了更强的特征融合能力。对比YOLOv5s和GCP-YOLOv5s的参数量、FLOPs、FPS、PmA@0.5和PmA@0.50-0.95可知:本文算法相比基准模型参数量下降了41.6%,计算量下降了43.1%,检测速度提高了12 FPS,PmA@0.5结果相同,PmA@0.50-0.95提高了1.7%。由此可见,本文改进算法在更少参数量、计算量的情况下,实现了更高的检测精度和更快的检测速度。

YOLOv5s(基准模型)和GCP-YOLOv5s对实验数据集的检测结果的示例图像如图8所示,其评价指标见表4。对比图8(a)和图8(b)的图像1可知,基准模型有一处误检,而本文方法未出现误检;对比图8(a)和图8(b)的图像2可知,基准模型有一处漏检,而本文方法未出现漏检。对比图8(a)和图8(b)的图像3可知,本文方法的定位比基准模型更准确。从图8和表4可知,本文提出的改进算法在降低了误检率的同时提高了检测率。

4 结 论

本文基于基准模型YOLOv5s,通过引入Ghost卷积重构主干特征提取网络,添加CBAM注意力机制增强主干网络特征提取能力,使用PConv将C3模块重构为C3-P模块,设计了一种基于YOLOv5s的改进轻量化布匹瑕疵检测算法GCP-YOLOv5s。在自建数据集中的实验结果显示,相较于基准模型YOLOv5s,本文所提GCP-YOLOv5s算法参数量下降了41.6%,计算量下降了43.1%,检测速度提高了12FPS,检测精度提高了1.7%。相比于其他主流目标检测算法,GCP-YOLOv5s在检测速度更快、模型参数量更小的同时保持了较高的检测精度。本文所提算法可以满足实际工业现场的应用需求,具有较好的推广性。

参考文献:

[1]时造雄, 茅正冲. 基于改进Yolov5的花色布匹瑕疵检测方法[J]. 计算机测量与控制, 2023, 31(4): 56-62.

[2]许玉格, 钟铭, 吴宗泽, 等. 基于深度学习的纹理布匹瑕疵检测方法[J]. 自动化学报, 2023, 49(4): 857-871.

[3]俞文静, 刘航, 李梓瑞, 等. 基于图像增强和CNN的布匹瑕疵检测算法[J]. 计算机技术与发展, 2021, 31(5): 90-95.

[4]Jia D Y, Zhou J L, Zhang C W. Detection of cervical cells based on improved SSD network[J]. Multimedia Tools and Applications, 2022, 81(10): 13371-13387.

[5]Diwan T, Anirudh G, Tembhurne J V. Object detection using YOLO: Challenges, architectural successors, datasets and applications[J]. Multimedia Tools and Applications, 2023, 82(6): 9243-9275.

[6]Sharma V K, Mir R N. Saliency guided faster-RCNN (SGFr-RCNN)model for object detection and recognition[J]. Journal of King Saud University-Computer and Information Sciences, 2022, 34(5): 1687-1699.

[7]蔡兆信, 李瑞新, 戴逸丹, 等. 基于Faster RCNN的布匹瑕疵识别系统[J]. 计算机系统应用, 2021, 30(2): 83-88.

[8]Zhou S, Zhao J, Shi Y S, et al. Research on improving YOLOv5s algorithm for fabric defect detection[J]. International Journal of Clothing Science and Technology, 2023, 35(1): 88-106.

[9]Liu J H, Wang C Y, Su H, et al. Multistage GAN for fabric defect detection[J]. IEEE Transactions on Image Processing, 2019, 29: 3388-3400.

[10]李辉, 吕祥聪, 申贝贝,等. 双路高分辨率转换网络的花色布匹瑕疵检测[J]. 计算机工程与设计, 2023, 44(9): 2731-2739.

[11]倪欣, 任佳. 基于高分辨率网络和自注意力机制的歌声分离算法[J]. 浙江理工大学学报(自然科学版), 2022, 47(3): 405-412.

[12]黄裕凯, 王青旺, 沈韬, 等. 基于MobileNet的多尺度感受野特征融合算法[J]. 激光与光电子学进展, 2023, 60(4): 280-288.

[13]任宇杰, 杨剑, 刘方涛, 等. 基于SSD和MobileNet网络的目标检测方法的研究[J]. 计算机科学与探索, 2019, 13(11): 1881-1893.

[14]Chen Z C, Yang J, Chen L F, et al. Garbage classification system based on improved ShuffleNet v2[J]. Resources, Conservation and Recycling, 2022, 178: 106090.

[15]胡斌汉,李曙. 基于改进ShuffleNetV2的轻量级花色布匹瑕疵检测[J]. 计算机系统应用, 2023, 32(4): 161-169.

[16]Cao M L, Fu H, Zhu J Y, et al. Lightweight tea bud recognition network integrating GhostNet and YOLOv5[J]. Mathematical Biosciences and Engineering: MBE, 2022, 19(12): 12897-12914.

[17]Li S J, Sultonov F, Tursunboev J, et al. Ghostformer: A GhostNet-based two-stage transformer for small object detection[J]. Sensors, 2022, 22(18): 6939.

[18]陈金广, 李雪, 邵景峰, 等. 改进YOLOv5网络的轻量级服装目标检测方法[J]. 纺织学报, 2022, 43(10): 155-160.

[19]郭波, 吕文涛, 余序宜, 等. 基于改进YOLOv5模型的织物疵点检测算法[J]. 浙江理工大学学报(自然科学版), 2022, 47(5): 755-763.

[20]雷源毅, 朱文球, 廖欢. 复杂场景下的改进YOLOv8n安全帽佩戴检测算法[J]. 软件工程, 2023, 26(12): 46-51.

[21]王翔,任佳. 基于多注意力机制的深度神经网络故障诊断算法[J]. 浙江理工大学学报(自然科学版), 2020, 43(2): 224-231.

(责任编辑:康 锋)

猜你喜欢
注意力机制实时性高精度
基于规则实时性的端云动态分配方法研究
高技术通讯(2021年3期)2021-06-09 06:57:24
基于深度学习的问题回答技术研究
基于LSTM?Attention神经网络的文本特征提取方法
基于注意力机制的双向LSTM模型在中文商品评论情感分类中的研究
软件工程(2017年11期)2018-01-05 08:06:09
基于虚拟局域网的智能变电站通信网络实时性仿真
高抗扰高精度无人机着舰纵向飞行控制
InsunKBQA:一个基于知识库的问答系统
航空电子AFDX与AVB传输实时性抗干扰对比
船载高精度星敏感器安装角的标定
基于高精度测角的多面阵航测相机几何拼接