基于YOLOv3算法的奶牛个体识别方法研究
[摘要]:
本文研究基于YOLOv3算法对奶牛个体的识别方法。伴随“物联网+现代农业”重大方针政策的推广,现代牧业的大规模涌现也成为了人们关注的焦点。现代牧业中奶牛的智能化养殖突显出智能化在牧,为后续目标检测、特征提取和个体识别等奠定良好的基础
[3]。
、网络输入
Y0L0v3算法实现过程中有5次下采样,每次使用步长为2的卷积来进行下采样,所以网络的最大步幅为2人5=32,目标检测输入图像大小必须是32的整数倍数⑶,通常的输入图像大小为:320x320,416x416,608x608等。
、边界框预测
将输入的图片压缩为416pxx416px(px代表像素),我们将采集到的图片装换位PascalVOC数据集格式,将一个图片分为若干个SxS的网格,进行网络训练。其中适合检测较大对象的有(116x90)、(156x198)、(373x326);适合检测中等大小对象的有(30x61)、(62x45)、(59x119);适合检测较小对象有(10x13)、(16x30)、(33x23)[2]。在每个网格内检查边界框和置信度,用T(x,y,w,h,C)来表示每个网格单元具体信息,x、y分别表示当前网格单元预测检测对象的置信度中心位置的横、纵坐标,w、h分别表示夕卜接矩形的宽度和高度,置信度C则表示当前网格单元中是否包含奶牛目标及其预测准确性,通过阈值对预测结果进行取舍。假设图像的左上角为坐标原点,则预测的边界框可表示为
bx=f(x)+dx;by=f(y)+dy;bw=pwew;bh=pheh;
式中:bx、bw分别代表预测边界框中心点的横、纵坐标值;f(x)、f(y)分别代表预测边界框中心点与最近网格边缘在x、y向的距离;dx、dy分别代表网格的xy
横、纵坐标偏移量;bw、bh分别代表预测边界框的宽度和高度;pw、ph分别代表锚点框的宽度和高度。
位置边框采用logistic预测目标对象的置信度。如果预测边界框与真实边
界框重叠,并且预测结果优于所有其他边界,则该框的值为1,否则为0。
网络的基本结构单元为卷积单元和残差单元:卷积单元:
conv2D->BatchNormalization->LeakyRelu
这部分卷积全部为3x3的卷积核大小
LeakyRelu:if(xi>=0)yo=xi;elseyo=xi/a(a>1);
T-IS、一"、*
残差单元:
1x1卷积,n个filterBN,L_Relu,->3x3卷积,2xn个filter,BN,L_Relu->
与input相加->-53
Input:根据Darknet-53的网络进行输入。。
*
utput:总共6个卷积单元,23个残差单元,每个残差单元有2个卷积,因
此6+23x2=53,darknet-53有53个卷积操作。
目标检测部分采用类似特征金字塔的方式,在网络中选取三层featuremap做为目标分类与定位的特征Tensor,在网络中选取了第26个卷积层(52,52,256),第43个卷积层(26,26,512)和第53层(13,13,512)。第53层的结果经过下图一系列的卷积变为(13,13,255)->reshape
基于YOLOv3算法的奶牛个体识别方法研究 来自淘豆网m.daumloan.com转载请标明出处.