体尺是养殖场进行生猪生产性能评估的重要标准[1],其不仅与生猪的生产性能、肉类品质和生长状况等有着较大关联[2],还是畜牧专家选种育种的重要依据。传统的体尺测量方法多用测杖、卷尺和皮尺等量具进行人工测量,效率低且易引起生猪的应激反应[3-8]。随着计算机视觉技术日益成熟,无应激、自动化、精准化[9]已成为生猪体尺测量的主要发展方向。
利用计算机视觉技术开展生猪体尺测量的研究,在国内外已取得一定进展,主要是基于二维图像分析技术和三维点云分析技术。文献[10-12]在图像数据上开展对生猪体尺测量的研究,但相机易受环境光照变化的干扰,测量结果有待提升。文献[13-15]通过点云补全、点云分割、边缘提取和拟合等方法测量生猪体尺,精度较高,但由于点云数据处理速度慢,且对应的算法复杂度高,不适用于体尺参数的快速测量。生猪体尺测量的前提是找到检测的关键点,因此,需要建立关键点检测模型。近年来,深度学习技术的应用,提高了关键点的检测精度[16],利用二维图像上成熟的关键点检测模型,融合三维数据丰富的空间位置信息特征,可有效提高体尺测量的速度和精度[17-18]。文献[19-21]利用DeepLabCut和YOLO v5_Mobilenet_SE等关键点检测模型提取生猪体尺测量关键点,并进一步利用相机内参和外参测得体尺参数,测量结果表现较好,但均为针对某一单独家畜个体,难以满足当前规模化养殖需求。
目前主流的关键点检测模型[22]有YOLO v5-pose、YOLO v7-pose、YOLO v8-pose、RTMPose、CenterNet等,文献[23-26]通过融合注意力机制、引入骨干网络、增加轻量上采样算子等方式改进YOLO v5s-pose、YOLO v8n-pose、CenterNet、YOLO v5Face等关键点检测模型的结构,提升了检测精度,并降低了模型复杂性。其中,YOLO v5-pose通过一次前向传播即可完成目标检测和关键点检测任务,具有实时性和高效性,但在应用到群养生猪体尺测量关键点提取中,还存在以下问题:首先,在猪舍内多头猪只存在的环境下,易出现关键点误检和漏检问题;其次,由于多头猪只相互遮挡、生猪姿态多变以及不同生长阶段下生猪尺度差异较大等因素,导致关键点检测准确性降低;最后,模型计算量较大,在实际部署中,难以满足养殖场对实时性的应用需求。
针对上述问题,本文以YOLO v5-pose模型为基础,融合卷积块注意力模块(Convolutional block attention module, CBAM),将Neck层的C3模块替换为C3Ghost轻量级模块,在Head层引入DyHead(Dynamic head)目标检测头,改进YOLO v5-pose模型,用来提取群体中目标猪只的体尺测量关键点,再利用相机参数将这些关键点坐标转化为三维坐标,计算群养生猪的体长、体宽、臀宽、体高和臀高。
1.1.1 数据采集
试验数据于2022年10月13日—11月30日在河南丰源和普农牧股份有限公司采集,试验对象为单个猪栏内饲养的全部杜洛克、长白和大白种公猪共13头,在本次数据采集开始和结束时:平均日龄分别为110、158 d,平均体长分别为89.95、105.99 cm,平均体质量分别为49.64、84.96 kg。试验猪栏长×宽×高为5 m×4 m×2.5 m,设备安装示意图如图1所示。在该试验猪栏中央顶部2.18 m处安装一台Azure Kinect DK型深度相机,保持相机垂直向下拍摄,通过长30 m的USB 3.0延长线连接相机和工控机,在工控机上控制图像采集和存储。综合考虑采集范围对群体测量的影响和分辨率对模型训练效果的影响,深度相机采集模式选择宽视场WFOV非装箱,采集范围为3.88 m×2.91 m。采集到的原始可见光图像分辨率为2 048像素×1 536像素,原始深度图像分辨率为1 024像素×1 024像素,由于使用Azure Kinect传感器SDK,将彩色图像配准到深度图像上时,易在转换的彩色图像中产生孔洞,因此,本文选择将深度图像坐标系下的像素对齐到可见光图像坐标系下,再进行图像配准,最终获得配准后的生猪群体可见光图像和深度图像,分辨率均为2 048像素×1 536像素。
图1 试验设备安装示意图
Fig.1 Installation diagram of experimental equipment
1.猪舍上方管道 2.Azure Kinect DK型深度相机 3.数据线 4.工控机 5.大容量数据存储硬盘
从所有采集到的图像数据中筛选出群体猪只站立姿态且姿态较为笔直的2 400幅图像,用于构建数据集,并将该数据集按照比例8∶1∶1随机划分为训练集、验证集和测试集,用于训练和测试模型,数据集示例图像如图2所示,整个数据集中的猪只体长分布情况如图3所示。
图2 数据集图像示例
Fig.2 Dataset image example
图3 数据集生猪体长分布图
Fig.3 Body length distribution chart of pigs in the dataset
1.1.2 数据标注
利用coco annotator工具标注生猪体尺测量关键点,先对群体中各猪只分别标注目标检测框,然后在检测框中继续标注该猪只的体尺测量关键点。在标注体尺测量关键点时,选取耳根中点BL1、尾根中点BL2作为体长测点;根据以往研究[21],取靠近头部的躯干最宽处左右两个顶点标注体宽测点BW1、BW2,取靠近尾部的躯干最宽处左右两个顶点标注臀宽测点HW1、HW2,取两个体宽测点和两个臀宽测点的中点来分别表示体高测点BH和臀高测点HH,如图4所示。本文标注数据集基本要求为:只对图像中呈站立姿态的猪只标注目标检测框;对于包含两个测点的体尺参数,当且仅当两个测点均存在时才进行标注,否则不标注。
图4 数据集标注示意图
Fig.4 Dataset annotation diagram
1.2.1 改进YOLO v5-pose模型
对YOLO v5-pose模型进行改进,首先在模型主干网络中增加一个CBAM注意力机制模块,其次将模型Neck部分的4个C3模块均替换为C3Ghost轻量级模块,最后在模型Head部分引入DyHead目标检测头。改进YOLO v5-pose模型结构如图5所示。
图5 改进YOLO v5-pose网络结构图
Fig.5 Improved YOLO v5-pose network structure diagram
1.2.2 CBAM注意力机制
为解决猪舍内因多头猪只相互遮挡导致提取群养生猪体尺测点时易出现的误检、漏检和精度低的问题,本文在主干网络中引入轻量级注意力机制,即CBAM模块[27-28],结构如图6所示。CBAM模块利用通道注意力机制和空间注意力机制,来动态调整特征图的通道权重和空间权重,使改进YOLO v5-pose模型能够更加集中地关注重要特征,抑制无关信息。CBAM模块的引入显著提高了改进YOLO v5-pose模型的表达能力和泛化能力,使其更加专注于提取生猪个体和体尺测点特征,从而进一步提升模型检测精度。
图6 CBAM模块结构图
Fig.6 CBAM module structure diagram
1.2.3 C3Ghost模块
YOLO v5-pose模型中的Neck层采用C3模块,其能够有效地提取图像中特征。然而,由于C3模块引入了大量的模型参数,会导致计算量增加。因此,为了有效减少模型计算量和参数量,提升生猪体尺测量关键点提取的速度,便于检测模型的实际部署应用,本文在原YOLO v5-pose模型Neck部分的C3模块[29]中融入GhostNet[30-31]网络,形成C3Ghost模块。该模块能够以更少的参数量和计算量,高效获得更多的特征映射,在模型精度基本不变前提下,能大幅减少模型参数量和内存占用量。GhostNet是一种轻量型神经网络,其轻量化过程如图7所示,首先使用较少的卷积核输出特征图,其次对生成的特征图进行廉价的线性计算以生成更多特征图,最后将这两组特征图拼接在一起进行输出,从而有效降低模型的参数量和存储需求,且对模型检测精度影响较小。
图7 传统卷积与GhostNet卷积原理图
Fig.7 Traditional convolution and GhostNet convolution schematic diagram
1.2.4 DyHead目标检测头
由于本次试验是对群养生猪养殖过程中一段较长时间的监测,猪体大小变化较大,会使体尺测量关键点的准确性降低,因此,进一步改进YOLO v5-pose模型,即在Head层引入DyHead[32]目标检测头,其结构如图8所示(其中,α与β右上角数字表示第i个注意力分支),该检测头统一尺度感知、空间感知和任务感知3种注意力机制,以提升目标检测的表达能力。DyHead通过融合不同尺度特征图,来获取生猪的空间尺度信息,利用可变形卷积,提取特征图中的体尺测量关键点坐标信息,并通过全连接网络完成对特征图关键点检测任务的感知。增加DyHead目标检测头后,改进YOLO v5-pose模型对生猪体尺关键点位置特征的表达能力大幅提升,从而获得了更准确的关键点坐标信息。
图8 DyHead结构图
Fig.8 DyHead structure diagram
1.3.1 2D-3D坐标变换
在采集图像时,利用Azure Kinect DK型传感器生产厂家提供的k4a_transformation_depth_image_to_color_camera()函数,将深度图像像素映射到可见光图像相同特征像素处进行配准。配准后得到可见光图像上体尺测点像素坐标,利用像素点索引再计算出该测点在深度图像上的像素坐标;此外,在深度图像上利用相机参数,通过坐标变换获得该体尺测点在世界坐标系下的三维坐标。设像素坐标系下某点坐标为P(x,y),该点在世界坐标系下对应的坐标为P(X,Y,Z),坐标变换方法如图9所示。
图9 坐标变换图
Fig.9 Coordinate transformation diagram
1.3.2 体尺参数计算
使用体尺测点在世界坐标系下的坐标进行体尺测算。考虑到生猪群体在自由运动状态下姿态多变的问题,利用多段线欧氏距离之和测量体长,如图10所示,设耳根中点到体高测点的距离为d1,体高测点到臀高测点距离为d2,臀高测点到尾根中点的距离为d3,则生猪体长L=d1+d2+d3。此外,利用两个测点间的欧氏距离来计算生猪的体宽和臀宽。
图10 体长测量示意图
Fig.10 Schematic of body length measurement
当Azure Kinect DK 型深度相机垂直向下采集图像时,像素点在世界坐标系下的Z坐标即为该点的深度值[33-34],因此可将体高测点和地面上某点在世界坐标系下Z坐标的差值作为生猪体高,同理可测得臀高。
采用离群特征点临近区域深度替换算法[21],以解决体尺测量时由于关键点被误检为空间点而导致的深度信息缺失问题。
模型训练环境及主要参数配置如表1所示。训练迭代次数为300,批量大小为32,初始学习率为0.001。
表1 模型训练环境
Tab.1 Model training environment
平台配置CPUIntel(R) Xeon(R) Silver 4110 CPU @2.10GHzGPUNVIDIA Quadro P5000加速环境CUDA 12.2操作系统Ubuntu 18.04开发环境Python 3.9.18,Pytorch 2.1.2
采用精确率(Precision,P)、召回率(Recall,R)、平均精度均值(mean Average Precision,mAP)、参数量(Parameters)以及模型内存占用量作为群养生猪体尺测量关键点检测模型的性能评估指标。
在体尺参数测量结果上,采用平均绝对误差(Mean absolute error,MAE)和平均相对误差(Mean absolute percentage error,MAPE)作为性能评估指标。
2.3.1 不同关键点检测模型的性能对比
利用关键点检测模型YOLO v5-pose、YOLO v7-pose、YOLO v8-pose、RTMPose、CenterNet和改进YOLO v5-pose进行对比分析,试验结果如表2所示。由表2可知,YOLO v5-pose模型在生猪体尺关键点检测任务中整体优于其他模型,而改进YOLO v5-pose模型进一步提升了检测精度,同时降低了内存占用量。相比于YOLO v5-pose模型,改进YOLO v5-pose召回率提升0.1个百分点,平均精度均值提升2.1个百分点,模型内存占用量降低2.8%。
表2 不同关键点检测模型的性能对比结果
Tab.2 Performance comparison results of different key point detection models
模型召回率/%mAP@0.5:0.95/%内存占用量/MBYOLO v5pose99.090.514.5YOLO v7pose98.488.3160.7YOLO v8pose98.585.2119.5RTMPose71.963.7172.0CenterNet84.574.080.9改进YOLO v5pose99.192.614.1
2.3.2 消融试验
利用消融试验对比分析不同模块对模型检测精度和计算复杂度的影响,结果如表3所示,由表3可知,仅将原始YOLO v5-pose模型Neck部分的C3模块替换为C3Ghost模块,模型参数量降低14.4%,内存占用量降低14.5%,达到了较好的轻量化效果。仅引入DyHead目标检测头,模型召回率提高0.3个百分点,mAP@0.5:0.95提高1.3个百分点,有效提升了生猪体尺关键点的检测精度。仅在原始YOLO v5-pose模型中增加CBAM模块,模型精确率由99.1%提升至99.3%,mAP@0.5:0.95由90.5%提升至92.1%,参数量和内存占用量几乎不变,在不增加运算成本的条件下,提高了检测精度。三者单独应用时效果并不突出,但同时应用于原始YOLO v5-pose模型后,mAP@0.5:0.95提升2.1个百分点,参数量和内存占用量分别下降2.380×105、0.4 MB。
表3 消融试验对比结果
Tab.3 Comparison results of ablation experiments
模型精确率/%召回率/%mAP@0.5:0.95/%参数量内存占用量/MBYOLO v5pose99.199.090.57.128×10614.5YOLO v5pose+C3Ghost99.198.189.76.102×10612.4YOLO v5pose+DyHead99.199.391.87.915×10616.2YOLO v5pose+CBAM99.398.492.17.129×10614.5改进YOLO v5pose99.899.192.66.890×10614.1
2.3.3 不同聚集程度和不同猪只姿态下体尺测点检测对比
为验证群养生猪在不同聚集程度和不同猪只姿态下,体尺测量关键点检测的效果,在测试集中随机选取高和低两种聚集程度,以及多姿态、标准站立姿态和非标准站立姿态的图像各50幅,对模型进行验证。其中,聚集程度高指图像中猪只个数大于3且出现聚集现象,聚集程度低则相反。多姿态表示图像中同时出现躺卧和站立两种姿态。标准站立姿态指生猪处于站立姿态且无歪头和低头行为、背部笔直无弯曲,非标准站立姿态则相反。不同聚集程度和不同猪体姿态下的生猪体尺测量关键点检测结果如表4所示,由表4可知,改进YOLO v5-pose模型在高和低两种聚集程度以及多姿态、标准站立姿态和非标准站立姿态这5种情况下的测点检测平均精度均值明显优于原始YOLO v5-pose模型。其中低聚集程度下的测点检测精度更具优势,且相比于多姿态和非标准站立姿态,标准站立姿态下的体尺测点检测更加准确。
表4 模型体尺测点检测的mAP@0.5:0.95结果对比
Tab.4 Comparison of mAP@0.5:0.95 results of body scale measurement point detection of model %
模型聚集程度高聚集程度低多姿态标准站立非标准站立YOLO v5pose89.691.390.090.588.5改进YOLO v5pose91.092.893.093.491.3
可视化分析结果如图11所示,由图11可知,改进YOLO v5-pose模型有效解决了聚集程度高、多姿态和非标准站立姿态下,存在的体尺测量关键点漏检和误检现象,且显著提升了聚集程度低和标准站立姿态下体尺测量关键点检测的精度。
图11 改进前后模型检测结果对比
Fig.11 Comparison of model detection results before and after improvement
对测试集中的群养生猪240幅图像数据进行测试,共测量到486头不同体型生猪的体长、体宽、臀宽、体高和臀高。考虑到利用测量工具到猪舍真实测量生猪体尺难度大且精度也不高的实际情况,采用3次CloudCompare软件标注取均值的方法,获得体尺真值。首先将深度图像转换为三维点云,转换效果如图12所示,然后在三维点云上标注体尺数据,最后取3次标注结果的均值作为最终测得的体尺真值。深度图像和三维点云之间的转换公式为
(1)
图12 点云转换效果图
Fig.12 Effect of point cloud conversion
其中
(2)
式中 f——相机焦距
fx、 fy、cx、cy——相机内参
r——旋转矩阵 O——零矩阵
T——平移向量
相机外参
为验证CloudCompare软件标注法获取生猪体尺真值的可靠性,首先,采用软尺和卷尺多次测量假猪模型体尺参数,并计算平均值作为假猪模型体尺的人工测量值;其次,将假猪模型放置在猪舍试验环境下,如图13所示,采集其可见光图像和深度图像,并转化为三维点云;最后,在CloudCompare软件中多次标注假猪模型体尺参数,并计算平均值作为假猪模型体尺软件标注值。
图13 猪舍假猪模型试验现场图
Fig.13 On-site picture of fake pig model test in pig house
通过比较软件标注和人工测量结果,得出两种方法获得的假猪模型体长、体宽、臀宽、体高和臀高绝对误差,如表5所示。由表5可知,通过CloudCompare软件标注所得的体尺参数能够较为准确地反映人工测量结果。
表5 软件标注结果和人工测量结果对比
Tab.5 Comparison of software labeling results and manual measurement results cm
指标体长体宽臀宽体高臀高人工测量82.0029.8029.5061.0058.50软件标注81.6728.6030.0160.2058.00绝对误差0.331.200.510.800.50
此外,通过试验场地中地板的宽度来验证深度图像的质量和精度,如图14所示,利用深度图像获得宽度bAB为51 cm,与实际测得宽度50 cm相比,绝对误差为1 cm。
图14 试验场地地板宽度测量示意图
Fig.14 Schematic of test site floor width measurement
体尺测量值与真实值之间平均绝对误差和平均相对误差结果如表6所示。部分猪只体尺的人工测量结果与本文方法测量结果如图15所示。
表6 生猪体尺测量结果
Tab.6 Pig body size measurement results
指标体长体宽臀宽体高臀高平均绝对误差/cm4.615.876.030.490.46平均相对误差/%2.6911.5312.290.900.76
图15 人工测量结果与本文方法测量结果对比
Fig.15 Comparison between results of manual measurement and results measured by this method
由表6可知,体长、体高和臀高平均相对误差均小于3%,而体宽和臀宽测量误差较大,平均相对误差分别为11.53%和12.29%。
体尺测量误差分布如图16所示,由图16可以看出,体高和臀高测量精度较高,而体长、体宽、臀宽测量误差较大,主要原因是边缘处体尺测点难以提取,容易误检到猪体之外的空间点,需进一步提升体尺测点的提取精度,特别是对猪体边缘处体尺测点的提取上。
图16 生猪体尺测量绝对误差和相对误差箱线图
Fig.16 Box plot of absolute error and relative error of pig body measurements
为直观展示体尺测量效果,将改进YOLO v5-pose模型与YOLO v5-pose模型进行对比分析,可视化结果如图17所示。其中,ΔL、ΔbBW、ΔbHW、ΔhBH、ΔhHH分别表示体长、体宽、臀宽、体高和臀高绝对误差,通过对测量值与真实值之间的差取绝对值得到。由图17可知,YOLO v5-pose模型对体长、体宽和臀宽测量误差较大,利用本文方法可显著提升体长、体宽和臀宽的测量精度,测量值与真实值的绝对误差分别降低5.47、26.26、20.81 cm;改进前后模型在体高测量上效果相似,但在臀高测量上,改进YOLO v5-pose模型有效解决了臀高测点漏检的问题。上述分析验证了本文模型在群养生猪体尺测量数据集上的有效性。
图17 改进前后模型测量效果对比
Fig.17 Comparison of model measurement effects before and after improvement
为验证群养生猪体尺测量方法应用在不同生长阶段和不同品种猪只上的检测精度,在测试集中随机选取不同体型的110~118日龄、118~126日龄、126~134日龄、134~142日龄、142~150日龄和150~158日龄生猪各50头,杜洛克、长白和大白种公猪各50头进行体尺测量,并利用堆叠柱状图对体尺测量误差进行分析,不同生长阶段和不同品种生猪体尺测量的平均绝对误差堆叠柱状图如图18、19所示。由图18可知,不同生长阶段下群养生猪体尺的测量精度相当,说明改进YOLO v5-pose模型在处理尺度变化问题时表现出了较好的鲁棒性。由图19可知,杜洛克种公猪的体长、体宽和臀宽测量精度均优于其他两个品种,主要是因为长白和大白种公猪毛色为白色,在白炽灯照射下容易反射更多光线,由于过度曝光或光线反射,物体边缘变得模糊,从而影响了体长、体宽和臀宽等边缘处的测量精度。
图18 不同生长阶段生猪体尺测量误差堆叠柱状图
Fig.18 Stacked bar chart of body measurement errors of pigs at different growth stages
图19 不同品种生猪体尺测量误差堆叠柱状图
Fig.19 Stacked bar chart of body measurement errors of different breeds of pigs
在体长、体宽和臀宽测量误差较大,可能是由于边缘处体尺测量关键点容易被误检为猪体之外的空间点,后续研究可以针对猪体边缘处体尺测量关键点的提取进一步优化和创新算法。
(1)为提高群养生猪体尺测量关键点检测的精度,建立了改进YOLO v5-pose模型。该模型融合C3Ghost模块、引入DyHead目标检测头并增加CBAM模块。改进模型精确率为99.8%、召回率为99.1%,mAP@0.5:0.95为92.6%,与原始YOLO v5-pose模型相比,分别增加0.7、0.1、2.1个百分点;参数量为6.890×106,内存占用量为14.1 MB,与原始YOLO v5-pose模型相比,分别减少2.380×105、0.4 MB。此外,通过试验对比,改进YOLO v5-pose在召回率、mAP@0.5:0.95和内存占用量方面均优于当前经典关键点检测模型(YOLO v7-pose、YOLO v8-pose、RTMPose和CenterNet)。
(2)提出了基于改进YOLO v5-pose的群养生猪体尺自动测量方法,该方法所测得体长、体宽、臀宽、体高、臀高的平均绝对误差分别为4.61、5.87、6.03、0.49、0.46 cm,平均相对误差分别为2.69%、11.53%、12.29%、0.90%、0.76%。本文方法在测量体高和臀高方面表现更优,并通过可视化分析验证了该方法可显著提升对体长、体宽和臀宽的测量精度。
[1] 耿艳利,季燕凯,岳晓东,等. 基于点云语义分割的猪只体尺测量方法研究[J]. 农业机械学报, 2023,54(7):332-338, 380.
GENG Yanli, JI Yankai, YUE Xiaodong, et al. Pigs body size measurement based on point cloud semantic segmentation[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(7): 332-338, 380. (in Chinese)
[2] LI G, LIU X, MA Y, et al. Body size measurement and live body weight estimation for pigs based on back surface point clouds[J]. Biosystems Engineering, 2022, 218: 10-22.
[3] LING Y, JIMIN Z, CAIXING L, et al. Point cloud-based pig body size measurement featured by standard and non-standard postures[J]. Computers and Electronics in Agriculture, 2022, 199: 107135.
[4] 李哲,林文祉,翁智,等. 基于KinectV2的猪体三维点云重构与体尺测量[J]. 软件导刊, 2024,23(1):161-166.
LI Zhe, LIN Wenzhi, WENG Zhi, et al. KinectV2-based 3D point cloud reconstruction and body size measurement of pig body[J]. Software Guide, 2024, 23(1): 161-166. (in Chinese)
[5] 王可,郭浩,马钦,等. 基于单视角点云镜像的猪只体尺测量方法[J]. 农业机械学报, 2018,49(3):187-195.
WANG Ke, GUO Hao, MA Qin, et al. Pig body size measurement method based on mirror reflection of single angle point cloud[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(3): 187-195. (in Chinese)
[6] HAO H, JINCHENG Y, LING Y, et al. An improved PointNet++ point cloud segmentation model applied to automatic measurement method of pig body size[J]. Computers and Electronics in Agriculture, 2023, 205: 107560.
[7] 罗世林,何秀文,孙云涛,等. 基于机器视觉技术的猪只体重检测研究现状及展望[J]. 南方农机, 2024,55(3):13-17.
LUO Shilin, HE Xiuwen, SUN Yuntao, et al. Research status and prospects of pig weight detection based on machine vision technology[J]. South Agricultural Machinery, 2024, 55(3): 13-17. (in Chinese)
[8] 张小栓,张梦杰,王磊,等. 畜牧养殖穿戴式信息监测技术研究现状与发展分析[J]. 农业机械学报, 2019,50(11):1-14.
ZHANG Xiaoshuan, ZHANG Mengjie, WANG Lei, et al. Research status and development analysis of wearable information monitoring technology in animal husbandry[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(11): 1-14. (in Chinese)
[9] 陆明洲,光二颖,陈子康,等. 基于双视角图像的山羊体尺自动测量方法[J]. 农业机械学报, 2023,54(8):286-295.
LU Mingzhou, GUANG Erying, CHEN Zikang, et al. Automatic measurement method of goat body size based on double vision angle camera image[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(8): 286-295. (in Chinese)
[10] KASHIHA M, BAHR C, OTT S, et al. Automatic weight estimation of individual pigs using image analysis[J]. Computers and Electronics in Agriculture, 2014, 107: 38-44.
[11] 司永胜,安露露,刘刚,等. 基于Kinect相机的猪体理想姿态检测与体尺测量[J]. 农业机械学报, 2019,50(1):58-65.
SI Yongsheng, AN Lulu, LIU Gang, et al. Ideal posture detection and body size measurement of pig based on Kinect[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(1): 58-65. (in Chinese)
[12] ZHANG J, ZHUANG Y, JI H, et al. Pig weight and body size estimation using a multiple output regression convolutional neural network: a fast and fully automatic method[J]. Sensors, 2021, 21(9): 3218.
[13] 李孟飞,康熙,王彦超,等. 基于阈值分析的曲线拟合和边缘检测生猪侧视点云补全[J]. 农业机械学报, 2021,52(增刊):81-88.
LI Mengfei, KANG Xi, WANG Yanchao, et al. Side-view point cloud completion method combining cubic B-spline curve fitting and edge detection based on threshold analysis[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(Supp.): 81-88. (in Chinese)
[14] HAO H, JIN C Y, LING Y, et al. An improved PointNet++ point cloud segmentation model applied to automatic measurement method of pig body size[J]. Computers and Electronics in Agriculture, 2023, 205: 107560.
[15] 尹令,王宇啸,林俊勇,等. 基于三维点云分割的猪体尺自动测量技术[J]. 广东畜牧兽医科技, 2023,48(6):1-6, 45.
YIN Ling, WANG Yuxiao, LIN Junyong, et al. Automatic measurement technology for measurement of swine body size based on three-dimensional point cloud segmentation[J]. Guangdong Journal of Animal and Veterinary Science, 2023, 48(6): 1-6, 45. (in Chinese)
[16] 宋怀波,华志新,马宝玲,等. 基于SimCC-ShuffleNetV2的轻量化奶牛关键点检测方法[J]. 农业机械学报, 2023,54(10):275-281, 363.
SONG Huaibo, HUA Zhixin, MA Baoling, et al. Lightweight keypoint detection method of dairy cow based on SimCC-ShuffleNetV2[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(10): 275-281, 363. (in Chinese)
[17] 初梦苑,司永胜,李前,等. 家畜体尺自动测量技术研究进展[J]. 农业工程学报, 2022,38(13):228-240.
CHU Mengyuan, SI Yongsheng, LI Qian, et al. Research advances in the automatic measurement technology for livestock body size[J]. Transactions of the CSAE, 2022, 38(13): 228-240. (in Chinese)
[18] LU J, GUO H, DU A, et al. 2-D/3-D fusion-based robust pose normalisation of 3-D livestock from multiple RGB-D cameras[J]. Biosystems Engineering, 2022, 223: 129-141.
[19] DU A, GUO H, LU J, et al. Automatic livestock body measurement based on keypoint detection with multiple depth cameras[J]. Computers and Electronics in Agriculture, 2022, 198: 107059.
[20] WANG Y, SUN G, SENG X, et al. Deep learning method for rapidly estimating pig body size[J]. Animal Production Science, 2023, 63(9): 909-923.
[21] 赵宇亮,曾繁国,贾楠,等. 基于DeepLabCut算法的猪只体尺快速测量方法研究[J]. 农业机械学报, 2023,54(2):249-255, 292.
ZHAO Yuliang, ZENG Fanguo, JIA Nan, et al. Rapid measurements of pig body size based on DeepLabCut algorithm[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(2): 249-255, 292. (in Chinese)
[22] MAJI D, NAGORI S, MATHEW M, et al. Yolo-pose: enhancing YOLO for multi person pose estimation using object keypoint similarity loss[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 2637-2646.
[23] 蒋锦华,庄丽萍,陈锦,等. 基于改进YOLOv5s-pose的多人人体姿态估计[J]. 软件工程, 2024,27(1):74-78.
JIANG Jinhua, ZHUANG Liping, CHEN Jin, et al. Multi-person pose estimation based on improved YOLOv5s-pose[J]. Software Engineering, 2024, 27(1): 74-78. (in Chinese)
[24] CHEN J, MA A, HUANG L, et al. Efficient and lightweight grape and picking point synchronous detection model based on key point detection[J]. Computers and Electronics in Agriculture, 2024, 217:108612.
[25] CHU M, LI Q, WANG Y, et al. Fusion of udder temperature and size features for the automatic detection of dairy cow mastitis using deep learning[J]. Computers and Electronics in Agriculture, 2023, 212:108131.
[26] 黄志杰,徐爱俊,周素茵,等. 融合重参数化和注意力机制的猪脸关键点检测方法[J]. 农业工程学报, 2023,39(12):141-149.
HUANG Zhijie, XU Aijun, ZHOU Suyin, et al. Key point detection method for pig face fusing reparameterization and attention mechanisms[J]. Transactions of the CSAE, 2023, 39(12): 141-149. (in Chinese)
[27] WANG T, WANG N, XIAO J, et al. One-shot domain adaptive real-time 3D obstacle detection in farmland based on semantic-geometry-intensity fusion strategy[J]. Computers and Electronics in Agriculture, 2023, 214: 108264.
[28] 张俊宁,毕泽洋,闫英,等. 基于注意力机制与改进YOLO的温室番茄快速识别[J]. 农业机械学报, 2023,54(5):236-243.
ZHANG Junning, BI Zeyang, YAN Ying, et al. Fast recognition of greenhouse tomato targets based on attention mechanism and improved YOLO[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(5): 236-243. (in Chinese)
[29] HAN K, WANG Y, TIAN Q, et al. Ghostnet: more features from cheap operations[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.
[30] LIU G, HU Y, CHEN Z, et al. Lightweight object detection algorithm for robots with improved YOLOv5[J]. Engineering Applications of Artificial Intelligence, 2023, 123: 106217.
[31] 顾文娟,魏金,阴艳超,等. 基于改进DeepLabv3+的番茄图像多类别分割方法[J]. 农业机械学报, 2023,54(12):261-271.
GU Wenjuan, WEI Jin, YIN Yanchao, et al. Multi-category segmentation method of tomato image based on improved DeepLabv3+[J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(12): 261-271. (in Chinese)
[32] ZHAO K, XIE B, MIAO X, et al. Lpo-yolov5s: a lightweight pouring robot object detection algorithm[J]. Sensors, 2023, 23(14): 6399.
[33] KHOSHELHAM K, ELBERINK S O. Accuracy and resolution of kinect depth data for indoor mapping applications[J]. Sensors, 2012, 12(2): 1437-1454.
[34] WANG T, CHEN B, ZHANG Z, et al. Applications of machine vision in agricultural robot navigation: a review[J]. Computers and Electronics in Agriculture, 2022, 198: 107085.