基于改进DeepSORT算法的摩托车头盔佩戴检测

【www.zhangdahai.com--其他范文】

冉险生,张之云,陈 卓,苏山杰,陈俊豪

重庆交通大学 机电与车辆工程学院,重庆 400047

全球的交通机动化导致道路交通的死亡率持续升高。在一些发展中国家,摩托车作为普遍的交通工具,驾驶的安全问题备受关注,摩托车头盔的佩戴对自身的安全十分重要[1],人为监督的检查方式工作量大、成本高,还会引发许多交通事故。随着目标检测算法的精度和速度的提升,基于检测的多目标跟踪算法成为交通管理系统智能化的热门技术,可以有效地提高密集交通管理的效率和安全性。在监控视频下对摩托车头盔佩戴情况进行追踪需要达到实时性的要求,跟踪结果主要取决于目标检测器性能的好坏[2]。取代传统目标检测算法的深度学习目标检测算法可分为有候选区域的两阶段式算法和直接输出检测结果的一阶段式算法[3]。两阶段以R-CNN系列[4-6]模型为代表,一阶段以SSD[7]、YOLO系列[8-10]模型为代表。Espinosa等[11]通过一种基于Faster-RCNN的卷积神经网络模型,进行摩托车检测和分类。在60%以上的车辆遮挡的情况下评估该模型,mAP达到75%。在低遮挡数据集上进行评估,mAP高达92%。刘琛等人[12]基于SSD网络引入视觉机制,实现了对摩托车驾乘者头盔佩戴的检测。Boonsirisumpun等人[13]使用SSD网络进行两次检测,第一次检测出摩托车驾驶者,第二次在所检测出该驾驶者是否佩戴头盔。

深度学习的多目标跟踪方式是通过学习检测物体的深度特征来进行跟踪的,能够达到较好的检测性能。Mahmoudi等人[14]提出了一种新的二维在线环境分组法,基于CNN提取外观特征,利用最后一帧的位置状态对下一帧中每个目标的位置进行预测,得到运动位置特征,再将两种特征进行数据关联。与现有技术相比,使用CNNMTT方法实现了高质量的跟踪效果,达到更低计算成本。Huo等[15]提出了一种基于RFB的多目标跟踪算法,在多目标检测部分,采用CenterNet作为检测网络。在特征提取部分,将RFBNet与重新识别网络相结合,提高特征提取能力,DeepSORT算法用于多目标跟踪。

多目标追踪算法采用预先训练好的网络进行表观特征的提取使跟踪速度和精度都得到了改善。Deep-SORT算法在SORT算法的基础上,增加外观特征信息改善了物体遮蔽导致的ID switch现象,采用级联匹配策略提高了匹配精度。为实现算法在边缘设备上达到较好的实时目标检测和多目标追踪效果,本文提出轻量型的摩托车头盔多目标跟踪方法。首先对YOLOv3做了改进和对表观特征区分网络进行了优化。针对YOLOv3模型参数大、多尺度识别精度低的问题。通过引入MobileNetv3-Large对主干网络进行替换,搭建MLYOLOv3网络,降低模型复杂度、提升检测速度。设计深浅语义融合增强模块,增强网络对输入特征的深浅语义利用程度,提升了模型检测精度。其次构建多任务学习框架,进行外观特征识别模型优化,提升了多目标追踪的准确率和精度,同时也实现了对摩托车驾乘者数量、位置、头盔佩戴的分类,即NPH分类模型,以期实现摩托车头盔佩戴的实时追踪检测。

本文采用DeepSORT算法对摩托车进行追踪,Deep-SORT[16]算法是对SORT[17]多目标追踪算法的改进,在此基础上利用卷积神经网络对外观信息特征进行提取来减少产生的ID switch次数。采用级联匹配对频繁出现的目标物赋予优先权,解决目标追踪过程中的不连续问题。其算法流程如图1所示。主要分为四个步骤:(1)基于原始视频帧,使用目标检测器获得目标候选框,经非极大值抑制算法(non-maximum suppression,NMS)筛除多余的框,得出检测结果。(2)使用卡尔曼滤波算法预测目标在下一帧所在位置及状态,将预测框与检测框进行IOU匹配并计算出代价矩阵。(3)使用匈牙利算法根据输入的代价矩阵对检测框进行最优匹配,利用重识别模型对物体的外观特征进行提取,赋予确认状态的跟踪框优先的匹配权。(4)输出跟踪结果,卡尔曼滤波对跟踪器进行参数的更新,再次循环算法流程直至视频帧结束。

图1 DeepSORT算法流程图Fig.1 Flowchart of DeepSORT algorithm

1.1 前端目标检测器的改进

YOLOv3是一种性能较为优越的单阶段目标检测算法,在检测精度和速度上能达到较好的平衡,网络结构如图2所示。YOLOv3采用DarkNet53作为主干网络,使用残差网络防止网络加深过程中发生梯度消失,网络构建了5个残差块,总共包含53个卷积层。同时对输入的图片进行了5次降采样,采用多尺度融合的方式检测不同大小目标的位置及类别。考虑到摩托车驾驶环境的复杂多变性,需要提高模型对小目标的检测效果以及在边缘设备上的实用性,对原始YOLOv3模型进行轻量化和深浅语义融合两方面改进。

图2 YOLOv3网络结构示意图Fig.2 Schematic diagram of YOLOv3 network structure

1.1 .1构建轻量化的ML-YOLOv3网络

使用MobileNetv3-Large替换Darknet-53作为YOLOv3的特征提取网络,其网络结构如表1所示。表中N和Y分别代表未使用、使用NL表示激活函数(RE为Relu6激活函数,HS为h-swish激活函数),s为运算步长,SE(squeeze-and-excitation networks)为压缩激励模块,Bneck为MobileNetv3的基本模块结构,exp-size为经过Bneck中的膨胀层后的特征通道数。Bneck模块结构如图3所示。该模块结构主要由1×1的卷积核、3×3或者5×5的深度卷积核、1×1的卷积核等3个网络层组。同时还引入了SE模块单独添加到resnet层中并行使用。

图3 Bneck模块结构Fig.3 Bneck module structure

表1 MobileNetv3-Large网络结构Table 1 MobileNetv3-Large network structure

如图4所示,SE模块为了获得卷积核以外的感受野使用全局平均池化层,以此得到各个特征通道间的统计量,假设获得的统计量为Y,空间维度被压缩的特征图为U,则在第i个通道C所获得的统计值如式(1)所示。为利用通道间的关系,使用两个全连层进行通道间信息的整合。第一个全连接层通过设置固定的缩减比率来降低网络层数,然后第二个全连接层又将维度升至输入特征维度,旨在通过输入维度的变化动态调整输入通道间的重要权值,突出网络需要重点学习的特征通道,如式(2)所示。最后将模块所求得特征权值乘以输入特征图做特征强度调整,进而提升了网络特征表达能力,如式(3)所示。

图4 SE模块Fig.4 SE module

其中,H、W分别为特征图的高宽。δ为Relu激活函数,σ为sigmoid函数,分别为第一个全连接层和第二个全连接层的权重。Fscale(∙)指代的是权重值与所对应的特征通道的乘积。

1.1 .2深浅语义融合增强模块

搭建深浅语义融合增强模块(deep and shallow context fusion enhancement module,DSCFEM)的思想来自ThunderNet[18]语义增强模块(context enhancement module,CEM),CEM模块结构如图5所示,将网络中3个不同尺度的特征图融合来获取更有识别度的特征。其中Cglb为C5通过全局平局池化层所获取的全局语义特征向量。不同大小的特征图分别经过卷积、反卷积以及广播机制得到对应大小和特征通道数相同的特征图,结果分别记为C4_lat、C5_lat、Cglb_lat,最后将3个特征图相加。但CEM使用的融合方式将深浅不同的语义信息视为同等重要,从而带来一定的精度损失,故引入注意力机制以实现网络对重要性不同的特征信息区分性学习。

图5 CEM模块结构Fig.5 CEM module structure

按照CEM模块的方式在一定位置将YOLOv3的3个不同尺度的特征作为类似于CEM模块的对应特征输入,经过信息通道变换操作将获取的特征信息作为YOLOv3的一个检测分支的下一步的特征量输入。为了避免上述CEM模块所存在的不足,不再简单地对3个不同尺度的特征进行特征量大小(特征通道数和特征图尺寸)的等匹配融合,受SPP[19]模块启发将其替换为池化操作。SPP中的最大池化层,能增大网络感受野、缓解训练过程中的过拟合现象,但是容易忽视部分细节信息。为此,使用SoftPool对SPP模块中的最大池化层进行改进。SoftPool[20]使用softmax实现指数加权方式累加池化,保留了更多输入特征的基本属性,其结构如图6所示。在网络训练期间SoftPool不增加可训练参数,同时梯度在反向传播过程中是可微的,保证了每次反向传播的梯度能够更新,提升了网络神经元的连接性。SoftPool可对每个池化核所对应的激活值赋予指数为底的权重,既保证了较大的激活值又实现了对每一个激活值非线性的特征信息的综合利用,从而进一步提升网络精度。

图6 SoftPool结构图Fig.6 SoftPool structure diagram

SoftPool的核心思想在于充分利用softmax作为池化核域内每个激活值的权重分配机制,如下式所示:

式中,R为池化核域,ai为R中的每个激活值,Wi为每个激活值所分配权重。在求得权重Wi后,将其作用到R中并求和,得到输出值:

式中,a为SoftPool的输出值,最终实现了对池化核域内所有激活因子的加权求和。

为了更加充分地利用深层语义信息和通道间的相互依存关系,将改进的YOLOv3网络的深度特征经过SE模块的作用得到深度特征权重值,再与改进CEM模块特征值相乘,以深层语义信息促使网络更好地学习浅层语义信息,并动态地增强浅层语义信息与深层语义信息融合。通过上述一系列改进,最终构建了深浅语义融合增强模块(DSCFEM),模型结构如图7所示。图中,C5、C4、C3指代YOLOv3网络3个尺度检测分支,图片大小假定为416×416像素值。

图7 DSCFEM模块结构Fig.7 DSCFEM module structure

YOLOv3结构与改进后的YOLOv3结构以及DSCFEM模块对比如图8所示。图中(a)、(b)分别为YOLOv3和改进后的YOLOv3命名为ML-YOLOv3-DSCFEM。

图8 YOLOv3改进前后结构对比Fig.8 Structure comparison before and after YOLOv3 improvement

1.2 构建多任务学习(MTL)框架

本文采用多任务学习[21]的方式实现DeepSORT算法对摩托车外观特征信息的提取同时对摩托车驾乘人员的数量、位置以及头盔佩戴进行检测分类,文中将这三个元素称为NPH。

1.2.1 MTL数据集构建

基于开源数据集,编写脚本分别生成用于训练的txt文本和图片块文件夹,txt文本总共包含图片块存储路径、追踪ID及驾乘人员头盔佩戴情况类别3类信息。数据集包括7 116个不同的摩托车共约10万对图片,分辨率为192×192,并调整数据集使得所有图片对中来自于同一摩托车的数量占一半,平均每个摩托车约有28张图片用于训练集,5 000对图片用于测试集。

1.2.2 NPH模型分析与建立

根据HELMET数据集,分析其数据中12个地点的图片信息特点,可发现摩托车驾乘人数最多可达5人,为此构建了能够反映驾乘人员数量、位置和头盔使用情况NPH模型如图9所示。图中D为摩托车驾驶员,P0、P1、P2、P3为乘客,由此可知,构建的NPH分类模型能够全面反映实际道路中可能存在的摩托车驾乘者的位置、数量和头盔佩戴情况。

图9 摩托车驾乘者信息示意图Fig.9 Schematic diagram of motorcycle rider information

使用深度网络对NPH模型进行分类,既要对每一类别驾乘者的位置做区分又要辨别出其对应位置的头盔是否佩戴。对该模型分类进行类似于one-hot编码,构建5+5位节点编码的标签向量,定义下式:

式中,yi为标签值,取值为0和1。如图10所示,第一个5位节点编码表示驾乘者的位置,若有取值为1,反之为0,第二个5位节点编码表示对应驾乘者位置是否佩戴头盔,佩戴取值为1,未佩戴为0。通过对NPH模型的分析,将36种类别分类转化为10个二分类问题,缓解了数据中类别不平衡问题。

图10 NPH模型分类编码示意图Fig.10 Schematic diagram of classification and coding of NPH model

1.2.3 MTL框架搭建

为节省网络训练的时间,提高检测系统的检测速度,采用类似于Siamese[22]构建多任务学习框架,在深度模型权重共享的前提下,实现多个目标任务的学习。网络模型的主体使用MobileNetXt[23]替换DeepSORT中的重识别网络结构,保证了能实现分类任务同时,也使得整体检测系统的大小和速度维持在一定范围。将其后端平均池化层替换为全局平局池化层,以适应相似度学习。MTL框架如图11所示,MTL网络结构以双倍通道的方式将大小为192×192两张图片同时输入网络中,使用MobileNetXt网络进行特征提取,生成高维的特征向量,并经过GAP层,在新的空间中最终映射出离,得到相似度值y3,如下式所示:

图11 MTL框架示意图Fig.11 Schematic diagram of MTL framework

式中,x(A)、x(B)分别表示输入图片块A、B,ϕ(x(A);θ)、ϕ(x(B);θ)表示的是A、B的1 280维特征向量,D(x(A),x(B))即为所求的相似度值。模型所映射出的1 280维特征向量,再经过1×1的卷积得到NPH分类信息的输出值y1和y2,即10个由0或1组成的类别值。

1.2.4 多任务学习的迭代优化

相似度学习输出值的优化:采用孪生网络中较为经典的对比损失(contrastive loss)函数,如式(8)所示。引入两个损失函数分界阈值λ1、λ2,通过比对两张图片的ID号来决定两者的欧式距离D(x(A),x(B))的大小,若相同那么两者的欧式距离D(x(A),x(B))应尽量得小,反之,则尽可能得大。根据实际需求将λ1、λ2的阈值分别设置为0.8、1.5,以此进行该任务的优化学习,如下式所示:

式中,S表示图片块A、B来自于同一个物体,D表示图片块A、B属于不同物体。

NPH分类信息的输出值的优化,采用交叉熵损失(cross-entropy loss)函数进行优化,其如式(9)中所示。根据NPH模型编码规则,式中的n=10,那么对模型损失函数计算时这个10编码点都需计算,这样并不能提升分类精度反而增加了网络模型反方向传播的计算量。

因此,将10个编码点分为两类,则n=5。损失函数也分为两部分,第一部分为驾乘者编码位置的损失计算,第二部分为对应头盔佩戴的损失计算,该部分由yi决定头盔佩戴损失是否参与计算。

其中,LA和LB分别为y1、y2的优化损失函数,yi和pi分别为真实的驾乘者位置编码值和模型预测值,yi+n和pi+n分别为真实的驾车者头盔佩戴的编码值和模型预测的编码值。

综合式(8)和式(10),即可得MTL框架总的损失函数,如式(11)所示,式中β为各部分损失函数的权重系数:

本文基于优化后的DeepSORT算法提出了三个主要步骤:摩托车定位、追踪以及NPH分类。追踪检测流程如图12所示,首先使用改进YOLOv3算法实现对道路中行驶的摩托车进行定位,再使用卡尔曼滤波对目标定位框进行跟踪预测。当目标框与预测框连续3次匹配成功时,对该目标框所属区域图片块按照NPH方式进行分类,同时使用优化后的匈牙利算法对跟踪框进行ID分配,具体的算法实现流程如下所示,对提出的算法进行跟踪与分类实验分析。

图12 检测流程示意图Fig.12 Schematic diagram of detection process

输入:像素值为M×N的图片P,连续追踪命中次数hit_count=0,多任务框架MTL:(1)MTL_1为NPH分类网络;
(2)MTL_2为相似度判定网络,追踪框编号T={1,2,…,N},目标检测器检测目标编号D={1,2,…,M},kf为卡尔曼滤波。

1.cap=cv2.videoCapture(0/path)#使用Opencv开启相机记录视频流或读取视频

2.ret,P=cap.read()#从视频中获取图像P

3.whileretdo #持续对获取图像进行处理

4.for 0 to 2 do #连续3次实现目标框与跟踪框的匹配

5.D←P#目标检测器获取目标框

6.T←kf(D)#卡尔曼滤波实现对目标框的预测

7.forbiinDdo #对目标框进行遍历

8.fortiinTdo #对预测框进行遍历

9.ifiou(bi,ti)≥阈值then #判断预测框与目标框十分匹配

10.hit_count←hit_count+1 #匹配成功则记录一次

11.end for

12.ifhit_count=3 then

13.实现NPH分类←MTL_1(bi)#MTL实现对匹配成功的图片进行分类预测

14.hit_count←0

15.end for

16.end for

17.级联匹配(其中使用MTL_2进行相似度判定)#基于匈牙利算法实现跟踪框ID分配

18.end

2.1 实验准备

实验环境:使用16 GB内存、Intel®Core™i7-10870H CPU@2.21 GHz和NVIDIA GeForce RTX 3060显卡配置的电脑与深度学习框架Pytorch进行模型的搭建和训练。

数据集与参数设定:目标检测部分使用OSF网站中开源的HELMET数据集,共包含91 000张图片,选用其中的63 600张作为训练图片和18 200张为测试集图片。模型训练时采用Adam作为训练过程中的优化器,其中的一阶矩估计指数衰减率β1和二阶矩估计指数衰减率β2分别使用默认值为0.9、0.999。训练学习率由0.001降至0.000 1,batch size设为16,每次输入的图片大小为1 920×1 080像素,训练了26个epoch。MTL框架使用MTL数据集进行训练,采用Adam优化器,batch size为32,学习率为由0.000 5降至0.000 01,总共训练了10个epoch。DeepSORT算法中超参数分别设置为:非极大值重叠率设置为0.5,最大的欧式距离设置为1.4,轨迹删除的最大帧数设置为20。

2.2 评价指标

目标检测算法使用平均精度AP(IOU=0.5)、模型参数量、模型大小以及检测速度四个指标对检测效果进行评价。本文选用3个指标作为多目标跟踪效果评价指标:多目标跟踪准确率(multiple object tracking accuracy,MOTA)、多目标跟踪精度(multiple object tracking precision,MOTP)和每秒处理图片的帧数FPS。

2.3 结果与分析

2.3.1 目标检测网络loss可视化分析

原始算法和改进算法在训练过程loss曲线可视化,如图13所示。图中(a)和(b)分别为YOLOv3和ML-YOLOv3-DSCFEM训练过程中的loss变化曲线。

由图13可知,原始算法的起始loss值远大于改进算法,主要原因为原始YOLOv3算法网络结构复杂、参数量较大。而ML-YOLOv3-DSCFEM与YOLOv3算法的loss收敛值分别为9.178、11.503,可定性出改进模型收敛速度更快,loss值更低。并且通过图14网络AP曲线图可知,改进网络有着更好的检测精度,此性能的提升得益于特征骨干提取网络的优化以及特征提取程度的增强等方面的改进。

图13 Loss变化曲线Fig.13 Loss change curve

图14 改进网络AP曲线Fig.14 Improved network AP curve

2.3.2 目标检测网络的消融实验和对比实验分析

改进YOLOv3算法消融实验结果如表2所示。在对YOLOv3网络结构和特征提取等方面进行改进优化后,根据特定检测任务重新使用k-means算法确定出更合理的先验框(anchor),分别为(57,108),(76,135),(98,175),(121,150),(133,225),(178,200),(205,295),(293,370),(444,440)。

表2 改进YOLOv3模型在头盔数据集上的消融实验结果Table 2 Ablation experiment results of improved YOLOv3 model on helmet dataset

由表2可知,相比原始YOLOv3算法,ML-YOLOv3-DSCFEM的检测精度达到88.27%提升了4.65个百分点,模型大小仅为原始模型的13.7%,参数量减少了86.17%,在GPU和CPU中的检测速度分别提升了2.65倍和3.67倍。改进的模型不仅各个性能指标都有提高,也满足了检测速度实时性的要求。

对改进模型性能的进一步验证,选用二阶段检测算法Faster R-CNN、一阶段检测算法SSD、ResNet50、RetinaNet、YOLOv3-tiny以及YOLOv3与其进行对比,实验结果如表3所示。改进算法的检测精度最高,模型最小仅为33 MB,远小于所对比模型,同时检测速度也远高于同类型模型,相比ResNet50,本文算法降低了一部分运算速度,但检测精度大有提升,仍能够最大程度上满足实时性的检测要求。

表3 摩托车检测的各类算法对比Table 3 Comparison of various algorithms for motorcycle detection

2.3.3 YOLOv3算法改进前后的目标检测效果可视化

图15展示了YOLOv3算法和本文优化YOLOv3算法在HELMET的测试数据上对摩托车检测结果的可视化。从测试集1.8万张图片中随机选取3张图片作为对比,图中第一列为原始图片,第二列为YOLOv3检测结果,第三列为本文所改进YOLOv3检测结果。图中第二行原始YOLOv3存在对景深较大的物体漏检,第三行改进算法能够很好区别出摩托车是否存在驾乘者和对景深较大目标的正确检测。一方面引入的骨干网络有着更好的特征提取效果,提升了检测精度。另一方面构建的深浅语义融合增强模块增强了特征融合,其中通过对CEM模块进行改进并引入SPP模块,同时对SPP模块也进行了改进,由此扩大了模型的感受野。利用具有通道注意力机制的SE模块促进了浅层信息与深层信息的融合,最终提高了模型对小目标的特征鉴别能力。从可视化图中可定性出改进算法有着更好的检测精度。

图15 测试集摩托车检测效果可视化图Fig.15 Visualization of motorcycle detection effect in test set

2.3.4 MTL框架的训练结果分析

(1)MTL框架对NPH模型的分类精度分析:在验证集上进行准确率测试,分类精度的变化曲线如图16所示。随着模型的不断优化学习,准确率不断上升,在第10个epoch时趋于稳定,检测精度为82.04%。验证表明,综合考虑驾乘者位置、数量以及头盔佩戴情况下,模型仍能够保证较高的准确率。

图16 NPH模型训练过程验证集上分类精度的变化图Fig.16 Changes in classification accuracy on validation set during training process of NPH model

(2)相似度学习结果分析:相似度区分性能使用ROC(receiver operation characteristic)曲线来评价该相似度学习的区分性能。ROC曲线形成是通过阈值的不断变化,随之改变正确正样本率(true positive rate,TPR)和错误正样本率(false positive rate,FPR)。由表4可知,阈值的增加,TPR不断增加,当阈值设置为1.4时,深度网络能够实现对所有正样本的正确判断。图17为通过表3中的阈值变化所绘制的ROC曲线,最终求得反映模型区分性能的ROC曲线的面积AUC(area under the ROC curve)为0.958。

表4 欧式距离阈值对ROC值影响Table 4 Influence of Euclidean distance threshold on ROC value

图17 ROC曲线图Fig.17 ROC curve

2.4 多目跟踪结果分析

为进一步验证改进算法在摩托车多目标跟踪方面的表现,将本文算法的追踪效果与YOLOv3-DeepSORT算法做了对比,结果如表5所示。相较YOLOv3-DeepSORT算法,本文算法在多目标跟踪准确率提升了15.9个百分点,达到67.5%。在多目标跟踪精度上提高了18.3个百分点,达到75.6%。视频处理速度也由6 FPS提升到20 FPS。

表5 本文方法与YOLOv3-DeepSORT的实验结果对比Table 5 Comparison of experimental results between this method and YOLOv3-DeepSORT

本文改进优化后的YOLOv3-DeepSORT算法,在复杂交通场景和遮挡交通场景下多目标追踪结果分别如图18和19所示。图中左上角的编号为对应的视频帧数,白色框为目标检测框,其余色彩框为跟踪器进行数据关联后的结果框。

图18中所测试的道路交通场景较为复杂,视频中包含人横穿马路、汽车行驶以及大量的摩托车行驶等情况。从第62帧和72帧图片可以看出,在摩托车外观信息不断变化的场景下,预测框仍然能够和检测框进行稳定的关联并且避免ID切换。说明改进的追踪算法在复杂多变的环境中能达到良好的跟踪效果。

图18 复杂交通场景可视化Fig.18 Visualization of complex traffic scene

图19中为对摩托车行驶时易发生遮挡情况的跟踪结果。在第3帧图中,ID为13号的目标在第13帧中仍能被重新识别为ID为13号的目标,说明改进的追踪算法具有一定的抗遮挡性。

图19 遮挡交通场景可视化Fig.19 Visualization of occluded traffic scenes

(1)引入MobileNet-Large模型替换YOLOv3的主干网络,在此基础上,采用CEM模块思想,结合SoftPool池化层和SE模块,设计出深浅语义融合增强模块,搭建ML-YOLOv3-DSCFEM目标检测网络。在多任务学习MTL框架下对DeepSORT算法中外观特征识别模型进行优化,实现对NPH模型的分类。提出一种基于多任务学习的ML-YOLOv3-DSCFEM摩托车头盔多目标跟踪算法。

(2)改进的YOLOv3网络精度提升了4.56个百分点,达到了88.27%,模型大小缩小到13.7%。改进与优化后的YOLOv3-DeepSORT算法多目标跟踪准确率提高到67.5%,多目标跟踪精度提升到75.6%。检测追踪速度由6 FPS提升到了20 FPS,最终对NPH模型分类精度达到72.42%。本文所提出的改进算法,能够对实际道路中摩托车驾乘者进行实时跟踪并检测出相应的驾乘者数量、位置和头盔佩戴等3个重要的道路行驶安全信息,具有较强的实用价值。

(3)本研究主要使用的数据集为开源数据集,采集过程中使用相机高度和角度变化较为单一,通过该方式训练出的网络目标检测鲁棒性会有所下降,也将影响后续的目标跟踪。在后续工作中,将会采集更多不同角度条件下的视频流并制作出相应的数据集,以提升网络的性能。

猜你喜欢头盔摩托车精度犬用战术头盔小学科学(学生版)(2021年10期)2021-12-28开摩托车的闪电小鸡小天使·一年级语数英综合(2021年3期)2021-05-08分析误差提精度中学生数理化·八年级物理人教版(2019年12期)2019-05-21小头盔,大防护红领巾·探索(2018年11期)2018-12-10当头盔遇上高科技小哥白尼(军事科学)(2018年9期)2018-12-08大笨狗酷比多小学生学习指导(爆笑校园)(2018年5期)2018-09-10基于DSPIC33F微处理器的采集精度的提高电子制作(2018年11期)2018-08-04汉字戴头盔小学生导刊(低年级)(2016年8期)2016-09-24图侃天下智慧少年(2016年2期)2016-06-24GPS/GLONASS/BDS组合PPP精度分析测绘科学与工程(2016年5期)2016-04-17

推荐访问:佩戴 头盔 算法

本文来源:http://www.zhangdahai.com/shiyongfanwen/qitafanwen/2023/0917/655530.html

  • 相关内容
  • 热门专题
  • 网站地图- 手机版
  • Copyright @ www.zhangdahai.com 大海范文网 All Rights Reserved 黔ICP备2021006551号
  • 免责声明:大海范文网部分信息来自互联网,并不带表本站观点!若侵害了您的利益,请联系我们,我们将在48小时内删除!