针对当前基于深度神经网络的目标检测往往存在计算复杂度高、对硬件要求苛刻、难以在嵌入式平台和移动智能设备上运行且运行速率低等问题,提出一种基于YOLOv4(You Only Look Once Version4)的轻量化混合神经网络。此混合网络主干特征提...针对当前基于深度神经网络的目标检测往往存在计算复杂度高、对硬件要求苛刻、难以在嵌入式平台和移动智能设备上运行且运行速率低等问题,提出一种基于YOLOv4(You Only Look Once Version4)的轻量化混合神经网络。此混合网络主干特征提取网络采用轻量级MobileNeXt网络模型,并使用改进后RFB(Receptive Field Block)模型来增强特征提取网络,进而增大感受野;引入通道注意力机制SE(Squeeze-and-Excitation)模块,过滤筛选出高质量信息,使整个网络模型对特征提取更加高效。实验结果表明,在PASCAL VOC 2007数据集上,基于YOLOv4的轻量化混合神经网络模型大小仅占20.6 MB,很大程度上降低了原YOLOv4模型参数量,mAP(mean Average Precision)达到82.51%,帧处理速率为29.7 frame/s。,有较好的检测效果和较强的鲁棒性。展开更多
在工业生产中,安全帽对人体头部提供了较好的安全保障。在现场环境中,检验施工人员是否佩戴安全帽主要依靠人工检查,因而效率非常低。为了解决施工现场安全帽检测识别难题,提出一种基于深度级联网络模型的安全帽检测方法。首先通过You O...在工业生产中,安全帽对人体头部提供了较好的安全保障。在现场环境中,检验施工人员是否佩戴安全帽主要依靠人工检查,因而效率非常低。为了解决施工现场安全帽检测识别难题,提出一种基于深度级联网络模型的安全帽检测方法。首先通过You Only Look Once version 4(YOLOv4)检测网络对施工人员进行检测;然后运用注意力机制残差分类网络对人员ROI区域进行分类判断,识别其是否佩戴安全帽。该方法在Ubuntu18.04系统和Pytorch深度学习框架的实验环境中进行,在自主制作工业场景安全帽数据集中进行训练和测试实验。实验结果表明,基于深度级联网络的安全帽识别模型与YOLOv4算法相比,准确率提高了2个百分点,有效提升施工人员安全帽检测效果。展开更多
针对无人机航拍图像目标检测中视野变化大、时空信息复杂等问题,文中基于YOLOv5(You Only Look Once Version5)架构,提出基于图像低维特征融合的航拍小目标检测模型.引入CA(Coordinate Attention),改进MobileNetV3的反转残差块,增加图...针对无人机航拍图像目标检测中视野变化大、时空信息复杂等问题,文中基于YOLOv5(You Only Look Once Version5)架构,提出基于图像低维特征融合的航拍小目标检测模型.引入CA(Coordinate Attention),改进MobileNetV3的反转残差块,增加图像空间维度信息的同时降低模型参数量.改进YOLOv5特征金字塔网络结构,融合浅层网络中的特征图,增加模型对图像低维有效信息的表达能力,进而提升小目标检测精度.同时为了降低航拍图像中复杂背景带来的干扰,引入无参平均注意力模块,同时关注图像的空间注意力与通道注意力;引入VariFocal Loss,降低负样本在训练过程中的权重占比.在VisDrone数据集上的实验验证文中模型的有效性,该模型在有效提升检测精度的同时明显降低复杂度.展开更多
在自然场景中,天气情况、光照强度、背景干扰等问题影响火焰检测的准确性.为了实现复杂场景下实时准确的火焰检测,在目标检测网络YOLOv5的基础上,结合Focal Loss焦点损失函数、CIoU(Complete Intersection over Union)损失函数与多特征...在自然场景中,天气情况、光照强度、背景干扰等问题影响火焰检测的准确性.为了实现复杂场景下实时准确的火焰检测,在目标检测网络YOLOv5的基础上,结合Focal Loss焦点损失函数、CIoU(Complete Intersection over Union)损失函数与多特征融合,提出实时高效的火焰检测方法.为了缓解正负样本不均衡问题,并充分利用困难样本的信息,引入焦点损失函数,同时结合火焰静态特征和动态特征,设计多特征融合方法,达到剔除误报火焰的目的.针对国内外缺乏火焰数据集的问题,构建大规模、高质量的十万量级火焰数据集(http://www.yongxu.org/data bases.html).实验表明,文中方法在准确率、速度、精度和泛化能力等方面均有明显提升,同时降低误报率.展开更多
为了提高交通标志识别的速度和精度,提出了一种采用Yolov4(You only look once version4)深度学习框架的交通标志识别方法,并将该方法与SSD(single shot multi box detector)和Yolov3(You only look once version 3)算法进行对比,所提...为了提高交通标志识别的速度和精度,提出了一种采用Yolov4(You only look once version4)深度学习框架的交通标志识别方法,并将该方法与SSD(single shot multi box detector)和Yolov3(You only look once version 3)算法进行对比,所提算法模型参数量显著增加。进一步对Yolov4的主干特征提取网络和多尺度输出进行调整,提出轻量化的Yolov4算法。仿真实验表明,此算法能够快速有效检测交通标志,具有实时性和适用性。展开更多
针对当前海珍品捕捞机器人使用的水下目标检测算法参数量大,不适合部署在移动设备上等问题,提出一种基于YOLOv7-tiny(You Only Look Once version 7-tiny)的轻量化海珍品检测算法ES YOLOv7-tiny(EfficientNet-S YOLOv7-tiny)。在YOLOv7-...针对当前海珍品捕捞机器人使用的水下目标检测算法参数量大,不适合部署在移动设备上等问题,提出一种基于YOLOv7-tiny(You Only Look Once version 7-tiny)的轻量化海珍品检测算法ES YOLOv7-tiny(EfficientNet-S YOLOv7-tiny)。在YOLOv7-tiny基础上,首先,将骨干网络替换为改进的EfficientNet(EfficientNet-S),并将颈部网络中卷积核大小为3×3卷积替换为轻量化卷积,达到降低参数量的目的;其次,使用k-means++算法聚类锚框尺寸,提高推理速度;最后,使用知识蒸馏算法进一步提高精度。在RUIE(Real-world Underwater Image Enhancement)数据集上,所提算法平均精度均值(mAP)达到73.7%,检测速度达到123 frame/s,参数量为4.45×10^(6),与原YOLOv7-tiny算法相比,在mAP上提升了1.2个百分点,检测速度提升25 frame/s,参数量降低了1.56×10^(6)。实验结果表明,所提算法在提升精度的同时降低了参数量,并且加快了检测速度,证明了该算法的有效性。展开更多
文摘针对当前基于深度神经网络的目标检测往往存在计算复杂度高、对硬件要求苛刻、难以在嵌入式平台和移动智能设备上运行且运行速率低等问题,提出一种基于YOLOv4(You Only Look Once Version4)的轻量化混合神经网络。此混合网络主干特征提取网络采用轻量级MobileNeXt网络模型,并使用改进后RFB(Receptive Field Block)模型来增强特征提取网络,进而增大感受野;引入通道注意力机制SE(Squeeze-and-Excitation)模块,过滤筛选出高质量信息,使整个网络模型对特征提取更加高效。实验结果表明,在PASCAL VOC 2007数据集上,基于YOLOv4的轻量化混合神经网络模型大小仅占20.6 MB,很大程度上降低了原YOLOv4模型参数量,mAP(mean Average Precision)达到82.51%,帧处理速率为29.7 frame/s。,有较好的检测效果和较强的鲁棒性。
文摘在工业生产中,安全帽对人体头部提供了较好的安全保障。在现场环境中,检验施工人员是否佩戴安全帽主要依靠人工检查,因而效率非常低。为了解决施工现场安全帽检测识别难题,提出一种基于深度级联网络模型的安全帽检测方法。首先通过You Only Look Once version 4(YOLOv4)检测网络对施工人员进行检测;然后运用注意力机制残差分类网络对人员ROI区域进行分类判断,识别其是否佩戴安全帽。该方法在Ubuntu18.04系统和Pytorch深度学习框架的实验环境中进行,在自主制作工业场景安全帽数据集中进行训练和测试实验。实验结果表明,基于深度级联网络的安全帽识别模型与YOLOv4算法相比,准确率提高了2个百分点,有效提升施工人员安全帽检测效果。
文摘针对无人机航拍图像目标检测中视野变化大、时空信息复杂等问题,文中基于YOLOv5(You Only Look Once Version5)架构,提出基于图像低维特征融合的航拍小目标检测模型.引入CA(Coordinate Attention),改进MobileNetV3的反转残差块,增加图像空间维度信息的同时降低模型参数量.改进YOLOv5特征金字塔网络结构,融合浅层网络中的特征图,增加模型对图像低维有效信息的表达能力,进而提升小目标检测精度.同时为了降低航拍图像中复杂背景带来的干扰,引入无参平均注意力模块,同时关注图像的空间注意力与通道注意力;引入VariFocal Loss,降低负样本在训练过程中的权重占比.在VisDrone数据集上的实验验证文中模型的有效性,该模型在有效提升检测精度的同时明显降低复杂度.
文摘为了提高交通标志识别的速度和精度,提出了一种采用Yolov4(You only look once version4)深度学习框架的交通标志识别方法,并将该方法与SSD(single shot multi box detector)和Yolov3(You only look once version 3)算法进行对比,所提算法模型参数量显著增加。进一步对Yolov4的主干特征提取网络和多尺度输出进行调整,提出轻量化的Yolov4算法。仿真实验表明,此算法能够快速有效检测交通标志,具有实时性和适用性。
文摘针对当前海珍品捕捞机器人使用的水下目标检测算法参数量大,不适合部署在移动设备上等问题,提出一种基于YOLOv7-tiny(You Only Look Once version 7-tiny)的轻量化海珍品检测算法ES YOLOv7-tiny(EfficientNet-S YOLOv7-tiny)。在YOLOv7-tiny基础上,首先,将骨干网络替换为改进的EfficientNet(EfficientNet-S),并将颈部网络中卷积核大小为3×3卷积替换为轻量化卷积,达到降低参数量的目的;其次,使用k-means++算法聚类锚框尺寸,提高推理速度;最后,使用知识蒸馏算法进一步提高精度。在RUIE(Real-world Underwater Image Enhancement)数据集上,所提算法平均精度均值(mAP)达到73.7%,检测速度达到123 frame/s,参数量为4.45×10^(6),与原YOLOv7-tiny算法相比,在mAP上提升了1.2个百分点,检测速度提升25 frame/s,参数量降低了1.56×10^(6)。实验结果表明,所提算法在提升精度的同时降低了参数量,并且加快了检测速度,证明了该算法的有效性。