针对传统算法依赖于对红外目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰因素下的检测需求。论文提出一种基于改进YOLOv5(You Only Look Once)的复杂背景红外弱小目标检测算法。该算法在YOLOv5基础上,添加注意力机...针对传统算法依赖于对红外目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰因素下的检测需求。论文提出一种基于改进YOLOv5(You Only Look Once)的复杂背景红外弱小目标检测算法。该算法在YOLOv5基础上,添加注意力机制提高算法的特征提取能力和检测效率,同时改进原YOLOv5目标检测网络的损失函数和预测框的筛选方式提高算法对红外弱小目标检测的准确率。实验选取了来自不同复杂背景的7组红外弱小目标数据集,将这些图像数据集进行标注并训练,得到红外弱小目标检测模型,然后从模型训练结果和目标检测结果的角度评估算法和模型的正确性。实验结果表明:改进的YOLOv5算法训练出来的模型,检测准确性和检测速度对比实验列出的几种目标检测算法均有明显的提升,平均精度均值(mean Average Precision,m AP)可达99.6%以上,在不同复杂背景下均可有效检测出红外弱小目标,且漏警率、虚警率低。展开更多
遥感图像去噪对于遥感图像在后续的分类、检测等任务中有着非常重要的作用.为了让去噪后的图像更好地保留边缘细节信息,同时增强深度网络对噪声污染区域的辨识能力,本文结合注意力机制以及感知损失来处理遥感图像,提出了一种新的基于残...遥感图像去噪对于遥感图像在后续的分类、检测等任务中有着非常重要的作用.为了让去噪后的图像更好地保留边缘细节信息,同时增强深度网络对噪声污染区域的辨识能力,本文结合注意力机制以及感知损失来处理遥感图像,提出了一种新的基于残差自编码器的遥感图像去噪网络ARED-VGG.考虑到遥感图像中不同地物大小不同,该网络首先同时使用图像的空间和光谱信息来提取多尺度特征;然后使用残差自编码器网络结构来进行图像空间-光谱多尺度图像重建.为了增加网络的辨识能力,更多地关注网络中提取的高频特征,网络引入了注意力机制.同时为了让去噪后的结果更符合视觉感观,使用了感知损失混合均方误差作为损失函数.从实验结果知,本文所提出的方法在噪声去除和纹理细节保留方面与NLM3D、BM4D、LRMR、HSID-CNN和3DADCNN相比表现更优.在Washington DC mall遥感图像数据集上进行了仿真实验,平均峰值信噪比以及平均结构相似性指标都有较好的结果;在AVIRIS Indian Pines数据集上进行了真实数据实验,以去噪后的结果地物分类指标作为验证,整体分类精度以及Kappa系数分别为96.90%和0.9647;对网络结构进行了消融实验,在两个数据集下,本文所提出的网络结构都能获得更优的结果.本文提出基于注意力机制和感知损失的深度神经网络进行遥感图像去噪,提高了网络的辨识能力,实现了良好的去噪性能,并且有效保持了图像的细节信息和光谱信息.展开更多
针对现有的柑橘检测算法准确率低、模型参数量大、检测实时性差、不适用移动采摘设备等问题,提出一种基于改进轻量模型YOLO-DoC的柑橘检测方法。引入Bottleneck结构的ShuffleNetV2网络作为YOLOv5骨干网络模型,构造轻量化网络。同时加入...针对现有的柑橘检测算法准确率低、模型参数量大、检测实时性差、不适用移动采摘设备等问题,提出一种基于改进轻量模型YOLO-DoC的柑橘检测方法。引入Bottleneck结构的ShuffleNetV2网络作为YOLOv5骨干网络模型,构造轻量化网络。同时加入无参型SimAM注意力机制提高复杂环境下对目标的识别精度。为了提高检测网络对于目标果实的边界框定位精度,通过引入Alpha-IoU边界框回归损失函数的方法来获取目标的边界框。实验显示,YOLO-DoC模型的P(precision)值和mAP(mean average precision)值分别为98.8%和99.1%,参数量缩减为YOLOv5网络的1/7,模型的大小为2.8 MB。改进后的模型相比于原网络模型具有识别速度快、定位准度高以及占用内存少的优势,在满足精准采摘工作要求的前提下可以提高采摘效率。展开更多
发电厂厂区内违规吸烟易导致火灾、爆炸等事故,会带来巨大损失;针对电厂内人员违规吸烟行为检测精度不高的问题,提出一种基于改进YOLOv5s(You Only Look Once v5s)的电厂内人员违规吸烟检测方法;该方法以YOLOv5s网络为基础,将YOLOv5s网...发电厂厂区内违规吸烟易导致火灾、爆炸等事故,会带来巨大损失;针对电厂内人员违规吸烟行为检测精度不高的问题,提出一种基于改进YOLOv5s(You Only Look Once v5s)的电厂内人员违规吸烟检测方法;该方法以YOLOv5s网络为基础,将YOLOv5s网络C3模块Bottleneck中的3×3卷积替换为多头自注意力层以提高算法的学习能力;接着在网络中添加ECA(Efficient Channel Attention)注意力模块,让网络更加关注待检测目标;同时将YOLOv5s网络的损失函数替换为SIoU(Scylla Intersection over Union),进一步提高算法的检测精度;最后采用加权双向特征金字塔网络(BiFPN,Bidirectional Feature Pyramid Network)代替原先YOLOv5s的特征金字塔网络,快速进行多尺度特征融合;实验结果表明,改进后算法吸烟行为的检测精度为89.3%,与改进前算法相比平均精度均值(mAP,mean Average Precision)提高了2.2%,检测效果显著提升,具有较高应用价值。展开更多
文摘针对传统算法依赖于对红外目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰因素下的检测需求。论文提出一种基于改进YOLOv5(You Only Look Once)的复杂背景红外弱小目标检测算法。该算法在YOLOv5基础上,添加注意力机制提高算法的特征提取能力和检测效率,同时改进原YOLOv5目标检测网络的损失函数和预测框的筛选方式提高算法对红外弱小目标检测的准确率。实验选取了来自不同复杂背景的7组红外弱小目标数据集,将这些图像数据集进行标注并训练,得到红外弱小目标检测模型,然后从模型训练结果和目标检测结果的角度评估算法和模型的正确性。实验结果表明:改进的YOLOv5算法训练出来的模型,检测准确性和检测速度对比实验列出的几种目标检测算法均有明显的提升,平均精度均值(mean Average Precision,m AP)可达99.6%以上,在不同复杂背景下均可有效检测出红外弱小目标,且漏警率、虚警率低。
文摘遥感图像去噪对于遥感图像在后续的分类、检测等任务中有着非常重要的作用.为了让去噪后的图像更好地保留边缘细节信息,同时增强深度网络对噪声污染区域的辨识能力,本文结合注意力机制以及感知损失来处理遥感图像,提出了一种新的基于残差自编码器的遥感图像去噪网络ARED-VGG.考虑到遥感图像中不同地物大小不同,该网络首先同时使用图像的空间和光谱信息来提取多尺度特征;然后使用残差自编码器网络结构来进行图像空间-光谱多尺度图像重建.为了增加网络的辨识能力,更多地关注网络中提取的高频特征,网络引入了注意力机制.同时为了让去噪后的结果更符合视觉感观,使用了感知损失混合均方误差作为损失函数.从实验结果知,本文所提出的方法在噪声去除和纹理细节保留方面与NLM3D、BM4D、LRMR、HSID-CNN和3DADCNN相比表现更优.在Washington DC mall遥感图像数据集上进行了仿真实验,平均峰值信噪比以及平均结构相似性指标都有较好的结果;在AVIRIS Indian Pines数据集上进行了真实数据实验,以去噪后的结果地物分类指标作为验证,整体分类精度以及Kappa系数分别为96.90%和0.9647;对网络结构进行了消融实验,在两个数据集下,本文所提出的网络结构都能获得更优的结果.本文提出基于注意力机制和感知损失的深度神经网络进行遥感图像去噪,提高了网络的辨识能力,实现了良好的去噪性能,并且有效保持了图像的细节信息和光谱信息.
文摘针对现有的柑橘检测算法准确率低、模型参数量大、检测实时性差、不适用移动采摘设备等问题,提出一种基于改进轻量模型YOLO-DoC的柑橘检测方法。引入Bottleneck结构的ShuffleNetV2网络作为YOLOv5骨干网络模型,构造轻量化网络。同时加入无参型SimAM注意力机制提高复杂环境下对目标的识别精度。为了提高检测网络对于目标果实的边界框定位精度,通过引入Alpha-IoU边界框回归损失函数的方法来获取目标的边界框。实验显示,YOLO-DoC模型的P(precision)值和mAP(mean average precision)值分别为98.8%和99.1%,参数量缩减为YOLOv5网络的1/7,模型的大小为2.8 MB。改进后的模型相比于原网络模型具有识别速度快、定位准度高以及占用内存少的优势,在满足精准采摘工作要求的前提下可以提高采摘效率。
文摘发电厂厂区内违规吸烟易导致火灾、爆炸等事故,会带来巨大损失;针对电厂内人员违规吸烟行为检测精度不高的问题,提出一种基于改进YOLOv5s(You Only Look Once v5s)的电厂内人员违规吸烟检测方法;该方法以YOLOv5s网络为基础,将YOLOv5s网络C3模块Bottleneck中的3×3卷积替换为多头自注意力层以提高算法的学习能力;接着在网络中添加ECA(Efficient Channel Attention)注意力模块,让网络更加关注待检测目标;同时将YOLOv5s网络的损失函数替换为SIoU(Scylla Intersection over Union),进一步提高算法的检测精度;最后采用加权双向特征金字塔网络(BiFPN,Bidirectional Feature Pyramid Network)代替原先YOLOv5s的特征金字塔网络,快速进行多尺度特征融合;实验结果表明,改进后算法吸烟行为的检测精度为89.3%,与改进前算法相比平均精度均值(mAP,mean Average Precision)提高了2.2%,检测效果显著提升,具有较高应用价值。