期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于YOLOv5的多任务自动驾驶环境感知算法 被引量:11
1
作者 张凯祥 朱明 《计算机系统应用》 2022年第9期226-232,共7页
自动驾驶任务是当前深度学习研究的热门领域,环境感知作为自动驾驶中最重要的模块之一,是一项极具挑战性并具有深远意义的任务,包括目标检测、车道线检测、可行驶区域分割等.传统的深度学习算法通常只解决环境感知中的一个检测任务,无... 自动驾驶任务是当前深度学习研究的热门领域,环境感知作为自动驾驶中最重要的模块之一,是一项极具挑战性并具有深远意义的任务,包括目标检测、车道线检测、可行驶区域分割等.传统的深度学习算法通常只解决环境感知中的一个检测任务,无法满足自动驾驶同时感知多种环境因素的需求.本文使用YOLOv5作为骨干网络及目标检测分支,结合实时语义分割网络ENet进行车道线检测和可行驶区域分割,实现了多任务自动驾驶环境感知算法,损失计算时采用α-IoU提高回归精度,对噪声有更好的鲁棒性.实验表明,在BDD100K数据集上,本文提出的算法结构优于当前现有的多任务深度学习网络,并且在GTX1080Ti上可达到76.3 FPS的速度. 展开更多
关键词 多任务 环境感知 目标检测 车道线检测 行驶区域分割 YOLOv5
下载PDF
无人驾驶场景多任务感知算法研究 被引量:1
2
作者 王志红 程尚 《武汉理工大学学报》 CAS 2023年第8期140-146,共7页
考虑到无人驾驶车载环境下算力受限,提出了一种基于YOLOv5和BiSeNet的多任务模型算法,使得多目标检测任务和可行驶区域分割任务共用一个特征提取网络。主干特征提取网络使用改进的CSPDarknet,之后分别对多目标检测网络和可行驶区域分割... 考虑到无人驾驶车载环境下算力受限,提出了一种基于YOLOv5和BiSeNet的多任务模型算法,使得多目标检测任务和可行驶区域分割任务共用一个特征提取网络。主干特征提取网络使用改进的CSPDarknet,之后分别对多目标检测网络和可行驶区域分割网络进行优化,最后在BDD100k数据集上进行实验。结果表明:多任务算法的目标检测精度mAP50可以达到65.4%,分割精度mIoU达到了88.7%,在RTX3090GPU上的推理速度可以达到81.3FPS,基本维持了与单任务算法相当的检测精度与推理速度。 展开更多
关键词 多任务 多目标检测 行驶区域分割 YOLOv5 BiSeNet
原文传递
基于特征融合的无人驾驶多任务感知算法
3
作者 孙传龙 赵红 +3 位作者 崔翔宇 牟亮 徐福良 路来伟 《复杂系统与复杂性科学》 CAS CSCD 北大核心 2023年第3期103-110,共8页
为提高无人驾驶汽车感知系统硬件资源利用率,构建了一种基于特征融合的无人驾驶多任务感知算法。采用改进的CSPDarknet53作为模型的主干网络,通过构建特征融合网络与特征融合模块对多尺度特征进行提取与融合,并以7种常见道路物体的检测... 为提高无人驾驶汽车感知系统硬件资源利用率,构建了一种基于特征融合的无人驾驶多任务感知算法。采用改进的CSPDarknet53作为模型的主干网络,通过构建特征融合网络与特征融合模块对多尺度特征进行提取与融合,并以7种常见道路物体的检测与可行驶区域的像素级分割两任务为例,设计多任务模型DaSNet(Detection and Segmentation Net)进行训练与测试。使用BDD100K数据集对YOLOv5s、Faster R-CNN以及U-Net模型进行训练,并对mAP、Dice系数以及检测速度等性能指标做出对比分析。研究结果表明:DaSNet多任务模型在道路物体检测任务上,mAP值分别比YOLOv5s和Faster RCNN高出0.5%和4.2%,在RTX2080Ti GPU上达到121FPS的检测速度;在占优先权与不占优先权的可行驶区域上分割的Dice值相较于U-Net网络分别高出了4.4%与6.8%,有较明显的提升。 展开更多
关键词 无人驾驶 多任务 特征融合 道路物体检测 行驶区域分割
下载PDF
面向自动驾驶的多任务环境感知算法
4
作者 宋绍京 陆婷婷 +2 位作者 孙翔 龚玉梅 陈建 《电子测量技术》 北大核心 2023年第24期157-163,共7页
为了解决复杂驾驶场景下目标检测精度较低而难以满足自动驾驶需求的问题,提出一种基于YOLOP的高效网络模型MEPNet。MEPNet可同时处理车辆检测、可行驶区域分割和车道线检测三项任务。首先,采用YOLOv7作为主体结构平衡精度与实时性;其次... 为了解决复杂驾驶场景下目标检测精度较低而难以满足自动驾驶需求的问题,提出一种基于YOLOP的高效网络模型MEPNet。MEPNet可同时处理车辆检测、可行驶区域分割和车道线检测三项任务。首先,采用YOLOv7作为主体结构平衡精度与实时性;其次,设计了FRFB模块增大感受野,以增强网络的特征提取能力;并且提出在检测网络的头部添加小目标检测层,有效减轻车辆遮挡和重叠现象对识别结果的干扰;最后使用CARAFE作为上采样算子,精准定位的轮廓的同时更好地保留图片的语义信息。实验表明,该算法推理速度达到42.5 fps,对比基线YOLOP,车辆检测的mAP50和Recall分别提升了6.8%和6.3%,车道线检测的准确率和IoU分别提升了6%和1%,可行驶区域分割的mIoU达到92.5%,大幅度提升了性能,并且进一步设计了MEPNet-s,实现了四任务目标检测,亦满足自动驾驶所需的准确性和实时性。 展开更多
关键词 复杂驾驶场景 目标检测 行驶区域分割 车道线检测 小目标 四任务目标检测
下载PDF
基于深度学习目标检测的可行驶区域分割 被引量:2
5
作者 徐征宇 朱宗晓 +1 位作者 周康 田微 《现代信息科技》 2020年第23期106-108,共3页
目前大多数的可行驶区域分割算法,是以网络结构复杂化为代价换取像素级的精确分割。为了降低训练出的网络结构的复杂度,较为轻量、快速地实现可行驶区域分割,对基于目标检测的可行驶区域分割方法进行了研究。该方法把可行驶区域的像素... 目前大多数的可行驶区域分割算法,是以网络结构复杂化为代价换取像素级的精确分割。为了降低训练出的网络结构的复杂度,较为轻量、快速地实现可行驶区域分割,对基于目标检测的可行驶区域分割方法进行了研究。该方法把可行驶区域的像素级标注转换为目标检测框标注,用目标检测算法实现可行驶区域分割。实验结果表明,目标检测方法也能较为准确地对可行驶区域进行分割。 展开更多
关键词 目标检测 行驶区域分割 矩形覆盖多边形
下载PDF
驾驶环境感知算法研究 被引量:1
6
作者 梁兴碧 《科学技术创新》 2022年第25期45-48,共4页
设计了一个基于深度学习的驾驶环境感知网络来同时进行目标检测、可行驶区域分割和车道线检测等三个任务。它由一个用于特征提取的编码器和三个用于处理特定任务的解码器组成。通过加入特征融合模块、注意力模块和多任务学习机制使得改... 设计了一个基于深度学习的驾驶环境感知网络来同时进行目标检测、可行驶区域分割和车道线检测等三个任务。它由一个用于特征提取的编码器和三个用于处理特定任务的解码器组成。通过加入特征融合模块、注意力模块和多任务学习机制使得改进后的算法更适合于驾驶环境感知,增强了对驾驶环境图像特征的提取,提升了模型识别精度和推理速度。在BDD100K数据集上进行的大量实验充分证明了所提出模型的有效性。 展开更多
关键词 驾驶环境感知 目标检测 行驶区域分割 车道线检测
下载PDF
基于双目视觉的可行驶区域分割方法 被引量:1
7
作者 段建民 管越 庄博阳 《电子测量技术》 2019年第18期138-143,共6页
为提高自动驾驶背景下视觉环境感知任务的鲁棒性,提出了一种基于双目视觉和可行驶区域剖面建模方法的非结构化可行驶区域分割算法。为改善视差计算的鲁棒性,以半全局块匹配(SGBM)算法框架为基础,改进其代价计算步骤提出了一种融合相对... 为提高自动驾驶背景下视觉环境感知任务的鲁棒性,提出了一种基于双目视觉和可行驶区域剖面建模方法的非结构化可行驶区域分割算法。为改善视差计算的鲁棒性,以半全局块匹配(SGBM)算法框架为基础,改进其代价计算步骤提出了一种融合相对梯度和AD-Census变换的匹配代价计算方法,经过代价聚合求得视差图。区域分割过程先统计视差图的垂直方向差异直方图,以此作为数据源提出一种描述可行驶区域剖面的抛物线模型,采用动态规划算法和随机采样一致性算法(RANSAC)对模型参数求解过程进行全局优化,经后处理过程实现可行驶区域的分割。通过KITTI数据集和实车采集数据验证,算法达到了19.8fps的速度和92%以上的分割准确率。 展开更多
关键词 自动驾驶 双目视觉 环境感知 立体匹配 行驶区域分割
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部