期刊文献+
共找到24篇文章
< 1 2 >
每页显示 20 50 100
基于深度学习的场景分割算法研究综述 被引量:24
1
作者 张蕊 李锦涛 《计算机研究与发展》 EI CSCD 北大核心 2020年第4期859-875,共17页
场景分割的目标是判断场景图像中每个像素的类别.场景分割是计算机视觉领域重要的基本问题之一,对场景图像的分析和理解具有重要意义,同时在自动驾驶、视频监控、增强现实等诸多领域具有广泛的应用价值.近年来,基于深度学习的场景分割... 场景分割的目标是判断场景图像中每个像素的类别.场景分割是计算机视觉领域重要的基本问题之一,对场景图像的分析和理解具有重要意义,同时在自动驾驶、视频监控、增强现实等诸多领域具有广泛的应用价值.近年来,基于深度学习的场景分割技术取得了突破性进展,与传统场景分割算法相比获得分割精度的大幅度提升.首先分析和描述场景分割问题面临的3个主要难点:分割粒度细、尺度变化多样、空间相关性强;其次着重介绍了目前大部分基于深度学习的场景分割算法采用的“卷积反卷积”结构;在此基础上,对近年来出现的基于深度学习的场景分割算法进行梳理,介绍针对场景分割问题的3个主要难点,分别提出基于高分辨率语义特征图、基于多尺度信息和基于空间上下文等场景分割算法;简要介绍常用的场景分割公开数据集;最后对基于深度学习的场景分割算法的研究前景进行总结和展望. 展开更多
关键词 场景分割 图像分割 深度学习 神经网络 全卷积网络
下载PDF
结合特征图切分的图像语义分割 被引量:11
2
作者 曹峰梅 田海杰 +1 位作者 付君 刘静 《中国图象图形学报》 CSCD 北大核心 2019年第3期464-473,共10页
目的基于全卷积神经网络的图像语义分割研究已成为该领域的主流研究方向。然而,在该网络框架中由于特征图的多次下采样使得图像分辨率逐渐下降,致使小目标丢失,边缘粗糙,语义分割结果较差。为解决或缓解该问题,提出一种基于特征图切分... 目的基于全卷积神经网络的图像语义分割研究已成为该领域的主流研究方向。然而,在该网络框架中由于特征图的多次下采样使得图像分辨率逐渐下降,致使小目标丢失,边缘粗糙,语义分割结果较差。为解决或缓解该问题,提出一种基于特征图切分的图像语义分割方法。方法本文方法主要包含中间层特征图切分与相对应的特征提取两部分操作。特征图切分模块主要针对中间层特征图,将其切分成若干等份,同时将每一份上采样至原特征图大小,使每个切分区域的分辨率增大;然后,各个切分特征图通过参数共享的特征提取模块,该模块中的多尺度卷积与注意力机制,有效利用各切块的上下文信息与判别信息,使其更关注局部区域的小目标物体,提高小目标物体的判别力。进一步,再将提取的特征与网络原输出相融合,从而能够更高效地进行中间层特征复用,对小目标识别定位、分割边缘精细化以及网络语义判别力有明显改善。结果在两个城市道路数据集CamVid以及GATECH上进行验证实验,论证本文方法的有效性。在CamVid数据集上平均交并比达到66. 3%,在GATECH上平均交并比达到52. 6%。结论基于特征图切分的图像分割方法,更好地利用了图像的空间区域分布信息,增强了网络对于不同空间位置的语义类别判定能力以及小目标物体的关注度,提供更有效的上下文信息和全局信息,提高了网络对于小目标物体的判别能力,改善了网络整体分割性能。 展开更多
关键词 深度学习 全卷积神经网络 语义分割 场景解析 特征切分 多尺度 特征复用
原文传递
面向微光/红外融合彩色夜视的场景解析方法 被引量:7
3
作者 鲁佳颖 谷小婧 顾幸生 《红外与激光工程》 EI CSCD 北大核心 2017年第8期29-34,共6页
彩色夜视技术可以将微光/红外双谱图像融合成一幅适于人眼观察的彩色图像,而恰当的场景解析方法能够对彩色夜视图像的内容做出自动化分析,进一步减轻人眼的观测负担。针对彩色夜视场景丰富多变、对算法灵活性要求高的特点,提出了一种可... 彩色夜视技术可以将微光/红外双谱图像融合成一幅适于人眼观察的彩色图像,而恰当的场景解析方法能够对彩色夜视图像的内容做出自动化分析,进一步减轻人眼的观测负担。针对彩色夜视场景丰富多变、对算法灵活性要求高的特点,提出了一种可在线扩展的场景解析方法。该方法基于非参数模型,预测景物类别时不需要训练过程,只需要使用数据库中具有语义标记的样本图像,通过将待解析图像与样本图像进行全局及局部匹配来实现语义标签的传递。而且,数据库可以根据应用场景的不同随时进行动态扩充。实验结果表明:该方法在包含城市、乡野等多种场景的夜视图像上,以及由统计色彩映射、TNO、NRL等多种融合方法得到的、具有不同色彩表征的彩色夜视图像上都具有令人满意的准确率。 展开更多
关键词 彩色夜视 场景解析 非参数模型 超像素特征 马尔科夫随机场
下载PDF
一种双层条件随机场的场景解析方法 被引量:7
4
作者 李艳丽 周忠 吴威 《计算机学报》 EI CSCD 北大核心 2013年第9期1898-1907,共10页
现有的场景解析方法主要依赖于先验模型,由于先验模型难于全面表示物体的各种细节部分,使得场景解析后的物体不够精细.针对这个问题,该文引入了局部颜色模型,提出了一种结合先验和局部颜色模型的双层条件随机场的场景解析方法.首先以超... 现有的场景解析方法主要依赖于先验模型,由于先验模型难于全面表示物体的各种细节部分,使得场景解析后的物体不够精细.针对这个问题,该文引入了局部颜色模型,提出了一种结合先验和局部颜色模型的双层条件随机场的场景解析方法.首先以超像素为结点构建一个条件随机场,根据颜色、梯度、纹理和几何等外观特征训练出的先验模型粗略解析场景,进而提取场景中每个物体的局部颜色模型;然后构建一个以像素点为结点的条件随机场,通过EM(Expectation-Maximization)迭代法更新物体的局部颜色模型来指导优化场景解析.实验结果表明,相比于以往单纯利用先验模型的场景解析方法,该方法能有效地保持场景细节、提高解析精度. 展开更多
关键词 场景解析 先验模型 局部颜色模型 条件随机场 EM迭代
下载PDF
基于边界图卷积的机器人行驶路障场景解析 被引量:1
5
作者 徐高 周武杰 叶绿 《浙江科技学院学报》 CAS 2023年第5期402-411,共10页
【目的】为了使地面机器人行驶过程中能准确识别出路障以避免发生碰撞,提出一种边界图卷积双向监督网络(boundary-graph convolution bidirectional supervised network,B-GCBSNet)的场景解析算法。【方法】首先使用统一变换器(unified ... 【目的】为了使地面机器人行驶过程中能准确识别出路障以避免发生碰撞,提出一种边界图卷积双向监督网络(boundary-graph convolution bidirectional supervised network,B-GCBSNet)的场景解析算法。【方法】首先使用统一变换器(unified transformer,UniFormer)作为主干网络分别对输入的RGB(red,green,blue,红绿蓝)图像和深度图像进行特征提取;其次利用设计的多模态上下文融合模块(multimodal context fusion module,MCFM)将深度图包含的丰富空间信息补充给RGB图以提取更丰富的语义特征,在解码阶段设计了双向监督模块(bidirectional supervision module,BSM);再次,将含有更多全局信息的低级特征进行边缘化处理以得到边界信息,并通过二分类交叉熵损失函数(binary cross entropy loss,BCELoss)进行监督,而包含更多局部信息的高级特征,则通过图卷积来补充特征的全局上下文,以弥补传统卷积神经网络(convolutional neural network,CNN)提取高级特征时忽略局部位置信息的不足,并通过多分类交叉熵损失函数(cross entropy loss,CELoss)进行监督;最后将边界特征和分割特征进行整合得到最终的场景解析结果。【结果】在机器人行驶路障场景数据集(ground mobile robot perception,GMRP)上进行了试验,与已有的先进方法相比,B-GCBSNet的平均交并比(mean intersection over union,MIoU)达到了93.54%,平均类别准确率(mean classification accuracy,mAcc)达到了98.89%,像素准确率(pixel accuracy,PA)达到了98.85%。【结论】B-GCBSNet能较为准确地识别障碍物及可行驶道路,从而为地面机器人行驶过程中障碍物的识别研究提供了参考。 展开更多
关键词 场景解析 边界监督 多尺度 上下文 图卷积
下载PDF
一种改进HRNetV2和聚合注意力的场景解析方法
6
作者 张岩 孙英伟 《重庆理工大学学报(自然科学)》 北大核心 2023年第10期136-145,共10页
智能化环境和服务的重要基础在于能够对环境进行视觉建模,使其具有视觉识别和理解能力。为此,提出一种用于智能服务机器人的场景解析深度网络模型Shuffle-HRNet以实现自主移动和服务。设计一种Shuffle模块并引入HRNetV2网络,实现不同通... 智能化环境和服务的重要基础在于能够对环境进行视觉建模,使其具有视觉识别和理解能力。为此,提出一种用于智能服务机器人的场景解析深度网络模型Shuffle-HRNet以实现自主移动和服务。设计一种Shuffle模块并引入HRNetV2网络,实现不同通道之间的信息交互,降低模型参数量并提高计算效率;提出一种聚合注意力感知模块,使网络关注每个通道中不同的有效特征信息、抑制不相关特征;在SmartLib数据集上对Shuffle-HRNet和主流分割方法进行了对比和消融实验。实验结果表明,Shuffle-HRNet能够对内部环境实现场景解析和准确分割。相比其他方法,Shuffle-HRNet具有更高的分割效率和更低的参数量,可部署于机器人以实现室内场景自主移动进而提供多元化服务。 展开更多
关键词 智慧图书馆 场景解析 聚合注意力感知 计算机视觉 人工智能
下载PDF
面向场景解析的空间结构化编码深度网络 被引量:2
7
作者 张国印 王泽宇 +1 位作者 吴艳霞 布树辉 《哈尔滨工程大学学报》 EI CAS CSCD 北大核心 2017年第12期1928-1936,共9页
为了研究有效的特征提取和精确的空间结构化学习对提升场景解析效果的作用,本文提高出基于全卷积神经网络空间结构化编码深度网络,网络内嵌的结构化学习层有机地结合了图模型网络和空间结构化编码算法,算法能够比较准确地描述物体所处... 为了研究有效的特征提取和精确的空间结构化学习对提升场景解析效果的作用,本文提高出基于全卷积神经网络空间结构化编码深度网络,网络内嵌的结构化学习层有机地结合了图模型网络和空间结构化编码算法,算法能够比较准确地描述物体所处空间的物体分布以及物体间的空间位置关系。通过空间结构化编码深度网络,网络不仅能够提取包含多层形状信息的多维视觉特征,而且可以生成包含结构化信息的空间关系特征,从而得到更为准确表达图像语义信息的混合特征。实验结果表明:在SIFT FLOW和PASCAL VOC 2012标准数据集上,空间结构化编码深度网络较现有方法能够显著地提升场景解析的准确率。 展开更多
关键词 场景解析 全卷积神经网络 图模型 空间结构化编码算法 多维视觉特征 空间关系特征 混合特征
下载PDF
Objectness Region Enhancement Networks for Scene Parsing
8
作者 Xin-Yu Ou Ping Li +2 位作者 He-Fei Ling Si Liu Tian-Jiang Wang 《Journal of Computer Science & Technology》 SCIE EI CSCD 2017年第4期683-700,共18页
Semantic segmentation has recently witnessed rapid progress, but existing methods only focus on identifying objects or instances. In this work, we aim to address the task of semantic understanding of scenes with deep ... Semantic segmentation has recently witnessed rapid progress, but existing methods only focus on identifying objects or instances. In this work, we aim to address the task of semantic understanding of scenes with deep learning. Different from many existing methods, our method focuses on putting forward some techniques to improve the existing algorithms, rather than to propose a whole new framework. Objectness enhancement is the first effective technique. It exploits the detection module to produce object region proposals with category probability, and these regions are used to weight the parsing feature map directly. 'Extra background' category, as a specific category, is often attached to the category space for improving parsing result in semantic and instance segmentation tasks. In scene parsing tasks, extra background category is still beneficial to improve the model in training. However, some pixels may be assigned into this nonexistent category in inference. Black-hole filling technique is proposed to avoid the incorrect classification. For verifying these two techniques, we integrate them into a parsing framework for generating parsing result. We call this unified framework as Objectness Enhancement Network (OENet). Compared with previous work, our proposed OENet system effectively improves the performance over the original model on SceneParse150 scene parsing dataset, reaching 38.4 mIoU (mean intersection-over-union) and 77.9% accuracy in the validation set without assembling multiple models. Its effectiveness is also verified on the Cityscapes dataset. 展开更多
关键词 objectness region enhancement black-hole filling scene parsing instance enhancement objectness region proposal
原文传递
应用于农业场景视觉解析任务的番茄数据集 被引量:1
9
作者 周玲莉 任妮 +3 位作者 张文翔 程雅雯 陈诚 易中懿 《农业大数据学报》 2021年第4期70-76,共7页
农业机器人是农业现代化发展中的一项重要组成部分,计算机视觉技术通过对作物和环境的感知与解析,有效促进其在农业领域的落地与应用。但由于农业场景的复杂性、多样性,当前先进计算机视觉方法所需要的详细且注释的大规模图像数据集在... 农业机器人是农业现代化发展中的一项重要组成部分,计算机视觉技术通过对作物和环境的感知与解析,有效促进其在农业领域的落地与应用。但由于农业场景的复杂性、多样性,当前先进计算机视觉方法所需要的详细且注释的大规模图像数据集在农业领域十分稀缺,这也是阻碍计算机视觉技术在农业领域发展的一个主要瓶颈。针对这一痛点,该文提供了一个可用于图像语义分割、图像实例分割、目标检测任务的大规模番茄图像数据集。该数据集由两部分组成,分别为合成部分和经验部分。其中合成部分使用Wagenin⁃gen大学等人提出的数据合成方法,生成3250张合成番茄图像以及对应的像素级别语义分割标签图;经验部分由RGB相机拍摄的750张单目图像和400张双目图像构成,并人工对它们部分进行了包括实例分割、目标检测等在内的精细标注。研究旨在从多个角度丰富该数据集,包括数据集的大小、标注信息的多维度、场景的复杂性等方面,为今后利用计算机视觉技术解决农业领域问题提供数据基础。 展开更多
关键词 番茄 图像 农业领域 场景解析
下载PDF
基于CUDA架构的高速RGBD场景解析算法研究
10
作者 沈超 王斌 吴晓峰 《微型电脑应用》 2018年第3期42-46,共5页
场景解析是计算机视觉算法的基本任务之一。随着深度传感器的发展,获取RGBD场景数据已经变的较为方便。针对RGBD场景解析,提出了一种基于CUDA架构的高速算法。该方法是在gSLICr算法基础上,引入带空间平滑约束的深度信息,结合边缘支持,形... 场景解析是计算机视觉算法的基本任务之一。随着深度传感器的发展,获取RGBD场景数据已经变的较为方便。针对RGBD场景解析,提出了一种基于CUDA架构的高速算法。该方法是在gSLICr算法基础上,引入带空间平滑约束的深度信息,结合边缘支持,形成BSD-gSLICr算法,对场景进行超高速过分割。结合多特征的带权Felzen-Hutten算法,将过分割块构成的无向图进行多层级的图割归并,实现高速场景解析。实验结果表明提出的算法在保证效果和鲁棒性的基础上,运行速度可以达到实时要求。 展开更多
关键词 RGBD 场景解析 过分割 CUDA 层级图割
下载PDF
StreeTalk慢行导航系统
11
作者 刘浏 张帆 +6 位作者 周博磊 王舟童 李颖欣 田晓劼(整理) 佘依爽(整理) 田乐(整理/译) 张健(译) 《景观设计学(中英文)》 CSCD 2018年第2期94-101,共8页
不同于当前以出行效率为主要考量因素的传统导航系统,SlreeTalk慢行导肮系统更注重行人和骑行者的感受,特别是对安全感和舒适度的需求.通过运用物体检测识别及场景语义分割等技术,城市街景的深度图像特征被提取出来。之后,结合深度学习... 不同于当前以出行效率为主要考量因素的传统导航系统,SlreeTalk慢行导肮系统更注重行人和骑行者的感受,特别是对安全感和舒适度的需求.通过运用物体检测识别及场景语义分割等技术,城市街景的深度图像特征被提取出来。之后,结合深度学习模型,机器可以预判人类对周边环境的感知,并为数以千万计的街景照片评分,从而建立起可以直观显示街道安全和舒适程度的导航系统。相关技术不仅可以提供定制化、全方位的慢行导航服务,为城市研究及决策、城市景观设计提供相关依据,也为未来城市生活创造了更多可能。 展开更多
关键词 城市街道 安全感与舒适度 懂行导航系统 深度学习 物体检测识别 场景语义分割
原文传递
基于马尔科夫随机场的非参数化RGB-D场景理解
12
作者 费婷婷 龚小谨 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2016年第7期1322-1329,共8页
针对RGB-D场景下的场景理解问题,提出高效的基于标签传递机制的非参数化场景理解算法.该算法主要分为标签源构建、超像素双向匹配和标签传递三个步骤.与传统的参数化RGB-D场景理解方法相比,该算法不需要繁琐的训练,具有简单高效的特点.... 针对RGB-D场景下的场景理解问题,提出高效的基于标签传递机制的非参数化场景理解算法.该算法主要分为标签源构建、超像素双向匹配和标签传递三个步骤.与传统的参数化RGB-D场景理解方法相比,该算法不需要繁琐的训练,具有简单高效的特点.与传统的非参数化场景理解方法不同,该算法在系统的各个设计环节都有效利用了深度图提供的三维信息,在超像素匹配环节提出双向匹配机制,以减少特征误匹配;构建基于协同表示分类(CRC)的马尔科夫随机场(MRF),用Graph Cuts方法求出最优解,获得场景图像每个像素的语义标签.该算法分别在室内的NYU-V1数据集和室外的KITTI数据集上进行实验.实验结果表明,与现有算法相比,该算法取得了显著的性能提升,对室内、外场景均适用. 展开更多
关键词 场景理解 非参数化 RGB-D 马尔科夫随机场(MRF)
下载PDF
结合金字塔池化模块的YOLOv2的井下行人检测 被引量:20
13
作者 王琳 卫晨 +1 位作者 李伟山 张钰良 《计算机工程与应用》 CSCD 北大核心 2019年第3期133-139,共7页
煤矿井下的行人检测对于保障井下作业人员的安全至关重要。煤矿井下光照暗、粉尘大,直接用YOLOv2检测井下行人,准确率低,仅达到54.3%。针对此问题,以YOLOv2网络为基础,结合了金字塔场景解析网络(PSPnet)中的金字塔池化模块,充分利用图... 煤矿井下的行人检测对于保障井下作业人员的安全至关重要。煤矿井下光照暗、粉尘大,直接用YOLOv2检测井下行人,准确率低,仅达到54.3%。针对此问题,以YOLOv2网络为基础,结合了金字塔场景解析网络(PSPnet)中的金字塔池化模块,充分利用图片的上下文信息,提出了YOLOv2_PPM网络。在井下行人检测数据集上进行实验,YOLOv2_PPM网络的准确率提升到63.5%,较YOLOv2网络增加了9.2%,且速度达到了39帧/s(FPS)。当输入图片的大小为480×480时,检测的准确率提升到71.6%,同时速度为28帧/s,满足了实时检测的要求。 展开更多
关键词 目标检测 行人检测 YOLOv2 金字塔场景解析网络(PSPnet)
下载PDF
水下机器人实时智能裂缝检测算法 被引量:3
14
作者 邱昕捷 韩凤磊 赵望源 《哈尔滨工程大学学报》 EI CAS CSCD 北大核心 2023年第5期774-782,共9页
大坝水下部分的裂缝检测是大坝维护维修的主要技术难点,采用水下机器人检测维修是未来发展的趋势。为解决水下机器人实现裂缝检测过程中的水下图像增强、语义分割、裂纹识别以及裂纹面积计算等问题,本文基于该工程需求提出了改进金字塔... 大坝水下部分的裂缝检测是大坝维护维修的主要技术难点,采用水下机器人检测维修是未来发展的趋势。为解决水下机器人实现裂缝检测过程中的水下图像增强、语义分割、裂纹识别以及裂纹面积计算等问题,本文基于该工程需求提出了改进金字塔场景解析网络算法,并对该算法神经网络结构的超参数进行了优化。针对水下作业需求提出了激光辅助测量的面积计算方法,并进行了真实环境实验验证。实验数据表明:与其他算法相比所提出的网络结构优化了损失值、平均交并比。研究表明:优化后的语义分割算法能满足水下机器人作业对不同形态裂缝检测的实时性、精准性要求。 展开更多
关键词 人工智能 裂缝检测 计算机视觉 图像处理 金字塔场景解析网络 语义分割 神经网络 深度学习 水下
下载PDF
基于自蒸馏和双模态的室内场景解析算法
15
作者 张喻铭 周武杰 叶绿 《浙江科技学院学报》 CAS 2024年第3期218-227,270,共11页
【目的】为了使室内机器人能准确地识别室内不同类别的物体,从而选择更安全可行的路线,提出一种用于室内场景解析的基于自蒸馏和双模态的自蒸馏多级级联网络(self-distillation multi-stage cascaded network,SMCNet)。【方法】首先,使... 【目的】为了使室内机器人能准确地识别室内不同类别的物体,从而选择更安全可行的路线,提出一种用于室内场景解析的基于自蒸馏和双模态的自蒸馏多级级联网络(self-distillation multi-stage cascaded network,SMCNet)。【方法】首先,使用分割变换器(segmentation transformer,SegFormer)作为骨干网络以双流的方式分别提取三色图(red green blue,RGB)和深度图中的特征信息,得到4组特征输出;其次,设计了特征增强模块(feature enhancement module,FEM),将这四组特征进行特征增强后分组融合,以充分提取双模态特征中的有用信息并充分交融;最后,设计了自蒸馏监督模块(self-distillation supervision module,SSM),通过自蒸馏方法将高层特征中的有价值信息传递到低层特征中,并设计了多级级联监督模块(multi-stage cascaded supervision module,MCSM)进行跨层监督,得到最终的预测图。【结果】在室内场景双模态数据集纽约大学深度版本2(New York University Depth version 2,NYUDv2)和场景理解彩色-深度(scene understanding red green blue-depth,SUN RGB-D)上,相比已有的方法,本研究提出的模型在相同条件下得到的结果超过其他方法,均值交并比(mean intersection over union,MIoU)在NYUDv2和SUN RGB-D两个数据集上分别达到了57.3%和53.1%。【结论】SMCNet能比较准确地解析出室内场景中不同类别的物体,可为室内机器人获取室内视觉信息提供一定的技术支撑。 展开更多
关键词 室内场景解析 自蒸馏 多级级联 双模态
下载PDF
基于注意力机制与多尺度池化的实时语义分割网络 被引量:2
16
作者 王卓 瞿绍军 《计算机工程》 CAS CSCD 北大核心 2023年第10期222-229,238,共9页
现有语义分割算法在精确度方面表现良好,但在速度上难以满足实时性要求。为提升网络分割速度同时确保高精确度,提出一种新型实时语义分割网络。设计融合通道注意力模块,先通过最大池化和平均池化捕捉全局特征,对池化后的特征图进行级联... 现有语义分割算法在精确度方面表现良好,但在速度上难以满足实时性要求。为提升网络分割速度同时确保高精确度,提出一种新型实时语义分割网络。设计融合通道注意力模块,先通过最大池化和平均池化捕捉全局特征,对池化后的特征图进行级联、卷积和变形以得到各通道权重,再将原特征图与各通道权重进行矩阵乘法操作,得到融合通道权重。将融合通道权重与原特征图进行元素级乘法操作,保证各通道权重与原特征图有效融合。提出一种轻量化金字塔场景解析模块,使用多尺度池化操作充分捕捉多尺度目标特征,在原金字塔场景解析模块的基础上减少池化后的特征图通道数,从而降低计算量。池化后特征图以级联方式连接,利用输入特征图引导连接后的特征图,以有效融合高层和低层特征图。在公共图像数据集Cityscapes上进行实验,结果表明,该网络在验证集、测试集上的准确率分别达到74.6%、73.8%,分割速度达到60.6帧/s,分割性能优于ICNet、DFANet-A等网络。 展开更多
关键词 语义分割 全局特征 注意力机制 金字塔场景解析 多尺度池化
下载PDF
基于金字塔池化网络的质子交换膜燃料电池气体扩散层组分推理方法
17
作者 王虎 尹泽泉 +6 位作者 王雯婕 黄笠舟 方宁宁 隋俊友 张加乐 张锐明 隋邦傑 《重庆大学学报》 CAS CSCD 北大核心 2024年第1期84-92,共9页
针对质子交换膜燃料电池气体扩散层(gas diffusion layer composition,GDL)形貌划分与制备工艺改进问题,提出了一种基于金字塔池化网络(pyramid scene parsing network,PSPNet)与多层感知器(multi-layer perception,MLP)的气体扩散层组... 针对质子交换膜燃料电池气体扩散层(gas diffusion layer composition,GDL)形貌划分与制备工艺改进问题,提出了一种基于金字塔池化网络(pyramid scene parsing network,PSPNet)与多层感知器(multi-layer perception,MLP)的气体扩散层组分识别与比例推理方法:首先将带标签的气体扩散层扫描电镜(scanning electron microscope,SEM)图片输入神经网络,得到特征图;得到的图像特征层进入金字塔池化模块后,获取SEM图像的深层和浅层特征;随后将深层和浅层特征图层融合输入全卷积网络(fully convolutional network,FCN)模块,得到预测图像;最后统计各个组分上的像素点比例,通过MLP完成组分比例推理。结果表明:所提方法组分识别像素准确率达81.24%;在5%偏差范围内,比例推理准确率为88.89%。该方法解决了气体扩散层多组分无法区分、比例无法获知的问题,可有效应用于气体扩散层的质检、数值重构以及制备工艺改进。 展开更多
关键词 质子交换膜燃料电池 气体扩散层制备 扫描电镜 人工智能 金字塔池化网络 多层感知器
下载PDF
基于改进PSPnet-MobileNetV2的煤岩界面快速精准识别
18
作者 王海舰 刘丽丽 +1 位作者 赵雪梅 张强 《振动.测试与诊断》 EI CSCD 北大核心 2024年第4期793-800,832,833,共10页
针对短时间主动热激励作用下煤岩介质表征差异不明显,不易快速、准确识别煤岩界面的难题,提出一种基于改进金字塔场景解析网络(pyramid scene parsing network,简称PSPnet)模型-MobileNetV2的煤岩界面快速精准识别方法。通过搭建煤岩主... 针对短时间主动热激励作用下煤岩介质表征差异不明显,不易快速、准确识别煤岩界面的难题,提出一种基于改进金字塔场景解析网络(pyramid scene parsing network,简称PSPnet)模型-MobileNetV2的煤岩界面快速精准识别方法。通过搭建煤岩主动红外试验平台,采集并获取短时主动热激励作用下的煤岩界面红外热图像,构建了煤岩红外图像数据集;对传统PSPnet模型进行改进,采用轻量级网络模型MobileNetV2作为主干网络提取特征,大幅降低了网络模型所占内存和训练时间,同时将注意力机制模块(convolutional block attention module,简称CBAM)与金字塔场景解析(pyramid scene parsing,简称PSP)模块的上采样特征层和PSPnet网络模型的浅层特征层进行融合,有效提升模型对特征的细化能力。试验结果表明:基于改进的PSPnet-MobileNetV2网络模型所占内存仅为9.12 MB,较原始PSPnet模型减少了94.88%;煤和岩的交并比为96.52%和96.87%,分别提升了8.29%和7.7%;像素准确度分别为97.25%和99.15%,较原始网络模型分别提升了7.32%和1.64%;测试时间降低了53.70%。该方法为煤岩界面的快速和预先精准识别提供了一种有效技术手段。 展开更多
关键词 煤岩识别 主动红外激励 金字塔场景解析网络(PSPnet) MobileNetV2 注意力机制模块
下载PDF
面向交通场景解析的局部和全局上下文注意力融合网络 被引量:1
19
作者 王泽宇 布树辉 +3 位作者 黄伟 郑远攀 吴庆岗 张旭 《计算机应用》 CSCD 北大核心 2023年第3期713-722,共10页
为解决交通场景解析中局部和全局上下文信息自适应聚合的问题,提出3模块架构的局部和全局上下文注意力融合网络(LGCAFN)。前端的特征提取模块由基于串联空洞空间金字塔池化(CASPP)单元改进的ResNet-101组成,能够更加有效地提取物体的多... 为解决交通场景解析中局部和全局上下文信息自适应聚合的问题,提出3模块架构的局部和全局上下文注意力融合网络(LGCAFN)。前端的特征提取模块由基于串联空洞空间金字塔池化(CASPP)单元改进的ResNet-101组成,能够更加有效地提取物体的多尺度局部特征;中端的结构化学习模块由8路长短期记忆(LSTM)网络分支组成,可以更加准确地推理物体邻近8个不同方向上场景区域的空间结构化特征;后端的特征融合模块采用基于注意力机制的3阶段融合方式,能够自适应地聚合有用的上下文信息并屏蔽噪声上下文信息,且生成的多模态融合特征能够更加全面且准确地表示物体的语义信息。在Cityscapes标准和扩展数据集上的实验结果表明,相较于逆变换网络(ITN)和对象上下文表示网络(OCRN)等方法,LGCAFN实现了最优的平均交并比(mIoU),达到了84.0%和86.3%,表明LGCAFN能够准确地解析交通场景,有助于实现车辆自动驾驶。 展开更多
关键词 交通场景解析 自适应聚合 串联空洞空间金字塔池化 长短期记忆 注意力融合
下载PDF
基于空间结构化推理深度融合网络的RGB-D场景解析 被引量:4
20
作者 王泽宇 吴艳霞 +1 位作者 张国印 布树辉 《电子学报》 EI CAS CSCD 北大核心 2018年第5期1253-1258,共6页
为了弥补RGB-D场景解析中卷积神经网络空间结构化学习能力的不足,本文基于深度学习提出空间结构化推理深度融合网络,内嵌的结构化推理层有机地结合条件随机场和空间结构化推理模型,该层能够较为全面而准确地学习物体所处三维空间的物体... 为了弥补RGB-D场景解析中卷积神经网络空间结构化学习能力的不足,本文基于深度学习提出空间结构化推理深度融合网络,内嵌的结构化推理层有机地结合条件随机场和空间结构化推理模型,该层能够较为全面而准确地学习物体所处三维空间的物体分布以及物体间的三维空间位置关系.在此基础上,网络的特征融合层巧妙地利用深度置信网络和改进的条件随机场,该层可以根据融合生成的物体综合语义信息和物体间语义相关性信息完成深度结构化学习.实验结果表明,在标准RGB-D数据集NYUDv2和SUNRGBD上,空间结构化推理深度融合网络分别实现最优的平均准确率53.8%和54.6%,从而有助于实现机器人任务规划、车辆自动驾驶等智能计算机视觉任务. 展开更多
关键词 RGBD场景解析 深度学习 卷积神经网络 条件随机场 空间结构化推理模型 深度置信网络 计算机视觉 机器人任务规划 车辆自动驾驶
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部