期刊文献+
共找到16篇文章
< 1 >
每页显示 20 50 100
深度学习背景下视觉显著性物体检测综述 被引量:8
1
作者 王自全 张永生 +2 位作者 于英 闵杰 田浩 《中国图象图形学报》 CSCD 北大核心 2022年第7期2112-2128,共17页
视觉显著性物体检测是对人类视觉和认知系统的模拟,而深度学习则是对人类大脑计算方式的模拟,将两者有机结合可以有效推动计算机视觉的发展。视觉显著性物体检测的任务是从图像中定位并提取具有明确轮廓的显著性物体实例。随着深度学习... 视觉显著性物体检测是对人类视觉和认知系统的模拟,而深度学习则是对人类大脑计算方式的模拟,将两者有机结合可以有效推动计算机视觉的发展。视觉显著性物体检测的任务是从图像中定位并提取具有明确轮廓的显著性物体实例。随着深度学习的发展,视觉显著性物体检测的精度和效率都得到巨大提升,但仍然面临改进主流算法性能、减少对像素级标注样本的依赖等主要挑战。针对上述挑战,本文从视觉显著性物体检测思想与深度学习方法融合策略的角度对相关论述进行分类总结。1)分析传统显著性物体检测方法带来的启示及其缺点,指出视觉显著性物体检测的核心思路为多层次特征的提取、融合与修整;2)从改进特征编码方式与信息传递结构、提升边缘定位精度、改善注意力机制、提升训练稳定性和控制噪声的角度对循环卷积神经网络、全卷积神经网络和生成对抗网络3种主流算法的性能提升进行分析,从优化弱监督样本处理模块的角度分析了减少对像素级标注样本依赖的方法;3)对协同显著性物体检测、多类别图像显著性物体检测以及未来的研究问题和方向进行介绍,并给出了可能的解决思路。 展开更多
关键词 显著性物体检测(sod) 深度学习 循环卷积神经网络(RCNN) 全卷积网络(FCN) 注意力机制 弱监督与多任务策略
原文传递
基于多模态多级特征聚合网络的光场显著性目标检测 被引量:6
2
作者 王安志 任春洪 +2 位作者 何淋艳 杨元英 欧卫华 《计算机工程》 CAS CSCD 北大核心 2022年第7期227-233,240,共8页
现有基于深度学习的显著性检测算法主要针对二维RGB图像设计,未能利用场景图像的三维视觉信息,而当前光场显著性检测方法则多数基于手工设计,特征表示能力不足,导致上述方法在各种挑战性自然场景图像上的检测效果不理想。提出一种基于... 现有基于深度学习的显著性检测算法主要针对二维RGB图像设计,未能利用场景图像的三维视觉信息,而当前光场显著性检测方法则多数基于手工设计,特征表示能力不足,导致上述方法在各种挑战性自然场景图像上的检测效果不理想。提出一种基于卷积神经网络的多模态多级特征精炼与融合网络算法,利用光场图像丰富的视觉信息,实现面向四维光场图像的精准显著性检测。为充分挖掘三维视觉信息,设计2个并行的子网络分别处理全聚焦图像和深度图像。在此基础上,构建跨模态特征聚合模块实现对全聚焦图像、焦堆栈序列和深度图3个模态的跨模态多级视觉特征聚合,以更有效地突出场景中的显著性目标对象。在DUTLF-FS和HFUT-Lytro光场基准数据集上进行实验对比,结果表明,该算法在5个权威评估度量指标上均优于MOLF、AFNet、DMRA等主流显著性目标检测算法。 展开更多
关键词 深度图 特征融合 光场 聚合网络 显著性目标检测
下载PDF
多尺度卷积神经网络显著物体检测 被引量:6
3
作者 张晴 左保川 +1 位作者 石艳娇 戴蒙 《中国图象图形学报》 CSCD 北大核心 2020年第6期1116-1129,共14页
目的传统显著性检测模型大多利用手工选择的中低层特征和先验信息进行物体检测,其准确率和召回率较低,随着深度卷积神经网络的兴起,显著性检测得以快速发展。然而,现有显著性方法仍存在共性缺点,难以在复杂图像中均匀地突显整个物体的... 目的传统显著性检测模型大多利用手工选择的中低层特征和先验信息进行物体检测,其准确率和召回率较低,随着深度卷积神经网络的兴起,显著性检测得以快速发展。然而,现有显著性方法仍存在共性缺点,难以在复杂图像中均匀地突显整个物体的明确边界和内部区域,主要原因是缺乏足够且丰富的特征用于检测。方法在VGG(visual geometry group)模型的基础上进行改进,去掉最后的全连接层,采用跳层连接的方式用于像素级别的显著性预测,可以有效结合来自卷积神经网络不同卷积层的多尺度信息。此外,它能够在数据驱动的框架中结合高级语义信息和低层细节信息。为了有效地保留物体边界和内部区域的统一,采用全连接的条件随机场(conditional random field,CRF)模型对得到的显著性特征图进行调整。结果本文在6个广泛使用的公开数据集DUT-OMRON(Dalian University of Technology and OMRON Corporation)、ECSSD(extended complex scene saliency dataset)、SED2(segmentation evalution database 2)、HKU、PASCAL-S和SOD(salient objects dataset)上进行了测试,并就准确率—召回率(precision-recall,PR)曲线、F测度值(F-measure)、最大F测度值、加权F测度值和均方误差(mean absolute error,MAE)等性能评估指标与14种最先进且具有代表性的方法进行比较。结果显示,本文方法在6个数据集上的F测度值分别为0.696、0.876、0.797、0.868、0.772和0.785;最大F测度值分别为0.747、0.899、0.859、0.889、0.814和0.833;加权F测度值分别为0.656、0.854、0.772、0.844、0.732和0.762;MAE值分别为0.074、0.061、0.093、0.049、0.099和0.124。无论是前景和背景颜色相似的图像集,还是多物体的复杂图像集,本文方法的各项性能均接近最新研究成果,且优于大多数具有代表性的方法。结论本文方法对各种场景的图像显著性检测都具有较强的鲁棒性,同时可以使显著性物体的边界和内部� 展开更多
关键词 显著性物体检测 显著性 卷积神经网络 多尺度特征 数据驱动
原文传递
互补特征交互融合的RGB_D实时显著目标检测 被引量:1
4
作者 叶欣悦 朱磊 +1 位作者 王文武 付云 《中国图象图形学报》 CSCD 北大核心 2024年第5期1252-1264,共13页
目的 通过融合颜色、深度和空间信息,利用RGB_D这两种模态数据的显著目标检测方案通常能比单一模态数据取得更加准确的预测结果。深度学习进一步推动RGB_D显著目标检测领域的发展。然而,现有RGB_D显著目标检测深度网络模型容易忽略模态... 目的 通过融合颜色、深度和空间信息,利用RGB_D这两种模态数据的显著目标检测方案通常能比单一模态数据取得更加准确的预测结果。深度学习进一步推动RGB_D显著目标检测领域的发展。然而,现有RGB_D显著目标检测深度网络模型容易忽略模态的特异性,通常仅通过简单的元素相加、相乘或特征串联来融合多模态特征,如何实现RGB图像和深度图像之间的信息交互则缺乏合理性解释。为了探求两种模态数据中的互补信息重要性及更有效的交互方式,在分析了传统卷积网络中修正线性单元(rectified linear unit,ReLU)选通特性的基础上,设计了一种新的RGB和深度特征互补信息交互机制,并首次应用于RGB_D显著目标检测中。方法 首先,根据该机制提出了互补信息交互模块将模态各自的“冗余”特征用于辅助对方。然后,将其阶段式插入两个轻量级主干网络分别用于提取RGB和深度特征并实施两者的交互。该模块核心功能基于修改的ReLU,具有结构简单的特点。在网络的顶层还设计了跨模态特征融合模块用于提取融合后特征的全局语义信息。该特征被馈送至主干网络每个尺度,并通过邻域尺度特征增强模块与多个尺度特征进行聚合。最后,采用了深度恢复监督、边缘监督和深度监督3种监督策略以有效监督提出模型的优化过程。结果 在4个广泛使用的公开数据集NJU2K(Nanjing University2K)、NLPR(national laboratory of pattern recognition)、STERE(stereo dataset)和SIP(salient person)上的定量和定性的实验结果表明,以Max F-measure、MAE(mean absolute error)以及Max E-measure共3种主流测度评估,本文提出的显著目标检测模型相比较其他方法取得了更优秀的性能和显著的推理速度优势(373.8帧/s)。结论 本文论证了在RGB_D显著目标检测中两种模态数据具有信息互补特点,提出的模型具有较好的性能和高效率推理能力,有 展开更多
关键词 显著目标检测(sod) RGB_D 深度卷积网络 互补信息交互 跨模态特征融合
原文传递
使用密集弱注意力机制的图像显著性检测 被引量:5
5
作者 项圣凯 曹铁勇 +1 位作者 方正 洪施展 《中国图象图形学报》 CSCD 北大核心 2020年第1期136-147,共12页
目的基于全卷积网络(FCN)模型的显著性检测(SOD)的研究认为,更大的解码网络能实现比小网络更好的检测效果,导致解码阶段参数量庞大。视觉注意力机制一定程度上缓解了模型过大的问题。本文将注意力机制分为强、弱注意力两种:强注意力能... 目的基于全卷积网络(FCN)模型的显著性检测(SOD)的研究认为,更大的解码网络能实现比小网络更好的检测效果,导致解码阶段参数量庞大。视觉注意力机制一定程度上缓解了模型过大的问题。本文将注意力机制分为强、弱注意力两种:强注意力能为解码提供更强的先验,但风险很大;相反,弱注意力机制风险更小,但提供的先验较弱;基于此提出并验证了采用弱注意力的小型网络架构也能达到大网络的检测精度这一观点。方法本文设计了全局显著性预测和基于弱注意力机制的边缘优化两个阶段,其核心是提出的密集弱注意力模块。它弥补了弱注意力的缺点,仅需少量额外参数,就能提供不弱于强注意力的先验信息。结果相同的实验环境下,提出的模型在5个数据集上取得了总体上更好的检测效果。同时,提出的方法将参数量控制在69.5 MB,检测速度达到了实时32帧/s。实验结果表明,与使用强注意力的检测方法相比,提出的密集弱注意力模块使得检测模型的泛化能力更好。结论本文目标是使用弱注意力机制来提高检测效能,为此设计了兼顾效率和风险的弱注意力模块。弱注意力机制可以提高解码特征的效率,从而压缩模型大小和加快检测速度,并在现有测试集上体现出更好的泛化能力。 展开更多
关键词 显著性检测 视觉注意力机制 编码—解码 全卷积网络 实时检测
原文传递
跨模态交互融合与全局感知的RGB-D显著性目标检测 被引量:1
6
作者 孙福明 胡锡航 +2 位作者 武景宇 孙静 王法胜 《软件学报》 EI CSCD 北大核心 2024年第4期1899-1913,共15页
近年来,RGB-D显著性检测方法凭借深度图中丰富的几何结构和空间位置信息,取得了比RGB显著性检测模型更好的性能,受到学术界的高度关注.然而,现有的RGB-D检测模型仍面临着持续提升检测性能的需求.最近兴起的Transformer擅长建模全局信息... 近年来,RGB-D显著性检测方法凭借深度图中丰富的几何结构和空间位置信息,取得了比RGB显著性检测模型更好的性能,受到学术界的高度关注.然而,现有的RGB-D检测模型仍面临着持续提升检测性能的需求.最近兴起的Transformer擅长建模全局信息,而卷积神经网络(CNN)擅长提取局部细节.因此,如何有效结合CNN和Transformer两者的优势,挖掘全局和局部信息,将有助于提升显著性目标检测的精度.为此,提出一种基于跨模态交互融合与全局感知的RGB-D显著性目标检测方法,通过将Transformer网络嵌入U-Net中,从而将全局注意力机制与局部卷积结合在一起,能够更好地对特征进行提取.首先借助U-Net编码-解码结构,高效地提取多层次互补特征并逐级解码生成显著特征图.然后,使用Transformer模块学习高级特征间的全局依赖关系增强特征表示,并针对输入采用渐进上采样融合策略以减少噪声信息的引入.其次,为了减轻低质量深度图带来的负面影响,设计一个跨模态交互融合模块以实现跨模态特征融合.最后,5个基准数据集上的实验结果表明,所提算法与其他最新的算法相比具有显著优势. 展开更多
关键词 显著性目标检测 跨模态 全局注意力机制 RGB-D检测模型
下载PDF
集成多种上下文与混合交互的显著性目标检测 被引量:1
7
作者 夏晨星 陈欣雨 +4 位作者 孙延光 葛斌 方贤进 高修菊 张艳 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第7期2918-2931,共14页
显著性目标检测目的是识别和分割图像中的视觉显著性目标,它是计算机视觉任务及其相关领域的重要研究内容之一。当下基于全卷积网络(FCNs)的显著性目标检测方法已经取得了不错的性能,然而现实场景中的显著性目标类型多变且尺寸不固定,... 显著性目标检测目的是识别和分割图像中的视觉显著性目标,它是计算机视觉任务及其相关领域的重要研究内容之一。当下基于全卷积网络(FCNs)的显著性目标检测方法已经取得了不错的性能,然而现实场景中的显著性目标类型多变且尺寸不固定,这使得准确检测并完整分割出显著性目标仍然是一个巨大的挑战。为此,该文提出集成多种上下文和混合交互的显著性目标检测方法,通过利用密集上下文信息探索模块和多源特征混合交互模块来高效预测显著性目标。密集上下文信息探索模块采用空洞卷积、不对称卷积和密集引导连接渐进地捕获具有强关联性的多尺度和多感受野上下文信息,通过集成这些信息来增强每个初始多层级特征的表达能力。多源特征混合交互模块包含多种特征聚合操作,可以自适应交互来自多层级特征中的互补性信息,以生成用于准确预测显著性图的高质量特征表示。此方法在5个公共数据集上进行了性能测试,实验结果表明,该文方法在不同的评估指标下与19种基于深度学习的显著性目标检测方法相比取得优越的预测性能。 展开更多
关键词 计算机视觉 显著性目标检测 全卷积网络 上下文信息
下载PDF
边缘深度挖掘的弱监督显著性目标检测 被引量:4
8
作者 李军侠 王星驰 +1 位作者 殷梓 石德硕 《计算机工程》 CAS CSCD 北大核心 2023年第7期169-178,共10页
基于深度学习的显著性目标检测算法大多依赖于大规模标注数据下的监督学习模式,但是,样本的像素级标签存在获取困难、标注成本高的问题。为此,设计一种边缘深度挖掘的弱监督显著性目标检测算法,仅使用图像级类别标签,从输入图像的显著... 基于深度学习的显著性目标检测算法大多依赖于大规模标注数据下的监督学习模式,但是,样本的像素级标签存在获取困难、标注成本高的问题。为此,设计一种边缘深度挖掘的弱监督显著性目标检测算法,仅使用图像级类别标签,从输入图像的显著性目标边缘角度得到能够较准确描述目标轮廓信息的边缘特征图,以生成伪标签对显著性模型进行监督训练。通过粗糙边缘生成模块对显著性目标轮廓特征进行简单标定,用于获取粗糙边缘特征图。在此基础上,利用精细边缘生成模块优化特征以得到精细边缘特征图,能够更准确地反映目标的边界信息,在完整刻画轮廓信息的同时可以更好地抑制背景噪声。伪标签生成模块基于精细边缘特征图生成像素级伪标签。实验结果表明,相比MSW、MFNet、NSAL等算法,该算法能够准确识别显著性区域,获得的预测图具有较完整的细节信息,其中,在ECSSD数据集上S-measure值和E-measure值相较于第2名NSAL算法分别提高1.1和0.6个百分点。 展开更多
关键词 弱监督 显著性目标检测 深度学习 图像级类别标签 伪标签
下载PDF
渐进式特征增强的弱监督显著性目标检测
9
作者 李沼洁 朱恒亮 +1 位作者 毛国君 杨鑫 《计算机工程》 CAS CSCD 北大核心 2024年第12期233-244,共12页
针对多数弱监督显著性检测方法在复杂场景下容易出现目标结构缺损、边界粗糙等问题,提出一种渐进式特征增强的弱监督显著性检测算法。首先针对显著目标结构不完整问题,设计一种渐进式特征增强机制,主要包括双流语义增强模块和层次化自... 针对多数弱监督显著性检测方法在复杂场景下容易出现目标结构缺损、边界粗糙等问题,提出一种渐进式特征增强的弱监督显著性检测算法。首先针对显著目标结构不完整问题,设计一种渐进式特征增强机制,主要包括双流语义增强模块和层次化自适应特征聚合模块,通过复用这种机制可以捕获更丰富的图像特征;其次为获取清晰完整的目标边缘,提出边缘引导模块,可以生成高质量的显著目标边缘图;最后将得到的边缘对显著区域预测网络进行指导,以生成结构完整且边界平滑的检测结果。在5个公开数据集上的实验结果表明,相比经典的WSSA算法,该算法在PASCAL-S数据集上平均绝对误差(MAE)降低了21.32%,F-measure值提高了6.27%,优于大多数先进的弱监督显著性目标检测算法。 展开更多
关键词 弱监督 显著性目标检测 渐进式 特征聚合 边缘引导
下载PDF
基于特征重聚焦和精细化的遥感显著性目标检测
10
作者 朱海鹏 张宝华 +2 位作者 李永翔 徐利权 温海英 《传感器与微系统》 CSCD 北大核心 2024年第7期157-160,共4页
为了提升网络对特征的表征,提出一种基于特征重聚焦和精细化的光学遥感显著目标检测算法。利用相邻层特征交互捕获上下文语义互补信息,并通过膨胀卷积调节感受野提取信息的范围,完成初次特征聚焦。再将注意机制作用于深层特征,组成位置... 为了提升网络对特征的表征,提出一种基于特征重聚焦和精细化的光学遥感显著目标检测算法。利用相邻层特征交互捕获上下文语义互补信息,并通过膨胀卷积调节感受野提取信息的范围,完成初次特征聚焦。再将注意机制作用于深层特征,组成位置引导模块,增强对显著性特征的关注,完成特征重聚焦。最后,通过浅层特征获得显著特征注意图和反注意图,引导网络进一步挖掘高置信度显著区域和低置信度背景区域的信息,精细化优化后的特征。采用EORSSD和ORSSD 2个公开数据集进行实验与评估,以证明算法的有效性。 展开更多
关键词 光学遥感图像 显著性目标检测 相邻上下文协调 特征精细化 注意力机制
下载PDF
面向360度全景图像显著目标检测的相邻协调网络
11
作者 陈晓雷 王兴 +1 位作者 张学功 杜泽龙 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第12期4529-4541,共13页
为解决360°全景图像显著目标检测(SOD)中的显著目标尺度变化和边缘不连续、易模糊的问题,该文提出一种基于相邻协调网络的360°全景图像显著目标检测方法(ACoNet)。首先,利用相邻细节融合模块获取相邻特征中的细节和边缘信息,... 为解决360°全景图像显著目标检测(SOD)中的显著目标尺度变化和边缘不连续、易模糊的问题,该文提出一种基于相邻协调网络的360°全景图像显著目标检测方法(ACoNet)。首先,利用相邻细节融合模块获取相邻特征中的细节和边缘信息,以促进显著目标的精确定位。其次,使用语义引导特征聚合模块来聚合浅层特征和深层特征之间不同尺度上的语义特征信息,并抑制浅层特征传递的噪声,缓解解码阶段显著目标与背景区域不连续、边界易模糊的问题。同时构建多尺度语义融合子模块扩大不同卷积层的多尺度感受野,实现精确训练显著目标边界的效果。在2个公开的数据集上进行的大量实验结果表明,相比于其他13种先进方法,所提方法在6个客观评价指标上均有明显的提升,同时主观可视化检测的显著图边缘轮廓性更好,空间结构细节信息更清晰。 展开更多
关键词 显著目标检测 深度学习 360°全景图像 多尺度特征
下载PDF
多视觉特征结合有约束简化群优化的显著性目标检测 被引量:3
12
作者 花卉 《计算机工程》 CAS CSCD 北大核心 2015年第11期257-262,共6页
针对一般显著性目标检测(SOD)方法容易受背景区域影响造成识别精度低下的问题,提出一种基于多视觉特征并结合有约束简化群优化的显著性目标检测方法。该方法获取3个低级视觉特征,即多尺度对比度、中心环绕直方图和颜色空间分布,利用有... 针对一般显著性目标检测(SOD)方法容易受背景区域影响造成识别精度低下的问题,提出一种基于多视觉特征并结合有约束简化群优化的显著性目标检测方法。该方法获取3个低级视觉特征,即多尺度对比度、中心环绕直方图和颜色空间分布,利用有约束的简化群优化检测出最优权重向量,并将其与3个视觉特征结合以获取显著图,使用显著图在图像背景中提取出显著性目标。为了有效地抑制图像中的背景区域,定义一个简单的适应度函数以凸显边界目标。运用定量和定性方法在MARA SOD数据库上进行仿真实验,结果表明,与模糊聚类、低秩矩阵恢复和稀疏重构等方法相比,该方法能获得较高的识别精度和查全率。 展开更多
关键词 显著性目标检测 简化群优化 视觉特征 最优权重向量 适应度函数
下载PDF
Light field salient object detection:A review and benchmark 被引量:2
13
作者 Keren Fu Yao Jiang +3 位作者 Ge-Peng Ji Tao Zhou Qijun Zhao Deng-Ping Fan 《Computational Visual Media》 SCIE EI CSCD 2022年第4期509-534,共26页
Salient object detection(SOD)is a long-standing research topic in computer vision with increasing interest in the past decade.Since light fields record comprehensive information of natural scenes that benefit SOD in a... Salient object detection(SOD)is a long-standing research topic in computer vision with increasing interest in the past decade.Since light fields record comprehensive information of natural scenes that benefit SOD in a number of ways,using light field inputs to improve saliency detection over conventional RGB inputs is an emerging trend.This paper provides the first comprehensive review and a benchmark for light field SOD,which has long been lacking in the saliency community.Firstly,we introduce light fields,including theory and data forms,and then review existing studies on light field SOD,covering ten traditional models,seven deep learning-based models,a comparative study,and a brief review.Existing datasets for light field SOD are also summarized.Secondly,we benchmark nine representative light field SOD models together with several cutting-edge RGB-D SOD models on four widely used light field datasets,providing insightful discussions and analyses,including a comparison between light field SOD and RGB-D SOD models.Due to the inconsistency of current datasets,we further generate complete data and supplement focal stacks,depth maps,and multi-view images for them,making them consistent and uniform.Our supplemental data make a universal benchmark possible.Lastly,light field SOD is a specialised problem,because of its diverse data representations and high dependency on acquisition hardware,so it differs greatly from other saliency detection tasks.We provide nine observations on challenges and future directions,and outline several open issues.All the materials including models,datasets,benchmarking results,and supplemented light field datasets are publicly available at https://github.com/kerenfu/LFSOD-Survey. 展开更多
关键词 light field salient object detection(sod) deep learning BENCHMARKING
原文传递
Specificity-preserving RGB-D saliency detection 被引量:1
14
作者 Tao Zhou Deng-Ping Fan +2 位作者 Geng Chen Yi Zhou Huazhu Fu 《Computational Visual Media》 SCIE EI CSCD 2023年第2期297-317,共21页
Salient object detection(SOD)in RGB and depth images has attracted increasing research interest.Existing RGB-D SOD models usually adopt fusion strategies to learn a shared representation from RGB and depth modalities,... Salient object detection(SOD)in RGB and depth images has attracted increasing research interest.Existing RGB-D SOD models usually adopt fusion strategies to learn a shared representation from RGB and depth modalities,while few methods explicitly consider how to preserve modality-specific characteristics.In this study,we propose a novel framework,the specificity-preserving network(SPNet),which improves SOD performance by exploring both the shared information and modality-specific properties.Specifically,we use two modality-specific networks and a shared learning network to generate individual and shared saliency prediction maps.To effectively fuse cross-modal features in the shared learning network,we propose a cross-enhanced integration module(CIM)and propagate the fused feature to the next layer to integrate cross-level information.Moreover,to capture rich complementary multi-modal information to boost SOD performance,we use a multi-modal feature aggregation(MFA)module to integrate the modalityspecific features from each individual decoder into the shared decoder.By using skip connections between encoder and decoder layers,hierarchical features can be fully combined.Extensive experiments demonstrate that our SPNet outperforms cutting-edge approaches on six popular RGB-D SOD and three camouflaged object detection benchmarks.The project is publicly available at https://github.com/taozh2017/SPNet. 展开更多
关键词 salient object detection(sod) RGB-D cross-enhanced integration module(CIM) multi-modal feature aggregation(MFA)
原文传递
基于堆叠边缘感知模块的显著性目标检测 被引量:1
15
作者 杨佳信 胡晓 向俊将 《模式识别与人工智能》 EI CSCD 北大核心 2020年第10期906-916,共11页
现有显著性目标检测算法对边缘感知的效果不理想.因此,为了有效利用高层语义信息及低层纹理信息,文中提出基于堆叠边缘感知模块的显著性目标检测算法.采用多尺度骨干网络(Res2Net)作为主干网络提取图像的多尺度、多目标的显著性特征.堆... 现有显著性目标检测算法对边缘感知的效果不理想.因此,为了有效利用高层语义信息及低层纹理信息,文中提出基于堆叠边缘感知模块的显著性目标检测算法.采用多尺度骨干网络(Res2Net)作为主干网络提取图像的多尺度、多目标的显著性特征.堆叠边缘感知模块以非对称性方式融合图像高低层信息,增强显著性目标区域.网络输出显著性目标的检测结果.在5个公开数据集上的实验表明,文中算法检测结果较优,同时,在客观评估指标和主观视觉效果上也较优. 展开更多
关键词 显著性目标检测(sod) 高层语义信息 低层纹理信息 边缘感知模块
下载PDF
Full-duplex strategy for video object segmentation 被引量:2
16
作者 Ge-Peng Ji Deng-Ping Fan +3 位作者 Keren Fu Zhe Wu Jianbing Shen Ling Shao 《Computational Visual Media》 SCIE EI CSCD 2023年第1期155-175,共21页
Previous video object segmentation approachesmainly focus on simplex solutions linking appearance and motion,limiting effective feature collaboration between these two cues.In this work,we study a novel and efficient ... Previous video object segmentation approachesmainly focus on simplex solutions linking appearance and motion,limiting effective feature collaboration between these two cues.In this work,we study a novel and efficient full-duplex strategy network(FSNet)to address this issue,by considering a better mutual restraint scheme linking motion and appearance allowing exploitation of cross-modal features from the fusion and decoding stage.Specifically,we introduce a relational cross-attention module(RCAM)to achieve bidirectional message propagation across embedding sub-spaces.To improve the model’s robustness and update inconsistent features from the spatiotemporal embeddings,we adopt a bidirectional purification module after the RCAM.Extensive experiments on five popular benchmarks show that our FSNet is robust to various challenging scenarios(e.g.,motion blur and occlusion),and compares well to leading methods both for video object segmentation and video salient object detection.The project is publicly available at https://github.com/GewelsJI/FSNet. 展开更多
关键词 video object segmentation(VOS) video salient object detection(V-sod) visual attention
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部