期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
采用双注意力机制Deeplabv3+算法的服装图像分割 被引量:5
1
作者 赵乙 何嘉 《成都信息工程大学学报》 2022年第1期67-71,共5页
近年来服装时尚行业经济发展迅速,为了让用户选择服装和服装的设计更方便快捷,提高服装图像的分割效率尤为重要。目前的方法大多属于传统的分割方法,或者基于深度卷积神经网络(DCNN)。针对服装图像分割时易受背景、颜色、纹理等的影响,... 近年来服装时尚行业经济发展迅速,为了让用户选择服装和服装的设计更方便快捷,提高服装图像的分割效率尤为重要。目前的方法大多属于传统的分割方法,或者基于深度卷积神经网络(DCNN)。针对服装图像分割时易受背景、颜色、纹理等的影响,且服装的边缘分割不准确,基于Deeplabv3+算法提出了双注意力机制的方法识别分割服装图像,使用通道注意力机制和位置注意力机制构成名为CPAM的模块对Deeplabv3+网络进行改进。特征图经过多次下采样后再经过通道和位置注意力模块(CPAM)与ASPP模块并行,最后通过上采样得到预测图像。实验证明对不同场景的服装图像分割,加入CPAM模块的模型能更准确地将服装分割出来。 展开更多
关键词 服装图像分割 DeepFashion2 Deeplabv3+ 语义分割
下载PDF
结合Faster R-CNN与Grabcut算法的服装图像自动分割 被引量:3
2
作者 杨思 徐增波 陈冲 《智能计算机与应用》 2020年第7期306-310,共5页
为了实现服装图像自动分割处理,本文提出基于Faster R-CNN模型结合GrabCut的图像分割方法。利用快速区域卷积神经网络的基本框架,将街拍图的待检测任务分为上衣、裙子、包等六个类别,对原有的基本框架模型的全连接层参数进行调整,得到... 为了实现服装图像自动分割处理,本文提出基于Faster R-CNN模型结合GrabCut的图像分割方法。利用快速区域卷积神经网络的基本框架,将街拍图的待检测任务分为上衣、裙子、包等六个类别,对原有的基本框架模型的全连接层参数进行调整,得到前景目标框作为GrabCut分割算法的初始框,再使用GrabCut算法进行服装区域提取,从复杂背景的图片中定位服装位置,去除复杂背景,实现服装区域分割。实验结果显示,本文方法能够很好的实现服装自然轮廓检测和提取,适用于图像局部弱轮廓边缘的检测及大批量服装图像分割处理,并且可供大批量处理图片时选择性自动款式类别提取,提高了服装图像分割处理的效率。 展开更多
关键词 服装图像分割 快速区域卷积神经网络 GrabCut分割算法 轮廓检测
下载PDF
FMNet:基于特征对齐的多方位注意力机制服装图像分割网络 被引量:2
3
作者 钟豪 张自力 +3 位作者 彭涛 何儒汉 胡新荣 张俊 《中国科技论文》 CAS 北大核心 2023年第3期275-282,共8页
针对语义分割中不同尺度特征融合导致的特征错位问题,提出了一种用于不同尺度语义特征融合的上采样方法。首先,将不同尺度特征图初步融合,将得到的语义信息作为低分辨率特征图进行上采样的位置参照;随后,将低分辨率特征图上采样后,再与... 针对语义分割中不同尺度特征融合导致的特征错位问题,提出了一种用于不同尺度语义特征融合的上采样方法。首先,将不同尺度特征图初步融合,将得到的语义信息作为低分辨率特征图进行上采样的位置参照;随后,将低分辨率特征图上采样后,再与高分辨率特征图进行融合。针对神经网络中语义学习模块对语义特征信息学习不充分的问题,提出了一种多方位注意力机制(multi-directional attention mechanism,MAM),从空间、通道和类别3个方位学习语义信息。根据上述2个方面的创新,提出了用于服装图像分割的网络——FMNet,并选取、划分服装数据集DeepFashion2作为训练、验证和测试的数据集。实验结果表明,所提FMNet的平均交并比(mean intersection over union,mIoU)相较于OCRNet提高了2%,相较于DeepLabv3+和PSPNet分别提高了5%和10%。 展开更多
关键词 语义分割 服装图像分割 特征对齐 注意力机制 类别注意力机制
下载PDF
结合特征学习与注意力机制的服装图像分割 被引量:3
4
作者 顾梅花 刘杰 +1 位作者 李立瑶 崔琳 《纺织学报》 EI CAS CSCD 北大核心 2022年第11期163-171,共9页
针对小尺寸服装与遮挡服装图像分割准确率低的问题,提出一种基于改进多尺度特征学习策略与注意力机制的服装图像分割方法。以Mask R-CNN为基础框架,首先采用增强特征金字塔网络优化模型的特征学习过程,对多尺度服装特征进行统一监督,缩... 针对小尺寸服装与遮挡服装图像分割准确率低的问题,提出一种基于改进多尺度特征学习策略与注意力机制的服装图像分割方法。以Mask R-CNN为基础框架,首先采用增强特征金字塔网络优化模型的特征学习过程,对多尺度服装特征进行统一监督,缩小不同层级之间的语义差距,引入残差特征增强模块减少高层特征损失,采用软感兴趣区域选择自适应地获取最优感兴趣区域特征;然后在分类预测分支引入通道注意力模块,在边界框回归与掩膜预测分支分别引入空间注意力模块,提取图像中需要重点关注的服装区域特征。结果表明,与其他方法相比,本文方法改善了小尺寸服装图像和遮挡服装图像分割中存在的漏检、漏分割现象,提取出的服装实例更精确,其平均精度均值比原模型提升了3.8%。 展开更多
关键词 服装图像分割 多尺度特征学习 一致监督策略 残差特征增强 软感兴趣区域选择 注意力机制
下载PDF
改进YOLACT的服装图像实例分割方法 被引量:1
5
作者 顾梅花 董晓晓 +1 位作者 花玮 崔琳 《纺织高校基础科学学报》 CAS 2024年第2期82-91,共10页
针对服装图像实例分割精度与速度较低的问题,提出一种基于改进YOLACT的服装图像实例分割方法。以YOLACT为基础模型,首先在ResNet101网络中采用深度可分离卷积代替传统卷积,减少模型计算量和模型参数,加快模型速度;然后,在模板生成网络... 针对服装图像实例分割精度与速度较低的问题,提出一种基于改进YOLACT的服装图像实例分割方法。以YOLACT为基础模型,首先在ResNet101网络中采用深度可分离卷积代替传统卷积,减少模型计算量和模型参数,加快模型速度;然后,在模板生成网络后引入高效通道注意力模块,优化输出特征,捕获服装图像的跨通道交互信息,加强对掩膜分支的特征提取能力;最后,训练过程采用LeakyReLU激活函数,避免反向传播时权值信息得不到及时更新,提升模型对服装图像负值特征信息的提取能力。结果表明:与原模型相比,所提方法能有效减少模型参数量,在提升速度的同时提高了精度,其速度提升了4.82帧/s,平均精度提升了5.4%。 展开更多
关键词 服装图像实例分割 YOLACT 深度可分离卷积 高效通道注意力 激活函数
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部