期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于类注意力的眼睛凝视估计网络
1
作者 徐金龙 董明瑞 +2 位作者 李颖颖 刘艳青 韩林 《计算机科学》 CSCD 北大核心 2024年第10期295-301,共7页
近年来,眼睛凝视估计引起广泛关注。基于RGB外观的凝视估计方法使用普通摄像机和深度学习来进行凝视估计,避免了像商用眼动仪一样使用昂贵的红外设备,为更准确和成本更低的眼睛凝视估计提供了可能。然而,RGB外观图像中包含如光照强度、... 近年来,眼睛凝视估计引起广泛关注。基于RGB外观的凝视估计方法使用普通摄像机和深度学习来进行凝视估计,避免了像商用眼动仪一样使用昂贵的红外设备,为更准确和成本更低的眼睛凝视估计提供了可能。然而,RGB外观图像中包含如光照强度、肤色等多种与凝视无关的特征,这些无关特征会在深度学习回归的过程中产生干扰,进而影响凝视估计的精度。针对以上问题,提出了一种名为类注意力网络(CA-Net)的新架构,它包含通道、尺度、眼睛3种不同的类注意力模块,通过这些类注意力模块可以提取和融合不同种类的注意力编码,从而降低与凝视无关特征所占的权重。在GazeCapture数据集上的大量实验表明,在基于RGB外观的凝视估计方法中,相比现有的最先进方法,CA-Net在手机和平板上分别能够提高约0.6%和7.4%的凝视估计精度。 展开更多
关键词 注意力 轻压缩激励 注意力 多尺度 眼睛凝视估计
下载PDF
基于多尺度类注意力元学习的丝绸图案检测
2
作者 葛亮 王直杰 《计算机科学与应用》 2021年第11期2780-2787,共8页
中国是丝绸的发源地,丝绸图案作为丝绸的主要元素承载了深远的历史文化。计算机视觉技术在丝绸图案的检测并不多见,主要因为丝绸图案类别繁多,总体数量不多,一般的目标检测技术无法在丝绸这样的小样本数据集上发挥良好的效果。针对该问... 中国是丝绸的发源地,丝绸图案作为丝绸的主要元素承载了深远的历史文化。计算机视觉技术在丝绸图案的检测并不多见,主要因为丝绸图案类别繁多,总体数量不多,一般的目标检测技术无法在丝绸这样的小样本数据集上发挥良好的效果。针对该问题,本文提出了一种适用于小样本丝绸数据集的多尺度注意力目标检测算法,通过多尺度类向量为目标检测网络提供更多的分类信息,实现丝绸图案的检测任务。本文针对古代丝绸中常见图案进行数据收集和数据标定,并且利用提出的网络实现对不同年代的狮子和花卉进行实验。实验结果表明该方法可以实现小样本丝丝绸图案目标检测任务,而且效果优于其他小样本目标检测算法。 展开更多
关键词 小样本学习 多尺度 注意力 目标检测
下载PDF
Attention-Like YOLO:嵌入类注意力机制的YOLO算法
3
作者 胡朝海 李自胜 王露明 《计算机与数字工程》 2023年第9期1973-1978,共6页
YOLOv3算法满足了大多数任务的实时性和检测精度要求,但对于精度要求更高(大于80%)的任务,未能实现较好的检测效果。针对上述问题,论文提出了一种类注意力机制(Attention-Like)。该机制输入两个分辨率大小不同的特征图,首先利用Padding... YOLOv3算法满足了大多数任务的实时性和检测精度要求,但对于精度要求更高(大于80%)的任务,未能实现较好的检测效果。针对上述问题,论文提出了一种类注意力机制(Attention-Like)。该机制输入两个分辨率大小不同的特征图,首先利用Padding对小特征图进行上采样,采样后的特征图通过Sigmoid函数运算得到上采样权值,其次将上采样权值作用于大特征图以获得过渡特征图,利用卷积对过渡特征图进行下采样,然后通过Sigmoid函数运算得到下采样权值,最后将下采样权值作用于小特征图,通过该方法增强小特征图的几何信息。将Attention-Like嵌入YOLOv3的骨干网络DarkNet-53,实现了Attention-Like YOLO检测算法。实验表明,该算法的平均精确度均值最高达到了82.8%,有效提升了检测精度。 展开更多
关键词 目标检测 YOLOv3算法 注意力机制 AL-YOLO DarkNet-53
下载PDF
基于类时序注意力机制的图像描述方法 被引量:1
4
作者 段海龙 吴春雷 王雷全 《计算机系统应用》 2021年第7期232-238,共7页
近年来,注意力机制已经广泛应用于计算机视觉领域,图像描述常用的编码器-解码器框架也不例外.然而,当前的解码框架并未较清楚地分析图像特征与长短期记忆神经网络(LSTM)隐藏状态之间的相关性,这也是引起累积误差的原因之一.基于该问题,... 近年来,注意力机制已经广泛应用于计算机视觉领域,图像描述常用的编码器-解码器框架也不例外.然而,当前的解码框架并未较清楚地分析图像特征与长短期记忆神经网络(LSTM)隐藏状态之间的相关性,这也是引起累积误差的原因之一.基于该问题,本文提出一个类时序注意力网络(Similar Temporal Attention Network,STAN),该网络扩展了传统的注意力机制,目的是加强注意力结果与隐藏状态在不同时刻的相关性.STAN首先对当前时刻的隐藏状态和特征向量施加注意力,然后通过注意力融合槽(AFS)将两个相邻LSTM片段的注意力结果引入到下一时刻的网络循环中,以增强注意力结果与隐藏状态之间的相关性.同时,本文设计一个隐藏状态开关(HSS)来指导单词的生成,将其与AFS结合起来可以在一定程度上解决累积误差的问题.在官方数据集Microsoft COCO上的大量实验和各种评估机制的结果表明,本文提出的模型与基线模型相比,具有明显的优越性,取得了更有竞争力的结果. 展开更多
关键词 图像描述 注意力机制 时序注意力 长短期记忆网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部