期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于注意力掩码的领域泛化研究
1
作者 路京 沈洋 +2 位作者 许浩 包艳霞 应震 《软件导刊》 2024年第4期14-20,共7页
深度学习在区分特征方面表现较好,但将其应用于未知领域时,已训练好的模型往往会因领域移位而导致模型性能下降。针对该情况,领域泛化(DG)从多个源领域学习可迁移特征,将其泛化到未知的目标领域。由于不同领域训练的模型更偏向其中最显... 深度学习在区分特征方面表现较好,但将其应用于未知领域时,已训练好的模型往往会因领域移位而导致模型性能下降。针对该情况,领域泛化(DG)从多个源领域学习可迁移特征,将其泛化到未知的目标领域。由于不同领域训练的模型更偏向其中最显著的特征,往往会忽略与任务相关的一般性特征,而可迁移特征通常并不是该领域最显著的特征。因此,从这个角度提出一种基于注意力掩码来屏蔽特征的正则化方法,通过注意力掩码模块生成注意力掩码,对权重高的特征进行屏蔽,以提升模型泛化性能。实验表明,在3个基准数据集上测试的精度相较于基线模型分别提升2.6%、2.0%、4.2%,证明该方法既能提升模型在未知领域上的性能,也体现了其在领域泛化数据集上的普适性。 展开更多
关键词 领域泛化 迁移学习 注意力机制 深度学习 正则化
下载PDF
基于局部邻域Transformer的点云特征提取方法
2
作者 张海博 沈洋 +2 位作者 许浩 包艳霞 刘江 《软件工程》 2023年第6期24-29,35,共7页
受点云非结构化、无序性等特性的影响,一些现有的自注意力方法不能充分提取上下文语意特征,基于此提出了一种用于点云特征提取的局部邻域Transformer(Local Neighborhood Transformer, LNT)。首先,通过最远点采样(FPS)和K最近邻算法(KNN... 受点云非结构化、无序性等特性的影响,一些现有的自注意力方法不能充分提取上下文语意特征,基于此提出了一种用于点云特征提取的局部邻域Transformer(Local Neighborhood Transformer, LNT)。首先,通过最远点采样(FPS)和K最近邻算法(KNN)对点云进行邻域划分。其次,结合相对位置编码,在各个邻域内计算局部自注意力,达到线性计算复杂度。最后,通过连接操作以及线性层捕获点云局部特征。此外,设计了点云多特征融合方法对各层特征信息进行聚合,以提高模型的性能。实验结果表明:该方法在ModelNet40数据集中分类的总体精度可达到93.3%,比PCT提升了0.1%;类平均精度可达到92.0%,比PointMLP提升了0.6%。同时,在ShapeNet数据集中的点云分割结果也是有效的。 展开更多
关键词 点云处理 TRANSFORMER 特征融合 神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部