期刊文献+
共找到75篇文章
< 1 2 4 >
每页显示 20 50 100
融合双阶段特征与Transformer编码的交互式图像分割
1
作者 封筠 张天 +2 位作者 史屹琛 王辉 胡晶晶 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2024年第6期831-843,共13页
为了快速、精确地分割用户感兴趣的前景目标,获得高质量且低成本的标注分割数据,提出一种基于双阶段特征融合与Transformer编码的交互式图像分割算法.首先采用轻量化Transformer骨干网络对输入图像提取多尺度特征编码,更好地利用上下文... 为了快速、精确地分割用户感兴趣的前景目标,获得高质量且低成本的标注分割数据,提出一种基于双阶段特征融合与Transformer编码的交互式图像分割算法.首先采用轻量化Transformer骨干网络对输入图像提取多尺度特征编码,更好地利用上下文信息;然后使用点击交互的方式引入主观先验知识,依次通过初级与加强阶段将交互特征融入Transformer网络;最后结合空洞卷积、注意力机制和多层感知机对骨干网络获取的特征图解码.实验结果表明,所提算法在GrabCut,Berkeley和DAVIS数据集上的mNoC@90%值分别达到2.18,4.04和7.39,优于其他对比算法;且算法的时间与空间复杂度低于f-BRS-B,对交互点击位置及点击类型的扰动变化具有较好的稳定性,说明该算法能够快速、精确与稳定地分割用户感兴趣目标,提升用户交互的使用体验感. 展开更多
关键词 交互式图像分割 深度学习 transformer编码 交互特征融合 轻量化网络
下载PDF
基于TPH-YOLO的无人机图像麦穗计数方法 被引量:24
2
作者 鲍文霞 谢文杰 +2 位作者 胡根生 杨先军 苏彪彪 《农业工程学报》 EI CAS CSCD 北大核心 2023年第1期155-161,共7页
在无人机上安装光学传感器捕捉农作物图像是一种经济高效的方法,它有助于产量预测、田间管理等。该研究以无人机小麦作物图像为研究对象,针对图像中麦穗分布稠密、重叠现象严重、背景信息复杂等特点,设计了一种基于TPH-YOLO(YOLO with t... 在无人机上安装光学传感器捕捉农作物图像是一种经济高效的方法,它有助于产量预测、田间管理等。该研究以无人机小麦作物图像为研究对象,针对图像中麦穗分布稠密、重叠现象严重、背景信息复杂等特点,设计了一种基于TPH-YOLO(YOLO with transformer prediction heads)的麦穗检测模型,提高无人机图像麦穗计数的精度。首先,为了减小光照不均匀对无人机图像质量造成的影响,该研究采用Retinex算法进行图像增强处理。其次,在YOLOv5的骨干网络中添加坐标注意力机制(coordinate attention,CA),使模型细化特征,更加关注麦穗信息,抑制麦秆、麦叶等一些背景因素的干扰。再次,将YOLOv5中原始的预测头转换为Transformer预测头(transformer prediction heads,TPH),该预测头具有多头注意力机制的预测潜力,可以在高密度场景下准确定位到麦穗。最后,为了提高模型的泛化能力和检测精度,采用了迁移学习的训练策略,先使用田间采集的小麦图像数据集对模型进行预训练,接着再使用无人机采集的小麦图像数据集对模型进行参数更新和优化训练,并在无人机采集的小麦图像数据集上进行了试验。结果表明,该研究方法精确率、召回率及平均精确率分别为87.2%、84.1%和88.8%,相较于基础的YOLOv5平均精确率提高4.1个百分点,性能优于SSD、Faster-RCNN、CenterNet、YOLOv5等目标检测模型。此外,该研究利用公开数据集Global Wheat Head Detection(GWHD)在不同目标检测模型上进行对比试验,该数据集的小麦样本是多样的和典型的,与SSD、Faster-RCNN、CenterNet和YOLOv5等模型相比,平均精确率分别提升11.1、5.4、6.9和3.3个百分点,进一步验证了该研究所提方法的可靠性和有效性,研究结果可以为小麦的产量预测提供支撑。 展开更多
关键词 无人机 图像处理 麦穗计数 YOLOv5 注意力机制 transformer编码 迁移学习
下载PDF
基于Transformer编码器的中文命名实体识别 被引量:14
3
作者 郭晓然 罗平 王维兰 《吉林大学学报(工学版)》 EI CAS CSCD 北大核心 2021年第3期989-995,共7页
提出了一种基于Transformer编码器和BiLSTM的字级别中文命名实体识别方法,将字向量与位置编码向量拼接成联合向量作为字表示层,避免了字向量信息的损失和位置信息的丢失;利用BiLSTM为联合向量融入方向性信息,引入Transformer编码器进一... 提出了一种基于Transformer编码器和BiLSTM的字级别中文命名实体识别方法,将字向量与位置编码向量拼接成联合向量作为字表示层,避免了字向量信息的损失和位置信息的丢失;利用BiLSTM为联合向量融入方向性信息,引入Transformer编码器进一步抽取字间关系特征。实验结果表明,该方法在MSRA数据集和唐卡数据集上的F1值分别达到了81.39%和86.99%,有效提升了中文命名实体识别的效果。 展开更多
关键词 命名实体识别 transformer编码 BiLSTM 位置编码
原文传递
基于Transformer编码器的中文命名实体识别模型 被引量:11
4
作者 司逸晨 管有庆 《计算机工程》 CAS CSCD 北大核心 2022年第7期66-72,共7页
命名实体识别是自然语言处理中的重要任务,且中文命名实体识别相比于英文命名实体识别任务更具难度。传统中文实体识别模型通常基于深度神经网络对文本中的所有字符打上标签,再根据标签序列识别命名实体,但此类基于字符的序列标注方式... 命名实体识别是自然语言处理中的重要任务,且中文命名实体识别相比于英文命名实体识别任务更具难度。传统中文实体识别模型通常基于深度神经网络对文本中的所有字符打上标签,再根据标签序列识别命名实体,但此类基于字符的序列标注方式难以获取词语信息。提出一种基于Transformer编码器的中文命名实体识别模型,在字嵌入过程中使用结合词典的字向量编码方法使字向量包含词语信息,同时针对Transformer编码器在注意力运算时丢失字符相对位置信息的问题,改进Transformer编码器的注意力运算并引入相对位置编码方法,最终通过条件随机场模型获取最优标签序列。实验结果表明,该模型在Resume和Weibo中文命名实体识别数据集上的F1值分别达到94.7%和58.2%,相比于基于双向长短期记忆网络和ID-CNN的命名实体识别模型均有所提升,具有更优的识别效果和更快的收敛速度。 展开更多
关键词 自然语言处理 中文命名实体识别 transformer编码 条件随机场 相对位置编码
下载PDF
引入 Transformer 和尺度融合的动物骨骼关键点检测模型构建 被引量:11
5
作者 张飞宇 王美丽 王正超 《农业工程学报》 EI CAS CSCD 北大核心 2021年第23期179-185,共7页
动物的姿态和行为与其自身的健康状况有着密切联系,检测动物骨骼关键点是进行动物姿态识别、异常行为分析的前提。针对现有的关键点检测方法对动物骨骼的识别准确率低、鲁棒性差等问题,该研究提出了一种引入Transformer编码器的动物骨... 动物的姿态和行为与其自身的健康状况有着密切联系,检测动物骨骼关键点是进行动物姿态识别、异常行为分析的前提。针对现有的关键点检测方法对动物骨骼的识别准确率低、鲁棒性差等问题,该研究提出了一种引入Transformer编码器的动物骨骼关键点检测模型。首先,在HRNet网络的特征提取层中引入改进的Transformer编码器,用于捕捉关键点之间的空间约束关系,在小规模的羊数据集上有较优的检测性能。其次,引入多尺度信息融合模块,提高模型在不同维度特征上的学习能力,让模型可以适用于更多的实际场景。为了验证模型的有效性和泛化性,该研究采集并标注了羊的骨骼关键点数据集,并加入东北虎数据集ATRW共同作为训练集。试验结果表明,在羊和东北虎关键点数据集上,该模型分别取得77.1%和89.7%的准确率,均优于对比模型且计算量更小,单张图像检测时间为14 ms,满足实时检测的需求。使用牛、马等数据集进行跨域测试均能较好地检测出骨骼关键点,并分析了Transformer编码器的可解释性。该研究可为精确检测动物骨骼关键点提供一种有效的技术支持。 展开更多
关键词 识别 动物 骨骼 卷积神经网络 关键点检测 注意力机制 transformer编码
下载PDF
基于Transformer和隐马尔科夫模型的中文命名实体识别方法 被引量:8
6
作者 李健 熊琦 +1 位作者 胡雅婷 刘孔宇 《吉林大学学报(工学版)》 EI CAS CSCD 北大核心 2023年第5期1427-1434,共8页
提出了一种基于Transformer和隐马尔科夫模型的字级别中文命名实体识别方法。本文改进了Transformer模型的位置编码计算函数,使修改后的位置编码函数能表达字符之间的相对位置信息和方向性。使用Transformer模型编码后的字符序列计算转... 提出了一种基于Transformer和隐马尔科夫模型的字级别中文命名实体识别方法。本文改进了Transformer模型的位置编码计算函数,使修改后的位置编码函数能表达字符之间的相对位置信息和方向性。使用Transformer模型编码后的字符序列计算转移矩阵和发射矩阵,建立隐马尔科夫模型生成一组命名实体软标签。将隐马尔科夫模型生成的软标签带入到Bert-NER模型中,使用散度损失函数更新Bert-NER模型参数,输出最终的命名实体强标签,从而找出命名实体。经过对比实验,本文方法在中文CLUENER-2020数据集和Weibo数据集上,F_(1)值达到75.11%和68%,提升了中文命名实体识别的效果。 展开更多
关键词 人工智能 中文命名实体识别 隐马尔科夫模型 transformer编码 位置编码
原文传递
基于注意力机制特征融合的中文命名实体识别 被引量:7
7
作者 廖列法 谢树松 《计算机工程》 CAS CSCD 北大核心 2023年第4期256-262,共7页
命名实体识别是自然语言处理领域中信息抽取、信息检索、知识图谱等任务的基础。在命名实体识别任务中,Transformer编码器更加关注全局语义,对位置和方向信息不敏感,而双向长短期记忆(BiLSTM)网络可以提取文本中的方向信息,但缺少全局... 命名实体识别是自然语言处理领域中信息抽取、信息检索、知识图谱等任务的基础。在命名实体识别任务中,Transformer编码器更加关注全局语义,对位置和方向信息不敏感,而双向长短期记忆(BiLSTM)网络可以提取文本中的方向信息,但缺少全局语义信息。为同时获得全局语义信息和方向信息,提出使用注意力机制动态融合Transformer编码器和BiLSTM的模型。使用相对位置编码和修改注意力计算公式对Transformer编码器进行改进,利用改进的Transformer编码器提取全局语义信息,并采用BiLSTM捕获方向信息。结合注意力机制动态调整权重,深度融合全局语义信息和方向信息以获得更丰富的上下文特征。使用条件随机场进行解码,实现实体标注序列预测。此外,针对Word2Vec等传统词向量方法无法表示词的多义性问题,使用RoBERTa-wwm预训练模型作为模型的嵌入层提供字符级嵌入,获得更多的上下文语义信息和词汇信息,增强实体识别效果。实验结果表明,该方法在中文命名实体识别数据集Resume和Weibo上F1值分别达到96.68%和71.29%,相比ID-CNN、BiLSTM、CAN-NER等方法,具有较优的识别效果。 展开更多
关键词 注意力机制 transformer编码 特征融合 中文命名实体识别 预训练模型
下载PDF
人机协同巡检下绝缘子分类及故障检测方法 被引量:3
8
作者 王少飞 吴琼水 +1 位作者 田猛 王先培 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第1期91-98,111,共9页
针对目前电网人机协同巡检过程中数据收集量、来源面和复杂度增加,导致绝缘子目标小、遮挡严重、背景复杂、故障难以识别等问题,提出一种基于Yolov5-TBT模型的绝缘子分类及故障检测算法.首先构建了多目标(3种类别+2种故障)的人机协同巡... 针对目前电网人机协同巡检过程中数据收集量、来源面和复杂度增加,导致绝缘子目标小、遮挡严重、背景复杂、故障难以识别等问题,提出一种基于Yolov5-TBT模型的绝缘子分类及故障检测算法.首先构建了多目标(3种类别+2种故障)的人机协同巡检数据集,为模型训练提供充足的绝缘子图像,提高模型的鲁棒性和泛化能力.然后,以Yolov5模型为基础,增加Transformer编码器,减少复杂背景的干扰;使用加权双向特征金字塔网络(BiFPN)学习不同层级输入特征的重要性,进行更有效的特征聚合;增加小目标预测分支,提高对小目标的检测效果.实验结果表明:改进模型效果优于Yolov5模型,对伞裙破损故障的检测精度提高了19.4%,整体性能提高3.6%. 展开更多
关键词 电网巡检 绝缘子分类 故障检测 Yolov5模型 transformer编码
原文传递
融合自注意力和自编码器的视频异常检测 被引量:6
9
作者 梁家菲 李婷 +3 位作者 杨佳琪 李亚楠 方智文 杨丰 《中国图象图形学报》 CSCD 北大核心 2023年第4期1029-1040,共12页
目的视频异常检测通过挖掘正常事件样本的模式来检测不符合正常模式的异常事件。基于自编码器的模型广泛用于视频异常检测领域,由于自监督学习的特征提取具有一定盲目性,使得网络的特征表达能力有限。为了提升模型对正常模式的学习能力... 目的视频异常检测通过挖掘正常事件样本的模式来检测不符合正常模式的异常事件。基于自编码器的模型广泛用于视频异常检测领域,由于自监督学习的特征提取具有一定盲目性,使得网络的特征表达能力有限。为了提升模型对正常模式的学习能力,提出一种基于Transformer和U-Net的视频异常检测方法。方法首先,编码器对输入的连续帧进行下采样提取低层特征,并将最后一层特征图输入Transformer编码全局信息,学习特征像素之间的相关信息。然后解码器对编码特征进行上采样,通过跳跃连接与编码器中相同分辨率的低层特征融合,将全局空间信息与局部细节信息结合从而实现异常定位。针对近景康复动作的异常反馈需求,本文基于周期性动作收集了一个室内近景数据集,并进一步引入动态图约束引导网络关注近景周期性运动区域。结果实验在4个室外公开数据集和1个室内近景数据集上与同类方法比较。在室外数据集CUHK(Chinese University of Hong Kong)Avenue,UCSD Ped1(University of California,San Diego,pedestrian1),UCSD Ped2,LV(live videos)中,本文算法的帧级AUC(area under curve)值分别提高了1%,0.4%,1.1%,6.8%。在室内数据集中,本文算法相比同类算法提升了1.6%以上。消融实验结果分别验证了Transformer模块以及动态图约束的有效性。结论本文将U-Net网络与基于自注意力机制的Transformer网络结合,能够提升模型对正常模式的学习能力,从而有效检测视频中的异常事件。 展开更多
关键词 异常检测 卷积神经网络(CNN) transformer编码 自注意力机制 自监督学习
原文传递
基于机器阅读理解的中文命名实体识别方法 被引量:8
10
作者 刘奕洋 余正涛 +3 位作者 高盛祥 郭军军 张亚飞 聂冰鸽 《模式识别与人工智能》 EI CSCD 北大核心 2020年第7期653-659,共7页
针对现有命名实体识别方法主要考虑单个句子内的上下文信息,很少考虑文档级上下文影响的问题,文中提出基于机器阅读理解的中文命名实体识别方法,利用阅读理解思想,充分挖掘文档级的上下文特征,支撑实体识别.首先,针对每类实体,将实体识... 针对现有命名实体识别方法主要考虑单个句子内的上下文信息,很少考虑文档级上下文影响的问题,文中提出基于机器阅读理解的中文命名实体识别方法,利用阅读理解思想,充分挖掘文档级的上下文特征,支撑实体识别.首先,针对每类实体,将实体识别任务转化为问答任务,构建问题、文本及实体答案三元组.然后,将三元组信息通过双向Transformer编码器进行预训练,再通过卷积神经网络捕捉文档级文本上下文信息.最后通过二进制分类器实现实体答案预测.在MSRA、人民日报公开数据集和自建数据集上的命名实体识别对比实验表明,文中方法性能较优,阅读理解思想对实体识别具有较好的作用. 展开更多
关键词 命名实体识别(NER) 阅读理解 神经网络 双向transformer编码器(BERT)
下载PDF
基于改良Transformer算法的冠心病证候要素诊断处方模型分析 被引量:7
11
作者 李洪峥 王阶 +5 位作者 郭雨晨 张振鹏 李剑楠 李谦一 董艳 杜强 《中国实验方剂学杂志》 CAS CSCD 北大核心 2023年第1期148-154,共7页
目的:利用改良Transformer算法构建冠心病中医证候诊断、方药推荐模型。方法:以冠心病证候要素为关键环节,基于临证诊疗思路“症状-证候要素-证候-治法-方剂-药物(剂量)”搭建基本逻辑,综合运用多头注意力机制、复合词向量、随机失活形... 目的:利用改良Transformer算法构建冠心病中医证候诊断、方药推荐模型。方法:以冠心病证候要素为关键环节,基于临证诊疗思路“症状-证候要素-证候-治法-方剂-药物(剂量)”搭建基本逻辑,综合运用多头注意力机制、复合词向量、随机失活形成改良Transformer算法,模拟临床医师临证思路,形成具备冠心病中医证候要素判断、证候诊断、方药推荐、可更新迭代功能的智能化模型。模型建立后,选择8030例临床病例诊疗数据作为训练集进行模型训练,随机筛选100例基于真实临床病例的中医开方数据进行测试,比较模型输出方药与临床医师方药,对模型进行定性评价。结果:加入多头注意力机制的改良Transformer算法使模型准确率有更大的提升,模型在主要证候的判断、主要方剂的选择上与临床医师一致,在药物加减上有一定提升空间。结论:改良Transformer模型可提高冠心病证候要素、主要证候、处方、用药的准确率,较为准确、稳定地输出主要证候和方药建议,是中医智能化发展的体现。 展开更多
关键词 冠心病 中医药(TCM) 证候要素 机器学习 注意力机制 双向transformer编码表达(BERT) 人工智能(AI)
原文传递
一种基于Transformer编码器与LSTM的飞机轨迹预测方法 被引量:1
12
作者 李明阳 鲁之君 +1 位作者 曹东晶 曹世翔 《航天返回与遥感》 CSCD 北大核心 2024年第2期163-176,共14页
为了解决飞机目标机动数据集缺失的问题,文章利用运动学建模生成了丰富的轨迹数据集,为网络训练提供了必要的数据支持。针对现阶段轨迹预测运动学模型建立困难及时序预测方法难以提取时空特征的问题,提出了一种结合Transformer编码器和... 为了解决飞机目标机动数据集缺失的问题,文章利用运动学建模生成了丰富的轨迹数据集,为网络训练提供了必要的数据支持。针对现阶段轨迹预测运动学模型建立困难及时序预测方法难以提取时空特征的问题,提出了一种结合Transformer编码器和长短期记忆网络(Long Short Term Memory,LSTM)的飞机目标轨迹预测方法,即Transformer-Encoder-LSTM模型。新模型可同时提供LSTM和Transformer编码器模块的补充历史信息和基于注意力的信息表示,提高了模型能力。通过与一些经典神经网络模型进行对比分析,发现在数据集上,新方法的平均位移误差减小到0.22,显著优于CNN-LSTMAttention模型的0.35。相比其他网络,该算法能够提取复杂轨迹中的隐藏特征,在面对飞机连续转弯、大机动转弯的复杂轨迹时,能够保证模型的鲁棒性,提升了对于复杂轨迹预测的准确性。 展开更多
关键词 轨迹预测 transformer编码 神经网络 飞机目标 transformer-Encoder-LSTM模型
下载PDF
基于CNN‐Head Transformer编码器的中文命名实体识别 被引量:6
13
作者 史占堂 马玉鹏 +1 位作者 赵凡 马博 《计算机工程》 CAS CSCD 北大核心 2022年第10期73-80,共8页
基于多头自注意力机制的Transformer作为主流特征提取器在多种自然语言处理任务中取得了优异表现,但应用于命名实体识别任务时存在一字多词、增加额外存储与词典匹配时间等问题。提出一种CNN-Head Transformer编码器(CHTE)模型,在未使... 基于多头自注意力机制的Transformer作为主流特征提取器在多种自然语言处理任务中取得了优异表现,但应用于命名实体识别任务时存在一字多词、增加额外存储与词典匹配时间等问题。提出一种CNN-Head Transformer编码器(CHTE)模型,在未使用外部词典和分词工具的基础上,通过自注意力机制捕获全局语义信息,利用不同窗口大小的CNN获取Transformer中6个注意力头的Value向量,使CHTE模型在保留全局语义信息的同时增强局部特征和潜在词信息表示,并且应用自适应的门控残差连接融合当前层和子层特征,提升了Transformer在命名实体识别领域的性能表现。在Weibo和Resume数据集上的实验结果表明,CHTE模型的F1值相比于融合词典信息的Lattice LSTM和FLAT模型分别提升了3.77、2.24和1.30、0.31个百分点,具有更高的中文命名实体识别准确性。 展开更多
关键词 命名实体识别 自注意力机制 transformer编码 卷积神经网络 残差连接
下载PDF
基于Transformer编码器的语义相似度算法研究 被引量:6
14
作者 乔伟涛 黄海燕 王珊 《计算机工程与应用》 CSCD 北大核心 2021年第14期158-163,共6页
语义相似度计算旨在计算文本之间在语义层面的相似程度,是自然语言处理中一项重要的任务。针对现有的计算方法不能充分表示句子的语义特征的问题,提出基于Transformer编码器的语义特征抽取的模型TEAM,利用Transformer模型的上下文语义... 语义相似度计算旨在计算文本之间在语义层面的相似程度,是自然语言处理中一项重要的任务。针对现有的计算方法不能充分表示句子的语义特征的问题,提出基于Transformer编码器的语义特征抽取的模型TEAM,利用Transformer模型的上下文语义编码能力充分提取句子内的语义信息,对句子进行深层语义编码。此外,通过引入交互注意力机制,在编码两个句子时利用交互注意力机制提取两个句子之间关联的相似特征,使模型更擅长捕捉句子内部重要的语义信息,提高了模型对语义的理解和泛化能力。实验结果表明,该模型在英文和中文的语义相似度计算任务上能够提高结果的准确性,较已有方法表现出更好的效果。 展开更多
关键词 语义相似度 transformer编码 交互注意力机制 语义表示
下载PDF
基于Transformer编码器的金融文本情感分析方法 被引量:5
15
作者 李福鹏 付东翔 《电子科技》 2020年第9期10-15,共6页
目前针对文本情感分析的研究大多集中在商品评论和微博的情感分析领域,对金融文本的情感分析研究较少。针对该问题,文中提出一种基于Transformer编码器的金融文本情感分析方法。Transformer编码器是一种基于自注意力机制的特征抽取单元... 目前针对文本情感分析的研究大多集中在商品评论和微博的情感分析领域,对金融文本的情感分析研究较少。针对该问题,文中提出一种基于Transformer编码器的金融文本情感分析方法。Transformer编码器是一种基于自注意力机制的特征抽取单元,在处理文本序列信息时可以把句中任意两个单词联系起来不受距离限制,克服了长程依赖问题。文中所提方法使用Transformer编码器构建情感分析网络。Transformer编码器采用多头注意力机制,对同一句子进行多次计算以捕获更多的隐含在上下文中的语义特征。文中在以金融新闻为基础构建的平衡语料数据集上进行实验,并与以卷积神经网络和循环神经网络为基础构建的模型进行对比。实验结果表明,文中提出的基于Transformer编码器的方法在金融文本情感分析领域效果最好。 展开更多
关键词 情感分析 金融 自注意力机制 transformer编码 缩放点积注意力 多头注意力
下载PDF
基于改进YOLOv5的PCB缺陷检测方法 被引量:4
16
作者 时造雄 茅正冲 《电子测量技术》 北大核心 2023年第14期123-130,共8页
印刷电路板作为电子产品不可或缺的重要组成部分,其市场需求量与日俱增,因此制造无缺陷的PCB具有重要意义;针对PCB缺陷检测中待检测的缺陷目标较小且多数检测目标与背景容易混淆导致的误检漏检,改进的算法在原生YOLOv5算法的骨干网络中... 印刷电路板作为电子产品不可或缺的重要组成部分,其市场需求量与日俱增,因此制造无缺陷的PCB具有重要意义;针对PCB缺陷检测中待检测的缺陷目标较小且多数检测目标与背景容易混淆导致的误检漏检,改进的算法在原生YOLOv5算法的骨干网络中引入坐标注意力机制,在颈部网络中引入Transformer Encoder并增加一个适用于小目标的高分辨率检测头,并且将选定锚框的交并比算法部分改为更先进的E-IoU。相较于原生YOLOv5算法,根据算法评价指标精确率,召回率和平均检测精度均值的结果,改进后的算法性能有显著提升,其中平均检测精度均值更是高达98.46%,且检测速度也达到了72.4 Hz,可以满足工业现场对PCB缺陷检测的精度要求。 展开更多
关键词 缺陷检测 YOLOv5 注意力机制 transformer编码 交并比
下载PDF
基于Transformer编码器的智能电网虚假数据注入攻击检测 被引量:5
17
作者 陈冰 唐永旺 《计算机应用与软件》 北大核心 2022年第7期336-342,共7页
针对当前基于循环神经网络的智能电网虚假数据注入攻击(False Data Injection Attacks, FDIA)检测方法无法同时利用量测样本中前后参数信息和样本间参数关联关系的问题,提出一种基于Transformer编码器的FDIA检测框架。对连续时间样本数... 针对当前基于循环神经网络的智能电网虚假数据注入攻击(False Data Injection Attacks, FDIA)检测方法无法同时利用量测样本中前后参数信息和样本间参数关联关系的问题,提出一种基于Transformer编码器的FDIA检测框架。对连续时间样本数据进行归一化处理,结合相对位置信息得到连续时间样本向量。引入Transformer编码器,通过多头自注意力机制计算长距离依赖关系,得到连续时间样本的特征表示。将该特征表示输入到全连接神经网络层和Softmax层,输出后一时刻样本受到注入攻击的概率。在IEEE 14-bus和IEEE 30-bus中的仿真实验结果表明该方法切实可行,相较于次优结果,准确率平均提高7.41%,正报率平均提高4.51%,误报率平均降低60.99%。 展开更多
关键词 transformer编码 连续时间 多头注意力 智能电网 虚假数据
下载PDF
基于CNN-Transformer网络融合模型的动态肌肉疲劳状态识别研究 被引量:1
18
作者 刘景轩 陶庆 +3 位作者 赵暮超 胡学政 马金旭 袁陆 《陕西科技大学学报》 北大核心 2024年第2期208-215,共8页
为了解决现有的肌肉疲劳状态分类较少以及识别准确率不高的问题,提出一种基于表面肌电信号的CNN-Transformer肌肉疲劳识别模型,实现了动态肌肉疲劳的准确分类.该模型将传统的卷积神经网络与Transformer编码器模块相结合,相比单一卷积神... 为了解决现有的肌肉疲劳状态分类较少以及识别准确率不高的问题,提出一种基于表面肌电信号的CNN-Transformer肌肉疲劳识别模型,实现了动态肌肉疲劳的准确分类.该模型将传统的卷积神经网络与Transformer编码器模块相结合,相比单一卷积神经网络模型有更好的全局信息捕捉能力,对运动性肌肉疲劳识别具有更好的分类精度.首先,对15名健康受试者进行肘关节屈伸运动疲劳实验并基于疲劳程度划分了四种状态;其次,将获取的表面肌电信号数据进行预处理,并提取近似熵和排列熵两个非线性特征作为机器学习的特征输入;最后,利用原始表面肌电信号数据构建CNN-Transformer识别模型,与卷积神经网络、Transformer、随机森林模型进行比较.结果表明,在识别肌肉疲劳状态准确率方面CNN-Transformer模型比卷积神经网络、Transformer和随机森林模型分别高出2.89%、5.48%、7.24%,可见该模型具有良好的分类效果. 展开更多
关键词 表面肌电信号 动态肌肉疲劳 卷积神经网络 transformer编码
下载PDF
基于Transformer的多方面特征编码图像描述生成算法 被引量:4
19
作者 衡红军 范昱辰 王家亮 《计算机工程》 CAS CSCD 北大核心 2023年第2期199-205,共7页
由目标检测算法提取的目标特征在图像描述生成任务中发挥重要作用,但仅使用对图像进行目标检测的特征作为图像描述任务的输入会导致除关键目标信息以外的其余信息获取缺失,且生成的文本描述对图像内目标之间的关系缺乏准确表达。针对上... 由目标检测算法提取的目标特征在图像描述生成任务中发挥重要作用,但仅使用对图像进行目标检测的特征作为图像描述任务的输入会导致除关键目标信息以外的其余信息获取缺失,且生成的文本描述对图像内目标之间的关系缺乏准确表达。针对上述不足,提出用于编码图像内目标特征的目标Transformer编码器,以及用于编码图像内关系特征的转换窗口Transformer编码器,从不同角度对图像内不同方面的信息进行联合编码。通过拼接方法将目标Transformer编码的目标特征与转换窗口Transformer编码的关系特征相融合,达到图像内部关系特征和局部目标特征融合的目的,最终使用Transformer解码器将融合后的编码特征解码生成对应的图像描述。在MS-COCO数据集上进行实验,结果表明,所构建模型性能明显优于基线模型,BLEU-4、METEOR、ROUGE-L、CIDEr指标分别达到38.6%、28.7%、58.2%和127.4%,优于传统图像描述网络模型,能够生成更详细准确的图像描述。 展开更多
关键词 图像描述 转换窗口 多头注意力机制 多模态任务 transformer编码
下载PDF
基于元学习的小样本知识图谱补全 被引量:4
20
作者 汪雨竹 彭涛 +1 位作者 朱蓓蓓 崔海 《吉林大学学报(理学版)》 CAS 北大核心 2023年第3期623-630,共8页
以元学习为核心思想,结合卷积神经网络和Transformer编码器构建一个三阶段表示学习模型.为表达参考集中实体与任务关系之间的相互作用,使用卷积神经网络获取关系元,应用Transformer编码器增强查询集中的实体表示,并设计了用于计算不完... 以元学习为核心思想,结合卷积神经网络和Transformer编码器构建一个三阶段表示学习模型.为表达参考集中实体与任务关系之间的相互作用,使用卷积神经网络获取关系元,应用Transformer编码器增强查询集中的实体表示,并设计了用于计算不完全三元组匹配度得分的处理器,以解决小样本知识图谱补全问题,即大规模知识图谱较稀疏,而其中出现频率较低的长尾关系对应的实体对数量较多的现象.在数据集NELL-One和Wiki-One上的实验结果表明,该模型对大规模知识图谱中长尾关系对应的头尾实体的预测效果较好,可实现知识图谱中实体和关系的高效特征表示生成和缺失实体补全. 展开更多
关键词 知识图谱补全 元学习 transformer编码 卷积神经网络 知识图谱嵌入
下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部