期刊文献+
共找到10,962篇文章
< 1 2 250 >
每页显示 20 50 100
基于注意力机制的CNN-GRU短期电力负荷预测方法 被引量:172
1
作者 赵兵 王增平 +2 位作者 纪维佳 高欣 李晓兵 《电网技术》 EI CSCD 北大核心 2019年第12期4370-4376,共7页
高效准确的短期电力负荷预测能帮助电力部门合理制定生产调度计划,减少资源浪费。深度学习中以循环神经网络(recurrent neural network,RNN)为主体构建的预测模型是短期负荷预测方法中的典型代表,但存在难以有效提取历史序列中潜在高维... 高效准确的短期电力负荷预测能帮助电力部门合理制定生产调度计划,减少资源浪费。深度学习中以循环神经网络(recurrent neural network,RNN)为主体构建的预测模型是短期负荷预测方法中的典型代表,但存在难以有效提取历史序列中潜在高维特征且当时序过长时重要信息易丢失的问题。提出了一种基于Attention机制的卷积神经网络(convolutional neural network,CNN)-GRU(gated recurrent unit)短期电力负荷预测方法,该方法将历史负荷数据作为输入,搭建由一维卷积层和池化层等组成的CNN架构,提取反映负荷复杂动态变化的高维特征;将所提特征向量构造为时间序列形式作为GRU网络的输入,建模学习特征内部动态变化规律,并引入Attention机制通过映射加权和学习参数矩阵赋予GRU隐含状态不同的权重,减少历史信息的丢失并加强重要信息的影响,最后完成短期负荷预测。以美国某公共事业部门提供的公开数据集和中国西北某地区的负荷数据作为实际算例,该方法预测精度分别达到了97.15%和97.44%,并与多层感知机(multi-layer perceptron,MLP)、径向基神经网络(radial basis function neural network,RBF)、支持向量回归(support vector regression,SVR)、GRU、CNN、自编码器(autoencoder,AE)-GRU和未引入Attention机制的CNN-GRU进行对比,实验结果表明所提方法具有更高的预测精度。 展开更多
关键词 短期负荷预测 卷积神经网络 门控循环单元 注意力机制
下载PDF
电力市场中基于Attention-LSTM的短期负荷预测模型 被引量:137
2
作者 彭文 王金睿 尹山青 《电网技术》 EI CSCD 北大核心 2019年第5期1745-1751,共7页
电力市场环境下,精准的短期负荷预测可以保障电网安全稳定运行,但电价的实时波动增加了负荷变化的复杂性,加大了预测难度。针对这一问题,采用最大信息系数法分析电价及历史负荷与当前时刻负荷的相关性,为预测模型输入特征的确定提供依... 电力市场环境下,精准的短期负荷预测可以保障电网安全稳定运行,但电价的实时波动增加了负荷变化的复杂性,加大了预测难度。针对这一问题,采用最大信息系数法分析电价及历史负荷与当前时刻负荷的相关性,为预测模型输入特征的确定提供依据。在此基础上,提出了基于Attention-LSTM (attention long short-term memory,Attention-LSTM)网络的短期负荷预测模型。该模型充分利用负荷的时序特性,并采用Attention机制突出对负荷预测起到关键作用的输入特征。以澳大利亚某地区真实数据为算例,分别应用Attention-LSTM模型与其他模型进行仿真实验。结果表明,所提方法在预测精度和算法鲁棒性方面均优于其他模型。 展开更多
关键词 负荷预测 电力市场 最大信息系数 LSTM attention机制
下载PDF
基于多注意力卷积神经网络的特定目标情感分析 被引量:135
3
作者 梁斌 刘全 +2 位作者 徐进 周倩 章鹏 《计算机研究与发展》 EI CSCD 北大核心 2017年第8期1724-1735,共12页
特定目标情感分析作为情感分析一个重要的子任务,近年来得到越来越多研究人员的关注.针对在特定目标情感分析中,将注意力机制和LSTM等序列性输入网络相结合的网络模型训练时间长、且无法对文本进行平行化输入等问题,提出一种基于多注意... 特定目标情感分析作为情感分析一个重要的子任务,近年来得到越来越多研究人员的关注.针对在特定目标情感分析中,将注意力机制和LSTM等序列性输入网络相结合的网络模型训练时间长、且无法对文本进行平行化输入等问题,提出一种基于多注意力卷积神经网络(multi-attention convolution neural networks,MATT-CNN)的特定目标情感分析方法.相比基于注意力机制的LSTM网络,该方法可以接收平行化输入的文本信息,大大降低了网络模型的训练时间.同时,该方法通过结合多种注意力机制有效弥补了仅仅依赖内容层面注意力机制的不足,使模型在不需要例如依存句法分析等外部知识的情况下,获取更深层次的情感特征信息,有效识别不同目标的情感极性.最后在SemEval2014数据集和汽车领域数据集(automotive-domain data,ADD)进行实验,取得了比普通卷积神经网络、基于单注意力机制的卷积神经网络和基于注意力机制的LSTM网络更好的效果. 展开更多
关键词 注意力机制 卷积神经网络 特定目标情感分析 深度学习 自然语言处理
下载PDF
注意力机制在深度学习中的研究进展 被引量:127
4
作者 朱张莉 饶元 +2 位作者 吴渊 祁江楠 张钰 《中文信息学报》 CSCD 北大核心 2019年第6期1-11,共11页
注意力机制逐渐成为目前深度学习领域的主流方法和研究热点之一,它通过改进源语言表达方式,在解码中动态选择源语言相关信息,从而极大改善了经典Encoder-Decoder框架的不足。该文在提出传统基于Encoder-Decoder框架中存在的长程记忆能... 注意力机制逐渐成为目前深度学习领域的主流方法和研究热点之一,它通过改进源语言表达方式,在解码中动态选择源语言相关信息,从而极大改善了经典Encoder-Decoder框架的不足。该文在提出传统基于Encoder-Decoder框架中存在的长程记忆能力有限、序列转化过程中的相互关系、模型动态结构输出质量等问题的基础上,描述了注意力机制的定义和原理,介绍了多种不同的分类方式,分析了目前的研究现状,并叙述了目前注意力机制在图像识别、语音识别和自然语言处理等重要领域的应用情况。同时,进一步从多模态注意力机制、注意力的评价机制、模型的可解释性及注意力与新模型的融合等方面进行了探讨,从而为注意力机制在深度学习中的应用提供新的研究线索与方向。 展开更多
关键词 深度学习 注意力机制 编码器解码器
下载PDF
神经机器翻译综述 被引量:106
5
作者 李亚超 熊德意 张民 《计算机学报》 EI CSCD 北大核心 2018年第12期2734-2755,共22页
机器翻译研究将源语言所表达的语义自动转换为目标语言的相同语义,是人工智能和自然语言处理的重要研究内容.近年来,基于序列到序列模型(Sequence-to-Sequence Model)形成一种新的机器翻译方法:神经机器翻译(Neural Machine Translation... 机器翻译研究将源语言所表达的语义自动转换为目标语言的相同语义,是人工智能和自然语言处理的重要研究内容.近年来,基于序列到序列模型(Sequence-to-Sequence Model)形成一种新的机器翻译方法:神经机器翻译(Neural Machine Translation,NMT),它完全采用神经网络完成源语言到目标语言的翻译过程,成为一种极具潜力全新的机器翻译模型.神经机器翻译经过最近几年的发展,取得了丰富的研究成果,在多数语言对上逐渐超过了统计机器翻译方法.该文首先介绍了经典神经机器翻译模型及存在的问题与挑战;然后简单概括神经机器翻译中常用的神经网络;之后按照经典神经机器翻译模型、基础共性问题、新模型、新架构等分类体系详细介绍了相关研究进展;接着简单介绍基于神经网络的机器翻译评测方法;最后展望未来研究方向和发展趋势,并对该文做出总结. 展开更多
关键词 机器翻译 神经机器翻译 注意力机制 循环神经网络 序列到序列模型 机器翻译评测
下载PDF
神经机器翻译前沿进展 被引量:106
6
作者 刘洋 《计算机研究与发展》 EI CSCD 北大核心 2017年第6期1144-1149,共6页
机器翻译研究如何利用计算机实现自然语言之间的自动翻译,是人工智能和自然语言处理领域的重要研究方向之一.近年来,基于深度学习的神经机器翻译方法获得迅速发展,目前已取代传统的统计机器翻译成为学术界和工业界新的主流方法.首先介... 机器翻译研究如何利用计算机实现自然语言之间的自动翻译,是人工智能和自然语言处理领域的重要研究方向之一.近年来,基于深度学习的神经机器翻译方法获得迅速发展,目前已取代传统的统计机器翻译成为学术界和工业界新的主流方法.首先介绍神经机器翻译的基本思想和主要方法,然后对最新的前沿进展进行综述,最后对神经机器翻译的未来发展方向进行展望. 展开更多
关键词 人工智能 深度学习 神经机器翻译 编码器-解码器架构 注意力机制
下载PDF
注意力机制综述 被引量:101
7
作者 任欢 王旭光 《计算机应用》 CSCD 北大核心 2021年第S01期1-6,共6页
现在注意力机制已广泛地应用在深度学习的诸多领域。基于注意力机制的结构模型不仅能够记录信息间的位置关系,还能依据信息的权重去度量不同信息特征的重要性。通过对信息特征进行相关与不相关的抉择建立动态权重参数,以加强关键信息弱... 现在注意力机制已广泛地应用在深度学习的诸多领域。基于注意力机制的结构模型不仅能够记录信息间的位置关系,还能依据信息的权重去度量不同信息特征的重要性。通过对信息特征进行相关与不相关的抉择建立动态权重参数,以加强关键信息弱化无用信息,从而提高深度学习算法效率同时也改进了传统深度学习的一些缺陷。从图像处理、自然语言处理、数据预测等不同应用方面介绍了一些与注意力机制结合的算法结构,并对近几年大火的基于注意力机制的transformer和reformer算法进行了综述。鉴于注意力机制的重要性,综述了注意力机制的研究发展,分析了注意力机制目前的发展现状并探讨了该机制未来可行的研究方向。 展开更多
关键词 注意力机制 深度学习 位置关系 信息特征 关键信息 TRANSFORMER REFORMER
下载PDF
卷积神经网络中的注意力机制综述 被引量:99
8
作者 张宸嘉 朱磊 俞璐 《计算机工程与应用》 CSCD 北大核心 2021年第20期64-72,共9页
注意力机制因其优秀的效果与即插即用的便利性,在深度学习任务中得到了越来越广泛的应用。主要着眼于卷积神经网络,对卷积网络注意力机制发展过程中的各种主流方法进行介绍,并对其核心思想与实现过程进行提取与总结,同时对每种注意力机... 注意力机制因其优秀的效果与即插即用的便利性,在深度学习任务中得到了越来越广泛的应用。主要着眼于卷积神经网络,对卷积网络注意力机制发展过程中的各种主流方法进行介绍,并对其核心思想与实现过程进行提取与总结,同时对每种注意力机制方法进行实现,针对同型号辐射源设备实测数据进行对比实验与结果分析,并依据主流方法的思想与实验的结果总结并阐述了卷积网络中的注意力机制的研究现状与未来其发展方向。 展开更多
关键词 注意力机制 卷积神经网络 发展方向
下载PDF
文本情感分析方法研究综述 被引量:99
9
作者 王婷 杨文忠 《计算机工程与应用》 CSCD 北大核心 2021年第12期11-24,共14页
文本情感分析是自然语言处理领域的一个重要分支,广泛应用于舆情分析和内容推荐等方面,是近年来的研究热点。根据使用的不同方法,将其划分为基于情感词典的情感分析方法、基于传统机器学习的情感分析方法、基于深度学习的情感分析方法... 文本情感分析是自然语言处理领域的一个重要分支,广泛应用于舆情分析和内容推荐等方面,是近年来的研究热点。根据使用的不同方法,将其划分为基于情感词典的情感分析方法、基于传统机器学习的情感分析方法、基于深度学习的情感分析方法。通过对这三种方法进行对比,分析其研究成果,并对不同方法的优缺点进行归纳总结,介绍相关数据集和评价指标及应用场景,对情感分析子任务进行简单概括,发现将来的情感分析问题的研究趋势及应用领域,并为研究者在相关领域方面提供一定的帮助和指导。 展开更多
关键词 情感分析 情感词典 机器学习 深度学习 注意力机制 预训练
下载PDF
基于seq2seq和Attention机制的居民用户非侵入式负荷分解 被引量:79
10
作者 王轲 钟海旺 +1 位作者 余南鹏 夏清 《中国电机工程学报》 EI CSCD 北大核心 2019年第1期75-83,共9页
非侵入式负荷分解(nonintrusiveloadmonitoring,NILM)是大数据分析在智能配电系统中为终端用户提供的重要应用之一,能够提升对负荷的认知水平,显著提升需求侧响应的潜力。长期以来,传统的NILM算法存在误判率高,功率分解值准确度低等问... 非侵入式负荷分解(nonintrusiveloadmonitoring,NILM)是大数据分析在智能配电系统中为终端用户提供的重要应用之一,能够提升对负荷的认知水平,显著提升需求侧响应的潜力。长期以来,传统的NILM算法存在误判率高,功率分解值准确度低等问题。为此,采用深度学习的框架,提出一种基于序列到序列和Attention机制的NILM模型。该模型首先将输入的有功功率时间序列通过词嵌入映射到高维向量,并利用基于长短时记忆模型的编码器进行信息提取;然后通过引入Attention机制的解码器,从提取的信息中选取与当前时刻相关度最高的信息,用于解码并最终得到负荷分解结果。提出的深度学习网络模型能够显著提升对信息的提取与利用能力。基于REFITPowerData数据集的测试结果验证了方法的有效性。 展开更多
关键词 非侵入式负荷分解 深度学习 序列到序列 attention机制
下载PDF
基于改进YOLOv5的目标检测算法研究 被引量:75
11
作者 邱天衡 王玲 +1 位作者 王鹏 白燕娥 《计算机工程与应用》 CSCD 北大核心 2022年第13期63-73,共11页
YOLOv5是目前单阶段目标检测性能较好的算法,但对目标边界回归的精确度不高,难以适用对预测框交并比要求较高的场景。基于YOLOv5算法,提出一种对硬件要求低、模型收敛速度快、目标框准确率高的新模型YOLO-G。改进特征金字塔结构(FPN),... YOLOv5是目前单阶段目标检测性能较好的算法,但对目标边界回归的精确度不高,难以适用对预测框交并比要求较高的场景。基于YOLOv5算法,提出一种对硬件要求低、模型收敛速度快、目标框准确率高的新模型YOLO-G。改进特征金字塔结构(FPN),采用跨层级联的方式融合更多的特征,一定程度上防止了浅层语义信息的丢失,同时加深金字塔深度,对应增加检测层,使各种锚框的铺设间隔更加合理;其次把并行模式的注意力机制融入到网络结构中,赋予空间注意力模块和通道注意力模块相同的优先级,以加权融合的方式提取注意力信息,使网络可根据对空间和通道注意力的关注程度得到混合域注意力;通过降低网络的参数量和计算量对网络进行轻量化处理,防止因模型复杂度提升造成实时性能的损失。使用PASCALVOC的2007、2012两个数据集来验证算法的有效性,YOLO-G比YOLOv5s的参数量减少了4.7%,计算量减少了47.9%,而mAP@0.5提高了3.1个百分点,mAP@0.5:0.95提高了5.6个百分点。 展开更多
关键词 YOLOv5算法 特征金字塔(FPN) 注意力机制 目标检测
下载PDF
基于模型压缩的ED-YOLO电力巡检无人机避障目标检测算法 被引量:72
12
作者 彭继慎 孙礼鑫 +1 位作者 王凯 宋立业 《仪器仪表学报》 EI CAS CSCD 北大核心 2021年第10期161-170,共10页
针对现有卷积神经网络模型体积大、运算量高,导致电力巡检无人机检测速率与精度无法兼顾的问题,提出一种基于模型压缩的ED-YOLO网络实现无人机避障的目标检测算法。该目标检测算法以YOLOv4为基础,首先在主干网络中加入通道注意力机制,... 针对现有卷积神经网络模型体积大、运算量高,导致电力巡检无人机检测速率与精度无法兼顾的问题,提出一种基于模型压缩的ED-YOLO网络实现无人机避障的目标检测算法。该目标检测算法以YOLOv4为基础,首先在主干网络中加入通道注意力机制,在不增加计算量前提下提高检测精度;其次在特征金字塔部分运用深度可分离卷积替换传统卷积,减少卷积计算量;最后利用模型压缩策略裁剪网络中冗余通道,减小模型体积并提高模型检测速度。在自主构建的9600张电力巡检无人机飞行障碍的数据集进行测试,ED-YOLO与YOLOv4相比,其障碍物目标检测的平均精度均值只降低了1.4%,而模型体积减少了94.9%,浮点运算量减少了82.1%,预测速度提升了2.3倍。实验结果表明,对比多种其他现存方法,本文提出的基于模型压缩的ED-YOLO目标检测算法有着精度高、体积小和检测速度快的优势,满足电力巡检无机避障检测要求。 展开更多
关键词 电力巡检无人机 目标检测 注意力机制 深度可分离卷积 模型压缩
下载PDF
基于BiGRU-attention神经网络的文本情感分类模型 被引量:64
13
作者 王伟 孙玉霞 +1 位作者 齐庆杰 孟祥福 《计算机应用研究》 CSCD 北大核心 2019年第12期3558-3564,共7页
针对双向长短时记忆神经(BiLSTM)模型训练时间长、不能充分学习文本上下文信息的问题,提出一种基于BiGRU-attention的文本情感分类模型。首先,利用双向门控循环(BiGRU)神经网络层对文本深层次的信息进行特征提取;其次,利用注意力机制(at... 针对双向长短时记忆神经(BiLSTM)模型训练时间长、不能充分学习文本上下文信息的问题,提出一种基于BiGRU-attention的文本情感分类模型。首先,利用双向门控循环(BiGRU)神经网络层对文本深层次的信息进行特征提取;其次,利用注意力机制(attention)层对提取的文本深层次信息分配相应的权重;最后,将不同权重的文本特征信息放入softmax函数层进行文本情感极性分类。实验结果表明,所提的神经网络模型在IMDB数据集上的准确率是90. 54%,损失率是0. 2430,时间代价是1100 s,验证了BiGRU-attention模型的有效性。 展开更多
关键词 文本情感分类 注意力机制 双向门控循环神经网络
下载PDF
基于注意力机制的LSTM的语义关系抽取 被引量:64
14
作者 王红 史金钏 张志伟 《计算机应用研究》 CSCD 北大核心 2018年第5期1417-1420,1440,共5页
目前关系抽取方法中,传统深度学习方法存在长距离依赖问题,并且未考虑模型输入与输出的相关性。针对以上问题,提出了一种将LSTM(long short-term memory)模型与注意力机制相结合的关系抽取方法。将文本信息向量化,提取文本局部特征,再... 目前关系抽取方法中,传统深度学习方法存在长距离依赖问题,并且未考虑模型输入与输出的相关性。针对以上问题,提出了一种将LSTM(long short-term memory)模型与注意力机制相结合的关系抽取方法。将文本信息向量化,提取文本局部特征,再将文本局部特征导入双向LSTM模型中,通过注意力机制对LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度获取文本整体特征;最后将局部特征和整体特征进行特征融合,通过分类器输出分类结果。在Sem Eval-2010 task 8语料库上的实验结果表明,该方法的准确率和稳定性较传统深度学习方法有进一步提高,为自动问答、信息检索以及本体学习等领域提供了方法支持。 展开更多
关键词 文本信息 语义关系 关系抽取 LSTM 注意力机制
下载PDF
基于CNN-BiLSTM-Attention的超短期电力负荷预测 被引量:62
15
作者 任建吉 位慧慧 +4 位作者 邹卓霖 侯庭庭 原永亮 沈记全 王小敏 《电力系统保护与控制》 EI CSCD 北大核心 2022年第8期108-116,共9页
超短期电力负荷预测对电力系统的快速响应和实时调度至关重要,准确预测负荷能保障电力系统的安全并提高用电效率。为获得准确可靠的负荷预测结果,针对电网负荷数据非线性和时序性等特征,提出了一种基于CNN-BiLSTM-Attention(AC-BiLSTM)... 超短期电力负荷预测对电力系统的快速响应和实时调度至关重要,准确预测负荷能保障电力系统的安全并提高用电效率。为获得准确可靠的负荷预测结果,针对电网负荷数据非线性和时序性等特征,提出了一种基于CNN-BiLSTM-Attention(AC-BiLSTM)的新型超短期电力负荷预测方法。该方法首先将卷积神经网络(CNN)和双向长短期记忆(BiLSTM)网络相结合充分提取负荷数据本身的时空特征。然后引入注意力(Attention)机制自动为BiLSTM隐藏层状态分配相应的权重,以区分不同时间负荷序列的重要性,能够有效减少历史信息的丢失并突出关键历史时间点的信息。最后通过全连接层输出最终负荷预测结果。以某地区真实负荷数据为例进行了实验分析。通过两种实验场景对比,验证了该方法具有较高的预测精度,可以为电力系统规划和稳定运行提供可靠的依据。 展开更多
关键词 负荷预测 卷积神经网络 双向长短期记忆网络 注意力机制 电力系统
下载PDF
自然语言处理中的注意力机制研究综述 被引量:59
16
作者 石磊 王毅 +1 位作者 成颖 魏瑞斌 《数据分析与知识发现》 CSSCI CSCD 北大核心 2020年第5期1-14,共14页
【目的】总结注意力机制在自然语言处理领域的衍化及应用规律。【文献范围】以"attention"和"注意力"为检索词,分别检索WoS、The ACM Digital Library、arXiv以及中国知网,时间跨度限定为2015年1月至2019年10月,制... 【目的】总结注意力机制在自然语言处理领域的衍化及应用规律。【文献范围】以"attention"和"注意力"为检索词,分别检索WoS、The ACM Digital Library、arXiv以及中国知网,时间跨度限定为2015年1月至2019年10月,制定标准人工筛选自然语言处理领域的文献,最终获得68篇相关文献。【方法】在深入分析文献的基础上,归纳注意力机制的通用形式,梳理其衍生类型,并基于数据对其在自然语言处理任务中的应用情况进行述评。【结果】注意力机制在自然语言处理中的应用集中于序列标注、文本分类、推理以及生成式任务,且任务和注意力机制的类型之间存在一定的适配规律。【局限】部分注意力机制和任务间的适配结论是通过模型整体表现数据间接得出的,不同注意力机制间的性能差异有待进一步研究。【结论】注意力机制的研究切实推进了自然语言处理的发展,但其作用机理尚未明了,提高其可解释性并使之更加接近人类的真实注意力是未来的研究方向。 展开更多
关键词 注意力机制 自注意力 机器翻译 机器阅读理解 情感分析
原文传递
基于注意力机制的CNN-LSTM模型及其应用 被引量:58
17
作者 李梅 宁德军 郭佳程 《计算机工程与应用》 CSCD 北大核心 2019年第13期20-27,共8页
时序数据存在时序性,并且其短序列的特征存在重要程度差异性。针对时序数据特征,提出一种基于注意力机制的卷积神经网络(CNN)联合长短期记忆网络(LSTM)的神经网络预测模型,融合粗细粒度特征实现准确的时间序列预测。该模型由两部分构成... 时序数据存在时序性,并且其短序列的特征存在重要程度差异性。针对时序数据特征,提出一种基于注意力机制的卷积神经网络(CNN)联合长短期记忆网络(LSTM)的神经网络预测模型,融合粗细粒度特征实现准确的时间序列预测。该模型由两部分构成:基于注意力机制的CNN,在标准CNN网络上增加注意力分支,以抽取重要细粒度特征;后端为LSTM,由细粒度特征抽取潜藏时序规律的粗粒度特征。在真实的热电联产供热数据上的实验表明,该模型比差分整合移动平均自回归、支持向量回归、CNN以及LSTM模型的预测效果更好,对比目前企业将预定量作为预测量的方法,预测缩放误差平均值(MASE)与均方根误差(RMSE)指标分别提升了89.64%和61.73%。 展开更多
关键词 注意力机制 卷积神经网络(CNN) 长短期记忆网络(LSTM) 时间序列 负荷预测
下载PDF
基于标签语义注意力的多标签文本分类 被引量:55
18
作者 肖琳 陈博理 +3 位作者 黄鑫 刘华锋 景丽萍 于剑 《软件学报》 EI CSCD 北大核心 2020年第4期1079-1089,共11页
自大数据蓬勃发展以来,多标签分类一直是令人关注的重要问题,在现实生活中有许多实际应用,如文本分类、图像识别、视频注释、多媒体信息检索等.传统的多标签文本分类算法将标签视为没有语义信息的符号,然而,在许多情况下,文本的标签是... 自大数据蓬勃发展以来,多标签分类一直是令人关注的重要问题,在现实生活中有许多实际应用,如文本分类、图像识别、视频注释、多媒体信息检索等.传统的多标签文本分类算法将标签视为没有语义信息的符号,然而,在许多情况下,文本的标签是具有特定语义的,标签的语义信息和文档的内容信息是有对应关系的,为了建立两者之间的联系并加以利用,提出了一种基于标签语义注意力的多标签文本分类(LAbel Semantic Attention Multi-label Classification,简称LASA)方法,依赖于文档的文本和对应的标签,在文档和标签之间共享单词表示.对于文档嵌入,使用双向长短时记忆(bi-directional long short-term memory,简称Bi-LSTM)获取每个单词的隐表示,通过使用标签语义注意力机制获得文档中每个单词的权重,从而考虑到每个单词对当前标签的重要性.另外,标签在语义空间里往往是相互关联的,使用标签的语义信息同时也考虑了标签的相关性.在标准多标签文本分类的数据集上得到的实验结果表明,所提出的方法能够有效地捕获重要的单词,并且其性能优于当前先进的多标签文本分类算法. 展开更多
关键词 多标签学习 文本分类 标签语义 注意力机制
下载PDF
心流体验及其研究现状 被引量:53
19
作者 陈欣 《江苏师范大学学报(哲学社会科学版)》 北大核心 2014年第5期150-155,共6页
心流是一种高度投入某项活动时全神贯注的积极情绪体验,当人们所从事的活动具有三个特点,即目标明确、即时反馈、技能-挑战相平衡时,容易出现心流体验。关于心流的内涵界定还存在一些争议,但可以肯定的是:注意高度集中是心流的一个核心... 心流是一种高度投入某项活动时全神贯注的积极情绪体验,当人们所从事的活动具有三个特点,即目标明确、即时反馈、技能-挑战相平衡时,容易出现心流体验。关于心流的内涵界定还存在一些争议,但可以肯定的是:注意高度集中是心流的一个核心因素。心流体验的神经特征可以通过大脑网络的激活模式来反应。心流具有自激励性,可以增加更多的愉悦体验,使人们对所从事的活动充满兴趣。目前的应用研究主要集中在心理健康、网络生活和企业管理领域。 展开更多
关键词 心流 注意高度集中 技能-挑战平衡 自激励机制
下载PDF
基于BiLSTM-Attention神经网络的电力设备缺陷文本挖掘 被引量:50
20
作者 冯斌 张又文 +4 位作者 唐昕 郭创新 王坚俊 杨强 王慧芳 《中国电机工程学报》 EI CSCD 北大核心 2020年第S01期1-10,共10页
地区电网生产管理系统拥有大量的输变电设备缺陷记录文本,但是缺少系统化的利用和整理,可采用自然语言处理技术挖掘并分析缺陷记录文本。考虑电力系统领域专业分词方法,对缺陷记录文本中的句子进行文本预处理。利用word2vec模型将词语... 地区电网生产管理系统拥有大量的输变电设备缺陷记录文本,但是缺少系统化的利用和整理,可采用自然语言处理技术挖掘并分析缺陷记录文本。考虑电力系统领域专业分词方法,对缺陷记录文本中的句子进行文本预处理。利用word2vec模型将词语映射到高维特征空间,形成分布式词向量。提出基于注意力机制的双向长短期记忆神经网络(BiLSTM based on attention mechanism,BiLSTM-Attention)对电力设备缺陷文本进行分类,并以准确率、混淆矩阵以及微平均F1值(F1Micro)作为评价指标与传统机器学习模型、深度学习模型进行对比。实例分析表明BiLSTM-Attention模型具有更好的分类效果,能够实现电力设备缺陷文本的自动精准高效分类。最后构建电力设备缺陷处理优先指数,以此提升输变电设备的智能化管理水平,促进自然语言处理技术在电网中的应用。 展开更多
关键词 缺陷记录 电力文本挖掘 注意力机制 双向长短期记忆网络
下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部