期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
面向电力业务数据的命名实体识别 被引量:5
1
作者 李妍 孟洁 +2 位作者 何金 张旭 王梓蒴 《电力信息与通信技术》 2022年第4期24-31,共8页
电力行业内部会积累规模可观的电力业务数据,自动挖掘电力业务数据中的信息对提升相关部门业务能力、降低电力行业内巨大运维成本有促进作用。但电力业务数据大多是非结构化数据且体量庞大繁杂,因此针对如何将电力业务数据中非结构化文... 电力行业内部会积累规模可观的电力业务数据,自动挖掘电力业务数据中的信息对提升相关部门业务能力、降低电力行业内巨大运维成本有促进作用。但电力业务数据大多是非结构化数据且体量庞大繁杂,因此针对如何将电力业务数据中非结构化文本提取出结构化信息这一问题,设计了基于Transformer模型的融合词汇和二元词组特征的命名实体识别模型。在该模型中,通过使用融合多特征的BERT预训练语言模型得到词嵌入表示,并使用Transformer模型和条件随机场作为编码层和解码层,实现电网领域的命名实体识别。通过在电网领域文本的实验表明,所提出的模型在实体类型识别的准确率为93.62%,性能优于传统的命名实体识别方法,通过消融实验证明了该命名实体识别方法的有效性。 展开更多
关键词 知识图谱 中文命名实体识别 BERT模型 Transformer模型 条件随机场
下载PDF
基于图卷积网络的客服对话情感分析 被引量:1
2
作者 孟洁 李妍 +2 位作者 赵迪 张倩宜 刘赫 《计算机系统应用》 2022年第5期147-156,共10页
随着电力业务的发展,客服环节时刻产生着大量的数据,然而传统对话数据情感检测方法对于客服质量检测的手段存在着诸多的问题和挑战.本文根据词语出现的排列和定位构建字图,对整个语句进行非连续长距离的语义建模;并针对文档不同组成部... 随着电力业务的发展,客服环节时刻产生着大量的数据,然而传统对话数据情感检测方法对于客服质量检测的手段存在着诸多的问题和挑战.本文根据词语出现的排列和定位构建字图,对整个语句进行非连续长距离的语义建模;并针对文档不同组成部分之间的关系,对语句上下文之间的交互依赖或自我依赖关系进行建模;最后通过卷积神经网络对所构建的图进行特征提取和邻域节点的特征聚合以得到文本的最终特征表示,进而实现客服通话过程中的情绪状态检测.通过实验证明本文提出的模型情感分类性能指标始终高于基线模型,这表明融合词共现关系、顺序语句上下文编码和交互语句上下文编码结构可以有效提高情感类别检测精度.该方法为智能化、自动化地检测客服通话过程中的情绪状态提供了更细粒度的分析,为有效地提高客服服务质量具有重要意义. 展开更多
关键词 对话情感分析 异质网络 图卷积网络 注意力机制 双向门控循环单元
下载PDF
电力物联网边缘计算依赖型任务卸载的低时延调度技术 被引量:1
3
作者 王凯 张旭 +2 位作者 张倩宜 徐天一 徐志强 《电力信息与通信技术》 2024年第6期73-80,共8页
现有电力物联网任务调度技术难以满足任务的低时延和实时性要求,且未考虑到电力物联网任务之间的内部依赖性。针对该问题,融合深度强化学习任务卸载模型和Sequence-to-Sequence神经网络,使用有向无环图表示任务及依赖关系,引入ε-贪婪... 现有电力物联网任务调度技术难以满足任务的低时延和实时性要求,且未考虑到电力物联网任务之间的内部依赖性。针对该问题,融合深度强化学习任务卸载模型和Sequence-to-Sequence神经网络,使用有向无环图表示任务及依赖关系,引入ε-贪婪探索机制和优先经验回放来鼓励探索和提高模型训练效率,构建基于深度强化学习的电力物联网任务卸载模型。通过与其他任务卸载算法进行对比,所提模型的任务平均处理时延显著优于其他算法,验证在电力物联网依赖型任务低时延调度方面的优越性。 展开更多
关键词 电力物联网 边缘计算 任务卸载 深度强化学习 Sequence-to-Sequence神经网络
下载PDF
融合知识图谱的医疗领域命名实体识别 被引量:2
4
作者 金志刚 何晓勇 +2 位作者 岳顺民 熊亚岚 罗嘉 《哈尔滨工业大学学报》 EI CAS CSCD 北大核心 2023年第5期50-58,共9页
为了改善通用预训练模型不适应医疗领域的命名实体识别任务这一不足,提出了一种融合医疗领域知识图谱的神经网络架构,该架构利用弹性位置和遮盖矩阵使预训练模型计算自注意力时避免语义混淆和语义干扰,在微调时使用多任务学习的思想,利... 为了改善通用预训练模型不适应医疗领域的命名实体识别任务这一不足,提出了一种融合医疗领域知识图谱的神经网络架构,该架构利用弹性位置和遮盖矩阵使预训练模型计算自注意力时避免语义混淆和语义干扰,在微调时使用多任务学习的思想,利用回忆学习的优化算法使预训练模型均衡通用语义表达和目标任务的学习,最终得到更为高效的向量表示并进行标签预测。实验结果表明:本文提出的命名实体识别架构在医疗领域上取得了优于主流预训练模型的效果,在通用领域也有较为良好的效果。该架构避免了重新训练针对某个领域的预训练模型和引入额外的编码结构从而精简了计算代价和模型大小。此外,通过消融实验对比,医疗领域对于知识图谱的依赖程度较通用领域依赖程度更大,这说明在医疗领域中融合知识图谱方法的有效性。通过参数分析,证明本文使用回忆学习的优化算法可以有效控制模型参数的更新,使模型可以保留更多的通用语义信息并得到更符合语义的向量表达。本文也通过实验分析说明了所提方法在实体数量少的种类上具有更优的表现。 展开更多
关键词 BERT 知识图谱 多任务学习 命名实体识别
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部