期刊文献+
共找到141篇文章
< 1 2 8 >
每页显示 20 50 100
结合BERT与BiGRU-Attention-CRF模型的地质命名实体识别 被引量:8
1
作者 谢雪景 谢忠 +5 位作者 马凯 陈建国 邱芹军 李虎 潘声勇 陶留锋 《地质通报》 CAS CSCD 北大核心 2023年第5期846-855,共10页
从地质文本中提取地质命名实体,对地质大数据的深度挖掘与应用具有重要意义。定义了地质命名实体的概念并制订了标注规范,设计了地质实体对象化表达模型。地质文本存在大量长实体、复杂嵌套实体,增加了地质命名实体识别的挑战性。针对... 从地质文本中提取地质命名实体,对地质大数据的深度挖掘与应用具有重要意义。定义了地质命名实体的概念并制订了标注规范,设计了地质实体对象化表达模型。地质文本存在大量长实体、复杂嵌套实体,增加了地质命名实体识别的挑战性。针对上述问题,①引入BERT模型生成顾及上下文信息的高质量词向量表征;②采用双向门控循环单元-注意力机制-条件随机场(BiGRU-Attention-CRF)对前一层输出的语义编码进行序列标注与解码。通过与主流深度学习模型进行对比,该模型的F1值为84.02%,均比其他模型表现出更优异的性能,能在小规模地质语料库上有较好的识别效果。 展开更多
关键词 命名实体识别 地质命名实体 BERT 注意力机制 BiGRU
下载PDF
基于BERT的交互式地质实体标注语料库构建方法 被引量:6
2
作者 张春菊 张磊 +3 位作者 陈玉冰 刘文聪 薄嘉晨 肖鸿飞 《地理与地理信息科学》 CSCD 北大核心 2022年第4期7-12,共6页
地质实体识别是地质文本信息挖掘和地质知识图谱构建的重要基础,高质量的地质实体语料库是提高地质实体识别效果的重要因素,但目前用于中文地质实体识别的标注语料较少且内容局限于一定领域范围内,而传统的人工标注方法往往耗时耗力且... 地质实体识别是地质文本信息挖掘和地质知识图谱构建的重要基础,高质量的地质实体语料库是提高地质实体识别效果的重要因素,但目前用于中文地质实体识别的标注语料较少且内容局限于一定领域范围内,而传统的人工标注方法往往耗时耗力且依赖专业知识。因此,该文开展基于BERT的交互式地质实体标注方法研究,通过BERT-BiLSTM-CRF模型自动标注文本中的地质实体并结合人机交互方式校正,同时利用标注的语料扩充原始语料规模和优化地质实体识别模型的性能。实验表明,基于BERT-BiLSTM-CRF模型比CRF、Word2vec-BiLSTM-CRF、Lattice-LSTM-CRF 3种常用模型的识别效果好,在自主构建的初始地质实体语料库的F 1值达91.47%,扩大语料规模后提升了1.36%,在保证质量的前提下,减少了人工标注工作,可实现大规模、高质量地质实体标注语料库的构建。 展开更多
关键词 BERT 地质实体识别 交互式 地质实体语料库
下载PDF
多神经网络协作的军事领域命名实体识别 被引量:32
3
作者 尹学振 赵慧 +2 位作者 赵俊保 姚婉薇 黄泽林 《清华大学学报(自然科学版)》 EI CAS CSCD 北大核心 2020年第8期648-655,共8页
互联网公开数据蕴含着大量高价值的军事情报,成为获取开源军事情报的重要数据源之一。军事领域命名实体识别是进行军事领域信息提取、问答系统、知识图谱等工作的基础性关键任务。相比较于其他领域的命名实体,军事领域命名实体边界模糊... 互联网公开数据蕴含着大量高价值的军事情报,成为获取开源军事情报的重要数据源之一。军事领域命名实体识别是进行军事领域信息提取、问答系统、知识图谱等工作的基础性关键任务。相比较于其他领域的命名实体,军事领域命名实体边界模糊,界定困难;互联网媒体中军事术语表达不规范,随意性的简化表达现象较普遍;现阶段面向军事领域的公开语料鲜见。该文提出一种考虑实体模糊边界的标注策略,结合领域专家知识,构建了基于微博数据的军事语料集MilitaryCorpus;提出一种多神经网络协作的军事领域命名实体识别模型,该模型通过基于Transformer的双向编码器(bidirectional encoder representations from transformers, BERT)的字向量表达层获得字级别的特征,通过双向长短时记忆神经网络(bi-directional long short-term memory, BiLSTM)层抽取上下文特征形成特征矩阵,最后由条件随机场层(conditional random field, CRF)生成最优标签序列。实验结果表明:相较于基于CRF的实体识别模型,应用该文提出的BERT-BiLSTM-CRF模型召回率提高28.48%,F值提高18.65%;相较于基于BiLSTM-CRF的实体识别模型,该文模型召回率提高13.91%,F值提高8.69%;相较于基于CNN (convolutional neural networks)-BiLSTM-CRF的实体识别模型,该文模型召回率提高7.08%,F值提高5.15%。 展开更多
关键词 军事命名实体识别 双向偏码器(BERT) 模糊边界 多神经网络
原文传递
基于BERT的常见作物病害问答系统问句分类 被引量:18
4
作者 杨国峰 杨勇 《计算机应用》 CSCD 北大核心 2020年第6期1580-1586,共7页
问句分类作为问答系统的关键模块,也是制约问答系统检索效率的关键性因素。针对农业问答系统中用户问句语义信息复杂、差异大的问题,为了满足用户快速、准确地获取常见作物病害问句的分类结果的需求,构建了基于BERT的常见作物病害问答... 问句分类作为问答系统的关键模块,也是制约问答系统检索效率的关键性因素。针对农业问答系统中用户问句语义信息复杂、差异大的问题,为了满足用户快速、准确地获取常见作物病害问句的分类结果的需求,构建了基于BERT的常见作物病害问答系统的问句分类模型。首先,对问句数据集进行预处理;然后,分别构建双向长短期记忆(Bi-LSTM)自注意力网络分类模型、Transformer分类模型和基于BERT的微调分类模型,并利用三种模型提取问句的信息,进行问句分类模型的训练;最后,对基于BERT的微调分类模型进行测试,同时探究数据集规模对分类结果的影响。实验结果表明,基于BERT的微调常见作物病害问句分类模型的分类准确率、精确率、召回率、精确率和召回率的加权调和平均值分别高于双向长短期记忆自注意力网络模型和Transformer分类模型2~5个百分点,在常见作物病害问句数据集(CCDQD)上能获得最高准确率92.46%,精确率92.59%,召回率91.26%,精确率和召回率的加权调和平均值91.92%。基于BERT的微调分类模型具有结构简单、训练参数少、训练速度快等特点,并能够高效地对常见作物病害问句准确分类,可以作为常见作物病害问答系统的问句分类模型。 展开更多
关键词 自然语言处理 BERT 作物病害 问答系统 问句分类
下载PDF
基于BERT-BiLSTM-CRF的法律案件实体智能识别方法 被引量:17
5
作者 郭知鑫 邓小龙 《北京邮电大学学报》 EI CAS CSCD 北大核心 2021年第4期129-134,共6页
在智能法务系统应用中,人工智能自然语言处理相关技术常采用静态特征向量模型,算法效率低,精度偏差较大。为了对法律文本中的案件实体进行智能识别,提高案件的处理效率,针对动态字向量模型提出以基于转换器的双向编码表征模型作为输入... 在智能法务系统应用中,人工智能自然语言处理相关技术常采用静态特征向量模型,算法效率低,精度偏差较大。为了对法律文本中的案件实体进行智能识别,提高案件的处理效率,针对动态字向量模型提出以基于转换器的双向编码表征模型作为输入层的识别方法。在其基础上通过融合双向长短期记忆网络和条件随机场模型,构建了高精度的法律案件实体智能识别方法,并通过实验验证了模型的性能。 展开更多
关键词 自然语言处理 智能法务 基于转换器的双向编码表征模型
原文传递
结合BERT和特征投影网络的新闻主题文本分类方法 被引量:15
6
作者 张海丰 曾诚 +3 位作者 潘列 郝儒松 温超东 何鹏 《计算机应用》 CSCD 北大核心 2022年第4期1116-1124,共9页
针对新闻主题文本用词缺乏规范、语义模糊、特征稀疏等问题,提出了结合BERT和特征投影网络(FPnet)的新闻主题文本分类方法。该方法包含两种实现方式:方式1将新闻主题文本在BERT模型的输出进行多层全连接层特征提取,并将最终提取到的文... 针对新闻主题文本用词缺乏规范、语义模糊、特征稀疏等问题,提出了结合BERT和特征投影网络(FPnet)的新闻主题文本分类方法。该方法包含两种实现方式:方式1将新闻主题文本在BERT模型的输出进行多层全连接层特征提取,并将最终提取到的文本特征结合特征投影方法进行提纯,从而强化分类效果;方式2在BERT模型内部的隐藏层中融合特征投影网络进行特征投影,从而通过隐藏层特征投影强化提纯分类特征。在今日头条、搜狐新闻、THUCNews-L、THUCNews-S数据集上进行实验,实验结果表明上述两种方式相较于基线BERT方法在准确率、宏平均F1值上均具有更好的表现,准确率最高分别为86.96%、86.17%、94.40%和93.73%,验证了所提方法的可行性和有效性。 展开更多
关键词 预训练语言模型 文本分类 新闻主题 BERT 特征投影网络
下载PDF
融合BERT的多层次语义协同模型情感分析研究 被引量:14
7
作者 胡任远 刘建华 +2 位作者 卜冠南 张冬阳 罗逸轩 《计算机工程与应用》 CSCD 北大核心 2021年第13期176-184,共9页
由于基于变换器的双向编码器表征技术(Bidirectional Encoder Representations from Transformers,BERT)的提出,改变了传统神经网络解决句子级文本情感分析问题的方法。目前的深度学习模型BERT本身学习模式为无监督学习,其需要依赖后续... 由于基于变换器的双向编码器表征技术(Bidirectional Encoder Representations from Transformers,BERT)的提出,改变了传统神经网络解决句子级文本情感分析问题的方法。目前的深度学习模型BERT本身学习模式为无监督学习,其需要依赖后续任务补全推理和决策环节,故存在缺乏目标领域知识的问题。提出一种多层协同卷积神经网络模型(Multi-level Convolutional Neural Network,MCNN),该模型能学习到不同层次的情感特征来补充领域知识,并且使用BERT预训练模型提供词向量,通过BERT学习能力的动态调整将句子真实的情感倾向嵌入模型,最后将不同层次模型输出的特征信息同双向长短期记忆网络输出信息进行特征融合后计算出最终的文本情感性向。实验结果表明即使在不同语种的语料中,该模型对比传统神经网络和近期提出的基于BERT深度学习的模型,情感极性分类的能力有明显提升。 展开更多
关键词 深度学习 文本情感分析 基于变换器的双向编码器表征技术(BERT) 卷积神经网络(CNN) 协同结构
下载PDF
融合BERT与标签语义注意力的文本多标签分类方法 被引量:12
8
作者 吕学强 彭郴 +2 位作者 张乐 董志安 游新冬 《计算机应用》 CSCD 北大核心 2022年第1期57-63,共7页
多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一。针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT。首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量... 多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一。针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT。首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量表示;然后,使用长短期记忆(LSTM)神经网络将标签进行单独编码;最后,利用注意力机制显性突出文本对每个标签的贡献,以预测多标签序列。实验结果表明,与基于序列生成模型(SGM)算法相比,所提出的方法在AAPD与RCV1-v2公开数据集上,F1值分别提高了2.8个百分点与1.5个百分点。 展开更多
关键词 多标签分类 BERT 标签语义信息 双向长短期记忆神经网络 注意力机制
下载PDF
基于BERT和多头注意力的中文命名实体识别方法 被引量:8
9
作者 孙弋 梁兵涛 《重庆邮电大学学报(自然科学版)》 CSCD 北大核心 2023年第1期110-118,共9页
针对双向长短时记忆网络-条件随机场(bi-directional long short-term memory-conditional random field,BiLSTM-CRF)模型存在准确率低和向量无法表示上下文的问题,提出一种改进的中文命名实体识别模型。利用裁剪的双向编码器表征模型(b... 针对双向长短时记忆网络-条件随机场(bi-directional long short-term memory-conditional random field,BiLSTM-CRF)模型存在准确率低和向量无法表示上下文的问题,提出一种改进的中文命名实体识别模型。利用裁剪的双向编码器表征模型(bidirectional encoder representations from transformers,BERT)得到包含上下文信息的语义向量;输入双向门控循环单元(bidirectional gated recurrent unit,BiGRU)网络及多头自注意力层捕获序列的全局和局部特征;通过条件随机场(conditional random field,CRF)层进行序列解码标注,提取出命名实体。在人民日报和微软亚洲研究院(Microsoft research Asia,MSRA)数据集上的实验结果表明,改进模型在识别效果和速度方面都有一定提高;对BERT模型内在机理的分析表明,BERT模型主要依赖从低层和中层学习到的短语及语法信息完成命名实体识别(named entity recognition,NER)任务。 展开更多
关键词 命名实体识别 自注意力机制 BERT模型 双向门控循环单元 机理分析
下载PDF
端到端对话系统意图语义槽联合识别研究综述 被引量:12
10
作者 王堃 林民 李艳玲 《计算机工程与应用》 CSCD 北大核心 2020年第14期14-25,共12页
目前基于深度学习的端到端对话系统因具有泛化能力强、训练参数少、性能好等优势,在学术界和工业界成为了研究热点。意图识别和语义槽填充的结果对于对话系统的性能至关重要。介绍了端到端任务型对话系统意图和语义槽联合识别的主流方法... 目前基于深度学习的端到端对话系统因具有泛化能力强、训练参数少、性能好等优势,在学术界和工业界成为了研究热点。意图识别和语义槽填充的结果对于对话系统的性能至关重要。介绍了端到端任务型对话系统意图和语义槽联合识别的主流方法,对注意力机制、Transformer模型在捕获长期依赖关系方面的效果同循环神经网络、长短时记忆网络进行对比,并分析了因其并行处理导致无法对文本词序位置信息完整捕获的局限;阐述了胶囊网络相较于卷积神经网络在捕获小概率语义信息保证特征完整性方面的优势;重点介绍了基于BERT(Bidirectional Encoder Representations from Transformers)模型的联合识别方法,不仅能够并行处理而且可以解决一词多义的问题,是目前性能最好的方法。最后对未来研究的发展方向进行讨论和分析。 展开更多
关键词 意图识别 语义槽填充 联合识别 BERT模型 一词多义
下载PDF
基于图卷积神经网络的古汉语分词研究 被引量:5
11
作者 唐雪梅 苏祺 +1 位作者 王军 杨浩 《情报学报》 CSCD 北大核心 2023年第6期740-750,共11页
古汉语的语法有省略、语序倒置的特点,词法有词类活用、代词名词丰富的特点,这些特点增加了古汉语分词的难度,并带来严重的out-of-vocabulary(OOV)问题。目前,深度学习方法已被广泛地应用在古汉语分词任务中并取得了成功,但是这些研究... 古汉语的语法有省略、语序倒置的特点,词法有词类活用、代词名词丰富的特点,这些特点增加了古汉语分词的难度,并带来严重的out-of-vocabulary(OOV)问题。目前,深度学习方法已被广泛地应用在古汉语分词任务中并取得了成功,但是这些研究更关注的是如何提高分词效果,忽视了分词任务中的一大挑战,即OOV问题。因此,本文提出了一种基于图卷积神经网络的古汉语分词框架,通过结合预训练语言模型和图卷积神经网络,将外部知识融合到神经网络模型中来提高分词性能并缓解OOV问题。在《左传》《战国策》和《儒林外史》3个古汉语分词数据集上的研究结果显示,本文模型提高了3个数据集的分词表现。进一步的研究分析证明,本文模型能够有效地融合词典和N-gram信息;特别是N-gram有助于缓解OOV问题。 展开更多
关键词 古汉语 汉语分词 图卷积神经网络 预训练语言模型 BERT(bidirectional encoder representations from transformers)
下载PDF
融合BERT中间隐藏层的方面级情感分析模型 被引量:6
12
作者 曾桢 王擎宇 《科学技术与工程》 北大核心 2023年第12期5161-5169,共9页
现有的基于BERT(bidirectional encoder representations from transformers)的方面级情感分析模型仅使用BERT最后一层隐藏层的输出,忽略BERT中间隐藏层的语义信息,存在信息利用不充分的问题,提出一种融合BERT中间隐藏层的方面级情感分... 现有的基于BERT(bidirectional encoder representations from transformers)的方面级情感分析模型仅使用BERT最后一层隐藏层的输出,忽略BERT中间隐藏层的语义信息,存在信息利用不充分的问题,提出一种融合BERT中间隐藏层的方面级情感分析模型。首先,将评论和方面信息拼接为句子对输入BERT模型,通过BERT的自注意力机制建立评论与方面信息的联系;其次,构建门控卷积网络(gated convolutional neural network,GCNN)对BERT所有隐藏层输出的词向量矩阵进行特征提取,并将提取的特征进行最大池化、拼接得到特征序列;然后,使用双向门控循环单元(bidirectional gated recurrent unit,BiGRU)网络对特征序列进行融合,编码BERT不同隐藏层的信息;最后,引入注意力机制,根据特征与方面信息的相关程度赋予权值。在公开的SemEval2014 Task4评论数据集上的实验结果表明:所提模型在准确率和F 1值两种评价指标上均优于BERT、CapsBERT(capsule BERT)、BERT-PT(BERT post train)、BERT-LSTM(BERT long and short-term memory)等对比模型,具有较好的情感分类效果。 展开更多
关键词 方面级情感分析 BERT 门控卷积网络(GCNN) 双向门控循环单元(BiGRU) 注意力机制
下载PDF
基于BERT-BiGRU模型的文本分类研究 被引量:7
13
作者 王紫音 于青 《天津理工大学学报》 2021年第4期40-46,共7页
文本分类是自然语言处理的典型应用,目前文本分类最常用的是深度学习的分类方法。针对中文文本数据具有多种特性,例如隐喻表达、语义多义性、语法特异性等,在文本分类中进行研究。提出基于编码器-解码器的双向编码表示法-双向门控制循... 文本分类是自然语言处理的典型应用,目前文本分类最常用的是深度学习的分类方法。针对中文文本数据具有多种特性,例如隐喻表达、语义多义性、语法特异性等,在文本分类中进行研究。提出基于编码器-解码器的双向编码表示法-双向门控制循环单元(bidirectional encoder representations from transformers-bidirectional gate recurrent unit,BERT-BiGRU)模型结构,使用BERT模型代替传统的Word2vec模型表示词向量,根据上下文信息计算字的表示,在融合上下文信息的同时还能根据字的多义性进行调整,增强了字的语义表示。在BERT模型后面增加了BiGRU,将训练后的词向量作为Bi GRU的输入进行训练,该模型可以同时从两个方向对文本信息进行特征提取,使模型具有更好的文本表示信息能力,达到更精确的文本分类效果。使用提出的BERT-BiGRU模型进行文本分类,最终准确率达到0.93,召回率达到0.94,综合评价数值F1达到0.93。通过与其他模型的试验结果对比,发现BERT-BiGRU模型在中文文本分类任务中有良好的性能。 展开更多
关键词 文本分类 深度学习 基于编码器-解码器的双向编码表示法(bidirectional encoder representations from transformers BERT)模型 双向门控制循环单元(bidirectional gate recurrent unit BiGRU)
下载PDF
SentiBERT:结合情感信息的预训练语言模型 被引量:10
14
作者 杨晨 宋晓宁 宋威 《计算机科学与探索》 CSCD 北大核心 2020年第9期1563-1570,共8页
在大规模无监督语料上预训练的语言模型正逐渐受到自然语言处理领域研究者的关注。现有模型在预训练阶段主要提取文本的语义和结构特征,针对情感类任务的复杂情感特征,在最新的预训练语言模型BERT(双向transformers编码表示)的基础上,... 在大规模无监督语料上预训练的语言模型正逐渐受到自然语言处理领域研究者的关注。现有模型在预训练阶段主要提取文本的语义和结构特征,针对情感类任务的复杂情感特征,在最新的预训练语言模型BERT(双向transformers编码表示)的基础上,提出了一种侧重学习情感特征的预训练方法。在目标领域的预训练阶段,利用情感词典改进了BERT的预训练任务。同时,使用基于上下文的词粒度情感预测任务对掩盖词情感极性进行分类,获取偏向情感特征的文本表征。最后在少量标注的目标数据集上进行微调。实验结果表明,相较于原BERT模型,可将情感任务的精度提升1个百分点,特别是训练样本较少时,能取得更先进的效果。 展开更多
关键词 BERT 情感分类 预训练语言模型 多任务学习
下载PDF
基于BERT的不完全数据情感分类 被引量:9
15
作者 罗俊 陈黎飞 《计算机应用》 CSCD 北大核心 2021年第1期139-144,共6页
不完全数据,如社交平台的互动信息、互联网电影资料库中的影评内容,广泛存在于现实生活中。而现有情感分类模型大多建立在完整的数据集上,没有考虑不完整数据对分类性能的影响。针对上述问题提出基于BERT的栈式降噪神经网络模型,用于面... 不完全数据,如社交平台的互动信息、互联网电影资料库中的影评内容,广泛存在于现实生活中。而现有情感分类模型大多建立在完整的数据集上,没有考虑不完整数据对分类性能的影响。针对上述问题提出基于BERT的栈式降噪神经网络模型,用于面向不完全数据的情感分类。该模型由栈式降噪自编码器(SDAE)和BERT两部分组成。首先将经词嵌入处理的不完全数据输入到SDAE中进行去噪训练,以提取深层特征来重构缺失词和错误词的特征表示;接着将所得输出传入BERT预训练模型中进行精化以进一步改进词的特征向量表示。在两个常用的情感数据集上的实验结果表明,所提方法在不完全数据情感分类中的F1值和准确率分别提高了约6%和5%,验证了所提模型的有效性。 展开更多
关键词 不完全数据 情感分类 BERT 栈式降噪自编码器 预训练模型
下载PDF
基于改良Transformer算法的冠心病证候要素诊断处方模型分析 被引量:4
16
作者 李洪峥 王阶 +5 位作者 郭雨晨 张振鹏 李剑楠 李谦一 董艳 杜强 《中国实验方剂学杂志》 CAS CSCD 北大核心 2023年第1期148-154,共7页
目的:利用改良Transformer算法构建冠心病中医证候诊断、方药推荐模型。方法:以冠心病证候要素为关键环节,基于临证诊疗思路“症状-证候要素-证候-治法-方剂-药物(剂量)”搭建基本逻辑,综合运用多头注意力机制、复合词向量、随机失活形... 目的:利用改良Transformer算法构建冠心病中医证候诊断、方药推荐模型。方法:以冠心病证候要素为关键环节,基于临证诊疗思路“症状-证候要素-证候-治法-方剂-药物(剂量)”搭建基本逻辑,综合运用多头注意力机制、复合词向量、随机失活形成改良Transformer算法,模拟临床医师临证思路,形成具备冠心病中医证候要素判断、证候诊断、方药推荐、可更新迭代功能的智能化模型。模型建立后,选择8030例临床病例诊疗数据作为训练集进行模型训练,随机筛选100例基于真实临床病例的中医开方数据进行测试,比较模型输出方药与临床医师方药,对模型进行定性评价。结果:加入多头注意力机制的改良Transformer算法使模型准确率有更大的提升,模型在主要证候的判断、主要方剂的选择上与临床医师一致,在药物加减上有一定提升空间。结论:改良Transformer模型可提高冠心病证候要素、主要证候、处方、用药的准确率,较为准确、稳定地输出主要证候和方药建议,是中医智能化发展的体现。 展开更多
关键词 冠心病 中医药(TCM) 证候要素 机器学习 注意力机制 双向transformer编码表达(BERT) 人工智能(AI)
原文传递
基于BERT-BiLSTM-CRF模型的油气领域命名实体识别 被引量:2
17
作者 高国忠 李宇 +1 位作者 华远鹏 吴文旷 《长江大学学报(自然科学版)》 2024年第1期57-65,共9页
针对油气领域知识图谱构建过程中命名实体识别使用传统方法存在实体特征信息提取不准确、识别效率低的问题,提出了一种基于BERT-BiLSTM-CRF模型的命名实体识别研究方法。该方法首先利用BERT(bidirectional encoder representations from... 针对油气领域知识图谱构建过程中命名实体识别使用传统方法存在实体特征信息提取不准确、识别效率低的问题,提出了一种基于BERT-BiLSTM-CRF模型的命名实体识别研究方法。该方法首先利用BERT(bidirectional encoder representations from transformers)预训练模型得到输入序列语义的词向量;然后将训练后的词向量输入双向长短期记忆网络(bi-directional long short-term memory,BiLSTM)模型进一步获取上下文特征;最后根据条件随机场(conditional random fields,CRF)的标注规则和序列解码能力输出最大概率序列标注结果,构建油气领域命名实体识别模型框架。将BERT-BiLSTM-CRF模型与其他2种命名实体识别模型(BiLSTM-CRF、BiLSTM-Attention-CRF)在包括3万多条文本语料数据、4类实体的自建数据集上进行了对比实验。实验结果表明,BERT-BiLSTM-CRF模型的准确率(P)、召回率(R)和F_(1)值分别达到91.3%、94.5%和92.9%,实体识别效果优于其他2种模型。 展开更多
关键词 油气领域 命名实体识别 BERT 双向长短期记忆网络 条件随机场 BERT-BiLSTM-CRF模型
下载PDF
基于BERT的中文多关系抽取方法研究 被引量:8
18
作者 黄梅根 刘佳乐 刘川 《计算机工程与应用》 CSCD 北大核心 2021年第21期234-240,共7页
构建三元组时在文本句子中抽取多个三元组的研究较少,且大多基于英文语境,为此提出了一种基于BERT的中文多关系抽取模型BCMRE,它由关系分类与元素抽取两个任务模型串联组成。BCMRE通过关系分类任务预测出可能包含的关系,将预测关系编码... 构建三元组时在文本句子中抽取多个三元组的研究较少,且大多基于英文语境,为此提出了一种基于BERT的中文多关系抽取模型BCMRE,它由关系分类与元素抽取两个任务模型串联组成。BCMRE通过关系分类任务预测出可能包含的关系,将预测关系编码融合到词向量中,对每一种关系复制出一个实例,再输入到元素抽取任务通过命名实体识别预测三元组。BCMRE针对两项任务的特点加入不同前置模型;设计词向量优化BERT处理中文时以字为单位的缺点;设计不同的损失函数使模型效果更好;利用BERT的多头与自注意力机制充分提取特征完成三元组的抽取。BCMRE通过实验与其他模型,以及更换不同的前置模型进行对比,在F1的评估下取得了相对较好的结果,证明了模型可以有效性提高抽取多关系三元组的效果。 展开更多
关键词 命名实体识别 关系抽取 前置模型 分类 串联任务 BERT模型
下载PDF
基于BERT与细粒度特征提取的数据法学问答系统
19
作者 宋文豪 汪洋 +2 位作者 朱苏磊 张倩 吴晓燕 《上海师范大学学报(自然科学版中英文)》 2024年第2期211-216,共6页
首先利用bidirectional encoder representations from transformers(BERT)模型的强大的语境理解能力来提取数据法律文本的深层语义特征,然后引入细粒度特征提取层,依照注意力机制,重点关注文本中与数据法律问答相关的关键部分,最后对... 首先利用bidirectional encoder representations from transformers(BERT)模型的强大的语境理解能力来提取数据法律文本的深层语义特征,然后引入细粒度特征提取层,依照注意力机制,重点关注文本中与数据法律问答相关的关键部分,最后对所采集的法律问答数据集进行训练和评估.结果显示:与传统的多个单一模型相比,所提出的模型在准确度、精确度、召回率、F1分数等关键性能指标上均有提升,表明该系统能够更有效地理解和回应复杂的数据法学问题,为研究数据法学的专业人士和公众用户提供更高质量的问答服务. 展开更多
关键词 bidirectional encoder representations from transformers(BERT)模型 细粒度特征提取 注意力机制 自然语言处理(NLP)
下载PDF
基于BERT的数控机床故障领域命名实体识别 被引量:6
20
作者 褚燕华 蒋文 +2 位作者 王丽颖 张晓琳 王乾龙 《科学技术与工程》 北大核心 2022年第14期5737-5743,共7页
针对数控(computer numerical control,CNC)机床故障领域命名实体识别方法中存在实体规范不足及有效实体识别模型缺乏等问题,制定了领域内实体标注策略,提出了一种基于双向转换编码器(bidirectional encoder representations from trans... 针对数控(computer numerical control,CNC)机床故障领域命名实体识别方法中存在实体规范不足及有效实体识别模型缺乏等问题,制定了领域内实体标注策略,提出了一种基于双向转换编码器(bidirectional encoder representations from transformers,BERT)的数控机床故障领域命名实体识别方法。采用BERT编码层预训练,将生成向量输入到双向长短期记忆网络(bidirectional long short-term memory,BiLSTM)交互层以提取上下文特征,最终通过条件随机域(conditional random field,CRF)推理层输出预测标签。实验结果表明,BERT-BiLSTM-CRF模型在数控机床故障领域更具优势,与现有模型相比,F_(1)提升大于1.85%。 展开更多
关键词 命名实体识别 数控机床故障领域 双向转换编码器
下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部