期刊文献+
共找到12篇文章
< 1 >
每页显示 20 50 100
融合BERT-WWM和指针网络的旅游知识图谱构建研究 被引量:9
1
作者 徐春 李胜楠 《计算机工程与应用》 CSCD 北大核心 2022年第12期280-288,共9页
针对旅游信息呈现出散乱、无序和关联性不强的问题,提出一种融合BERT-WWM(BERT with whole word masking)和指针网络的实体关系联合抽取模型构建旅游知识图谱。借助BERT-WWM预训练语言模型从爬取的旅游评论中获得含有先验语义知识的句... 针对旅游信息呈现出散乱、无序和关联性不强的问题,提出一种融合BERT-WWM(BERT with whole word masking)和指针网络的实体关系联合抽取模型构建旅游知识图谱。借助BERT-WWM预训练语言模型从爬取的旅游评论中获得含有先验语义知识的句子编码。针对传统的实体关系抽取方法存在错误传播、实体冗余、交互缺失等问题,以及旅游评论中的实体关系存在一词多义、关系重叠等特征,提出直接对三元组建模,利用句子编码抽取头实体,根据关系类别抽取尾实体,并建立级联结构和指针网络解码输出三元组。基于Neo4j图数据库存储三元组构建旅游知识图谱。实验在建立的旅游数据集上进行,融合BERT-WWM与指针网络的实体关系联合抽取模型的准确率、召回率和F1值分别为93.42%、86.59%和89.88%,与现有模型相比三项指标均显示出优越性,验证了该方法进行实体关系联合抽取的有效性。构建的旅游知识图谱实现了旅游景区信息的整合与存储,对进一步促进旅游业发展具有一定的实际参考意义。 展开更多
关键词 bert-wwm 指针网络 旅游知识图谱 关系重叠 实体关系联合抽取
下载PDF
基于BERT的医患对话实体阴阳性自动标注研究 被引量:2
2
作者 孙媛媛 申喜凤 +3 位作者 李美婷 南嘉乐 张维宁 高东平 《中国数字医学》 2022年第3期34-38,共5页
目的:为智能医疗的网络问诊设计一个前端任务模块,对互联网真实医患对话文本进行自动标注研究,探索识别对话实体阴阳性准确率较高的方法。方法:对医患对话真实文本特点进行分析,选取BERT及BERT-WWM对医患对话真实文本中的实体进行嵌入... 目的:为智能医疗的网络问诊设计一个前端任务模块,对互联网真实医患对话文本进行自动标注研究,探索识别对话实体阴阳性准确率较高的方法。方法:对医患对话真实文本特点进行分析,选取BERT及BERT-WWM对医患对话真实文本中的实体进行嵌入向量化,再通过语义信息获取,最终对实体属性进行分类和计算,自动标注其阴阳性。结果:实验结果表明BERT-WWM在处理中文对话的实体分类标注时优于BERT约16%。结论:优先选择全词掩码,以单元(Unit)来替代以字为单位的掩码对医学类实体进行分类和标注,可大大提高原模型的准确度。 展开更多
关键词 在线问诊 实体标注 bert bert-wwm
下载PDF
深度学习赋能网络安全知识图谱实体关系联合抽取研究 被引量:1
3
作者 王大阜 王静 +2 位作者 邓志文 贾志勇 张浴日 《中国电子科学研究院学报》 北大核心 2023年第5期420-428,共9页
文中研究了知识图谱中关于实体关系联合抽取方式,解决流水线抽取方式的误差传播、效率低下及关系重叠的问题,设计了网络安全本体模型,提出基于深度学习的Seq2Seq联合抽取模型,编码层通过BERT-WWM和双向长短期记忆网络(Bi-directional Lo... 文中研究了知识图谱中关于实体关系联合抽取方式,解决流水线抽取方式的误差传播、效率低下及关系重叠的问题,设计了网络安全本体模型,提出基于深度学习的Seq2Seq联合抽取模型,编码层通过BERT-WWM和双向长短期记忆网络(Bi-directional Long Short-Term Memory,BiLSTM)模型获取上下文语义表示,并融合多头注意力机制突显文本中的重要单词,解码层通过指针网络输出序列标注,从而获取头实体、关系及尾实体。以自标注的数据集为语料,通过TensorFlow框架建模,对实体和关系抽取的质量进行评估。结果表明,模型的精确率、召回率和F1值均较高,验证了联合抽取模型的有效性,最后通过Neo4j图数据库构建并可视化知识图谱。 展开更多
关键词 深度学习 联合抽取 bert-wwm BiLSTM 指针网络
下载PDF
基于Siamese-BERT-wwm模型的航空安全事故因果事件的同指消解
4
作者 王红 王阳 吴浩正 《计算机应用与软件》 北大核心 2023年第7期55-60,共6页
针对航空安全事故因果事件的抽取结果复杂难以快速确定事故发展过程的问题,提出一种将孪生神经网络(Siamese Network)与BERT-wwm模型相结合的因果事件同指消解方法。该方法在孪生神经网络中将事件句分别输入到相同权重的两个BERT-wwm模... 针对航空安全事故因果事件的抽取结果复杂难以快速确定事故发展过程的问题,提出一种将孪生神经网络(Siamese Network)与BERT-wwm模型相结合的因果事件同指消解方法。该方法在孪生神经网络中将事件句分别输入到相同权重的两个BERT-wwm模型,经平均池化得到句子级语义向量,再通过Softmax分类器进行同指判断并消解,在同指消解的基础上采用逆遍历去冗余,实现了航空安全事故因果链的构建。实验结果表明,该方法有效提高了航空安全事故因果关系的可解释性,为多事故的关联分析奠定了基础。 展开更多
关键词 航空安全事故 因果事件 同指消解 孪生神经网络 bert-wwm
下载PDF
基于代价敏感的中文文本的情感-原因对提取研究
5
作者 胡朝晖 潘伟民 +1 位作者 张海军 韩连金 《计算机与数字工程》 2022年第10期2229-2232,2258,共5页
情感-原因对提取在商业信息挖掘等领域有重要的应用。为了解决情感-原因对提取任务中数据集出现的标签不平衡问题,提出基于代价敏感的损失函数方法解决标签不平衡,同时,针对谷歌全词覆盖BERT的国外公开数据集缺乏中文语言的相关模型和... 情感-原因对提取在商业信息挖掘等领域有重要的应用。为了解决情感-原因对提取任务中数据集出现的标签不平衡问题,提出基于代价敏感的损失函数方法解决标签不平衡,同时,针对谷歌全词覆盖BERT的国外公开数据集缺乏中文语言的相关模型和忽略了中文分词的作用,该文采用哈工大讯飞联合发布中文BERT-wwm进行预训练。通过对比试验表明,在P、R、F1结果都有提升,尤其F1结果上有接近1%的提升,验证了该方法在情感-原因对提取研究上的有效性。 展开更多
关键词 情感-原因对提取 标签不平衡 代价敏感 bert-wwm
下载PDF
融合多教师模型的知识蒸馏文本分类 被引量:2
6
作者 苑婧 周杨 +3 位作者 胡校飞 孙姝娅 张呈龙 刘龙辉 《电子技术应用》 2023年第11期42-48,共7页
针对简单文本分类模型精度不高,预训练模型结构复杂,在实际环境中难以直接使用的问题,提出多教师知识蒸馏的文本分类方法。该模型使用“教师-学生网络”的训练方法,教师模型为BERT-wwm-ext和XLNet预训练模型,将两个模型输出的概率矩阵... 针对简单文本分类模型精度不高,预训练模型结构复杂,在实际环境中难以直接使用的问题,提出多教师知识蒸馏的文本分类方法。该模型使用“教师-学生网络”的训练方法,教师模型为BERT-wwm-ext和XLNet预训练模型,将两个模型输出的概率矩阵通过权重系数融合为软标签。学生模型为BiGRU-CNN网络,使用均方差函数计算软标签误差,使用交叉熵损失函数计算硬标签误差,通过硬标签和软标签训练学生模型使损失函数值达到最小。实验结果表明,提出的方法精度较学生模型有较大的改进,接近预训练模型,在保证分类精度的前提下减少了运行时间,提高了效率。 展开更多
关键词 文本分类 知识蒸馏 bert-wwm-ext XLNet BiGRU-CNN
下载PDF
基于中文医药文本的实体识别和图谱构建 被引量:2
7
作者 杨晔 裴雷 侯凤贞 《中国药科大学学报》 CAS CSCD 北大核心 2023年第3期363-371,共9页
知识图谱技术促进了新药研发的进展,但国内研究起点晚且领域知识多以文本形式存储,图谱重用率低。因此,本研究基于多源异构的医药文本,设计了以Bert-wwm-ext预训练模型为基础,并融合级联思想的中文命名实体识别模型,从而减少了传统单次... 知识图谱技术促进了新药研发的进展,但国内研究起点晚且领域知识多以文本形式存储,图谱重用率低。因此,本研究基于多源异构的医药文本,设计了以Bert-wwm-ext预训练模型为基础,并融合级联思想的中文命名实体识别模型,从而减少了传统单次分类的复杂度,进一步提高了文本识别的效率。实验结果显示,该模型在自建的训练语料上的F1分数达0.903,精确率达89.2%,召回率达91.5%。同时,将模型应用于公开数据集CCKS2019上,结果显示该模型能够更好地识别中文文本中的医疗实体。最后,利用此模型构建了一个中文医药知识图谱,图谱包含13530个实体,10939个属性,以及39247个相关关系。本研究所提出的中文医药实体识别与图谱构建方法,有望助力研究者加快医药知识新发现,从而缩短新药研发进程。 展开更多
关键词 中文医药文本 命名实体识别模型 bert-wwm-ext预训练模型 级联思想 知识图谱
下载PDF
基于权重计算的中文因果关系分析 被引量:2
8
作者 谭云 彭海阔 +1 位作者 秦姣华 薛有元 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第2期112-117,共6页
提出一种中文因果关系分析方法,以便更加细腻地表达因果关系.该方法由因果关系提取和权重计算组成.首先,构建了中文因果关系四元组数据集,将因果划分为核心名词和谓语状态,即原因中的核心名词、原因中的谓语或状态、结果中的核心名词、... 提出一种中文因果关系分析方法,以便更加细腻地表达因果关系.该方法由因果关系提取和权重计算组成.首先,构建了中文因果关系四元组数据集,将因果划分为核心名词和谓语状态,即原因中的核心名词、原因中的谓语或状态、结果中的核心名词、结果中的谓语和状态;然后,构建了中文因果关系抽取(CCE)模型,该模型由中文预训练的基于全词掩码训练的双向编码表示模型(BERT-wwm)和条件随机场(CRF)组成,在所构建的数据集上,四元组抽取F1分数为0.3;最后,提出基于因果强度的近似原因权重算法,用于计算同一结果不同原因的权重,减小对语料库数据量的依赖性,具有更好的鲁棒性和泛化性,能更加真实地反映不同原因对结果的重要程度. 展开更多
关键词 因果关系分析 序列标注 双向编码表示模型(bert-wwm) 条件随机场(CRF) 原因权重算法
原文传递
基于BERT_BiGRU边界预测的中文意见目标提取
9
作者 王丽亚 陈哲 《计算机时代》 2023年第5期94-98,共5页
提出一种基于中文BERT-wwm-ext嵌入的BIGRU网络模型。利用中文BERT-wwm-ext得到字向量,加强了模型对深层次语言表征的学习能力。将得到的字向量输入到BIGRU网络中,进一步学习上下文语义特征。将模型预测的边界分数向量利用解码算法转化... 提出一种基于中文BERT-wwm-ext嵌入的BIGRU网络模型。利用中文BERT-wwm-ext得到字向量,加强了模型对深层次语言表征的学习能力。将得到的字向量输入到BIGRU网络中,进一步学习上下文语义特征。将模型预测的边界分数向量利用解码算法转化成最终的答案。在多组数据集上做对比实验表明,所提模型能有效地提高中文意见目标提取的准确率。 展开更多
关键词 bert-wwm-ext BiGRU 边界预测 中文意见目标提取
下载PDF
SA-Model:Multi-Feature Fusion Poetic Sentiment Analysis Based on a Hybrid Word Vector Model
10
作者 Lingli Zhang Yadong Wu +5 位作者 Qikai Chu Pan Li Guijuan Wang Weihan Zhang Yu Qiu Yi Li 《Computer Modeling in Engineering & Sciences》 SCIE EI 2023年第10期631-645,共15页
Sentiment analysis in Chinese classical poetry has become a prominent topic in historical and cultural tracing,ancient literature research,etc.However,the existing research on sentiment analysis is relatively small.It... Sentiment analysis in Chinese classical poetry has become a prominent topic in historical and cultural tracing,ancient literature research,etc.However,the existing research on sentiment analysis is relatively small.It does not effectively solve the problems such as the weak feature extraction ability of poetry text,which leads to the low performance of the model on sentiment analysis for Chinese classical poetry.In this research,we offer the SA-Model,a poetic sentiment analysis model.SA-Model firstly extracts text vector information and fuses it through Bidirectional encoder representation from transformers-Whole word masking-extension(BERT-wwmext)and Enhanced representation through knowledge integration(ERNIE)to enrich text vector information;Secondly,it incorporates numerous encoders to remove text features at multiple levels,thereby increasing text feature information,improving text semantics accuracy,and enhancing the model’s learning and generalization capabilities;finally,multi-feature fusion poetry sentiment analysis model is constructed.The feasibility and accuracy of the model are validated through the ancient poetry sentiment corpus.Compared with other baseline models,the experimental findings indicate that SA-Model may increase the accuracy of text semantics and hence improve the capability of poetry sentiment analysis. 展开更多
关键词 Sentiment analysis Chinese classical poetry natural language processing bert-wwm-ext ERNIE multi-feature fusion
下载PDF
基于BERT-wwm-ext和BiLSTM模型的远程监督关系提取 被引量:1
11
作者 赖冠宇 张旭 童浩卓 《电脑编程技巧与维护》 2022年第9期42-44,共3页
关系抽取是自然语言处理(NLP)的核心任务。它旨在从非结构化文本信息中自动获取实体对之间的关系事实。提出了一种远程监督中文关系提取方法,该方法使用BERT-wwm-ext预训练模型作为嵌入层,并通过BiLSTM神经网络增强特征提取能力。实验... 关系抽取是自然语言处理(NLP)的核心任务。它旨在从非结构化文本信息中自动获取实体对之间的关系事实。提出了一种远程监督中文关系提取方法,该方法使用BERT-wwm-ext预训练模型作为嵌入层,并通过BiLSTM神经网络增强特征提取能力。实验结果表明,该模型在处理中文关系抽取任务时具有较好的性能。 展开更多
关键词 中文关系抽取 bert-wwm-ext模型 BiLSTM神经网络
下载PDF
弹幕文本情感分类模型研究--基于中文预训练模型与双向长短期记忆网络 被引量:4
12
作者 陈志刚 岳倩 赵威 《湖北工业大学学报》 2021年第6期56-61,共6页
针对弹幕文本的口语化、网络化、一词多义等特点,提出BERT-wwm-BiLSTM模型以提升情感分类准确率。该模型引入BERT-wwm预训练模型,得到有关上下文信息的动态词向量,采用BiLSTM对特征进行提取,最后使用softmax进行情感分类。在自建的bilib... 针对弹幕文本的口语化、网络化、一词多义等特点,提出BERT-wwm-BiLSTM模型以提升情感分类准确率。该模型引入BERT-wwm预训练模型,得到有关上下文信息的动态词向量,采用BiLSTM对特征进行提取,最后使用softmax进行情感分类。在自建的bilibili和腾讯视频两个弹幕数据集上进行实验,Acc、p、R、F_(1)值等4个指标均优于其他模型,且在一词多义弹幕文本中有突出表现,证明该模型在弹幕文本情感分类中的有效性。 展开更多
关键词 弹幕文本情感分类 中文预训练模型 双向长短时记忆网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部