期刊文献+
共找到19篇文章
< 1 >
每页显示 20 50 100
基于BERT-SUMOPN模型的抽取-生成式文本自动摘要 被引量:9
1
作者 谭金源 刁宇峰 +2 位作者 杨亮 祁瑞华 林鸿飞 《山东大学学报(理学版)》 CAS CSCD 北大核心 2021年第7期82-90,共9页
可读性、准确性较差,生成式摘要存在连贯性、逻辑性的不足,此外2种摘要方法的传统模型对文本的向量表示往往不够充分、准确。针对以上问题,该文提出了一种基于BERT-SUMOPN模型的抽取-生成式摘要方法。模型通过BERT预训练语言模型获取文... 可读性、准确性较差,生成式摘要存在连贯性、逻辑性的不足,此外2种摘要方法的传统模型对文本的向量表示往往不够充分、准确。针对以上问题,该文提出了一种基于BERT-SUMOPN模型的抽取-生成式摘要方法。模型通过BERT预训练语言模型获取文本向量,然后利用抽取式结构化摘要模型抽取文本中的关键句子,最后将得到的关键句子输入到生成式指针生成网络中,通过EAC损失函数对模型进行端到端训练,结合coverage机制减少生成重复,获取摘要结果。实验结果表明,BERT-SUMOPN模型在BIGPATENT专利数据集上取得了很好的效果,ROUGE-1和ROUGE-2指标分别提升了3.3%和2.5%。 展开更多
关键词 BERT预训练语言模型 结构化模型 指针生成网络 EAC损失函数
原文传递
基于改进指针生成网络的文本摘要
2
作者 杨尚儒 廖闻剑 《计算机与数字工程》 2024年第4期1154-1158,共5页
随着人们每天接收的消息越来越多,能够短时高效地找到自己想要的内容,获取想要的信息是提升自己的关键,因此文本摘要变得必不可少。人工生成文章的摘要是一项费时费力的任务,自动生成可读性高、流畅性强的摘要变得很有必要。摘要生成有... 随着人们每天接收的消息越来越多,能够短时高效地找到自己想要的内容,获取想要的信息是提升自己的关键,因此文本摘要变得必不可少。人工生成文章的摘要是一项费时费力的任务,自动生成可读性高、流畅性强的摘要变得很有必要。摘要生成有很多方法,又分为抽取式摘要和生成式摘要。指针生成网络因为其能有效解决未登录词的问题,仍然是一种非常流行的文本摘要方法。在我们的工作中,仍然使用传统的指针生成网络为基本框架,引入Transformer中的编码器部分作为预处理,提升编码质量;另外,引入未登录词惩罚来提高生成摘要文本的新颖性。实验结果表明,该模型在NLPCC数据集上取得了良好的效果。 展开更多
关键词 编码器-解码器 注意力机制 TRANSFORMER 指针生成网络
下载PDF
融合情感-主题双通道信息的评论摘要生成模型
3
作者 李红莲 陈浩天 +2 位作者 张乐 吕学强 田驰 《数据分析与知识发现》 EI CSCD 北大核心 2024年第6期30-43,共14页
【目的】针对传统的自动摘要无法深度融合评论的情感和主题信息,无法解决词汇不足的问题,提出一种融合情感-主题双通道信息的评论摘要生成模型。【方法】运用TextRank动态抽取评论主题句,借助PyABSA模型抽取主题句中的方面词-情感词序... 【目的】针对传统的自动摘要无法深度融合评论的情感和主题信息,无法解决词汇不足的问题,提出一种融合情感-主题双通道信息的评论摘要生成模型。【方法】运用TextRank动态抽取评论主题句,借助PyABSA模型抽取主题句中的方面词-情感词序列拼接主题句得到最终的主题信息,并通过构建情感词集和融合主题的Bi-LSTM情感词抽取模型获取情感句,将评论原文和情感句进行拼接,与主题句形成双通道信息,分别采用注意力机制得到主题注意力和情感注意力,并将其叠加进行深度融合得到融合注意力,替换指针生成网络的单通道注意力,通过指针网络生成最终的评论摘要。【结果】所提融合双通道信息的指针生成网络与对比实验主题+PNG相比,在ROUGE-1、ROUGE-2和ROUGE-L值上分别提升2.87、6.14和2.64百分点,消融实验结果表明融合双通道信息比单通道信息在ROUGE-1、ROUGE-2和ROUGE-L上分别提升4.49、3.66和4.16百分点。【局限】未考虑到融合更细粒度的属性。【结论】所提模型能够有效融合评论的主题信息和情感信息,提升双通道信息融合的质量,在摘要生成结果中优于对比模型,生成的摘要能够包含更多的情感和主题信息。 展开更多
关键词 评论摘要 双通道 注意力机制 指针生成网络
原文传递
基于指针生成网络的代码注释自动生成模型 被引量:5
4
作者 牛长安 葛季栋 +3 位作者 唐泽 李传艺 周宇 骆斌 《软件学报》 EI CSCD 北大核心 2021年第7期2142-2165,共24页
代码注释在软件质量保障中发挥着重要的作用,它可以提升代码的可读性,使代码更易理解、重用和维护.但是出于各种各样的原因,有时开发者并没有添加必要的注释,使得在软件维护的过程中,往往需要花费大量的时间来理解代码,大大降低了软件... 代码注释在软件质量保障中发挥着重要的作用,它可以提升代码的可读性,使代码更易理解、重用和维护.但是出于各种各样的原因,有时开发者并没有添加必要的注释,使得在软件维护的过程中,往往需要花费大量的时间来理解代码,大大降低了软件维护的效率.近年来,多项工作利用机器学习技术自动生成代码注释,这些方法从代码中提取出语义和结构化信息后,输入序列到序列的神经网络模型生成相应的注释,均取得了不错的效果.然而,当前最好的代码注释生成模型Hybrid-DeepCom仍然存在两方面的不足.一是其在预处理时可能破坏代码结构导致不同实例的输入信息不一致,使得模型学习效果欠佳;二是由于序列到序列模型的限制,其无法在注释中生成词库之外的单词(out-of-vocabulary word,简称OOV word).例如在源代码中出现次数极少的变量名、方法名等标识符通常都为OOV词,缺少了它们,注释将难以理解.为解决上述问题,提出了一种新的代码注释生成模型CodePtr.一方面,通过添加完整的源代码编码器解决代码结构被破坏的问题;另一方面,引入指针生成网络(pointer-generator network)模块,在解码的每一步实现生成词和复制词两种模式的自动切换,特别是遇到在输入中出现次数极少的标识符时模型可以直接将其复制到输出中,以此解决无法生成OOV词的问题.最后,在大型数据集上通过实验对比了CodePtr和Hybrid-DeepCom模型,结果表明,当词库大小为30000时,CodePtr的各项翻译效果指标平均提升6%,同时,处理OOV词的效果提升近50%,充分说明了CodePtr模型的有效性. 展开更多
关键词 软件质量保障 代码注释生成 神经网络 out-of-vocabulary word 指针生成网络
下载PDF
基于双注意力的段落级问题生成研究 被引量:3
5
作者 曾碧卿 裴枫华 +1 位作者 徐马一 丁美荣 《中文信息学报》 CSCD 北大核心 2022年第8期154-162,174,共10页
段落级问题生成是指从给定的段落中生成一个或多个与之相关的问题。目前的研究主要使用序列到序列的神经网络最大程度地利用段落信息,但这种方法存在冗余信息干扰、无法聚焦重点句子的问题。针对上述问题,该文提出了一种基于双注意力的... 段落级问题生成是指从给定的段落中生成一个或多个与之相关的问题。目前的研究主要使用序列到序列的神经网络最大程度地利用段落信息,但这种方法存在冗余信息干扰、无法聚焦重点句子的问题。针对上述问题,该文提出了一种基于双注意力的段落级问题生成模型。该模型首先对段落和答案所在句子分别使用注意力机制,然后利用门控机制动态地分配权重并融合上下文信息,最后利用改进的指针生成网络结合上下文向量和注意力分布来生成问题。实验结果表明,该模型在SQuAD数据集上比现有主流模型具有更高的性能。 展开更多
关键词 问题生成 双注意力 指针生成网络
下载PDF
中文新闻文本多文档摘要生成
6
作者 李宝安 佘鑫鹏 +2 位作者 常振宁 吕学强 游新冬 《计算机工程与设计》 北大核心 2023年第9期2867-2873,共7页
针对自动文本摘要任务中多文档生成式摘要模型抽取文本特征不充分、无法捕获跨文档关系和生成内容重复的问题,提出一种多文档生成式摘要模型Transformer-PGN。利用融合段落注意力机制的Transformer结构对文本进行特征抽取,同时捕获跨文... 针对自动文本摘要任务中多文档生成式摘要模型抽取文本特征不充分、无法捕获跨文档关系和生成内容重复的问题,提出一种多文档生成式摘要模型Transformer-PGN。利用融合段落注意力机制的Transformer结构对文本进行特征抽取,同时捕获跨文档关系;通过指针生成网络逐词生成摘要;结合覆盖率机制避免生成重复单词,形成最终的摘要。实验结果表明,与指针生成网络等模型相比,该模型生成的摘要信息更丰富、冗余度更低,Rouge-1、Rouge-2和Rouge-L分别提升了2.1%、2.4%和2.3%。 展开更多
关键词 中文新闻 多文档 指针生成网络 文本摘要 深度学习 注意力机制 覆盖率机制
下载PDF
基于变分自编码器的生成式文本摘要研究 被引量:3
7
作者 黄佳佳 李鹏伟 《计算机应用研究》 CSCD 北大核心 2021年第3期705-709,共5页
从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为... 从单文档中生成简短精炼的摘要文本可有效缓解信息爆炸给人们带来的阅读压力。近年来,序列到序列(sequence-to-sequence,Seq2Seq)模型在各文本生成任务中广泛应用,其中结合注意力机制的Seq2Seq模型已成为生成式文本摘要的基本框架。为生成能体现摘要的特定写作风格特征的摘要,在基于注意力和覆盖率机制的Seq2Seq模型基础上,在解码阶段利用变分自编码器(variational auto-encoder,VAE)刻画摘要风格特征并用于指导摘要文本生成;最后,利用指针生成网络来缓解模型中可能出现的未登录词问题。基于新浪微博LCSTS数据集的实验结果表明,该方法能有效刻画摘要风格特征、缓解未登录词及重复生成问题,使得生成的摘要准确性高于基准模型。 展开更多
关键词 文本摘要 变分自编码器 Seq2Seq模型 覆盖率机制 指针生成网络
下载PDF
STNLTP:一种基于集成策略的中文专利摘要生成模型 被引量:1
8
作者 张乐 杜一凡 +1 位作者 吕学强 董志安 《数据分析与知识发现》 CSSCI CSCD 北大核心 2022年第7期107-117,共11页
【目的】提出一种基于集成策略的中文专利摘要生成模型(STNLTP),以改善现有的自动文本摘要技术在处理长文档摘要生成时存在的生成重复问题和长程依赖问题。【方法】引入专利术语词典,运用基于SAT模型的义原词向量对“中药材”专利文本... 【目的】提出一种基于集成策略的中文专利摘要生成模型(STNLTP),以改善现有的自动文本摘要技术在处理长文档摘要生成时存在的生成重复问题和长程依赖问题。【方法】引入专利术语词典,运用基于SAT模型的义原词向量对“中药材”专利文本进行表示。基于集成策略,运用TextRank、Lead4和NMF三种抽取方法抽取专利说明书文本的关键句,经过聚类并去重,选出最优关键句。最后最优关键句通过基于Transformer字向量的指针生成网络得到最终的生成摘要。【结果】STNLTP模型实现了抽取式和生成式方法的结合,相较于对比模型RLCPAR,在ROUGE-1、ROUGE-2和ROUGE-L评价指标上分别提升2.00、9.73和2.35个百分点。【局限】生成摘要的部分结果存在一些常识性错误。【结论】STNLTP模型优于对比模型,可以改善中文专利摘要生成的效果。 展开更多
关键词 专利摘要 义原 词向量 字向量 指针生成网络
原文传递
基于指针网络的抽取生成式摘要生成模型 被引量:2
9
作者 陈伟 杨燕 《计算机应用》 CSCD 北大核心 2021年第12期3527-3533,共7页
作为自然语言处理中的热点问题,摘要生成具有重要的研究意义。基于Seq2Seq模型的生成式摘要模型取得了良好的效果,然而抽取式的方法具有挖掘有效特征并抽取文章重要句子的潜力,因此如何利用抽取式方法来改进生成式方法是一个较好的研究... 作为自然语言处理中的热点问题,摘要生成具有重要的研究意义。基于Seq2Seq模型的生成式摘要模型取得了良好的效果,然而抽取式的方法具有挖掘有效特征并抽取文章重要句子的潜力,因此如何利用抽取式方法来改进生成式方法是一个较好的研究方向。鉴于此,提出了融合生成式和抽取式方法的模型。首先,使用TextRank算法并融合主题相似度来抽取文章中有重要意义的句子。然后,设计了融合抽取信息语义的基于Seq2Seq模型的生成式框架来实现摘要生成任务;同时,引入指针网络解决模型训练中的未登录词(OOV)问题。综合以上步骤得到最终摘要,并在CNN/Daily Mail数据集上进行验证。结果表明在ROUGE-1、ROUGE-2和ROUGE-L三个指标上所提模型比传统TextRank算法均有所提升,同时也验证了融合抽取式和生成式方法在摘要生成领域中的有效性。 展开更多
关键词 抽取生成式摘要 TextRank算法 Seq2Seq模型 指针网络 语义融合
下载PDF
融入领域知识的跨境民族文化生成式摘要方法 被引量:1
10
作者 赵冠博 张勇丙 +2 位作者 毛存礼 高盛祥 王奉孝 《南京大学学报(自然科学版)》 CAS CSCD 北大核心 2023年第4期620-628,共9页
从跨境民族文化文本中生成具有领域知识的摘要对进一步开展跨境民族文化文本检索、问答等任务具有重要的支撑作用,当前基于深度学习的生成式文本摘要取得了较好的效果,但直接用于跨境民族文化文本摘要任务会导致生成的摘要出现领域词汇... 从跨境民族文化文本中生成具有领域知识的摘要对进一步开展跨境民族文化文本检索、问答等任务具有重要的支撑作用,当前基于深度学习的生成式文本摘要取得了较好的效果,但直接用于跨境民族文化文本摘要任务会导致生成的摘要出现领域词汇丢失的问题.为此,提出一种融入领域知识的跨境民族文化生成式摘要方法(Domain Knowledge-Culture-Generative Summary,DKCGS),在编码端将跨境民族文化领域词典编码与原文本编码融合,以此增强模型对领域词汇的表征能力;在解码端,基于指针生成网络将具有同义或跨境关系的领域词汇分布与原文本分布结合,提高模型生成文化领域词汇的准确率.同时,在通用领域文本上进行预训练并进一步初始化参数,以缓解数据稀缺导致模型训练效果不佳的问题.实验结果表明,提出的方法在跨境民族文本摘要数据集上比基线模型的Rouge-1提升了0.95,有效提升了跨境民族文化文本摘要生成的质量. 展开更多
关键词 跨境民族文化 领域知识 指针生成网络 预训练 文本摘要
下载PDF
基于关键词生成的网格事件相似度并行计算
11
作者 陈钢 陈健鹏 +2 位作者 佘祥荣 秦加奇 陈剑 《计算机系统应用》 2022年第6期48-55,共8页
为实现在海量网格事件库中快速、准确地检索事件,本文提出一种基于关键词生成的网格事件相似度并行计算方法.该方法通过双向LSTM网络的编码器和单向LSTM网络的解码器构建指针生成网络生成事件关键词,使用记忆网络作为指针生成网络的序... 为实现在海量网格事件库中快速、准确地检索事件,本文提出一种基于关键词生成的网格事件相似度并行计算方法.该方法通过双向LSTM网络的编码器和单向LSTM网络的解码器构建指针生成网络生成事件关键词,使用记忆网络作为指针生成网络的序列信息存储单元,并将注意力机制用在输入序列上以将更重要的信息输入至解码器,同时引入覆盖机制来解决生成重复文本问题.在生成事件关键词后,基于结构相似度和情境相似度计算事件总体相似度,并利用GPU对LSTM网络和相似度计算进行加速.实验结果表明:相比基于机器学习的计算方法,该方法在事件相似度计算性能上更好,最高获得了4.04倍的加速比. 展开更多
关键词 生成 网格事件 相似度计算 指针生成网络 图形处理器 并行计算
下载PDF
基于BERT-PGN模型的中文新闻文本自动摘要生成 被引量:12
12
作者 谭金源 刁宇峰 +1 位作者 祁瑞华 林鸿飞 《计算机应用》 CSCD 北大核心 2021年第1期127-132,共6页
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合... 针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合多维语义特征获取词向量,从而得到更细粒度的文本上下文表示;然后,通过PGN模型,从词表或原文中抽取单词组成摘要;最后,结合coverage机制来减少重复内容的生成并获取最终的摘要结果。在2017年CCF国际自然语言处理与中文计算会议(NLPCC2017)单文档中文新闻摘要评测数据集上的实验结果表明,与PGN、伴随注意力机制的长短时记忆神经网络(LSTM-attention)等模型相比,结合多维语义特征的BERT-PGN模型对摘要原文的理解更加充分,生成的摘要内容更加丰富,全面且有效地减少重复、冗余内容的生成,Rouge-2和Rouge-4指标分别提升了1.5%和1.2%。 展开更多
关键词 生成式摘要模型 预训练语言模型 多维语义特征 指针生成网络 coverage机制
下载PDF
基于Transformer模型的文本自动摘要生成
13
作者 刘志敏 张琨 朱浩华 《计算机与数字工程》 2024年第2期482-486,527,共6页
论文探讨文本摘要的自动生成技术,其任务是产生能够表达文本主要含义的简明摘要。传统的Seq2Seq结构模型对长期特征和全局特征的捕获和存储能力有限,导致所生成的摘要中缺乏重要信息。因此,论文基于Transformer模型提出了一种新的生成... 论文探讨文本摘要的自动生成技术,其任务是产生能够表达文本主要含义的简明摘要。传统的Seq2Seq结构模型对长期特征和全局特征的捕获和存储能力有限,导致所生成的摘要中缺乏重要信息。因此,论文基于Transformer模型提出了一种新的生成式文本摘要模型RC-Transformer-PGN(RCTP)。该模型首先使用了一个附加的基于双向GRU的编码器来扩展Transformer模型,以捕获顺序上下文表示并提高局部信息的捕捉能力,其次引入指针生成网络以及覆盖机制缓解未登录词和重复词问题。在CNN/Daily Mail数据集上的实验结果表明论文模型与基线模型相比更具竞争力。 展开更多
关键词 生成式文本摘要 Transformer模型 指针生成网络 覆盖机制
下载PDF
基于指针生成网络和扩展Transformer的多属性可控文本摘要模型
14
作者 冼广铭 李凡龙 郑兆明 《计算机系统应用》 2024年第4期246-253,共8页
模型可以生成符合用户偏好的摘要.之前的摘要模型侧重于单独控制某个属性,而不是多个属性的组合.传统的Seq2Seq多属性可控文本摘要模型在满足多个控制属性时,存在无法整合所有控制属性、无法准确再现文本中关键信息和无法处理单词表外... 模型可以生成符合用户偏好的摘要.之前的摘要模型侧重于单独控制某个属性,而不是多个属性的组合.传统的Seq2Seq多属性可控文本摘要模型在满足多个控制属性时,存在无法整合所有控制属性、无法准确再现文本中关键信息和无法处理单词表外单词等问题.为此,本文提出了一种基于扩展Transformer和指针生成网络(pointer generator network,PGN)的模型.模型中的扩展Transformer将Transformer单编码器-单解码器的模型形式扩展成具有双重文本语义信息提取的双编码器和单个可融合指导信号特征的解码器形式.然后利用指针生成网络模型选择从源文本中复制单词或利用词汇表生成新的摘要信息,以解决摘要任务中常出现的OOV(out of vocabulary)问题.此外,为高效完成位置信息编码,模型在注意力层中使用相对位置表示来引入文本的序列信息.模型可以用于控制摘要的许多重要属性,包括长度、主题和具体性等.通过在公开数据集MACSum上的实验表明,相较以往方法,本文提出的模型在确保摘要质量的同时,更加符合用户给定的属性要求. 展开更多
关键词 深度学习 可控文本摘要 Transformer模型 相对位置表示 指针生成网络
下载PDF
基于关键信息指导的文本摘要模型 被引量:1
15
作者 林舟 周绮凤 《东北大学学报(自然科学版)》 EI CAS CSCD 北大核心 2023年第9期1251-1258,共8页
现有生成式文本摘要模型缺乏对关键词信息的关注,存在输入文本中关键信息丢失问题.因此,提出了一种基于关键词语义信息增强的指针生成网络(keyword semantic information enhancement pointer-generator networks,KSIE-PGN)模型.首先,... 现有生成式文本摘要模型缺乏对关键词信息的关注,存在输入文本中关键信息丢失问题.因此,提出了一种基于关键词语义信息增强的指针生成网络(keyword semantic information enhancement pointer-generator networks,KSIE-PGN)模型.首先,构建了基于DistilBERT的关键词抽取模型(keywords selection method based on BERT,KSBERT).其次,提出了基于关键词掩码的覆盖机制,在使用覆盖机制时,保留解码过程中模型对关键词的持续关注.接着,KSIE-PGN模型在解码过程融合了多种关键词信息,包括关键词语义向量和关键词上下文向量,从而解决解码器丢失输入文本关键信息这一问题.在CNN/Daily Mail数据集上的实验结果表明KSIE-PGN模型能够较好地捕捉输入文本中的关键信息. 展开更多
关键词 生成式文本摘要 指针生成网络 关键词信息 关键词掩码 覆盖机制
下载PDF
基于指针生成网络的中文对话文本摘要模型 被引量:1
16
作者 胡清丰 魏赟 邬春学 《计算机系统应用》 2023年第1期224-232,共9页
针对传统Seq2Seq序列模型在文本摘要任务中无法准确地提取到文本中的关键信息、无法处理单词表之外的单词等问题,本文提出一种基于Fastformer的指针生成网络(pointer generator network,PGN)模型,且该模型结合了抽取式和生成式两种文本... 针对传统Seq2Seq序列模型在文本摘要任务中无法准确地提取到文本中的关键信息、无法处理单词表之外的单词等问题,本文提出一种基于Fastformer的指针生成网络(pointer generator network,PGN)模型,且该模型结合了抽取式和生成式两种文本摘要方法.模型首先利用Fastformer模型高效的获取具有上下文信息的单词嵌入向量,然后利用指针生成网络模型选择从源文本中复制单词或利用词汇表来生成新的摘要信息,以解决文本摘要任务中常出现的OOV(out of vocabulary)问题,同时模型使用覆盖机制来追踪过去时间步的注意力分布,动态的调整单词的重要性,解决了重复词问题,最后,在解码阶段引入了Beam Search优化算法,使得解码器能够获得更加准确的摘要结果.实验在百度AI Studio中汽车大师所提供的汽车诊断对话数据集中进行,结果表明本文提出的FastformerPGN模型在中文文本摘要任务中达到的效果要优于基准模型,具有更好的效果. 展开更多
关键词 深度学习 文本摘要 指针生成网络(PGN) 覆盖机制 Fastformer模型
下载PDF
基于PGN-CL的文本摘要生成模型
17
作者 刘雅情 张海军 +2 位作者 梁科晋 张昱 王月阳 《计算机与现代化》 2023年第2期66-71,77,共7页
基于Seq2Seq框架的生成式文本摘要模型取得了不错的研究进展,但此类模型大多存在未登录词、生成文本重复、曝光偏差问题。为此,本文提出基于对抗性扰动对比学习的指针生成器网络PGN-CL来建模文本摘要生成过程,该模型以指针生成器网络PG... 基于Seq2Seq框架的生成式文本摘要模型取得了不错的研究进展,但此类模型大多存在未登录词、生成文本重复、曝光偏差问题。为此,本文提出基于对抗性扰动对比学习的指针生成器网络PGN-CL来建模文本摘要生成过程,该模型以指针生成器网络PGN为基本架构,解决摘要模型存在的未登录词和生成文本重复的问题;采用对抗性扰动对比学习作为一种新的模型训练方式来解决曝光偏差问题。在PGN模型的训练过程中,通过向目标序列添加扰动并建立对比损失函数来生成对抗性正负样本,使负样本与目标序列在嵌入空间相似但语义差别很大,正样本与目标序列在语义空间很相近但嵌入空间差距较大,这些区分困难的正负样本可以引导PGN模型在特征空间更好地学习到正负样本的区分特征,获得更准确的摘要表示。在LCSTS数据集上的实验结果表明,提出的模型在ROUGE评价指标上的表现优于对比基线,证明了融合指针生成器网络和对抗性扰动对比学习对摘要质量提升的有效性。 展开更多
关键词 文本摘要 指针生成器网络 对抗性扰动 对比学习
下载PDF
融合预训练和注意力增强的中文自动摘要研究
18
作者 李旭军 王珺 余孟 《计算机工程与应用》 CSCD 北大核心 2023年第14期134-141,共8页
通过对源文本信息压缩来提炼文本核心内容。目前,大多数生成式自动摘要任务采用基于注意力机制的序列到序列模型,但该模型解码预测生成的摘要具有语义准确率低且内容重复率高的问题。针对上述问题,提出了一种融合预训练和注意力增强的... 通过对源文本信息压缩来提炼文本核心内容。目前,大多数生成式自动摘要任务采用基于注意力机制的序列到序列模型,但该模型解码预测生成的摘要具有语义准确率低且内容重复率高的问题。针对上述问题,提出了一种融合预训练和注意力增强的自动摘要生成方法来提高生成摘要的质量。该模型以带覆盖机制的指针生成网络(pointer generator network,PGN)模型为基础,利用Transformer模型的编码器预训练文本获得具有语义联系的词向量;在序列到序列模型的解码器中,通过注意力增强机制让解码端的当前时刻注意力分布参考历史时刻注意力分布信息;优化束搜索算法抑制解码端输出短句。实验评价指标采用ROUGE值。在公共中文数据集NLPCC2018和LCSTS上的实验结果表明,与伴随覆盖机制的PGN模型训练结果相比,ROUGE-1、ROUGE-2和ROUGE-L指标均得到了提高,验证了所提方法的先进性和有效性。 展开更多
关键词 生成式摘要 指针生成网络(PGN) 预训练 注意力增强机制
下载PDF
指针生成网络和覆盖损失优化的Transformer在生成式文本摘要领域的应用 被引量:3
19
作者 李想 王卫兵 尚学达 《计算机应用》 CSCD 北大核心 2021年第6期1647-1651,共5页
针对生成式文本摘要应用场景,提出了以Transformer为基础的摘要模型,并在Transformer模型中加入了指针生成(Pointer Generator)网络和覆盖损失(Coverage Loss)进行优化。首先,提出了基于Transformer模型作为基础结构的方法,利用其注意... 针对生成式文本摘要应用场景,提出了以Transformer为基础的摘要模型,并在Transformer模型中加入了指针生成(Pointer Generator)网络和覆盖损失(Coverage Loss)进行优化。首先,提出了基于Transformer模型作为基础结构的方法,利用其注意力机制更好地捕捉上下文的语意信息。然后,在模型的损失函数中引入Coverage Loss来惩罚不断出现的重复的词的分布和覆盖范围,从而解决Transformer模型中的注意力机制在生成式任务中出现不断生成同一个词的问题。最后,在模型中加入了Pointer Generator网络,从而允许模型从源文本中复制词用作生成词来解决词表无法覆盖(OOV)的问题。探索了改进后的模型是否减少了不准确的表达以及重复出现相同词的现象是否得以解决。该模型相较于原始的Transformer模型在ROUGE-1评测函数上得分提升了1.98个百分点、ROUGE-2评测函数上得分提升0.95个百分点,在ROUGE-L评测函数上得分提升了2.27个百分点,并提升了摘要结果的可读性及准确性。实验结果表明,Transformer在加入Coverage Loss和Pointer Generator网络后可应用于生成式文本摘要领域。 展开更多
关键词 生成式文本摘要 注意力机制 TRANSFORMER 覆盖损失 指针生成网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部