期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
神经机器翻译综述 被引量:2
1
作者 章钧津 田永红 +1 位作者 宋哲煜 郝宇峰 《计算机工程与应用》 CSCD 北大核心 2024年第4期57-74,共18页
机器翻译主要研究如何将源语言翻译为目标语言,对于促进民族之间的交流具有重要意义。目前神经机器翻译凭借翻译速度和译文质量成为主流的机器翻译方法。为更好地进行脉络梳理,首先对机器翻译的历史和方法进行研究,并对基于规则的机器... 机器翻译主要研究如何将源语言翻译为目标语言,对于促进民族之间的交流具有重要意义。目前神经机器翻译凭借翻译速度和译文质量成为主流的机器翻译方法。为更好地进行脉络梳理,首先对机器翻译的历史和方法进行研究,并对基于规则的机器翻译、基于统计的机器翻译和基于深度学习的机器翻译三种方法进行对比总结;然后引出神经机器翻译,并对其常见的类型进行讲解;接着选取多模态机器翻译、非自回归机器翻译、篇章级机器翻译、多语言机器翻译、数据增强技术和预训练模型六个主要的神经机器翻译研究领域进行重点介绍;最后从低资源语言、上下文相关翻译、未登录词和大模型四个方面对神经机器翻译的未来进行了展望。通过系统性的介绍以更好地理解神经机器翻译的发展现状。 展开更多
关键词 机器翻译 神经机器翻译 篇章级机器翻译 数据增强 预处理技术
下载PDF
融合指代消解的神经机器翻译研究
2
作者 冯勤 贡正仙 +1 位作者 李军辉 周国栋 《中文信息学报》 CSCD 北大核心 2024年第6期67-76,共10页
篇章中的同一实体经常会呈现出不同的表述,形成一系列复杂的指代关系,这给篇章翻译带来了很大的挑战。该文重点探索指代消解和篇章神经机器翻译的融合方案,首先为指代链设计相应的指代表征;其次使用软约束和硬约束两种方法在翻译系统中... 篇章中的同一实体经常会呈现出不同的表述,形成一系列复杂的指代关系,这给篇章翻译带来了很大的挑战。该文重点探索指代消解和篇章神经机器翻译的融合方案,首先为指代链设计相应的指代表征;其次使用软约束和硬约束两种方法在翻译系统中实现指代信息的融合。该文建议的方法分别在英语-德语和中文-英语语言对上进行了实验,实验结果表明,相比于同期最好的句子级翻译系统,该方法能使翻译性能获得明显提升。此外,在英语-德语的代词翻译质量的专门评估中,准确率也有显著提升。 展开更多
关键词 指代表征 神经机器翻译 篇章级机器翻译
下载PDF
基于G-Meshed-Transformer的文档级神经机器翻译
3
作者 赵兴凯 杨帆 +1 位作者 何娇 李鹏浩 《长江信息通信》 2023年第3期8-12,共5页
随着全球化的快速发展,不同语言之间的翻译需求也在不断增加,虽然神经机器翻译已经取得了优异的效果,但随着翻译需求的增加需要考虑更大的句间语境,现有的文档级翻译仍无法充分共享数据提供的上下文特征信息。因此,文章提出了一种基于G-... 随着全球化的快速发展,不同语言之间的翻译需求也在不断增加,虽然神经机器翻译已经取得了优异的效果,但随着翻译需求的增加需要考虑更大的句间语境,现有的文档级翻译仍无法充分共享数据提供的上下文特征信息。因此,文章提出了一种基于G-Meshed-Transformer的文档级机器翻译。首先,文章对原始数据集进行序列化数据增强,在不引入其他参数的情况下,以提供充分的句子上下文信息。其次,G-Meshed-Transformer可充分利用数据提供的上下文信息,以学习更丰富的语义信息,提高翻译分数。在数据集上的实验表明,所提出的算法比现有算法具有更好的性能。 展开更多
关键词 文档级机器翻译 神经机器翻译 TRANSFORMER 数据增强
下载PDF
基于加权词汇衔接的文档级机器翻译自动评价 被引量:1
4
作者 贡正仙 李良友 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2014年第1期173-179,共7页
在文档词汇衔接评价LC方法的基础上,提出基于权重的LC,即WLC,该方法通过在文档词图上运行PageRank算法获得词汇权重。根据词性信息使得PageRank算法偏向特定的词汇,并提出PWLC方法。实验表明,在文档级别上,所提出的两种方法与人工评价... 在文档词汇衔接评价LC方法的基础上,提出基于权重的LC,即WLC,该方法通过在文档词图上运行PageRank算法获得词汇权重。根据词性信息使得PageRank算法偏向特定的词汇,并提出PWLC方法。实验表明,在文档级别上,所提出的两种方法与人工评价的相关度都优于LC;融合两种方法后,BLEU和TER在文档级别上的评价性能有显著提高。 展开更多
关键词 词汇衔接 文档级评价 机器翻译 自动评价 PAGERANK
下载PDF
基于联合注意力机制的篇章级机器翻译 被引量:6
5
作者 李京谕 冯洋 《中文信息学报》 CSCD 北大核心 2019年第12期45-53,共9页
近年来,神经机器翻译(neural machine translation,NMT)表现出极大的优越性,然而如何在翻译一个文档时考虑篇章上下文信息仍然是一个值得探讨的问题。传统的注意力机制对源端的所有词语进行计算,而在翻译当前句子时篇章中大量的信息中... 近年来,神经机器翻译(neural machine translation,NMT)表现出极大的优越性,然而如何在翻译一个文档时考虑篇章上下文信息仍然是一个值得探讨的问题。传统的注意力机制对源端的所有词语进行计算,而在翻译当前句子时篇章中大量的信息中只有小部分是与之相关的。在篇章级机器翻译中,采用传统的注意力机制建模篇章信息存在着信息冗余的问题。该文提出了一种联合注意力机制,结合"硬关注"和"软关注"的机制对篇章上下文的信息进行建模。关键思想是通过"硬关注"筛选出与翻译当前句子相关的源端历史词语,然后采用"软关注"的方法进一步抽取翻译中所需的上下文信息。实验表明,相比于基线系统,该方法能使翻译性能获得明显提升。 展开更多
关键词 神经机器翻译 注意力机制 篇章级机器翻译
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部