期刊文献+
共找到11篇文章
< 1 >
每页显示 20 50 100
人机对话系统中意图识别方法综述 被引量:27
1
作者 刘娇 李艳玲 林民 《计算机工程与应用》 CSCD 北大核心 2019年第12期1-7,43,共8页
口语理解是人机对话系统的重要组成部分,而意图识别是口语理解中的一个子任务,而且至关重要。意图识别的准确性直接关系到语义槽填充的性能并且有助于后续对话系统的研究。考虑到人机对话系统中意图识别的困难,传统的机器学习方法无法... 口语理解是人机对话系统的重要组成部分,而意图识别是口语理解中的一个子任务,而且至关重要。意图识别的准确性直接关系到语义槽填充的性能并且有助于后续对话系统的研究。考虑到人机对话系统中意图识别的困难,传统的机器学习方法无法理解用户话语的深层语义信息,主要对近些年应用在意图识别研究方面的深度学习方法进行分析、比较和总结,进一步思考如何将深度学习模型应用到多意图识别任务中,从而推动基于深度神经网络的多意图识别方法的研究。 展开更多
关键词 意图识别 口语理解 对话系统 人工智能
下载PDF
结合句法特征和卷积神经网络的多意图识别模型 被引量:11
2
作者 杨春妮 冯朝胜 《计算机应用》 CSCD 北大核心 2018年第7期1839-1845,1852,共8页
短文本的多意图识别是口语理解(SLU)中的难题,因短文本的特征稀疏、字数少但包含信息量大,在分类问题中难以提取其有效特征。为解决该问题,将句法特征和卷积神经网络(CNN)进行结合,提出一种多意图识别模型。首先,将句子进行依存句法分... 短文本的多意图识别是口语理解(SLU)中的难题,因短文本的特征稀疏、字数少但包含信息量大,在分类问题中难以提取其有效特征。为解决该问题,将句法特征和卷积神经网络(CNN)进行结合,提出一种多意图识别模型。首先,将句子进行依存句法分析以确定是否包含多意图;然后,利用词频-逆文档频率(TF-IDF)和训练好的词向量计算距离矩阵,以确定意图的个数;其次,把该距离矩阵作为CNN模型的输入,进行意图分类;最后,判断每个意图的情感极性,计算用户的真实意图。采用现有的智能客服系统的真实数据进行实验,实验结果表明,结合句法特征的CNN模型在10个意图上的单分类精准率达到93.5%,比未结合句法特征的CNN模型高1.4个百分点;而在多意图识别上,精准率比其他模型提高约30个百分点。 展开更多
关键词 口语理解 多意图识别 句法特征 卷积神经网络 自然语言
下载PDF
基于多任务学习的意图检测和槽位填充联合方法
3
作者 尚爱国 朱欣娟 《计算机应用》 CSCD 北大核心 2024年第3期690-695,共6页
随着预训练语言模型在自然语言处理(NLP)任务上的应用,意图检测(ID)和槽位填充(SF)联合建模提高了口语理解的性能。现有方法大多关注意图和槽位的相互作用,忽略了差异文本序列建模对口语理解(SLU)任务的影响。因此,提出一种基于多任务... 随着预训练语言模型在自然语言处理(NLP)任务上的应用,意图检测(ID)和槽位填充(SF)联合建模提高了口语理解的性能。现有方法大多关注意图和槽位的相互作用,忽略了差异文本序列建模对口语理解(SLU)任务的影响。因此,提出一种基于多任务学习的意图检测和槽位填充联合方法(IDSFML)。首先,使用随机掩盖mask策略构造差异文本,设计结合自编码器和注意力机制的神经网络(AEA)结构,为口语理解任务融入差异文本序列的特征;其次,设计相似性分布任务,使差异文本和原始文本的表征相似;最后,联合训练ID、SF和差异文本序列相似性分布三个任务。在航班旅行信息系统(ATIS)和SNIPS数据集上的实验结果表明,IDSFML与表现次优的基线方法SASGBC(Self-Attention and Slot-Gated on top of BERT with CRF)相比,槽位填充F1值分别提升了1.9和1.6个百分点,意图检测准确率分别提升了0.2和0.4个百分点,提高了口语理解任务的准确率。 展开更多
关键词 意图检测 槽位填充 多任务学习 口语理解 注意力机制
下载PDF
一种基于窗口机制的口语理解异构图网络
4
作者 张启辰 王帅 李静梅 《软件学报》 EI CSCD 北大核心 2024年第4期1885-1898,共14页
口语理解(spoken language understanding,SLU)是面向任务的对话系统的核心组成部分,旨在提取用户查询的语义框架.在对话系统中,口语理解组件(SLU)负责识别用户的请求,并创建总结用户需求的语义框架,SLU通常包括两个子任务:意图检测(int... 口语理解(spoken language understanding,SLU)是面向任务的对话系统的核心组成部分,旨在提取用户查询的语义框架.在对话系统中,口语理解组件(SLU)负责识别用户的请求,并创建总结用户需求的语义框架,SLU通常包括两个子任务:意图检测(intent detection,ID)和槽位填充(slot filling,SF).意图检测是一个语义话语分类问题,在句子层面分析话语的语义;槽位填充是一个序列标注任务,在词级层面分析话语的语义.由于意图和槽之间的密切相关性,主流的工作采用联合模型来利用跨任务的共享知识.但是ID和SF是两个具有强相关性的不同任务,它们分别表征了话语的句级语义信息和词级信息,这意味着两个任务的信息是异构的,同时具有不同的粒度.提出一种用于联合意图检测和槽位填充的异构交互结构,采用自注意力和图注意力网络的联合形式充分地捕捉两个相关任务中异构信息的句级语义信息和词级信息之间的关系.不同于普通的同构结构,所提模型是一个包含不同类型节点和连接的异构图架构,因为异构图涉及更全面的信息和丰富的语义,同时可以更好地交互表征不同粒度节点之间的信息.此外,为了更好地适应槽标签的局部连续性,利用窗口机制来准确地表示词级嵌入表示.同时结合预训练模型(BERT),分析所提出模型应用预训练模型的效果.所提模型在两个公共数据集上的实验结果表明,所提模型在意图检测任务上准确率分别达到了97.98%和99.11%,在槽位填充任务上F1分数分别达到96.10%和96.11%,均优于目前主流的方法. 展开更多
关键词 对话系统 口语理解 异构图 窗口机制 意图检测 槽位填充
下载PDF
口语理解中改进循环神经网络的应用 被引量:2
5
作者 张晶晶 黄浩 +1 位作者 胡英 吾守尔·斯拉木 《计算机工程与应用》 CSCD 北大核心 2019年第18期155-160,共6页
口语理解性能的提升对于口语对话系统的研究具有重要作用。为了提高口语理解性能,应用循环神经网络(RNN)及其变体(LSTM,GRU)方法。在此基础上,提出一种改进的循环神经网络(Modified-RNN)方法,该方法通过添加存储历史状态信息,能够存储... 口语理解性能的提升对于口语对话系统的研究具有重要作用。为了提高口语理解性能,应用循环神经网络(RNN)及其变体(LSTM,GRU)方法。在此基础上,提出一种改进的循环神经网络(Modified-RNN)方法,该方法通过添加存储历史状态信息,能够存储更长时的信息,含有更少的参数,根据获取的更多信息提取特征信息增加获取信息的有效性,提高了口语理解的精准率和F1,缩短了实验时间。在航空旅行信息数据库(ATIS)上的实验结果验证了该算法的有效性和可靠性。 展开更多
关键词 循环神经网络(RNN) 长短时记忆网络(LSTM) 门限循环单元(GRU) 口语理解(slu) 改进循环神经网络(M-RNN)
下载PDF
中文口语理解中关键语义类模糊匹配方法的研究 被引量:2
6
作者 李艳玲 颜永红 《小型微型计算机系统》 CSCD 北大核心 2014年第9期2182-2186,共5页
针对人机交互过程中语音识别引起的发音变异以及用户表达关键信息不完整情况,提出一种模糊匹配方法.该方法分两步,第一步,通过条件随机场进行序列标注,定位查询语句中的关键语义概念,并得到其初步类别;第二步,利用几种相似度计算方法,... 针对人机交互过程中语音识别引起的发音变异以及用户表达关键信息不完整情况,提出一种模糊匹配方法.该方法分两步,第一步,通过条件随机场进行序列标注,定位查询语句中的关键语义概念,并得到其初步类别;第二步,利用几种相似度计算方法,寻找与领域词典中发音相似度最大的字符串对错误的语义概念进行替换,并标注出具体类别.另外针对最优模糊匹配结果不一定满足用户需要,进行了多个候选的实验.实验结果证明:无论使用哪种相似度计算方法,基于拼音的模糊匹配方法比基于字的模糊匹配方法在语音识别的文本上都具有更好的性能,而且在多候选的结果上也仍旧适用,说明该方法对于提高口语理解系统的鲁棒性上是有效的. 展开更多
关键词 模糊匹配 条件随机场 口语理解 命名实体识别 相似度函数
下载PDF
引入外部记忆的循环神经网络的口语理解 被引量:2
7
作者 许莹莹 黄浩 《计算机工程与应用》 CSCD 北大核心 2019年第12期145-148,161,共5页
循环神经网络(RNN)越来越在口语理解(Spoken Language Understanding,SLU)任务中显示出优势。然而,由于梯度消失和梯度爆炸问题,简单循环神经网络的存储容量受到限制。提出一种使用外部存储器来提高记忆能力的循环神经网络。并在ATIS数... 循环神经网络(RNN)越来越在口语理解(Spoken Language Understanding,SLU)任务中显示出优势。然而,由于梯度消失和梯度爆炸问题,简单循环神经网络的存储容量受到限制。提出一种使用外部存储器来提高记忆能力的循环神经网络。并在ATIS数据集上进行了实验,并与其他公开报道的模型进行比较。结果说明,在口语理解任务上,提出的引入外部记忆的循环神经网络在准确性、召回率和F1值都有较明显提高,优于传统循环神经网络及其变体结构。 展开更多
关键词 口语理解 循环神经网络 长短时记忆网络 神经图灵机
下载PDF
利用知识强化语言模型的口语理解方法
8
作者 刘高军 王岳 +2 位作者 段建勇 何丽 王昊 《计算机工程》 CAS CSCD 北大核心 2023年第3期73-79,共7页
基于预训练的语言模型在口语理解(SLU)任务中具有优异的性能表现。然而,与人类理解语言的方式相比,单纯的语言模型只能建立文本层级的上下文关联,缺少丰富的外部知识来支持其完成更为复杂的推理。提出一种针对SLU任务的基于Transformer... 基于预训练的语言模型在口语理解(SLU)任务中具有优异的性能表现。然而,与人类理解语言的方式相比,单纯的语言模型只能建立文本层级的上下文关联,缺少丰富的外部知识来支持其完成更为复杂的推理。提出一种针对SLU任务的基于Transformer的双向编码器表示(BERT)的联合模型。引入单词级别的意图特征并使用注意力机制为BERT融合外部知识。此外,由于SLU包含意图检测和槽填充2个相互关联的子任务,模型通过联合训练捕捉2个子任务间的关联性,充分运用这种关联性增强外部知识对于SLU任务的性能提升效果,并将外部知识转化为可用于特定子任务的特征信息。在ATIS和Snips 2个公开数据集上的实验结果表明,该模型句子级别的语义准确率分别为89.1%和93.3%,与BERT模型相比,分别提升了0.9和0.4个百分点,能够有效利用外部知识提升自身性能,在SLU任务中拥有比BERT更为优秀的性能表现。 展开更多
关键词 口语理解 外部知识 语言模型 意图检测 槽填充 联合训练
下载PDF
基于词嵌入扩充的口语对话文本领域分类
9
作者 杨萌萌 黄浩 《新疆大学学报(自然科学版)》 CAS 北大核心 2016年第2期209-214,220,共7页
针对口语对话系统领域分类任务中传统领域分类方法如SVM需要进行大量人工标注的问题,将LDA(Latent Dirichlet Allocation)模型应用于口语对话系统领域分类;针对口语对话内容少、长度短、数据稀疏等问题,在LDA模型基础上提出了基于词嵌... 针对口语对话系统领域分类任务中传统领域分类方法如SVM需要进行大量人工标注的问题,将LDA(Latent Dirichlet Allocation)模型应用于口语对话系统领域分类;针对口语对话内容少、长度短、数据稀疏等问题,在LDA模型基础上提出了基于词嵌入文本扩充的口语对话系统领域分类方法.该方法主要特点是:1)使用词嵌入方法word2vec对类似于短文本的语音识别后的口语对话文本进行语义扩充,将短文本转化为长文本,使主题模型LDA更加有效地估计口语对话文本的隐含主题;2)采用无监督的概率生成模型LDA对扩充后的口语对话文本进行建模以及领域分类,从而降低人工标注成本.实验结果表明,与直接使用LDA模型进行口语对话系统领域分类方法对比,适当扩充长度的word2vec文本扩充方法在口语对话系统领域分类中的平均准确率、平均召回率和平均F1值分别提高了26.1%、25.5%、27.2%,且该方法具有一定的鲁棒性.. 展开更多
关键词 口语对话系统 口语理解 潜在狄利克雷分布 主题模型 文本扩充
下载PDF
基于条件随机场的稳健口语理解研究
10
作者 程露红 黄浩 马平 《新疆大学学报(自然科学版)》 CAS 北大核心 2016年第1期88-93,共6页
语音识别性能的不理想造成的识别错误以及不符合文法的口语输入往往造成口语理解性能下降.针对这个问题,提出一种改进口语理解稳健性的方法.该方法通过在训练数据集中人工加入错误文本噪声进行语料扩充,再进行条件随机场口语理解模型训... 语音识别性能的不理想造成的识别错误以及不符合文法的口语输入往往造成口语理解性能下降.针对这个问题,提出一种改进口语理解稳健性的方法.该方法通过在训练数据集中人工加入错误文本噪声进行语料扩充,再进行条件随机场口语理解模型训练,用得到的模型对具有噪声的未知数据集进行口语理解.实验结果表明该方法能提高口语理解的稳健性,较未加入噪声训练得到的模型在准确率、召回率及F1值上都有显著的提高. 展开更多
关键词 口语对话系统 口语理解 条件随机场 稳健性
下载PDF
基于标签分解的口语理解模型
11
作者 许莹莹 黄浩 《计算机工程》 CAS CSCD 北大核心 2019年第7期237-241,共5页
在双向长短时记忆网络的基础上,提出一种用于口语理解的标签拆分策略,并构建一个联合模型。通过将 1次 127种标签分类转换成3次独立的分类,平衡ATIS数据集的标签。针对ATIS数据集资源较少的问题,引入外部词向量以提升模型的分类性能。... 在双向长短时记忆网络的基础上,提出一种用于口语理解的标签拆分策略,并构建一个联合模型。通过将 1次 127种标签分类转换成3次独立的分类,平衡ATIS数据集的标签。针对ATIS数据集资源较少的问题,引入外部词向量以提升模型的分类性能。实验结果表明,与循环神经网络及其变体结构相比,该模型的 F 1值有显著提升,最高可达95.63 %。 展开更多
关键词 口语理解 槽填充 双向长短时记忆网络 词向量 联合模型
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部