期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
DFSMN-T:结合强语言模型Transformer的中文语音识别
被引量:
10
1
作者
胡章芳
蹇芳
+2 位作者
唐珊珊
明子平
姜博文
《计算机工程与应用》
CSCD
北大核心
2022年第9期187-194,共8页
自动语音识别系统由声学模型和语言模型两部分构成,但传统语言模型N-gram存在忽略词条语义相似性、参数过大等问题,限制了语音识别字符错误率的进一步降低。针对上述问题,提出一种新型的语音识别系统,以中文音节(拼音)作为中间字符,以...
自动语音识别系统由声学模型和语言模型两部分构成,但传统语言模型N-gram存在忽略词条语义相似性、参数过大等问题,限制了语音识别字符错误率的进一步降低。针对上述问题,提出一种新型的语音识别系统,以中文音节(拼音)作为中间字符,以深度前馈序列记忆神经网络DFSMN作为声学模型,执行语音转中文音节任务,进而将拼音转汉字理解成翻译任务,引入Transformer作为语言模型;同时提出一种减少Transformer计算复杂度的简易方法,在计算注意力权值时引入Hadamard矩阵进行滤波,对低于阈值的参数进行丢弃,使得模型解码速度更快。在Aishell-1、Thchs30等数据集上的实验表明,相较于DFSMN结合3-gram模型,基于DFSMN和改进Transformer的语音识别系统在最优模型上的字符错误率相对下降了3.2%,达到了11.8%的字符错误率;相较于BLSTM模型语音识别系统,其字符错误率相对下降了7.1%。
展开更多
关键词
语音识别
深度前馈序列记忆神经网络(DFSMN)
TRANSFORMER
中文
音节
HADAMARD矩阵
下载PDF
职称材料
题名
DFSMN-T:结合强语言模型Transformer的中文语音识别
被引量:
10
1
作者
胡章芳
蹇芳
唐珊珊
明子平
姜博文
机构
重庆邮电大学光电工程学院
出处
《计算机工程与应用》
CSCD
北大核心
2022年第9期187-194,共8页
基金
国家自然科学基金(61801061)
重庆市科委项目(cstc2017zdcy-zdzxX0011)。
文摘
自动语音识别系统由声学模型和语言模型两部分构成,但传统语言模型N-gram存在忽略词条语义相似性、参数过大等问题,限制了语音识别字符错误率的进一步降低。针对上述问题,提出一种新型的语音识别系统,以中文音节(拼音)作为中间字符,以深度前馈序列记忆神经网络DFSMN作为声学模型,执行语音转中文音节任务,进而将拼音转汉字理解成翻译任务,引入Transformer作为语言模型;同时提出一种减少Transformer计算复杂度的简易方法,在计算注意力权值时引入Hadamard矩阵进行滤波,对低于阈值的参数进行丢弃,使得模型解码速度更快。在Aishell-1、Thchs30等数据集上的实验表明,相较于DFSMN结合3-gram模型,基于DFSMN和改进Transformer的语音识别系统在最优模型上的字符错误率相对下降了3.2%,达到了11.8%的字符错误率;相较于BLSTM模型语音识别系统,其字符错误率相对下降了7.1%。
关键词
语音识别
深度前馈序列记忆神经网络(DFSMN)
TRANSFORMER
中文
音节
HADAMARD矩阵
Keywords
speech recognition
deep feedforward sequential memory networks(DFSMN)
Transformer
Chinese syllables
Hadamard matrix
分类号
TP391 [自动化与计算机技术—计算机应用技术]
TP18 [自动化与计算机技术—计算机科学与技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
DFSMN-T:结合强语言模型Transformer的中文语音识别
胡章芳
蹇芳
唐珊珊
明子平
姜博文
《计算机工程与应用》
CSCD
北大核心
2022
10
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部