-
题名一种基于迁移学习及多表征的微博立场分析方法
被引量:6
- 1
-
-
作者
周艳芳
周刚
鹿忠磊
-
机构
数学工程与先进计算国家重点实验室
-
出处
《计算机科学》
CSCD
北大核心
2018年第9期243-247,共5页
-
基金
数学工程与先进计算国家重点实验室开放基金资助项目(2015A11)资助
-
文摘
立场分析旨在发现用户对特定目标对象所持的观点态度。针对现有方法往往难以克服标注数据匮乏及微博文本中大量未登录词等导致的分词误差的问题,提出了基于迁移学习及字、词特征混合的立场分析方法。首先,将字、词特征输入深度神经网络,级联两者隐藏层输出,复现由分词错误引起的缺失语义信息;然后,利用与立场相关话题的辅助数据训练话题分类模型(父模型),得到更为有效的句子特征表示;接着,以父模型参数初始化立场分析模型(子模型),从辅助数据(话题分类数据)迁移知识能加强句子的语义表示能力;最后,使用有标注数据微调子模型参数并训练分类器。在NLPCC-2016任务4的语料上进行实验,F1值达72.2%,优于参赛团队的最佳成绩。实验结果表明,该方法可提高立场分类性能,同时缓解分词误差带来的影响。
-
关键词
迁移学习
深度学习
立场分析
微博
-
Keywords
Transfer learning
Deep learning
Stance detection
Micr o-blog
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于预读及简单注意力机制的句子压缩方法
被引量:3
- 2
-
-
作者
鹿忠磊
刘文芬
周艳芳
胡学先
王彬宇
-
机构
数学工程与先进计算国家重点实验室
桂林电子科技大学计算机与信息安全学院广西密码学与信息安全重点实验室
-
出处
《计算机应用研究》
CSCD
北大核心
2019年第2期371-375,394,共6页
-
基金
国家自然科学基金资助项目(61862011
61502527)
+1 种基金
广西自然科学基金资助项目(2018GXNSFAA138116)
广西密码学与信息安全重点实验室开放课题项目(GCIS201704)
-
文摘
针对英文句子压缩方法进行研究,提出一种基于预读及简单注意力机制的压缩方法。在编码器—解码器(encoder-decoder)框架下,以循环门单元(gated recurrent unit,GRU)神经网络模型为基础,在编码阶段对原句语义进行两次建模。首次建模结果作为全局信息,加强二次语义建模,得到更全面准确的语义编码向量。解码阶段充分考虑删除式句子压缩的特殊性,适用简单注意力(3t-attention)机制,将编码向量中与当前解码时刻最相关的语义部分输入到解码器中,提高预测效率及准确率。在谷歌新闻句子压缩数据集上的实验结果表明,所提压缩方法优于已有公开结果。因此,预读及简单注意力机制可有效提高英文句子压缩精度。
-
关键词
自然语言处理
句子压缩
预读
注意力机制
-
Keywords
natural language processing
sentence compression
pre-reading
attention mechanism
-
分类号
TP391.1
[自动化与计算机技术—计算机应用技术]
-