期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于BERT-BiLSTM-Attention的文本情感分析
被引量:
2
1
作者
诸林
云
曲金帅
+1 位作者
范菁
代婷婷
《云南民族大学学报(自然科学版)》
CAS
2023年第4期520-527,540,共9页
为了实现对用户对酒店使用感受的情绪倾向的分析,并且针对现有的词向量模型忽略了词的上下文的关系的问题,提出了一种基于BERT-BiLSTM-Attention模型的酒店评论情感倾向分析方法.利用BERT模型获取用户对酒店评论的文本特征表示,将获得...
为了实现对用户对酒店使用感受的情绪倾向的分析,并且针对现有的词向量模型忽略了词的上下文的关系的问题,提出了一种基于BERT-BiLSTM-Attention模型的酒店评论情感倾向分析方法.利用BERT模型获取用户对酒店评论的文本特征表示,将获得的特征表示输入BiLSTM网络以提取酒店评论的情感特征.在BiLSTM模型的输出层之前添加一个注意层以突出重点信息,最后由分类器对所提取的特征进行分类.构建的模型与Word2vec-BiLSTM、Word2vec-CNN、Word2vec-BiLSTM-Att、BERT、BERT-BiLSTM、BERT-CNN对比的结果显示,该模型在测试集上的准确率分别提高了4.67%、4.43%、3.66%、3.87%、2.3%、3.65%,实验结果表明基于BERT-BiLSTM-Attention的中文文本情感分析方法在情感分类上有更高的准确率.
展开更多
关键词
酒店评论
文本特征
情感分析
BERT-BiLSTM-Attention
下载PDF
职称材料
基于BERT与多通道卷积神经网络的细粒度情感分类
被引量:
1
2
作者
诸林
云
范菁
+1 位作者
曲金帅
代婷婷
《科学技术与工程》
北大核心
2023年第33期14264-14270,共7页
为了分析突发事件期间网络舆论的情感倾向,以更有效地调节人们的情绪,维护社会稳定。提出了一种融合BERT模型和多通道卷积神经网络的深度学习方法用于细粒度情感分类,以获取更加丰富的文本语义特征信息。通过BERT对输入的文本进行编码,...
为了分析突发事件期间网络舆论的情感倾向,以更有效地调节人们的情绪,维护社会稳定。提出了一种融合BERT模型和多通道卷积神经网络的深度学习方法用于细粒度情感分类,以获取更加丰富的文本语义特征信息。通过BERT对输入的文本进行编码,以增强文本的语义特征表示,再通过具有多个不同大小的卷积核的并行卷积层来学习文本特征,捕获文本的深层次特征,提升模型在文本分类的性能。对比实验表明,该模型在准确性、召回率和F 1方面均优于传统的情感分类模型,并能显著改善细粒度情感分类的性能。除此之外,还探究了表情符号对细粒度情感分类模型的影响,实验结果表明表情符号转换成文字后可以增强文本的情感特征提取能力,提升模型分类性能。
展开更多
关键词
网络舆论
情感细粒度分类
BERT模型
多通道卷积神经网络
并行卷积层
下载PDF
职称材料
基于Transformer和对比学习的文本生成图像方法
3
作者
代婷婷
范菁
+1 位作者
曲金帅
诸林
云
《中国科技论文》
CAS
北大核心
2023年第7期793-798,812,共7页
针对文本生成图像任务中合成图像丢失部分图像属性并与给定文本描述语义不一致的问题,引入对比学习方法优化改进深度融合生成对抗网络(deep fusion generative adversarial networks,DF-GAN)。使用Transformer编码器结构提取全局语义信...
针对文本生成图像任务中合成图像丢失部分图像属性并与给定文本描述语义不一致的问题,引入对比学习方法优化改进深度融合生成对抗网络(deep fusion generative adversarial networks,DF-GAN)。使用Transformer编码器结构提取全局语义信息,并利用对比学习方法来学习同一图像的多个文本表示,解决因语义信息提取不完善导致的合成图像属性丢失的问题;在网络训练过程中,采用对比学习方法来增强来自同一图像相关文本的合成图像之间的一致性。在CUB数据集上的实验结果表明,优化后的DF-GAN初始分数达到了4.97,FID指标达到了15.51,相比于原始DF-GAN分别提高了2.2%和19.38%,使模型生成了高质量的图像,并增强了合成图像与文本描述的语义一致性。
展开更多
关键词
生成对抗网络
文本生成图像
对比学习
TRANSFORMER
下载PDF
职称材料
题名
基于BERT-BiLSTM-Attention的文本情感分析
被引量:
2
1
作者
诸林
云
曲金帅
范菁
代婷婷
机构
云南民族大学云南省高校信息与通信安全灾备重点实验室
出处
《云南民族大学学报(自然科学版)》
CAS
2023年第4期520-527,540,共9页
基金
国家社科基金(21XSH007)
教育部人文社科基金(20YJCZH129).
文摘
为了实现对用户对酒店使用感受的情绪倾向的分析,并且针对现有的词向量模型忽略了词的上下文的关系的问题,提出了一种基于BERT-BiLSTM-Attention模型的酒店评论情感倾向分析方法.利用BERT模型获取用户对酒店评论的文本特征表示,将获得的特征表示输入BiLSTM网络以提取酒店评论的情感特征.在BiLSTM模型的输出层之前添加一个注意层以突出重点信息,最后由分类器对所提取的特征进行分类.构建的模型与Word2vec-BiLSTM、Word2vec-CNN、Word2vec-BiLSTM-Att、BERT、BERT-BiLSTM、BERT-CNN对比的结果显示,该模型在测试集上的准确率分别提高了4.67%、4.43%、3.66%、3.87%、2.3%、3.65%,实验结果表明基于BERT-BiLSTM-Attention的中文文本情感分析方法在情感分类上有更高的准确率.
关键词
酒店评论
文本特征
情感分析
BERT-BiLSTM-Attention
Keywords
hotel reviews
text features
emotion analysis
BERT-BiLSTM-Attention
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于BERT与多通道卷积神经网络的细粒度情感分类
被引量:
1
2
作者
诸林
云
范菁
曲金帅
代婷婷
机构
云南民族大学电气信息工程学院
出处
《科学技术与工程》
北大核心
2023年第33期14264-14270,共7页
基金
国家社会科学基金(21XSH007)
教育部人文社会科学研究项目(20YJCZH129)。
文摘
为了分析突发事件期间网络舆论的情感倾向,以更有效地调节人们的情绪,维护社会稳定。提出了一种融合BERT模型和多通道卷积神经网络的深度学习方法用于细粒度情感分类,以获取更加丰富的文本语义特征信息。通过BERT对输入的文本进行编码,以增强文本的语义特征表示,再通过具有多个不同大小的卷积核的并行卷积层来学习文本特征,捕获文本的深层次特征,提升模型在文本分类的性能。对比实验表明,该模型在准确性、召回率和F 1方面均优于传统的情感分类模型,并能显著改善细粒度情感分类的性能。除此之外,还探究了表情符号对细粒度情感分类模型的影响,实验结果表明表情符号转换成文字后可以增强文本的情感特征提取能力,提升模型分类性能。
关键词
网络舆论
情感细粒度分类
BERT模型
多通道卷积神经网络
并行卷积层
Keywords
network public opinion
emotional fine-grained classification
BERT model
multi-channel convolutional neural network
parallel convolutional layer
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于Transformer和对比学习的文本生成图像方法
3
作者
代婷婷
范菁
曲金帅
诸林
云
机构
云南省高校信息与通信安全灾备重点实验室(云南民族大学)
出处
《中国科技论文》
CAS
北大核心
2023年第7期793-798,812,共7页
基金
国家自然科学基金资助项目(61540063)
云南省教育厅科学研究基金资助项目(2023Y0499)
云南民族大学硕士研究生科研创新基金资助项目(2022SKY001,2022SKY004)。
文摘
针对文本生成图像任务中合成图像丢失部分图像属性并与给定文本描述语义不一致的问题,引入对比学习方法优化改进深度融合生成对抗网络(deep fusion generative adversarial networks,DF-GAN)。使用Transformer编码器结构提取全局语义信息,并利用对比学习方法来学习同一图像的多个文本表示,解决因语义信息提取不完善导致的合成图像属性丢失的问题;在网络训练过程中,采用对比学习方法来增强来自同一图像相关文本的合成图像之间的一致性。在CUB数据集上的实验结果表明,优化后的DF-GAN初始分数达到了4.97,FID指标达到了15.51,相比于原始DF-GAN分别提高了2.2%和19.38%,使模型生成了高质量的图像,并增强了合成图像与文本描述的语义一致性。
关键词
生成对抗网络
文本生成图像
对比学习
TRANSFORMER
Keywords
generative adversarial networks
text generation image
comparative learning
Transformer
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于BERT-BiLSTM-Attention的文本情感分析
诸林
云
曲金帅
范菁
代婷婷
《云南民族大学学报(自然科学版)》
CAS
2023
2
下载PDF
职称材料
2
基于BERT与多通道卷积神经网络的细粒度情感分类
诸林
云
范菁
曲金帅
代婷婷
《科学技术与工程》
北大核心
2023
1
下载PDF
职称材料
3
基于Transformer和对比学习的文本生成图像方法
代婷婷
范菁
曲金帅
诸林
云
《中国科技论文》
CAS
北大核心
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部