期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于BERT-BiLSTM-Attention的文本情感分析 被引量:2
1
作者 诸林 曲金帅 +1 位作者 范菁 代婷婷 《云南民族大学学报(自然科学版)》 CAS 2023年第4期520-527,540,共9页
为了实现对用户对酒店使用感受的情绪倾向的分析,并且针对现有的词向量模型忽略了词的上下文的关系的问题,提出了一种基于BERT-BiLSTM-Attention模型的酒店评论情感倾向分析方法.利用BERT模型获取用户对酒店评论的文本特征表示,将获得... 为了实现对用户对酒店使用感受的情绪倾向的分析,并且针对现有的词向量模型忽略了词的上下文的关系的问题,提出了一种基于BERT-BiLSTM-Attention模型的酒店评论情感倾向分析方法.利用BERT模型获取用户对酒店评论的文本特征表示,将获得的特征表示输入BiLSTM网络以提取酒店评论的情感特征.在BiLSTM模型的输出层之前添加一个注意层以突出重点信息,最后由分类器对所提取的特征进行分类.构建的模型与Word2vec-BiLSTM、Word2vec-CNN、Word2vec-BiLSTM-Att、BERT、BERT-BiLSTM、BERT-CNN对比的结果显示,该模型在测试集上的准确率分别提高了4.67%、4.43%、3.66%、3.87%、2.3%、3.65%,实验结果表明基于BERT-BiLSTM-Attention的中文文本情感分析方法在情感分类上有更高的准确率. 展开更多
关键词 酒店评论 文本特征 情感分析 BERT-BiLSTM-Attention
下载PDF
基于BERT与多通道卷积神经网络的细粒度情感分类 被引量:1
2
作者 诸林 范菁 +1 位作者 曲金帅 代婷婷 《科学技术与工程》 北大核心 2023年第33期14264-14270,共7页
为了分析突发事件期间网络舆论的情感倾向,以更有效地调节人们的情绪,维护社会稳定。提出了一种融合BERT模型和多通道卷积神经网络的深度学习方法用于细粒度情感分类,以获取更加丰富的文本语义特征信息。通过BERT对输入的文本进行编码,... 为了分析突发事件期间网络舆论的情感倾向,以更有效地调节人们的情绪,维护社会稳定。提出了一种融合BERT模型和多通道卷积神经网络的深度学习方法用于细粒度情感分类,以获取更加丰富的文本语义特征信息。通过BERT对输入的文本进行编码,以增强文本的语义特征表示,再通过具有多个不同大小的卷积核的并行卷积层来学习文本特征,捕获文本的深层次特征,提升模型在文本分类的性能。对比实验表明,该模型在准确性、召回率和F 1方面均优于传统的情感分类模型,并能显著改善细粒度情感分类的性能。除此之外,还探究了表情符号对细粒度情感分类模型的影响,实验结果表明表情符号转换成文字后可以增强文本的情感特征提取能力,提升模型分类性能。 展开更多
关键词 网络舆论 情感细粒度分类 BERT模型 多通道卷积神经网络 并行卷积层
下载PDF
基于Transformer和对比学习的文本生成图像方法
3
作者 代婷婷 范菁 +1 位作者 曲金帅 诸林 《中国科技论文》 CAS 北大核心 2023年第7期793-798,812,共7页
针对文本生成图像任务中合成图像丢失部分图像属性并与给定文本描述语义不一致的问题,引入对比学习方法优化改进深度融合生成对抗网络(deep fusion generative adversarial networks,DF-GAN)。使用Transformer编码器结构提取全局语义信... 针对文本生成图像任务中合成图像丢失部分图像属性并与给定文本描述语义不一致的问题,引入对比学习方法优化改进深度融合生成对抗网络(deep fusion generative adversarial networks,DF-GAN)。使用Transformer编码器结构提取全局语义信息,并利用对比学习方法来学习同一图像的多个文本表示,解决因语义信息提取不完善导致的合成图像属性丢失的问题;在网络训练过程中,采用对比学习方法来增强来自同一图像相关文本的合成图像之间的一致性。在CUB数据集上的实验结果表明,优化后的DF-GAN初始分数达到了4.97,FID指标达到了15.51,相比于原始DF-GAN分别提高了2.2%和19.38%,使模型生成了高质量的图像,并增强了合成图像与文本描述的语义一致性。 展开更多
关键词 生成对抗网络 文本生成图像 对比学习 TRANSFORMER
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部