期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于卷积Transformer的支路参数辨识
1
作者 王琳鹏 宋公飞 汪梦龙 《信息技术》 2024年第9期98-103,共6页
为了解决在电力系统支路参数辨识任务中传统的单支路特征参数辨识只能对单一目标进行识别,无法充分利用电力系统的历史信息的问题。在Transformer模型基础之上采用一种卷积自注意力,帮助模型更好地捕获输入特征之间的关系,将局部上下文... 为了解决在电力系统支路参数辨识任务中传统的单支路特征参数辨识只能对单一目标进行识别,无法充分利用电力系统的历史信息的问题。在Transformer模型基础之上采用一种卷积自注意力,帮助模型更好地捕获输入特征之间的关系,将局部上下文更好地纳入注意力机制;同时采用卷积门控循环单元进行位置编码,保证内容和位置的一致性,从而降低训练损失,进一步改善预测的精确度。仿真结果表明,该算法预测精度较高,明显优于其它的机器学习算法和深度学习算法。 展开更多
关键词 深度学习 卷积自注意力 相对位置编码 参数辨识 输电线路
下载PDF
融合图卷积和卷积自注意力的股票预测方法
2
作者 田红丽 崔姚 闫会强 《计算机工程与应用》 CSCD 北大核心 2024年第4期192-199,共8页
随着我国股票市场的不断发展,一只股票的走势往往受其企业上下游产业发展的影响。针对主流股票预测模型忽略了股票间关联关系的不足,提出了融合图卷积和多头卷积自注意力的股票趋势预测模型。首先使用互相关系数计算多只关联股票的关系... 随着我国股票市场的不断发展,一只股票的走势往往受其企业上下游产业发展的影响。针对主流股票预测模型忽略了股票间关联关系的不足,提出了融合图卷积和多头卷积自注意力的股票趋势预测模型。首先使用互相关系数计算多只关联股票的关系矩阵,再使用图卷积神经网络结合关系矩阵对关联股票进行特征提取,其次使用多头卷积自注意力提取时间特征,最后使用分类损失函数多项式展开框架对损失函数进行优化,并进行趋势预测。实验结果表明,所提模型在准确率、查全率、召回率以及F1分数上均优于门控循环单元、时间卷积网络等模型。 展开更多
关键词 股票趋势预测 卷积自注意力 去趋势互相关系数
下载PDF
多要素局部-全局特征关联的有效波高预测模型 被引量:1
3
作者 宋巍 赵勐 +2 位作者 贺琪 胡安铎 张峰 《上海海洋大学学报》 CAS CSCD 北大核心 2023年第3期669-679,共11页
有效波高(Significant wave heights,SWH)是描述海浪的重要属性,SWH的预测对于保障近岸工程设计以及海上作业安全具有重要意义。近年来,深度学习方法被用来对SWH进行预测,但是目前存在的方法无法有效捕捉SWH的长时间相关性,同时忽略了... 有效波高(Significant wave heights,SWH)是描述海浪的重要属性,SWH的预测对于保障近岸工程设计以及海上作业安全具有重要意义。近年来,深度学习方法被用来对SWH进行预测,但是目前存在的方法无法有效捕捉SWH的长时间相关性,同时忽略了海洋多要素之间的局部关联。为此,提出一种结合海洋多要素局部和全局特征的SWH预测模型(Multi-elements local and global correlation for wave height prediction,MLG-SWH)。以有效波高、风速、周期等多要素作为输入,设计了局部-全局编码(Local-global embedding,LGE)模块,提取海洋多要素的局部关联以及时间信息。采用编-解码器作为基础网络结构,提取多要素海浪序列特征。在编-解码器中,设计了空洞因果卷积自注意力模块来有效捕捉海洋多要素序列的全局长时间相关性,并在解码器中利用生成推理方式避免单步迭代预测产生的误差累积。选取北大西洋海浪有效波高变化特点不同的两个站点数据进行实验。相较于经典时间序列预测模型以及主流深度学习方法,研究所用的MLG-SWH模型在24和48 h预测的均方根误差以及平均绝对误差均为最低,并在长时序预测方面具有较大的优势。 展开更多
关键词 多要素 长时间相关性 有效波高预测 空洞因果卷积自注意力模块
原文传递
融合序列语法知识的卷积-自注意力生成式摘要方法 被引量:1
4
作者 罗森林 王睿怡 +2 位作者 吴倩 潘丽敏 吴舟婷 《北京理工大学学报》 EI CAS CSCD 北大核心 2021年第1期93-101,共9页
针对基于编码-解码的生成式摘要模型不能充分提取语法知识导致摘要出现不符合语法规则的问题,循环神经网络易遗忘历史信息且训练时无法并行计算导致处理长文本时生成的摘要主旨不显著以及编码速度慢的问题,提出了一种融合序列语法知识... 针对基于编码-解码的生成式摘要模型不能充分提取语法知识导致摘要出现不符合语法规则的问题,循环神经网络易遗忘历史信息且训练时无法并行计算导致处理长文本时生成的摘要主旨不显著以及编码速度慢的问题,提出了一种融合序列语法知识的卷积-自注意力生成式摘要方法.该方法对文本构建短语结构树,将语法知识序列化并嵌入到编码器中,使编码时能充分利用语法信息;使用卷积-自注意力模型替换循环神经网络进行编码,更好学习文本的全局和局部信息.在CNN/Daily Mail语料上进行实验,结果表明提出的方法优于当前先进方法,生成的摘要更符合语法规则、主旨更显著且模型的编码速度更快. 展开更多
关键词 生成式摘要 编码-解码模型 语法分析 卷积-自注意力模型 注意力机制
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部