期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于时间感知Transformer的交通流预测方法
被引量:
3
1
作者
刘起东
刘超越
+4 位作者
邱
紫
鑫
高志敏
郭帅
刘冀钊
符明晟
《计算机科学》
CSCD
北大核心
2023年第11期88-96,共9页
作为智能交通系统的关键一环,交通流预测面临着长时预测不准的难题,其主要挑战在于交通流数据本身具有复杂的时空关联。近年来,Transformer的提出使得时序数据预测的研究取得了巨大进展,但将Transformer应用于交通流预测仍然存在以下两...
作为智能交通系统的关键一环,交通流预测面临着长时预测不准的难题,其主要挑战在于交通流数据本身具有复杂的时空关联。近年来,Transformer的提出使得时序数据预测的研究取得了巨大进展,但将Transformer应用于交通流预测仍然存在以下两个问题:1)静态的注意力机制难以捕获交通流随时间动态变化的时空依赖关系;2)采用自回归的预测方式会引发严重的误差累积现象。针对以上问题,提出了一种基于时间感知Transformer的交通流预测模型。首先,设计了一种新的时间感知注意力机制,可以根据时间特征定制注意力计算方案,从而更精准地反映时空依赖关系;其次,在Transformer的训练阶段舍弃了Teacher Forcing机制,并采用非自回归的预测方式来避免误差累积问题;最后,在两个真实交通数据集上进行实验,实验结果表明,所提方法可以有效捕获交通流的时空依赖,相比最优的基线方法,长时预测性能提升了2.09%~4.01%。
展开更多
关键词
交通流预测
时空建模
时间感知注意力机制
非自回归
TRANSFORMER
下载PDF
职称材料
GA2T:结合图注意力网络的交通流预测模型
2
作者
祁舒畅
刘起东
+2 位作者
刘超越
徐明亮
邱
紫
鑫
《计算机辅助设计与图形学学报》
EI
CSCD
北大核心
2023年第11期1780-1788,共9页
交通流预测是智能交通系统的核心组成部分.针对当前交通流预测方法准确率低的问题,提出一种交通流预测模型GA2T.通过构建具有融合式编解码器的Transformer架构对交通数据进行时间建模,利用图注意力网络对交通数据进行空间建模,从而捕获...
交通流预测是智能交通系统的核心组成部分.针对当前交通流预测方法准确率低的问题,提出一种交通流预测模型GA2T.通过构建具有融合式编解码器的Transformer架构对交通数据进行时间建模,利用图注意力网络对交通数据进行空间建模,从而捕获交通流复杂的时空依赖性.在2个真实交通数据集METR-LA和PEMS-BAY上的实验结果表明,与预测效果最佳的基线模型DCRNN相比,GA2T在3个评价指标(MAE,MAPE和RMSE)上分别降低了0.25,0.38,0.89和0.14,0.34,0.44,在同类工作中处于领先的水平,验证了该模型的可行性及有效性.
展开更多
关键词
交通流预测
时空数据
图注意力网络
TRANSFORMER
下载PDF
职称材料
题名
基于时间感知Transformer的交通流预测方法
被引量:
3
1
作者
刘起东
刘超越
邱
紫
鑫
高志敏
郭帅
刘冀钊
符明晟
机构
郑州大学计算机与人工智能学院
智能集群系统教育部工程研究中心
国家超级计算郑州中心
兰州大学信息科学与工程学院
电子科技大学计算机科学与工程学院
出处
《计算机科学》
CSCD
北大核心
2023年第11期88-96,共9页
基金
国家自然科学基金(62276238,61906174,62036010)
中国博士后科学基金资助项目(2022T150590,2020M672275)
+1 种基金
河南省自然科学基金(232300421095)
河南省重点研发与推广专项(222102210248)。
文摘
作为智能交通系统的关键一环,交通流预测面临着长时预测不准的难题,其主要挑战在于交通流数据本身具有复杂的时空关联。近年来,Transformer的提出使得时序数据预测的研究取得了巨大进展,但将Transformer应用于交通流预测仍然存在以下两个问题:1)静态的注意力机制难以捕获交通流随时间动态变化的时空依赖关系;2)采用自回归的预测方式会引发严重的误差累积现象。针对以上问题,提出了一种基于时间感知Transformer的交通流预测模型。首先,设计了一种新的时间感知注意力机制,可以根据时间特征定制注意力计算方案,从而更精准地反映时空依赖关系;其次,在Transformer的训练阶段舍弃了Teacher Forcing机制,并采用非自回归的预测方式来避免误差累积问题;最后,在两个真实交通数据集上进行实验,实验结果表明,所提方法可以有效捕获交通流的时空依赖,相比最优的基线方法,长时预测性能提升了2.09%~4.01%。
关键词
交通流预测
时空建模
时间感知注意力机制
非自回归
TRANSFORMER
Keywords
Traffic flow Forecasting
Spatial-Temporal modeling
Time-aware attention
Non-autoregressive
Transformer
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
GA2T:结合图注意力网络的交通流预测模型
2
作者
祁舒畅
刘起东
刘超越
徐明亮
邱
紫
鑫
机构
郑州大学计算机与人工智能学院
出处
《计算机辅助设计与图形学学报》
EI
CSCD
北大核心
2023年第11期1780-1788,共9页
基金
国家自然科学基金(61906174,62172371)
中国博士后科学基金(2020M672275)
河南省重点研发与推广专项(科技攻关)(222102210248)。
文摘
交通流预测是智能交通系统的核心组成部分.针对当前交通流预测方法准确率低的问题,提出一种交通流预测模型GA2T.通过构建具有融合式编解码器的Transformer架构对交通数据进行时间建模,利用图注意力网络对交通数据进行空间建模,从而捕获交通流复杂的时空依赖性.在2个真实交通数据集METR-LA和PEMS-BAY上的实验结果表明,与预测效果最佳的基线模型DCRNN相比,GA2T在3个评价指标(MAE,MAPE和RMSE)上分别降低了0.25,0.38,0.89和0.14,0.34,0.44,在同类工作中处于领先的水平,验证了该模型的可行性及有效性.
关键词
交通流预测
时空数据
图注意力网络
TRANSFORMER
Keywords
traffic flow prediction
spatial-temporal data
graph attention networks
Transformer
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于时间感知Transformer的交通流预测方法
刘起东
刘超越
邱
紫
鑫
高志敏
郭帅
刘冀钊
符明晟
《计算机科学》
CSCD
北大核心
2023
3
下载PDF
职称材料
2
GA2T:结合图注意力网络的交通流预测模型
祁舒畅
刘起东
刘超越
徐明亮
邱
紫
鑫
《计算机辅助设计与图形学学报》
EI
CSCD
北大核心
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部