期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于梯度奖励的深度强化学习移动机器人路径规划
被引量:
1
1
作者
喻凯旋
林富生
+1 位作者
宋志峰
余联庆
《机床与液压》
北大核心
2023年第17期32-38,共7页
针对目前深度强化学习移动机器人路径规划中稀疏奖励导致的效率低、收敛慢等问题,提出一种梯度奖励政策。使用区域分割将环境分割为缓冲区、探索区、临近区以及目标区,奖励的动态变化可以逐步缩小机器人的探索范围,同时在安全区域内也...
针对目前深度强化学习移动机器人路径规划中稀疏奖励导致的效率低、收敛慢等问题,提出一种梯度奖励政策。使用区域分割将环境分割为缓冲区、探索区、临近区以及目标区,奖励的动态变化可以逐步缩小机器人的探索范围,同时在安全区域内也能获得正向奖励。首先输入机器人当前的位置坐标,经过神经网络后估计4个动作的Q值,随后通过去首动态贪婪策略达到最大化探索,最后采用基于均方误差的优先经验回放抽取样本进行梯度下降更新网络。实验结果表明:在小范围环境内探索效率可提升近40%,在大范围环境下成功率高于80%,而且在提高探索效率的同时增强了鲁棒性。
展开更多
关键词
深度强化学习
路径规划
梯度奖励
区域分割
去首动态贪婪策略
下载PDF
职称材料
题名
基于梯度奖励的深度强化学习移动机器人路径规划
被引量:
1
1
作者
喻凯旋
林富生
宋志峰
余联庆
机构
武汉纺织大学机械工程与自动化学院
三维纺织湖北省工程研究中心
湖北省数字化纺织装备重点实验室
出处
《机床与液压》
北大核心
2023年第17期32-38,共7页
文摘
针对目前深度强化学习移动机器人路径规划中稀疏奖励导致的效率低、收敛慢等问题,提出一种梯度奖励政策。使用区域分割将环境分割为缓冲区、探索区、临近区以及目标区,奖励的动态变化可以逐步缩小机器人的探索范围,同时在安全区域内也能获得正向奖励。首先输入机器人当前的位置坐标,经过神经网络后估计4个动作的Q值,随后通过去首动态贪婪策略达到最大化探索,最后采用基于均方误差的优先经验回放抽取样本进行梯度下降更新网络。实验结果表明:在小范围环境内探索效率可提升近40%,在大范围环境下成功率高于80%,而且在提高探索效率的同时增强了鲁棒性。
关键词
深度强化学习
路径规划
梯度奖励
区域分割
去首动态贪婪策略
Keywords
Deep
reinforcement
learning
Path
planning
Gradient
reward
Region
segmentation
decapitation
dynamic
greedy
strategy
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于梯度奖励的深度强化学习移动机器人路径规划
喻凯旋
林富生
宋志峰
余联庆
《机床与液压》
北大核心
2023
1
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部