期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
一种用于天基低轨卫星网络边缘计算的GA-DDPG卸载算法 被引量:5
1
作者 史栋元 王丽娜 《工程科学学报》 EI CSCD 北大核心 2024年第2期343-353,共11页
低轨卫星网络是第六代移动通信系统(6G)网络的重要组成部分,弥补了地面基站覆盖的盲区.由于星上计算能力和电池容量受限,导致任务出现时延长和能耗高的问题,因此在低轨卫星网络中引入边缘计算,边缘计算的一项关键技术就是计算卸载.针对... 低轨卫星网络是第六代移动通信系统(6G)网络的重要组成部分,弥补了地面基站覆盖的盲区.由于星上计算能力和电池容量受限,导致任务出现时延长和能耗高的问题,因此在低轨卫星网络中引入边缘计算,边缘计算的一项关键技术就是计算卸载.针对计算卸载过程中星间环境动态变化和高维动作空间的问题,提出一种基于遗传算法(GA)和深度确定性策略梯度(DDPG)的天基低轨卫星网络边缘计算卸载算法——GA-DDPG算法.卫星边缘计算环境的不断变化会导致DDPG奖励稀疏和探索性不足,将GA引入到DDPG算法中,首先,利用GA的选择算子使DDPG算法能够适应不断变化的卫星环境;然后,针对动作空间维度变大导致DDPG算法收敛不稳定的问题,利用GA种群的多样化探索和种群的冗余提升DDPG算法收敛的稳定性.仿真结果表明,GA-DDPG卸载算法能够降低天基低轨卫星网络计算负载,且时延和能耗均低于DDPG卸载算法和GA卸载算法.与DDPG卸载算法相比,GA-DDPG卸载算法还能提升收敛速度和稳定性. 展开更多
关键词 低轨卫星边缘计算 任务卸载 遗传算法 深度强化学习 星间链路
下载PDF
基于深度强化学习的农村物流运输路径自动选择研究
2
作者 贾苏绒 王公强 贾叶子 《自动化技术与应用》 2024年第6期24-27,68,共5页
常规方法求解运输路径自动选择模型时,选择的运输路径的运输总成本较高,因此,提出基于深度强化学习的农村物流运输路径自动选择方法。通过分析农村流通供应链的特殊性确定目标函数,并基于目标函数设计运输路径自动选择模型,采用深度强... 常规方法求解运输路径自动选择模型时,选择的运输路径的运输总成本较高,因此,提出基于深度强化学习的农村物流运输路径自动选择方法。通过分析农村流通供应链的特殊性确定目标函数,并基于目标函数设计运输路径自动选择模型,采用深度强化学习算法求解,设置状态-动作空间、奖励函数等要素完善动作选择过程,输出模型最优解,从而实现运输路径自动选择的目的。在实验论证中,所提方法所选运输路径的平均运输成本为8.35万元,相比对照方法更低。结果表明,设计的方法能够有效规划物流运输路径,降低运输成本。 展开更多
关键词 深度强化学习 农村物流运输 运输成本 路径规划
下载PDF
基于神经网络深度强化学习的分拣机器人避障规划技术 被引量:2
3
作者 丁玲 《工业仪表与自动化装置》 2023年第2期46-50,共5页
分拣机器人的避障决策过程较为复杂,为提高分拣机器人的工作效果,设计基于神经网络深度强化学习的分拣机器人避障规划技术。首先,在动力学场景中设置障碍物,利用马尔科夫决策过程获取分拣机器人的运动状态后,判断障碍目标。在对神经网... 分拣机器人的避障决策过程较为复杂,为提高分拣机器人的工作效果,设计基于神经网络深度强化学习的分拣机器人避障规划技术。首先,在动力学场景中设置障碍物,利用马尔科夫决策过程获取分拣机器人的运动状态后,判断障碍目标。在对神经网络实施深度优化学习后,设置了导引奖赏机制,并结合人工势场法建立连续型奖励函数,引导机器人向正确方向运动。将分拣机器人运动状态输入到神经网络中,在导引奖赏机制的引导下实现分拣机器人的避障。在环境中设置了障碍物,实现环境搭建,仿真测试实验结果表明:该方法具有较高的避障能力,可引导机器人在运动过程中做出正确的动作,进而实现精准避障。 展开更多
关键词 分拣机器人 马尔科夫决策 神经网络 深度强化学习 避障规划
下载PDF
基于监督学习和深度强化学习的学前教育聊天机器人对话模型构建研究 被引量:1
4
作者 刘静 《自动化与仪器仪表》 2023年第8期291-294,共4页
聊天机器人的应用有助于满足儿童的好奇心与知识学习的欲望,利于学前教育质量的提升。在本次研究中为了提高聊天机器人在学前教育中的应用价值,通过深度强化学习(Deep Reinforcement Learning,DRL)与监督学习(Supervised Learning,SL)... 聊天机器人的应用有助于满足儿童的好奇心与知识学习的欲望,利于学前教育质量的提升。在本次研究中为了提高聊天机器人在学前教育中的应用价值,通过深度强化学习(Deep Reinforcement Learning,DRL)与监督学习(Supervised Learning,SL)进行了聊天机器人对话模型的建立。基于SL的对话模型在训练集和验证集中的成功率均为100%,其损失函数值分别为0.018和0.024。随着训练次数的增加,基于DRL的对话模型的成功率增加至97.2%,平均对话轮数降低为7轮。结果表明,基于监督学习和深度强化学习建立的机器人对话模型具有较好的性能,能够人性化地完成聊天互动。 展开更多
关键词 监督学习 深度强化学习 学前教育 聊天机器人 对话模型
原文传递
基于深度强化学习的车辆紧急制动策略
5
作者 韩玲 张晖 +4 位作者 方若愚 刘国鹏 朱长盛 殷朝霞 迟瑞丰 《长春工业大学学报》 CAS 2022年第3期202-206,共5页
为提高车辆紧急制动过程的安全性,以及对不同环境的适应性,提出了基于深度强化学习(Deep Q-Learning,DQN)方法的紧急制动策略。所提出方法不依赖于精确的模型,通过动作-批评结构与环境交互,自主更新训练,实现了在不同环境下自主判断紧... 为提高车辆紧急制动过程的安全性,以及对不同环境的适应性,提出了基于深度强化学习(Deep Q-Learning,DQN)方法的紧急制动策略。所提出方法不依赖于精确的模型,通过动作-批评结构与环境交互,自主更新训练,实现了在不同环境下自主判断紧急制动。并在Carla仿真环境中对比所提出的基于DQN的紧急制动策略与基于专家决策的紧急制动策略,结果表明,提出的基于DQN的紧急制动策略具有更好的安全性。 展开更多
关键词 自动紧急制动 深度强化学习 行车安全性 自主学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部