期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于Q算法的认证协议漏洞挖掘技术研究
1
作者 吕乐乐 董伟 +3 位作者 赵云飞 冯志 李致成 张雅勤 《电子技术应用》 2022年第10期63-68,共6页
认证授权协议在不泄露用户口令的情况下允许第三方获取用户资源,解决了云平台下第三方授权问题,提高了用户的交互体验。但是协议在交互处理中的不确定性和复杂性导致其在实际应用时可能会存在逻辑漏洞。针对该问题提出一种模糊仿真方法... 认证授权协议在不泄露用户口令的情况下允许第三方获取用户资源,解决了云平台下第三方授权问题,提高了用户的交互体验。但是协议在交互处理中的不确定性和复杂性导致其在实际应用时可能会存在逻辑漏洞。针对该问题提出一种模糊仿真方法,通过对协议交互过程进行模糊处理,利用协议实体动作的不确定性,发现协议的逻辑漏洞。同时,结合SA-Q强化学习算法训练智能体学习最优模糊策略,智能化挖掘漏洞。经过测试发现,相比于基本的Q学习算法,该方法的收敛速度提升了9.27%,使得模型在训练时更容易收敛,有效提高了漏洞的挖掘效率。 展开更多
关键词 认证授权协议 逻辑漏洞 模糊仿真 q强化学习算法
下载PDF
改进的CE-Q算法用于多Agent觅食的研究
2
作者 雷默涵 杨萍 《机械设计》 CSCD 北大核心 2015年第6期1-4,共4页
针对对策论框架下的诸多强化学习方法在复杂环境多Agent任务中存在的缺乏理性、难以保证收敛、计算复杂度较高和效率偏低等问题,文中在CE-Q强化算法的基本理论上,提出了加入对于动作过程的即时奖赏的CE-Q改进强化算法,有效地改善了上述... 针对对策论框架下的诸多强化学习方法在复杂环境多Agent任务中存在的缺乏理性、难以保证收敛、计算复杂度较高和效率偏低等问题,文中在CE-Q强化算法的基本理论上,提出了加入对于动作过程的即时奖赏的CE-Q改进强化算法,有效地改善了上述问题,并在执行任务过程中对Agent进行指导,很好地提高了系统效率。最后以多Agent觅食为任务,Matlab为平台进行仿真实试验,并与普通CE-Q及FF-Q算法进行对比,验证了其在复杂环境下对于多Agent系统的有效性和优越性。 展开更多
关键词 CE-q强化学习算法 动作过程奖赏 多Agent觅食任务 系统效率
下载PDF
基于大数据分析的PLC控制系统性能的优化与改进
3
作者 张瑞宽 《自动化应用》 2024年第6期70-71,74,共3页
为优化PLC控制系统的性能,提出了一种改进的Q-Learning强化学习算法。该算法在每次迭代优化过程中,利用模型预测未来的状态集,并在这些状态中选择了预期收益最大的决策。通过模拟实验,可发现该算法在控制相关的性能指标上具有明显优势。
关键词 强化学习 迭代优化 q-Learning强化学习算法
下载PDF
基于改进DQN强化学习算法的弹性光网络资源分配研究 被引量:2
4
作者 尚晓凯 韩龙龙 翟慧鹏 《光通信技术》 2023年第5期12-15,共4页
针对光网络资源分配中频谱资源利用率不高的问题,提出了一种改进的深度Q网络(DQN)强化学习算法。该算法基于ε-greedy策略,根据动作价值函数和状态价值函数的差异来设定损失函数,并不断调整ε值,以改变代理的探索率。通过这种方式,实现... 针对光网络资源分配中频谱资源利用率不高的问题,提出了一种改进的深度Q网络(DQN)强化学习算法。该算法基于ε-greedy策略,根据动作价值函数和状态价值函数的差异来设定损失函数,并不断调整ε值,以改变代理的探索率。通过这种方式,实现了最优的动作值函数,并较好地解决了路由与频谱分配问题。此外,采用了不同的经验池取样方法,以提高迭代训练的收敛速度。仿真结果表明:改进DQN强化学习算法不仅能够使弹性光网络训练模型快速收敛,当业务量为300 Erlang时,比DQN算法频谱资源利用率提高了10.09%,阻塞率降低了12.41%,平均访问时延减少了1.27 ms。 展开更多
关键词 弹性光网络 改进深度q网络强化学习算法 资源分配
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部