期刊文献+
共找到339篇文章
< 1 2 17 >
每页显示 20 50 100
考虑高频损耗的ZPW-2000A轨道电路暂态响应分析 被引量:3
1
作者 赵斌 陈磊 +2 位作者 欧静宁 王东 于光昊 《中国铁道科学》 EI CAS CSCD 北大核心 2023年第1期186-193,共8页
针对ZPW-2000A轨道电路高频损耗下暂态响应采用现有方法存在的计算难度大、耗时长的问题,提出在复频域内轨道电路接收端轨面电压的求解方法。首先,基于传输线理论,建立轨道电路传输线模型;其次,利用该模型及节点导纳法,得到节点导纳时... 针对ZPW-2000A轨道电路高频损耗下暂态响应采用现有方法存在的计算难度大、耗时长的问题,提出在复频域内轨道电路接收端轨面电压的求解方法。首先,基于传输线理论,建立轨道电路传输线模型;其次,利用该模型及节点导纳法,得到节点导纳时域方程并对其进行拉普拉斯变换,考虑高频损耗后将复频域方程变换解耦,求得轨道电路接收端轨面电压复频域解;最后,采用傅里叶变换及Q-D算法,得到轨面电压时域解。在对求解方法进行验证的基础上,分析高频损耗、频率、分路电阻、调谐区状态和道床电阻等因素对轨道电路暂态响应的影响。结果表明:与时域有限差分法对比,求解方法的误差在8%以内,且计算耗时短;考虑高频损耗的轨道电路接收端轨面电压小于未考虑高频损耗;轨面电压降随分路电阻的增大而减小,而随道床电阻的增大而增大。求解方法可以准确、高效地分析高频损耗下ZPW-2000A轨道电路暂态响应,可为轨道电路的暂态响应分析提供理论参考。 展开更多
关键词 ZPW-2000A轨道电路 高频损耗 节点导纳法 q-D算法 复频域 暂态响应
下载PDF
基于分数阶传输线理论的ZPW-2000A轨道电路暂态分析
2
作者 安逸 赵斌 《电气工程学报》 CSCD 北大核心 2024年第3期443-450,共8页
在实际的电路系统中,电感和电容具有分数阶特性,若完全用整数阶模型去描述,会存在误差,同时,现有方法对轨道电路端接频变负载、考虑由集肤效应引起的高频损耗问题,具有处理难度大、耗时长的缺陷。基于此,提出一种在复频域内对ZPW-2000A... 在实际的电路系统中,电感和电容具有分数阶特性,若完全用整数阶模型去描述,会存在误差,同时,现有方法对轨道电路端接频变负载、考虑由集肤效应引起的高频损耗问题,具有处理难度大、耗时长的缺陷。基于此,提出一种在复频域内对ZPW-2000A型轨道电路接收端轨面电压的求解方法。首先,建立轨道电路分数阶传输线模型;其次,利用节点导纳法结合商差(Quotient-difference,Q-D)算法对轨面电压进行求解;最后,通过与时域有限差分法对比验证了所提方法的正确性,分析了在不同暂态信号激励下轨道电路受电端过电压的影响规律。结果表明,轨道电路分数阶传输线模型符合轨面电压传播规律,为轨道电路的准确建模提供了理论参考。 展开更多
关键词 轨道电路 集肤效应 分数阶微积分 q-D算法 暂态过电压
下载PDF
基于LabWindows/CVI的辐射仪虚拟检测系统 被引量:1
3
作者 唐颖 张劳模 庄昌兮 《仪表技术与传感器》 CSCD 北大核心 2011年第7期28-29,共2页
基于LabWindows/CVI研发了新型的辐射仪虚拟检测系统,该检测系统通过USB接口与主机进行连接,采用卡诺图法和Q-M算法编写测试矢量,实现了野外对辐射仪快速检测的人性化设计,并且用虚拟仪器面板代替传统仪器面板,实现数据采集、检测、显... 基于LabWindows/CVI研发了新型的辐射仪虚拟检测系统,该检测系统通过USB接口与主机进行连接,采用卡诺图法和Q-M算法编写测试矢量,实现了野外对辐射仪快速检测的人性化设计,并且用虚拟仪器面板代替传统仪器面板,实现数据采集、检测、显示一体化,既保障了检测的安全性,又方便快捷。 展开更多
关键词 检测系统 q-M算法 卡诺图法 误差分析
下载PDF
判定平方布尔函数的计数算法
4
作者 丁左流 《应用科学学报》 CAS CSCD 1996年第1期35-40,共6页
一个n元函数是否为平方布尔函数?如果是,如何得到其所有的平方项?文中就此判定问题提出了一个时间复杂度为O(mn ̄3)的计数算法.与经典的Q-M算法不同,该算法基于直观的真值计数,并适合于并行实现.
关键词 平方布尔函数 判定 q-M算法 计算算法
下载PDF
基于Q-M算法的量子可逆逻辑电路综合方法
5
作者 杨欢 赵曙光 《电子科技》 2014年第7期40-42,共3页
提出了合并(化简)规则,并按合并规则修改了Q-M算法源码,获得积之异或和表达式,成功地实现了将不可逆操作转换为可逆操作。该规则应用于常规逻辑综合的Q-M算法移植到可逆逻辑综合中,以便利用可逆逻辑门来构造可逆逻辑电路。
关键词 合并(化简)规则 q-M算法 积之异或和表达式 可逆逻辑综合
下载PDF
极简函数依赖集的研究
6
作者 肖治军 彭小宁 +2 位作者 张博轩 万玉 王宋祥 《怀化学院学报》 2013年第5期61-64,共4页
通过对最简的最小函数依赖集的研究,提出了极简函数依赖集的概念.同时,依据函数依赖与逻辑代数的等价性原理,设计了极简函数依赖集的算法,实际上这也是一种最小函数依赖集的算法.
关键词 最小函数依赖集 逻辑代数 卡诺图 q—M算法
下载PDF
一种改进的快速逻辑综合算法
7
作者 翟献军 肖梓祥 《现代电子技术》 2001年第4期11-13,共3页
通过对经典的改进 Q- M算法进行深入研究 ,结合实际应用中的问题 ,提出了几点改进 ,使得软件在运行速度和空间占用上有了很大改进。
关键词 PLD逻辑器件 逻辑综合算法 q-M算法
下载PDF
基于Metropolis准则的Q-学习算法研究 被引量:14
8
作者 郭茂祖 王亚东 +1 位作者 刘 扬 孙华梅 《计算机研究与发展》 EI CSCD 北大核心 2002年第6期684-688,共5页
探索与扩张是Q-学习算法中动作选取的关键问题,一味地扩张将使智能体很快地陷入局部最优,虽然探索可以跳出局部最优并加速学习,而过多的探索将影响算法的性能.通过把Q-学习中寻求最优策略表示为组合优化问题中最优解的搜索,将模拟退火... 探索与扩张是Q-学习算法中动作选取的关键问题,一味地扩张将使智能体很快地陷入局部最优,虽然探索可以跳出局部最优并加速学习,而过多的探索将影响算法的性能.通过把Q-学习中寻求最优策略表示为组合优化问题中最优解的搜索,将模拟退火算法的Metropolis准则用于Q-学习中探索和扩张之间的折衷处理,提出基于Metropolis准则的Q-学习算法SA-Q-learning.通过实验比较,它具有更快的收敛速度,而且避免了过多探索引起的算法性能下降. 展开更多
关键词 机器学习 METROPOLIS准则 q-学习算法
下载PDF
改进Q-Learning算法在路径规划中的应用 被引量:17
9
作者 高乐 马天录 +1 位作者 刘凯 张宇轩 《吉林大学学报(信息科学版)》 CAS 2018年第4期439-443,共5页
针对Q-Learning算法在离散状态下存在运行效率低、学习速度慢等问题,提出一种改进的Q-Learning算法。改进后的算法在原有算法基础上增加了一层学习过程,对环境进行了深度学习。在栅格环境下进行仿真实验,并成功地应用在多障碍物环境下... 针对Q-Learning算法在离散状态下存在运行效率低、学习速度慢等问题,提出一种改进的Q-Learning算法。改进后的算法在原有算法基础上增加了一层学习过程,对环境进行了深度学习。在栅格环境下进行仿真实验,并成功地应用在多障碍物环境下移动机器人路径规划,结果证明了算法的可行性。改进Q-Learning算法以更快的速度收敛,学习次数明显减少,效率最大可提高20%。同时,该算法框架对解决同类问题具有较强的通用性。 展开更多
关键词 路径规划 改进q-Learning算法 强化学习 栅格法 机器人
下载PDF
电力市场智能模拟中代理决策模块的实现 被引量:14
10
作者 陈皓勇 杨彦 +3 位作者 张尧 王野平 荆朝霞 陈青松 《电力系统自动化》 EI CSCD 北大核心 2008年第20期22-26,共5页
在日前交易方式下,发电厂商为了追求长期最大利润,竞价策略显得尤其重要。通常,发电厂商运用的策略过于复杂,难以用传统的博弈论方法来建模。人工智能中强化学习Q-learning算法是一种自适应的学习方法,使代理能够通过不断与环境进行交... 在日前交易方式下,发电厂商为了追求长期最大利润,竞价策略显得尤其重要。通常,发电厂商运用的策略过于复杂,难以用传统的博弈论方法来建模。人工智能中强化学习Q-learning算法是一种自适应的学习方法,使代理能够通过不断与环境进行交互所得到的经验进行学习,适合在电力市场智能模拟中运用。文中在开放源代码的电力市场智能模拟平台AMES上,增加了发电厂商代理基于Q-learning的竞价决策程序模块,并在5节点测试系统上进行模拟。实验结果表明,运用基于Q-learning算法竞价决策使代理可以较好地模拟发电厂商的经济特性,且在相同条件下表现出比AMES原有的VRElearning算法更强的探索能力。 展开更多
关键词 智能代理模拟 竞价策略 电力拍卖市场 q—learning算法 VRE learning算法
下载PDF
大数据驱动的精准化教学干预--基于高中数学教学的实证研究 被引量:15
11
作者 李波 彭湃 王磊 《教育研究与实验》 CSSCI 北大核心 2022年第1期64-70,共7页
精准化和个性化一直是教育的理想和诉求。随着信息技术的发展和教育信息化的推进,教育大数据时代已经来临,利用数学建模和大数据分析技术为精准教育提供支持成为可能。本文从多阶段决策视角研究精准化教学干预问题,引入强化学习算法,刻... 精准化和个性化一直是教育的理想和诉求。随着信息技术的发展和教育信息化的推进,教育大数据时代已经来临,利用数学建模和大数据分析技术为精准教育提供支持成为可能。本文从多阶段决策视角研究精准化教学干预问题,引入强化学习算法,刻画教学的过程属性和时序性特征,构建精准化教学干预的通用框架,给出了开展精准化教学干预的具体步骤以及策略,并通过高中数学教学实证研究展示这一框架在教学实践中的具体应用。结果表明,精准化教学干预框架能够提供动态的精准化教学干预策略,有助于提高学生学习效果,为教师开展精准教学提供支持。 展开更多
关键词 精准教学 教学干预 多阶段决策 数据驱动 q-learning算法
原文传递
考虑电-气耦合系统连锁故障的多阶段信息物理协同攻击策略 被引量:15
12
作者 曹茂森 王蕾报 +7 位作者 胡博 谢开贵 伏坚 温力力 周平 范璇 李博 曾意 《电力自动化设备》 EI CSCD 北大核心 2019年第8期128-136,共9页
针对电-气耦合系统在恶意攻击下的风险分析,提出了一种计及电-气耦合系统连锁故障的信息物理多阶段协同攻击策略。为了诱导调度人员做出错误调度决策和降低电网的安全裕度,提出了一种以最大化线路过载程度为目标的改进负荷重分配(LR)攻... 针对电-气耦合系统在恶意攻击下的风险分析,提出了一种计及电-气耦合系统连锁故障的信息物理多阶段协同攻击策略。为了诱导调度人员做出错误调度决策和降低电网的安全裕度,提出了一种以最大化线路过载程度为目标的改进负荷重分配(LR)攻击模型。综合考虑天然气系统与电力系统的调度时间尺度差异,构建一种新型的电-气耦合系统多阶段协同攻击策略:初始阶段通过攻击气网侧气源或管道以影响电-气耦合节点的天然气机组状态,然后针对电力系统交替采用改进LR攻击和物理攻击,最终导致大规模连锁停运。基于Q-Learning提出了最优策略求解算法,以比利时20节点天然气系统和IEEE30节点系统为算例,验证了所提信息物理协同攻击模型的正确性和有效性。 展开更多
关键词 多能源系统 电-气耦合系统 负荷重分配攻击 信息物理协同攻击 连锁故障 q-Learning算法
下载PDF
多对多无人机空战的智能决策研究 被引量:14
13
作者 朱星宇 艾剑良 《复旦学报(自然科学版)》 CAS CSCD 北大核心 2021年第4期410-419,共10页
针对能够进行自主空战的无人机,设计了一套空战流程.建立了基于双方位置、姿态和能量等的优势函数评价体系,通过改进的混合粒子群优化算法实现了多对多空战的目标分配,结合改进的Double Q-learning算法设计了无人机的机动决策策略,并在4... 针对能够进行自主空战的无人机,设计了一套空战流程.建立了基于双方位置、姿态和能量等的优势函数评价体系,通过改进的混合粒子群优化算法实现了多对多空战的目标分配,结合改进的Double Q-learning算法设计了无人机的机动决策策略,并在4对4空战场景下进行仿真验证.仿真结果显示无人机可以很好地追踪并击败敌方目标,还能够协同其他友方无人机攻击敌方无人机.同时算法具有很好的时效性,表明所提出的方法能够有效地解决多对多空战的问题. 展开更多
关键词 机动决策 目标分配 改进的混合粒子群优化算法 改进的Double q-learning算法
下载PDF
基于Markov对策和强化学习的多智能体协作研究 被引量:7
14
作者 李晓萌 杨煜普 许晓鸣 《上海交通大学学报》 EI CAS CSCD 北大核心 2001年第2期288-292,共5页
MAS的协作机制研究 ,当前比较适用的研究框架是非零和 Markov对策及基于 Q-算法的强化学习 .但实际上在这种框架下的 Agent强调独立学习而不考虑其他 Agent的行为 ,故 MAS缺乏协作机制 .并且 ,Q-算法要求 Agent与环境的交互时具有完备... MAS的协作机制研究 ,当前比较适用的研究框架是非零和 Markov对策及基于 Q-算法的强化学习 .但实际上在这种框架下的 Agent强调独立学习而不考虑其他 Agent的行为 ,故 MAS缺乏协作机制 .并且 ,Q-算法要求 Agent与环境的交互时具有完备的观察信息 ,这种情况过于理想化 .文中针对以上两个不足 ,提出了在联合行动和不完备信息下的协调学习 .理论分析和仿真实验表明 ,协调学习算法具有收敛性 . 展开更多
关键词 MARKOV对策 q-学习算法 协调学习 多智能体系统 强化学习
下载PDF
Q-learning算法下的机械臂轨迹规划与避障行为研究 被引量:11
15
作者 郭新兰 《机床与液压》 北大核心 2021年第9期57-61,66,共6页
机械臂运动和避障中存在轨迹偏差,要通过适当控制算法加以纠正确保实际轨迹趋近于理想轨迹。提出基于改进Q-learning算法的轨迹规划与避障方案,分别构建状态向量集合和每种状态下的动作集合,利用BP神经网络算法提高模型的连续逼近能力,... 机械臂运动和避障中存在轨迹偏差,要通过适当控制算法加以纠正确保实际轨迹趋近于理想轨迹。提出基于改进Q-learning算法的轨迹规划与避障方案,分别构建状态向量集合和每种状态下的动作集合,利用BP神经网络算法提高模型的连续逼近能力,并在迭代中不断更新Q函数值;路径规划中按照关节旋转角度及连杆空间移动距离最小原则,实现在合理避障同时轨迹偏差度最低。仿真结果表明:提出的控制算法收敛性速度快,路径规划效果优于传统规划方案,偏移成本最低。 展开更多
关键词 q-learning算法 机械臂 轨迹规划与避障方案 状态向量集合
下载PDF
智能代理模拟在电力市场中的运用 被引量:9
16
作者 王野平 杨彦 +2 位作者 荆朝霞 陈皓勇 陈天恩 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 2010年第3期109-113,122,共6页
基于智能代理的模拟仿真方法已成为电力市场研究的一种新颖而有效的途径.文中结合某一实际区域电力市场模拟系统的构建,介绍了适合模拟发电厂商报价的智能代理学习算法,详细阐述了VRE learning算法、Q-learning算法以及贪婪算法在模拟... 基于智能代理的模拟仿真方法已成为电力市场研究的一种新颖而有效的途径.文中结合某一实际区域电力市场模拟系统的构建,介绍了适合模拟发电厂商报价的智能代理学习算法,详细阐述了VRE learning算法、Q-learning算法以及贪婪算法在模拟系统中的运用及实现框架,并分别探讨了学习算法在代理报价收敛问题上的不同处理方式.算例结果表明,智能代理模型及学习算法能够模拟发电厂商的理性竞价行为. 展开更多
关键词 电力市场 智能代理 仿真 VRE learning算法 q-learning算法 贪婪算法
下载PDF
基于偏向信息学习的双层强化学习算法 被引量:9
17
作者 林芬 石川 +1 位作者 罗杰文 史忠植 《计算机研究与发展》 EI CSCD 北大核心 2008年第9期1455-1462,共8页
传统的强化学习存在收敛速度慢等问题,结合先验知识预置某些偏向可以加快学习速度.但是当先验知识不正确时又可能导致学习过程不收敛.对此,提出基于偏向信息学习的双层强化学习模型.该模型将强化学习过程和偏向信息学习过程结合起来:偏... 传统的强化学习存在收敛速度慢等问题,结合先验知识预置某些偏向可以加快学习速度.但是当先验知识不正确时又可能导致学习过程不收敛.对此,提出基于偏向信息学习的双层强化学习模型.该模型将强化学习过程和偏向信息学习过程结合起来:偏向信息指导强化学习的行为选择策略,同时强化学习指导偏向信息学习过程.该方法在有效利用先验知识的同时能够消除不正确先验知识的影响.针对迷宫问题的实验表明,该方法能够稳定收敛到最优策略;并且能够有效利用先验知识提高学习效率,加快学习过程的收敛. 展开更多
关键词 强化学习 q-学习算法 偏向信息 偏向信息学习 先验知识
下载PDF
基于Q-Learning算法的再入飞行器制导方法 被引量:11
18
作者 李天任 杨奔 +1 位作者 汪韧 惠俊鹏 《战术导弹技术》 北大核心 2019年第5期44-49,共6页
针对再入飞行器制导方法需要根据人工经验调整参数才能适应不同远近、方位目标点的问题,提出'智能预测校正制导'的概念,将飞行环境构建为包含千万量级状态点的状态空间,采用强化学习算法训练制导模型参数,纵向制导依然采用基于... 针对再入飞行器制导方法需要根据人工经验调整参数才能适应不同远近、方位目标点的问题,提出'智能预测校正制导'的概念,将飞行环境构建为包含千万量级状态点的状态空间,采用强化学习算法训练制导模型参数,纵向制导依然采用基于定攻角剖面的倾侧角迭代方法,横向制导则利用Q-Learning算法训练横向翻转决策器。结果表明,该算法训练制导模型有较快的收敛速度,集成多个决策器的打靶成功率达到0. 973。基于QLearning算法的再入飞行器制导方法消除了原有方法基于规则的横向制导逻辑对飞行器附加的一些不必要约束,使飞行器在复杂任务中发挥其较强的机动能力成为可能,有望应用于规避多禁飞区的轨迹规划研究。 展开更多
关键词 再入飞行器 强化学习 预测校正制导 q-Learning算法
原文传递
交通诱导信息对路网中车辆行为的影响 被引量:10
19
作者 魏赟 范炳全 +1 位作者 韩印 干宏程 《交通运输工程学报》 EI CSCD 北大核心 2009年第6期114-120,126,共8页
为研究诱导模型的诱导效果,用元胞自动机模型模拟车辆在路网中的行为,仿真了不同诱导信息在不同交通量、不同受诱导率情况下对交通流的影响,提出基于Agent的交通诱导模型,模型采用Q-学习算法优化诱导信息,可根据路网中交通流情况发布建... 为研究诱导模型的诱导效果,用元胞自动机模型模拟车辆在路网中的行为,仿真了不同诱导信息在不同交通量、不同受诱导率情况下对交通流的影响,提出基于Agent的交通诱导模型,模型采用Q-学习算法优化诱导信息,可根据路网中交通流情况发布建议性诱导信息,调节交通流分布。仿真结果表明:影响诱导效果的主要因素为受诱导率和诱导信息,基于Agent的交通诱导模型能有效均衡路网交通流,且随着交通流的增加,优势逐渐明显。在轻交通量情况下,该模型较出行者自由选择路径模型略优;但在重交通量情况下,发布建议性的诱导信息比描述性诱导信息能减少12%平均行程时间。 展开更多
关键词 交通诱导 智能体 微观交通仿真 元胞自动机 q-学习算法
原文传递
强化学习的模型、算法及应用 被引量:8
20
作者 战忠丽 王强 陈显亭 《电子科技》 2011年第1期47-49,共3页
强化学习不需要具有先验知识,通过试错与环境交互获得策略的改进,具有自学习和在线学习能力,是构造智能体的核心技术之一。文中首先综述了强化学习模型和基本原理,然后介绍了强化学习的主要算法,包括Sarsa算法、TD算法、Q-学习算法及函... 强化学习不需要具有先验知识,通过试错与环境交互获得策略的改进,具有自学习和在线学习能力,是构造智能体的核心技术之一。文中首先综述了强化学习模型和基本原理,然后介绍了强化学习的主要算法,包括Sarsa算法、TD算法、Q-学习算法及函数估计算法,最后介绍了强化学习的应用情况及未来研究方向。 展开更多
关键词 强化学习 Sarsa算法 瞬时差分算法 q-学习算法 函数估计
下载PDF
上一页 1 2 17 下一页 到第
使用帮助 返回顶部