期刊文献+
共找到50篇文章
< 1 2 3 >
每页显示 20 50 100
利用CoolRunner-Ⅱ设计高性能系统 被引量:2
1
作者 周海骄 黄磊 《微电子技术》 2003年第5期42-44,59,共4页
CoolRunner-Ⅱ是Xilinx面向消费市场推出的一款低功耗高性能的CPLD产品 ,本文详细地介绍了CoolRunner
关键词 CPLD 可编程逻辑器件 CoolRunner irl
下载PDF
Integration-centric approach to system readiness assessment based on evidential reasoning 被引量:1
2
作者 Leilei Chang Mengjun Li Ben Cheng Ping Zeng 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2012年第6期881-890,共10页
An integration-centric approach is proposed to handle inadequate information in the system readiness level (SRL) assessment using the evidential reasoning (ER) algorithm. Current SRL assessment approaches cannot b... An integration-centric approach is proposed to handle inadequate information in the system readiness level (SRL) assessment using the evidential reasoning (ER) algorithm. Current SRL assessment approaches cannot be applied to handle inadequate information as the input. The ER-based approach is proposed to synthesize inadequate input information and an integration-centric perspective is applied to reduce the computational complexity. Two case studies are performed to validate the efficiency of the proposed approach. And these studies are also performed to study how the inadequate information will affect the assessment result. And the differences caused by the system's structure. The importance of the system's structure in the SRL assessment is demonstrated and the contributions made in this study are summarized as conclusions. 展开更多
关键词 system readiness level (SRL) technology readinesslevel (TRL) integration readiness level irl evidential reasoning(ER) integration-centric.
下载PDF
基于IRL技术的智能采样系统设计
3
作者 徐海华 陈岗 《南昌航空大学学报(自然科学版)》 CAS 2003年第2期50-55,共6页
在模拟信号易受干扰、不稳定的环境下 ,普通的采样系统往往不能适用 ,常常会因采样不准确而导致控制电路产生错误的控制信号 ,造成系统运行故障。我们采用基于IRL技术实现的采样电路系统能通过TCP IP远程监控采样电路的状况 ,并能在采... 在模拟信号易受干扰、不稳定的环境下 ,普通的采样系统往往不能适用 ,常常会因采样不准确而导致控制电路产生错误的控制信号 ,造成系统运行故障。我们采用基于IRL技术实现的采样电路系统能通过TCP IP远程监控采样电路的状况 ,并能在采样信号出错的情况下通过硬件重构进行信号增益、滤波等处理 ,消除模拟信号因外界干扰带来的变化影响 ,IRL技术给采样系统带来了高安全。 展开更多
关键词 irl uPSD TAP
下载PDF
基于FPGA设备驱动的IRL系统的设计
4
作者 计晓斐 周奕辛 《科技信息》 2007年第4期32-32,38,共2页
IRL是一种能够通过互联网对目标系统的硬件进行实时重构的设计方法,可方便的对目标硬件进行升级。本文介绍了IRL的基本概念及国内外最新研究动态;提出了一种基于FPGA设备驱动的IRL解决方案,并对IRL系统给出了测试。
关键词 irl FPGA 嵌入式实时操作系统 设备驱动
下载PDF
行业快讯
5
作者 本刊报道 《涂料技术与文摘》 2014年第9期49-51,共3页
西欧涂料市场总量2018年将达620万t 总部位于伦敦的市场咨询公司IRL日前发布了最新研究报告《西欧涂料工业概况》。据该报告分析,2013年西欧地区涂料和油漆市场总量超过560万t,预计到2018年将达到620万t,年均增长率约为2.2%。从... 西欧涂料市场总量2018年将达620万t 总部位于伦敦的市场咨询公司IRL日前发布了最新研究报告《西欧涂料工业概况》。据该报告分析,2013年西欧地区涂料和油漆市场总量超过560万t,预计到2018年将达到620万t,年均增长率约为2.2%。从市场需求方面看,德国是该地区最大的消费市场,约占总量的四分之一;爱尔兰、挪威和芬兰是最小的市场,但同时它们却是增长速度最快的市场之一。 展开更多
关键词 涂料市场 行业 西欧地区 年均增长率 工业概况 咨询公司 消费市场 irl
下载PDF
泰国涂料市场分析
6
《中国涂料》 CAS 2005年第B12期14-15,共2页
据伦敦市场研究机构IRL公司最近的分析,泰国涂料市场2005年的总量约为41.5万吨,而2010年前,该市场的年平均增长率为6%,并于2010年达到55.73万吨。
关键词 市场分析 涂料市场 泰国 平均增长率 研究机构 irl 公司
下载PDF
2009年亚洲涂料总产量约1390万t
7
《涂料技术与文摘》 2010年第7期27-28,共2页
伦敦IRL公司日前发布其第九版亚太涂料工业报告,分析了该地区11个主要经济体中涂料产业和市场的最新进展。据公司介绍,2009年该地区涂料总产量约为1390万t,而2014年前其年均增长率可达近7.9%,并最终达到2000万t的规模。
关键词 涂料工业 总产量 亚洲 年均增长率 涂料产业 公司介绍 irl
下载PDF
基于Rabbit2000的IRL模块的实现
8
作者 徐海源 王飞 徐欣 《电子产品世界》 2002年第10A期52-54,共3页
互联网可重构逻辑(IRL)是Xilinx公司最近推出的一项通过网络对目标系统硬件进行更新和动态重构的技术。本文介绍了以微处理器Rabbit2000为基础实现中低端IRL模块的过程,并分析了该模块的优缺点及改进方案。
关键词 RABBIT2000 irl 互联网可重构逻辑 FPGA JTAG
下载PDF
俄涂料市场需求大但缺乏投资
9
《化工科技市场》 CAS 2006年第4期63-64,共2页
据英国咨询公司IRL最新发布的一份研究报告称,2005年俄罗斯涂料市场需求超过100万t大关,达到105万t。预计2005—2010年,俄罗斯涂料市场需求年平均增长率约为7.1%,2010年其涂料市场将达到150万t规模。虽然俄罗斯GDP增长出现疲软态... 据英国咨询公司IRL最新发布的一份研究报告称,2005年俄罗斯涂料市场需求超过100万t大关,达到105万t。预计2005—2010年,俄罗斯涂料市场需求年平均增长率约为7.1%,2010年其涂料市场将达到150万t规模。虽然俄罗斯GDP增长出现疲软态势,但由于国外汽车生产商在该国的投资,俄罗斯汽车行业将快速增长,汽车产量将从2004年的16.5万辆增长到2010年的90万辆, 展开更多
关键词 涂料市场 市场需求 投资 国外汽车 平均增长率 俄罗斯 研究报告 咨询公司 汽车行业 irl
下载PDF
丰田式车手培养计划(中篇)——TDP金字塔的构成
10
作者 石井功次郎 古冈修一(插图) 高岚(译) 《汽车时代》 2009年第3期32-35,共4页
在1998~1999年的F1、2000年的全日本锦标赛F·NIPPON(FN),以及2001年~2004年的美国CART/印第赛车比赛(IRL)当中,与高木虎之介一同长期征战的有松义纪,由于2004年12月决定回国参加FN以及超级GT赛事,而无奈结束在美工作,... 在1998~1999年的F1、2000年的全日本锦标赛F·NIPPON(FN),以及2001年~2004年的美国CART/印第赛车比赛(IRL)当中,与高木虎之介一同长期征战的有松义纪,由于2004年12月决定回国参加FN以及超级GT赛事,而无奈结束在美工作,直至最后他都在为推举高木参加发年所举行的IRL而做着不懈的努力,因而也就无暇去顾及下一个工作。 展开更多
关键词 培养计划 金字塔 TDP 丰田 CART irl
下载PDF
深度强化学习研究综述 被引量:48
11
作者 杨思明 单征 +1 位作者 丁煜 李刚伟 《计算机工程》 CAS CSCD 北大核心 2021年第12期19-29,共11页
深度强化学习是指利用深度神经网络的特征表示能力对强化学习的状态、动作、价值等函数进行拟合,以提升强化学习模型性能,广泛应用于电子游戏、机械控制、推荐系统、金融投资等领域。回顾深度强化学习方法的主要发展历程,根据当前研究... 深度强化学习是指利用深度神经网络的特征表示能力对强化学习的状态、动作、价值等函数进行拟合,以提升强化学习模型性能,广泛应用于电子游戏、机械控制、推荐系统、金融投资等领域。回顾深度强化学习方法的主要发展历程,根据当前研究目标对深度强化学习方法进行分类,分析与讨论高维状态动作空间任务上的算法收敛、复杂应用场景下的算法样本效率提高、奖励函数稀疏或无明确定义情况下的算法探索以及多任务场景下的算法泛化性能增强问题,总结与归纳4类深度强化学习方法的研究现状,同时针对深度强化学习技术的未来发展方向进行展望。 展开更多
关键词 深度学习 强化学习 深度强化学习 逆向强化学习 基于模型的元学习
下载PDF
解读《国际文学翻译形势报告》——兼谈中国文学走出去 被引量:23
12
作者 马会娟 《西安外国语大学学报》 CSSCI 2014年第2期112-115,共4页
国际笔会和西班牙拉曼·鲁尔学院于2007年联手推出了《译还是不译——国际文学翻译形势报告》(To Be Translated or Not To Be——Pen/IRL Report on the International Situation of Literary Translation),探讨了全球化背景下国... 国际笔会和西班牙拉曼·鲁尔学院于2007年联手推出了《译还是不译——国际文学翻译形势报告》(To Be Translated or Not To Be——Pen/IRL Report on the International Situation of Literary Translation),探讨了全球化背景下国际文学翻译的现状和问题,特别是各国文学译入到英语的问题。本文对该报告的内容进行了解读,并在此基础上分析了该报告对中国文学走出去的启示:中国政府实施中国文化走出去的战略决定顺应了时代发展的潮流;但对"怎么走出去","如何更有效地走出去",以及"走出去的效果如何"等尚缺乏足够的理论探讨和实证研究。 展开更多
关键词 国际文学翻译形势报告 中国文学走出去 翻译
原文传递
马立克病疱疹病毒基因组IRL区一特异性cDNA基因在大肠杆菌中的表达研究 被引量:6
13
作者 卢春 朱鸿飞 《南京医科大学学报(自然科学版)》 CSCD 1999年第5期353-356,共4页
目的 了解从人工感染马立克病泡疹病毒(MDV)致瘤毒株京-1株发病鸡内林巴肿瘤组织中分离鉴定到的,定位于MDV基因组IRL区BamHI-I2和L片段内的一长720bp特异性cDNA基因在大肠杆菌表达系统中的表达能力。... 目的 了解从人工感染马立克病泡疹病毒(MDV)致瘤毒株京-1株发病鸡内林巴肿瘤组织中分离鉴定到的,定位于MDV基因组IRL区BamHI-I2和L片段内的一长720bp特异性cDNA基因在大肠杆菌表达系统中的表达能力。方法 将该cNDA基因克隆进行色氨酸(Trp)启动子控制下的大肠杆菌表达质粒PATH23中,连接质粒转化受体菌DH5α。分别采用原位杂交、斑点杂交和PCR法对重组转化子进行筛选鉴定。 展开更多
关键词 马立克病 疱疹病毒 大肠杆菌 irl CDNA
下载PDF
改良系统成熟度法定量评估污水LOT技术应用潜力——以水专项及相关技术组合为例 被引量:1
14
作者 张小祥 李佳盈 +4 位作者 何秋杭 宋雪宁 苏倡 金正宇 王凯军 《环境工程学报》 CAS CSCD 北大核心 2023年第4期1145-1157,共13页
随着污水处理满足再生水品质的需求日益提升,对污水中污染物的去除也逐渐向极限技术(LOT)发展,亟需探索适合我国国情的技术选择方式。基于现有技术成熟度法(TRL)通过算法矩阵构造改良的集成系统成熟度(SRL)评价法,对依托“十一五”、“... 随着污水处理满足再生水品质的需求日益提升,对污水中污染物的去除也逐渐向极限技术(LOT)发展,亟需探索适合我国国情的技术选择方式。基于现有技术成熟度法(TRL)通过算法矩阵构造改良的集成系统成熟度(SRL)评价法,对依托“十一五”、“十二五”和“十三五”期间国家水体污染控制与治理科技重大专项相关课题的LOT备选技术、组合及国内外其他满足LOT备选技术组合,进行综合定量评估,梳理我国LOT技术发展现状、并筛选出12项LOT备选技术组合。其中,“A^(2)O+反硝化深床滤池技术”、“A^(2)O+MBBR+混凝沉淀技术”、“A^(2)O+活性自持深度脱氮技术+BAF技术”的SRL可达0.8~1,达到生产、操作和维护阶段,可直接进行生产应用并面向市场产生较高应用效益,但3项技术组合的TN、TP单位质量去除成本较高,其核心处理功能工艺主要为传统反应器类技术。大部分单项技术TRL的等级大于7,改良SRL为0.6~0.8,处于系统发展验证阶段,相关技术组合正在为真正的市场推广进行产品稳定性提升,且大部分备选技术组合充分利用了植物和湿地等生态技术的优势,既实现了较强的同步脱氮除磷,又具有运行和维护成本低的市场优势,符合减污降碳协同增效的政策背景,故更具有推广价值。备选LOT技术组合基本实现了成本优化和低碳低耗的技术运营模式,可满足污水的资源化及生态环境的优化需求。本研究结果可为低碳低耗污水处理技术的成熟度评估和筛选提供参考。 展开更多
关键词 技术成熟度(TRL) 极限技术(LOT) 系统成熟度(SRL) 集成成熟度(irl) 水专项
原文传递
Computational intelligence interception guidance law using online off-policy integral reinforcement learning
15
作者 WANG Qi LIAO Zhizhong 《Journal of Systems Engineering and Electronics》 SCIE CSCD 2024年第4期1042-1052,共11页
Missile interception problem can be regarded as a two-person zero-sum differential games problem,which depends on the solution of Hamilton-Jacobi-Isaacs(HJI)equa-tion.It has been proved impossible to obtain a closed-f... Missile interception problem can be regarded as a two-person zero-sum differential games problem,which depends on the solution of Hamilton-Jacobi-Isaacs(HJI)equa-tion.It has been proved impossible to obtain a closed-form solu-tion due to the nonlinearity of HJI equation,and many iterative algorithms are proposed to solve the HJI equation.Simultane-ous policy updating algorithm(SPUA)is an effective algorithm for solving HJI equation,but it is an on-policy integral reinforce-ment learning(IRL).For online implementation of SPUA,the dis-turbance signals need to be adjustable,which is unrealistic.In this paper,an off-policy IRL algorithm based on SPUA is pro-posed without making use of any knowledge of the systems dynamics.Then,a neural-network based online adaptive critic implementation scheme of the off-policy IRL algorithm is pre-sented.Based on the online off-policy IRL method,a computa-tional intelligence interception guidance(CIIG)law is developed for intercepting high-maneuvering target.As a model-free method,intercepting targets can be achieved through measur-ing system data online.The effectiveness of the CIIG is verified through two missile and target engagement scenarios. 展开更多
关键词 two-person zero-sum differential games Hamilton–Jacobi–Isaacs(HJI)equation off-policy integral reinforcement learning(irl) online learning computational intelligence inter-ception guidance(CIIG)law
下载PDF
逆强化学习算法、理论与应用研究综述
16
作者 宋莉 李大字 徐昕 《自动化学报》 EI CAS CSCD 北大核心 2024年第9期1704-1723,共20页
随着高维特征表示与逼近能力的提高,强化学习(Reinforcement learning,RL)在博弈与优化决策、智能驾驶等现实问题中的应用也取得显著进展.然而强化学习在智能体与环境的交互中存在人工设计奖励函数难的问题,因此研究者提出了逆强化学习(... 随着高维特征表示与逼近能力的提高,强化学习(Reinforcement learning,RL)在博弈与优化决策、智能驾驶等现实问题中的应用也取得显著进展.然而强化学习在智能体与环境的交互中存在人工设计奖励函数难的问题,因此研究者提出了逆强化学习(Inverse reinforcement learning,IRL)这一研究方向.如何从专家演示中学习奖励函数和进行策略优化是一个重要的研究课题,在人工智能领域具有十分重要的研究意义.本文综合介绍了逆强化学习算法的最新进展,首先介绍了逆强化学习在理论方面的新进展,然后分析了逆强化学习面临的挑战以及未来的发展趋势,最后讨论了逆强化学习的应用进展和应用前景. 展开更多
关键词 强化学习 逆强化学习 线性逆强化学习 深度逆强化学习 对抗逆强化学习
下载PDF
基于逆向强化学习的纵向自动驾驶决策方法 被引量:5
17
作者 高振海 闫相同 高菲 《汽车工程》 EI CSCD 北大核心 2022年第7期969-975,共7页
基于人类驾驶员数据获得自动驾驶决策策略是当前自动驾驶技术研究的热点。经典的强化学习决策方法大多通过设计安全性、舒适性、经济性相关公式人为构建奖励函数,决策策略与人类驾驶员相比仍然存在较大差距。本文中使用最大边际逆向强... 基于人类驾驶员数据获得自动驾驶决策策略是当前自动驾驶技术研究的热点。经典的强化学习决策方法大多通过设计安全性、舒适性、经济性相关公式人为构建奖励函数,决策策略与人类驾驶员相比仍然存在较大差距。本文中使用最大边际逆向强化学习算法,将驾驶员驾驶数据作为专家演示数据,建立相应的奖励函数,并实现仿驾驶员的纵向自动驾驶决策。仿真测试结果表明:相比于强化学习方法,逆向强化学习方法的奖励函数从驾驶员的数据中自动化的提取,降低了奖励函数的建立难度,得到的决策策略与驾驶员的行为具有更高的一致性。 展开更多
关键词 自动驾驶 决策算法 强化学习 逆向强化学习
下载PDF
智能网联汽车基于逆强化学习的轨迹规划优化机制研究 被引量:2
18
作者 彭浩楠 唐明环 +2 位作者 查奇文 王聪 王伟达 《北京理工大学学报》 EI CAS CSCD 北大核心 2023年第8期820-831,共12页
针对当前轨迹规划策略存在实时性差、优化目标权重系数难以标定、模仿学习方法可解释性差等问题,提出了基于最大熵原则的逆强化学习方法,通过学习经验驾驶员驾驶轨迹的内在优化机制,从而规划出符合人类驾驶经验的整体最优的换道专家轨迹... 针对当前轨迹规划策略存在实时性差、优化目标权重系数难以标定、模仿学习方法可解释性差等问题,提出了基于最大熵原则的逆强化学习方法,通过学习经验驾驶员驾驶轨迹的内在优化机制,从而规划出符合人类驾驶经验的整体最优的换道专家轨迹,为解决轨迹规划方法的实时性问题和可解释性问题奠定了理论基础.以一般风险场景和高风险场景为应用案例,通过Matlab/Simulink仿真验证了所提逆强化学习方法实现轨迹规划的可行性与有效性. 展开更多
关键词 智能网联汽车 逆强化学习 轨迹规划 最大熵原则
下载PDF
AInvR:Adaptive Learning Rewards for Knowledge Graph Reasoning Using Agent Trajectories 被引量:1
19
作者 Hao Zhang Guoming Lu +1 位作者 Ke Qin Kai Du 《Tsinghua Science and Technology》 SCIE EI CAS CSCD 2023年第6期1101-1114,共14页
Multi-hop reasoning for incomplete Knowledge Graphs(KGs)demonstrates excellent interpretability with decent performance.Reinforcement Learning(RL)based approaches formulate multi-hop reasoning as a typical sequential ... Multi-hop reasoning for incomplete Knowledge Graphs(KGs)demonstrates excellent interpretability with decent performance.Reinforcement Learning(RL)based approaches formulate multi-hop reasoning as a typical sequential decision problem.An intractable shortcoming of multi-hop reasoning with RL is that sparse reward signals make performance unstable.Current mainstream methods apply heuristic reward functions to counter this challenge.However,the inaccurate rewards caused by heuristic functions guide the agent to improper inference paths and unrelated object entities.To this end,we propose a novel adaptive Inverse Reinforcement Learning(IRL)framework for multi-hop reasoning,called AInvR.(1)To counter the missing and spurious paths,we replace the heuristic rule rewards with an adaptive rule reward learning mechanism based on agent’s inference trajectories;(2)to alleviate the impact of over-rewarded object entities misled by inaccurate reward shaping and rules,we propose an adaptive negative hit reward learning mechanism based on agent’s sampling strategy;(3)to further explore diverse paths and mitigate the influence of missing facts,we design a reward dropout mechanism to randomly mask and perturb reward parameters for the reward learning process.Experimental results on several benchmark knowledge graphs demonstrate that our method is more effective than existing multi-hop approaches. 展开更多
关键词 Knowledge Graph Reasoning(KGR) Inverse Reinforcement Learning(irl) multi-hop reasoning
原文传递
逆向强化学习研究综述 被引量:1
20
作者 张立华 刘全 +1 位作者 黄志刚 朱斐 《软件学报》 EI CSCD 北大核心 2023年第10期4772-4803,共32页
逆向强化学习(inverse reinforcement learning,IRL)也称为逆向最优控制(inverse optimal control,IOC),是强化学习和模仿学习领域的一种重要研究方法,该方法通过专家样本求解奖赏函数,并根据所得奖赏函数求解最优策略,以达到模仿专家... 逆向强化学习(inverse reinforcement learning,IRL)也称为逆向最优控制(inverse optimal control,IOC),是强化学习和模仿学习领域的一种重要研究方法,该方法通过专家样本求解奖赏函数,并根据所得奖赏函数求解最优策略,以达到模仿专家策略的目的.近年来,逆向强化学习在模仿学习领域取得了丰富的研究成果,已广泛应用于汽车导航、路径推荐和机器人最优控制等问题中.首先介绍逆向强化学习理论基础,然后从奖赏函数构建方式出发,讨论分析基于线性奖赏函数和非线性奖赏函数的逆向强化学习算法,包括最大边际逆向强化学习算法、最大熵逆向强化学习算法、最大熵深度逆向强化学习算法和生成对抗模仿学习等.随后从逆向强化学习领域的前沿研究方向进行综述,比较和分析该领域代表性算法,包括状态动作信息不完全逆向强化学习、多智能体逆向强化学习、示范样本非最优逆向强化学习和指导逆向强化学习等.最后总结分析当前存在的关键问题,并从理论和应用方面探讨未来的发展方向. 展开更多
关键词 逆向强化学习 模仿学习 生成对抗模仿学习 逆向最优控制 强化学习
下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部