期刊文献+

随机梯度算法的收敛性分析 被引量:10

Convergence analysis of stochastic gradient algorithms
原文传递
导出
摘要 虽然随机梯度算法的计算量比最小二乘法要小得多,但是它的收敛速度很慢。为了提高随机梯度算法的收敛速度和参数估计精度,提出了遗忘梯度算法,它不仅具有较快的收敛速度,而且具有跟踪时变参数的能力。随机梯度算法的收敛性证明是辨识领域的一个研究难题,文章运用鞅收敛定理分析了它的收敛性,结果表明随机梯度算法给出的参数估计误差一致有界,在强持续激励条件下参数估计误差一致收敛于零。数字仿真表明提出的方法是有效的。 Compared with least squares algorithms, stochastic gradient (SG) algorithms have less computational burden, but their convergence rate is very slow. In order to improve the convergence rate of SG algorithms, the forgetting factor SG algorithms (the forgetting gradient algorithms for short) are presented, and those have not only faster convergence rate but also good performance to track the time varying parameters. Martingale convergence theorem is applied to analyze the convergence of SG algorithms, and the results show that the parameter estimation error (PEE) given by SG algorithms is bounded uniformly and that the PEE consistently converges to zero under the strong persistent excitation condition. Simulation results indicate that the proposed algorithm works quite well.
作者 丁锋 杨家本
出处 《清华大学学报(自然科学版)》 EI CAS CSCD 北大核心 1999年第1期83-86,共4页 Journal of Tsinghua University(Science and Technology)
基金 国家自然科学基金 国家"八六三"高技术计划项目
关键词 自动控制 参数估计 随机梯度算法 收敛性 automatic control parameter estimation identification martingale convergence theorem 
  • 相关文献

参考文献10

二级参考文献13

共引文献36

同被引文献102

引证文献10

二级引证文献34

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部