期刊文献+

反向传播神经网络收敛性的探讨 被引量:2

Study on Convergence of BP Neural Network
下载PDF
导出
摘要 标准BP算法采用的最陡梯度下降法使得均方误差达到最小的策略可能存在两大问题:①陷入局部最小而没有收敛到全局最小,即不收敛;②收敛速率慢。本文从训练算法角度方面,比较了标准BP算法、动量算法、可变学习速率算法和Levenberg Marquardt算法这几种方法的收敛性以及收敛速率,并通过Matlab仿真进行了验证。 <Abstrcat>Standard backpropagation, which adopts the steepest gradient descent algorithm to acquire the least mean square (LMS), probably leads to two problems. One is to be trapped in local minimum, not global minimum. The other is low convergence rate. In aspect of training algorithm, this paper compares standard backpropagation with momentum algorithm, variable learning rate algorithm and Levenberg-Marquardt algorithm by the convergence and convergence rate of neural network. This paper also provides simulation examples for all methods above.
作者 林俊 章兢
出处 《计算机与现代化》 2005年第7期9-12,共4页 Computer and Modernization
关键词 BP网络 收敛性 动量算法 可变学习速率算法 LEVENBERG-MARQUARDT算法 MATLAB BP neural network convergence momentum algorithm variable learning rate algorithm Levenberg-Marquardt algorithm Matlab
  • 相关文献

参考文献5

  • 1李孝安,张晓缋..神经网络与神经计算机导论[M],1994.
  • 2R Hecht-Nielsen.Theory of the back propagation neural network[J].Proc.of IJCNN,1989(1). 被引量:1
  • 3王文成编著..神经网络及其在汽车工程中的应用[M].北京:北京理工大学出版社,1998:330.
  • 4王永骥,涂健编著..神经元网络控制[M].北京:机械工业出版社,1998:428.
  • 5MartinTHagan 戴葵译.Neural Network Design[M].北京:机械工业出版社,2002.227. 被引量:14

共引文献13

同被引文献25

引证文献2

二级引证文献2

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部