-
题名基于多GPU的深度神经网络训练算法
被引量:8
- 1
-
-
作者
顾乃杰
赵增
吕亚飞
张致江
-
机构
中国科学与技术大学计算机科学与技术学院网络计算与高校算法实验室
中国科学技术大学中科院沈阳计算所网络与通信联合实验室
科大讯飞
-
出处
《小型微型计算机系统》
CSCD
北大核心
2015年第5期1042-1046,共5页
-
基金
核高基重大专项项目(2009ZX01028-002-003-005)资助
-
文摘
深度学习由于出色的识别效果在模式识别及机器学习领域受到越来越多的关注.作为深度神经网络算法的重要组成部分,误差反向传播算法的执行效率已经成为制约深度学习领域发展的瓶颈.提出一种基于Tesla K10 GPU的误差反向传播算法,该算法具有负载均衡,可扩展性高的特点.本算法充分利用PCI-E3.0传输特性,并结合peer-to-peer以及异步传输的特性以降低计算任务在划分和合并过程中带来的额外开销.除此之外,文章通过对算法流程的重构,实现算法数据相关性的解耦合,从而使得有更多的计算任务可用来掩盖传输过程.实验证明,该算法拥有双卡超过1.87的并行加速比,且算法执行过程中不会引入计算误差,可有效保证训练过程中的收敛效率,拥有理想的并行加速效果.
-
关键词
深度学习
神经网络
GPGPU
并行算法
-
Keywords
deep learning
neural networks
GPGPU
parallel algorithms
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-