期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
卷积神经网络压缩与加速技术研究进展 被引量:9
1
作者 尹文枫 梁玲燕 +5 位作者 彭慧民 赵健 董刚 赵雅倩 赵坤 《计算机系统应用》 2020年第9期16-25,共10页
神经网络压缩技术的出现缓解了深度神经网络模型在资源受限设备中的应用难题,如移动端或嵌入式设备.但神经网络压缩技术在压缩处理的自动化、稀疏度与硬件部署之间的矛盾、避免压缩后模型重训练等方面存在困难.本文在回顾经典神经网络... 神经网络压缩技术的出现缓解了深度神经网络模型在资源受限设备中的应用难题,如移动端或嵌入式设备.但神经网络压缩技术在压缩处理的自动化、稀疏度与硬件部署之间的矛盾、避免压缩后模型重训练等方面存在困难.本文在回顾经典神经网络模型和现有神经网络压缩工具的基础上,总结参数剪枝、参数量化、低秩分解和知识蒸馏四类压缩方法的代表性压缩算法的优缺点,概述压缩方法的评测指标和常用数据集,并分析各种压缩方法在不同任务和硬件资源约束中的性能表现,展望神经网络压缩技术具有前景的研究方向. 展开更多
关键词 神经网络压缩 参数剪枝 参数量化 低秩分解 知识蒸馏
下载PDF
一种通用型卷积神经网络加速器架构研究 被引量:2
2
作者 董刚 胡克坤 +5 位作者 杨宏斌 赵雅倩 李仁刚 赵坤 鲁璐 《微电子学与计算机》 2023年第5期97-103,共7页
针对当前AI专用加速器设计复杂且存在内存瓶颈等不足,提出一种通用型卷积神经网络加速器架构.其RISC(Reduced Instruction Set Computer)指令集支持不同类型卷积神经网络到硬件加速器的高效映射.其通用卷积计算模块是一个由多个基本运... 针对当前AI专用加速器设计复杂且存在内存瓶颈等不足,提出一种通用型卷积神经网络加速器架构.其RISC(Reduced Instruction Set Computer)指令集支持不同类型卷积神经网络到硬件加速器的高效映射.其通用卷积计算模块是一个由多个基本运算单元组成的可重构三维脉动阵列,支持不同尺寸的二维卷积计算;脉动阵列规模可根据需要进行配置,适用不同的并行加速需求.为缓解内存瓶颈、提高算力,输入模块引入多级缓存结构,可实现对片外数据的高速读取;输出模块设计一种基于“乒乓”架构的多级数据累加结构,以实现卷积计算结果的高速缓存输出.将所提架构在FPGA芯片上予以实现,实验结果表明该架构凭借较少计算资源和较低功耗取得了与当前先进加速器相近的性能,且通用性更强. 展开更多
关键词 AI加速器 卷积神经网络 多尺寸卷积核 三维脉动阵列 多级累加结构
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部