期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于FPGA的CNN分类器设计
1
作者 子卿 林瑞全 孙小坚 《电气开关》 2024年第1期64-68,共5页
传统CNN存在参数多,计算量大,部署在CPU与GPU上推理速度慢、功耗大的问题,为满足将卷积神经网络(Convolutional Neural Network,CNN)部署于嵌入式设备,实现实时图像采集与分类的需求,提出了一种基于FPGA平台的Mobilenet V2轻量级卷积神... 传统CNN存在参数多,计算量大,部署在CPU与GPU上推理速度慢、功耗大的问题,为满足将卷积神经网络(Convolutional Neural Network,CNN)部署于嵌入式设备,实现实时图像采集与分类的需求,提出了一种基于FPGA平台的Mobilenet V2轻量级卷积神经网络分类器的设计方案。采用Cameralink相机采集图像,设计了裁剪、乒乓缓存和量化的图像预处理方式,实现连续的图像采集,CNN每层分别占用资源与计算结构,实现连续图片处理。设计了一种PW与DW的流水线结构,全连接层的稀疏化计算优化策略,减少了计算量和处理延迟。单张图片分类耗时1.25ms,能耗比为14.50GOP/s/W。 展开更多
关键词 FPGA CAMERALINK CNN 流水线结构 稀疏化
下载PDF
基于FPGA加速的低功耗的MobileNetV2 网络识别系统 被引量:1
2
作者 孙小坚 林瑞全 +1 位作者 子卿 马驰 《计算机测量与控制》 2023年第5期221-227,234,共8页
近年来,卷积神经网络由于其出色的性能被广泛应用在各个领域,如图像识别、语音识别与翻译和自动驾驶等;但是传统卷积神经网络(CNN,convolutional neural network)存在参数多,计算量大,部署在CPU与GPU上推理速度慢、功耗大的问题;针对上... 近年来,卷积神经网络由于其出色的性能被广泛应用在各个领域,如图像识别、语音识别与翻译和自动驾驶等;但是传统卷积神经网络(CNN,convolutional neural network)存在参数多,计算量大,部署在CPU与GPU上推理速度慢、功耗大的问题;针对上述问题,采用量化感知训练(QAT,quantization aware training)的方式在保证图像分类准确率的前提下,将网络参数总量压缩为原网络的1/4;将网络权重全部部署在FPGA的片内资源上,克服了片外存储带宽的限制,减少了访问片外存储资源带来的功耗;在MobileNetV2网络的层内以及相邻的点卷积层之间提出一种协同配合的流水线结构,极大地提高了网络的实时性;提出一种存储器与数据读取的优化策略,根据并行度调整数据的存储排列方式及读取顺序,进一步节约了片内BRAM资源。最终在Xilinx的Virtex-7 VC707开发板上实现了一套性能优、功耗小的轻量级卷积神经网络MobileNetV2识别系统,200 MHz时钟下达到了170.06 GOP/s的吞吐量,功耗仅为6.13 W,能耗比达到了27.74 GOP/s/W,是CPU的92倍,GPU的25倍,性能较其他实现有明显的优势。 展开更多
关键词 硬件加速 量化感知训练 MobileNet 并行计算 流水线结构
下载PDF
基于BERT的短文本相似度判别模型 被引量:4
3
作者 子卿 陈一飞 《电脑知识与技术》 2021年第5期14-18,共5页
短文本的表示方法和特征提取方法是自然语言处理基础研究的一个重要方向,具有广泛的应用价值。本文提出了BERT_BLSTM_TCNN模型,该神经网络模型利用BERT的迁移学习,并在词向量编码阶段引入对抗训练方法,训练出包括句的语义和结构特征的... 短文本的表示方法和特征提取方法是自然语言处理基础研究的一个重要方向,具有广泛的应用价值。本文提出了BERT_BLSTM_TCNN模型,该神经网络模型利用BERT的迁移学习,并在词向量编码阶段引入对抗训练方法,训练出包括句的语义和结构特征的且泛化性能更优的句特征,并将这些特征输入BLSTM_TCNN层中进行特征抽取以完成对短文本的语义层面上的相似判定。在相关数据集上的实验结果表明:与最先进的预训练模型相比,该模型在有着不错的判定准确率的同时还有参数量小易于训练的优点。 展开更多
关键词 词向量模型 自然语言处理 短文本相似度 卷积神经网络 循环神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部