期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
基于递归卷积神经网络的行人检测方法 被引量:5
1
作者 肖立志 张争 《信阳师范学院学报(自然科学版)》 CAS 北大核心 2021年第4期655-660,共6页
为了提高视频中行人检测的准确度,提出了一种基于递归卷积神经网络的行人检测方法.该方法利用递归卷积神经网络融合视频中连续图像的上下文信息,以实现准确的行人检测.首先,利用卷积神经网络提取连续图像的多个特征图组;然后,根据先后次... 为了提高视频中行人检测的准确度,提出了一种基于递归卷积神经网络的行人检测方法.该方法利用递归卷积神经网络融合视频中连续图像的上下文信息,以实现准确的行人检测.首先,利用卷积神经网络提取连续图像的多个特征图组;然后,根据先后次序,将多个特征图输入到递归卷积神经网络中,形成一张关于行人位置的掩码图;最后,通过在掩码图上预测行人的检测框,获得视频中当前图像的行人检测结果.实验结果表明:相比于其他行人检测方法,该方法在ETH、CUHK和PETS 2007三个数据集上都取得较准确的行人检测结果. 展开更多
关键词 行人检测 递归神经网络 卷积神经网络 监控场景 视频内容分析
下载PDF
监控场景中的运动物体提取技术研究 被引量:4
2
作者 陈霖 尤枫 胡伟 《计算机工程与应用》 CSCD 北大核心 2015年第22期158-162,205,共6页
针对监控场景中因存在遮挡而无法有效地提取出完整的运动序列这一问题,提出了一种将Vi Be前景检测算法和改进后的粒子滤波跟踪算法相结合的跟踪提取方法。首先用Vi Be来提取出场景中所有运动物体的前景轮廓;其次用粒子滤波来检测和跟踪... 针对监控场景中因存在遮挡而无法有效地提取出完整的运动序列这一问题,提出了一种将Vi Be前景检测算法和改进后的粒子滤波跟踪算法相结合的跟踪提取方法。首先用Vi Be来提取出场景中所有运动物体的前景轮廓;其次用粒子滤波来检测和跟踪目标物体;最后通过与目标物体的关联轮廓求交运算以及跟踪区域的反馈调节完成对目标物体运动帧序列的提取。当运动物体发生遮挡时,采用将跟踪区域内所检测到的前景轮廓重新加入到目标物体的关联轮廓中以保证后续可以继续用关联轮廓交集来提取。实验结果表明,该方法能够很好地保证提取的质量,并有效地解决了局部遮挡与全局遮挡情况下运动物体完整运动序列的提取。 展开更多
关键词 监控场景 目标检测 运动物体提取 粒子滤波 可视化背景提取
下载PDF
基于门控特征融合与中心损失的目标识别
3
作者 莫建文 李晋 +1 位作者 蔡晓东 陈锦威 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2023年第10期2011-2017,共7页
针对目标活动、光线及摄像头距离等问题,提出一种基于门控特征融合与中心损失的目标识别方法.门控特征融合是为了弥补单一特征信息丢失时,身份识别准确率下降的缺陷.门控结构指导网络对输入的人脸、行人特征进行贡献量评估,再根据贡献... 针对目标活动、光线及摄像头距离等问题,提出一种基于门控特征融合与中心损失的目标识别方法.门控特征融合是为了弥补单一特征信息丢失时,身份识别准确率下降的缺陷.门控结构指导网络对输入的人脸、行人特征进行贡献量评估,再根据贡献量去分配权值,组合产生识别性更强的身份特征.通过添加中心损失函数,在引导网络下减少了特征的类内距离,使得特征更具判别性.实验结果表明,在自建数据集上所提方法的最终识别准确率最高可以达到76.35%,优于单特征识别方法以及多种融合方法,使用所提的融合损失函数后,平均识别准确率可提高2.63%. 展开更多
关键词 身份识别 监控场景 特征融合 门控机制 中心距离损失
下载PDF
局部双目视差回归的目标距离估计 被引量:3
4
作者 张羽丰 李昱希 +3 位作者 赵明璧 喻晓源 占云龙 林巍峣 《中国图象图形学报》 CSCD 北大核心 2021年第7期1604-1613,共10页
目的双目视觉是目标距离估计问题的一个很好的解决方案。现有的双目目标距离估计方法存在估计精度较低或数据准备较繁琐的问题,为此需要一个可以兼顾精度和数据准备便利性的双目目标距离估计算法。方法提出一个基于R-CNN(region convolu... 目的双目视觉是目标距离估计问题的一个很好的解决方案。现有的双目目标距离估计方法存在估计精度较低或数据准备较繁琐的问题,为此需要一个可以兼顾精度和数据准备便利性的双目目标距离估计算法。方法提出一个基于R-CNN(region convolutional neural network)结构的网络,该网络可以实现同时进行目标检测与目标距离估计。双目图像输入网络后,通过主干网络提取特征,通过双目候选框提取网络以同时得到左右图像中相同目标的包围框,将成对的目标框内的局部特征输入目标视差估计分支以估计目标的距离。为了同时得到左右图像中相同目标的包围框,使用双目候选框提取网络代替原有的候选框提取网络,并提出了双目包围框分支以同时进行双目包围框的回归;为了提升视差估计的精度,借鉴双目视差图估计网络的结构,提出了一个基于组相关和3维卷积的视差估计分支。结果在KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute)数据集上进行验证实验,与同类算法比较,本文算法平均相对误差值约为3.2%,远小于基于双目视差图估计算法(11.3%),与基于3维目标检测的算法接近(约为3.9%)。另外,提出的视差估计分支改进对精度有明显的提升效果,平均相对误差值从5.1%下降到3.2%。通过在另外采集并标注的行人监控数据集上进行类似实验,实验结果平均相对误差值约为4.6%,表明本文方法可以有效应用于监控场景。结论提出的双目目标距离估计网络结合了目标检测与双目视差估计的优势,具有较高的精度。该网络可以有效运用于车载相机及监控场景,并有希望运用于其他安装有双目相机的场景。 展开更多
关键词 双目视觉 目标距离估计 视差估计 深度神经网络 3维卷积 监控场景
原文传递
基于图像描述的人物检索方法 被引量:1
5
作者 李亚栋 莫红 +2 位作者 王世豪 周忠 吴威 《系统仿真学报》 CAS CSCD 北大核心 2018年第7期2794-2800,共7页
监控场景中特定人物的检索是安防领域重要且迫切的需求。近年来,图像检索领域的方法主要基于图像内容的方法,但是由于该类方法需要待检索图像作为输入,无法满足监控安防的实际需求。提出一种基于图像描述的人物检索方法,并提供一个标注... 监控场景中特定人物的检索是安防领域重要且迫切的需求。近年来,图像检索领域的方法主要基于图像内容的方法,但是由于该类方法需要待检索图像作为输入,无法满足监控安防的实际需求。提出一种基于图像描述的人物检索方法,并提供一个标注了人物描述的监控数据集SPCD。在此数据集上验证该方法,性别预测准确率达到86.5%,服饰颜色的匹配准确率达到93.5%,行为分类的准确率达到65.5%,为监控场景中的人物检索提供了一种新的有效方式。 展开更多
关键词 监控场景 图像检索 图像描述 多属性标签
下载PDF
基于上下文信息的监控场景行人检测方法 被引量:1
6
作者 郭荣幸 李涛 +1 位作者 李旭冬 马鹏阁 《电视技术》 北大核心 2017年第6期83-87,共5页
为了提高监控场景中行人检测的准确度,提出了一种基于上下文信息的行人检测方法。该方法将监控场景的上下文信息融入到卷积神经网络中,选择性地学习对行人检测有帮助的上下文信息。首先,利用一个截断的卷积神经网络提取输入图像的多张... 为了提高监控场景中行人检测的准确度,提出了一种基于上下文信息的行人检测方法。该方法将监控场景的上下文信息融入到卷积神经网络中,选择性地学习对行人检测有帮助的上下文信息。首先,利用一个截断的卷积神经网络提取输入图像的多张特征图。然后,将多张特征图通过两个包含上下文信息的卷积层,形成一张掩码图。最后,通过在掩码图上估计行人的边界框,获得行人检测的结果。实验表明,该方法能实现监控场景中准确且快速的行人检测。 展开更多
关键词 上下文信息 行人检测 监控场景 卷积神经网络
下载PDF
基于PTZ摄像头的视频人脸识别
7
作者 成维莉 印波 《智能计算机与应用》 2011年第4期54-58,共5页
针对传统的视频人脸识别技术受限于理想的环境条件,无法应用于监控场景的弊端,提出了一种基于PTZ(Pan-Tilt-Zoom,旋转-俯仰-缩放)摄像头的人脸识别方法,并结合AdaBoost人脸检测以及Mean-shift跟踪算法进行了识别。实验结果表明,该方... 针对传统的视频人脸识别技术受限于理想的环境条件,无法应用于监控场景的弊端,提出了一种基于PTZ(Pan-Tilt-Zoom,旋转-俯仰-缩放)摄像头的人脸识别方法,并结合AdaBoost人脸检测以及Mean-shift跟踪算法进行了识别。实验结果表明,该方法克服了监控场景图像分辨率低的问题,具有较好的鲁棒性。 展开更多
关键词 视频人脸识别 监控场景 PTZ摄像头 ADABOOST MEAN-SHIFT
下载PDF
结合群组动量特征与卷积神经网络的人群行为分析 被引量:2
8
作者 成金庚 计科峰 《科学技术与工程》 北大核心 2017年第14期79-85,共7页
针对现阶段人群行为分析的特征提取效果不佳,人群行为分析结果达不到视频分析的要求。提出一种基于人群群组级别的动量特征,分别表示人群的集体性、稳定性和冲突性,然后将三组人群群组动量特征输入至卷积神经网络进行训练,最后在Violenc... 针对现阶段人群行为分析的特征提取效果不佳,人群行为分析结果达不到视频分析的要求。提出一种基于人群群组级别的动量特征,分别表示人群的集体性、稳定性和冲突性,然后将三组人群群组动量特征输入至卷积神经网络进行训练,最后在Violence数据集上进行人群行为分析实验。实验结果表明,提出的群组动量特征能够在群组级别表达出人群的基本特性,这些特性在人群行为分析中能够建立可识别较高的特征,在Violence数据集上的测试结果显示。提出的群组动量特征能够扩展到独立场景,对于任何场景的人群行为分析都能够获得鲁棒的基础动量特征,而采用卷积神经网络进行的训练和分类,能够提升人群行为分析的精确度。与传统特征及分类方法相比,在各种不同的独立场景中,将标注结果精度提升了13%左右,在视频场景人群行为分析中具有较强的实践意义。 展开更多
关键词 人群行为分析 视频场景 群组动量特征 深度卷积神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部