期刊文献+
共找到40篇文章
< 1 2 >
每页显示 20 50 100
基于边界纹理一致性的帧内模板匹配预测算法 被引量:6
1
作者 王啟军 胡瑞敏 王中元 《计算机工程》 CAS CSCD 2012年第6期227-229,共3页
提出基于边界纹理一致性的视频帧内模板匹配预测算法,根据图像内容纹理的一致性,在绝对差和(或均方差)的基础上,引入边界纹理一致性约束,形成新的模板匹配准则,以增强模板匹配预测与当前块周围像素之间的相关性,提高模板匹配预测的准确... 提出基于边界纹理一致性的视频帧内模板匹配预测算法,根据图像内容纹理的一致性,在绝对差和(或均方差)的基础上,引入边界纹理一致性约束,形成新的模板匹配准则,以增强模板匹配预测与当前块周围像素之间的相关性,提高模板匹配预测的准确性。实验结果证明,该算法相对于帧内模板匹配预测算法,编码效率平均提升0.11 dB,最高能提升0.17 dB。 展开更多
关键词 视频编码 帧内预测 纹理一致性 模板匹配预测 绝对差和
下载PDF
Temporally consistent video colorization with deep feature propagation and self-regularization learning 被引量:2
2
作者 Yihao Liu Hengyuan Zhao +4 位作者 Kelvin CKChan Xintao Wang Chen Change Loy Yu Qiao Chao Dong 《Computational Visual Media》 SCIE EI CSCD 2024年第2期375-395,共21页
Video colorization is a challenging and highly ill-posed problem.Although recent years have witnessed remarkable progress in single image colorization,there is relatively less research effort on video colorization,and... Video colorization is a challenging and highly ill-posed problem.Although recent years have witnessed remarkable progress in single image colorization,there is relatively less research effort on video colorization,and existing methods always suffer from severe flickering artifacts(temporal inconsistency)or unsatisfactory colorization.We address this problem from a new perspective,by jointly considering colorization and temporal consistency in a unified framework.Specifically,we propose a novel temporally consistent video colorization(TCVC)framework.TCVC effectively propagates frame-level deep features in a bidirectional way to enhance the temporal consistency of colorization.Furthermore,TCVC introduces a self-regularization learning(SRL)scheme to minimize the differences in predictions obtained using different time steps.SRL does not require any ground-truth color videos for training and can further improve temporal consistency.Experiments demonstrate that our method can not only provide visually pleasing colorized video,but also with clearly better temporal consistency than state-of-the-art methods.A video demo is provided at https://www.youtube.com/watch?v=c7dczMs-olE,while code is available at https://github.com/lyh-18/TCVC-Tem porally-Consistent-Video-Colorization. 展开更多
关键词 video colorization temporal consistency feature propagation self-regularization
原文传递
Video Inter-Frame Forgery Identification Based on Consistency of Correlation Coefficients of Gray Values 被引量:4
3
作者 Qi Wang Zhaohong Li +1 位作者 Zhenzhen Zhang Qinglong Ma 《Journal of Computer and Communications》 2014年第4期51-57,共7页
Identifying inter-frame forgery is a hot topic in video forensics. In this paper, we propose a method based on the assumption that the correlation coefficients of gray values is consistent in an original video, while ... Identifying inter-frame forgery is a hot topic in video forensics. In this paper, we propose a method based on the assumption that the correlation coefficients of gray values is consistent in an original video, while in forgeries the consistency will be destroyed. We first extract the consistency of correlation coefficients of gray values (CCCoGV for short) after normalization and quantization as distinguishing feature to identify interframe forgeries. Then we test the CCCoGV in a large database with the help of SVM (Support Vector Machine). Experimental results show that the proposed method is efficient in classifying original videos and forgeries. Furthermore, the proposed method performs also pretty well in classifying frame insertion and frame deletion forgeries. 展开更多
关键词 INTER-FRAME Forgeries CONTENT consistency video FORENSICS
下载PDF
视频中人脸位置的定量检测 被引量:4
4
作者 魏玮 马瑞 王小芳 《计算机应用》 CSCD 北大核心 2017年第3期801-805,共5页
现有的人脸检测评判标准通常情况下仅仅只是对人脸有无的定性检测,对于视频中人脸位置的定量描述并没有严格的规范;另外,现在的一些研究如视频人脸替换等对视频流中人脸位置的连续性有较高的要求。为了解决上述两个问题,相比之前的人脸... 现有的人脸检测评判标准通常情况下仅仅只是对人脸有无的定性检测,对于视频中人脸位置的定量描述并没有严格的规范;另外,现在的一些研究如视频人脸替换等对视频流中人脸位置的连续性有较高的要求。为了解决上述两个问题,相比之前的人脸检测以及人脸跟踪评估标准,提出了一种视频中人脸位置的定量检测评估标准,并且提出了一种视频中人脸位置的检测方法。该方法首先通过改进的Haar-Like级联分类器在目标区域中检测到人脸初始位置;然后采用金字塔光流法对人脸位置进行预测,同时引入正反向误差检测机制实现对结果的自检测,最终确定人脸位置。实验结果表明,检测标准能够对测试算法在视频人脸检测的定量描述结果给出评判,提出的检测算法在人脸位置的时间一致性上有所提升。 展开更多
关键词 视频序列 人脸检测 正反向误差 金字塔光流 视频闪烁 时间一致性
下载PDF
Video Colorization:A Survey
5
作者 彭中正 杨艺新 +1 位作者 唐金辉 潘金山 《Journal of Computer Science & Technology》 SCIE EI CSCD 2024年第3期487-508,共22页
Video colorization aims to add color to grayscale or monochrome videos.Although existing methods have achieved substantial and noteworthy results in the field of image colorization,video colorization presents more for... Video colorization aims to add color to grayscale or monochrome videos.Although existing methods have achieved substantial and noteworthy results in the field of image colorization,video colorization presents more formidable obstacles due to the additional necessity for temporal consistency.Moreover,there is rarely a systematic review of video colorization methods.In this paper,we aim to review existing state-of-the-art video colorization methods.In addition,maintaining spatial-temporal consistency is pivotal to the process of video colorization.To gain deeper insight into the evolution of existing methods in terms of spatial-temporal consistency,we further review video colorization methods from a novel perspective.Video colorization methods can be categorized into four main categories:optical-flow based methods,scribble-based methods,exemplar-based methods,and fully automatic methods.However,optical-flow based methods rely heavily on accurate optical-flow estimation,scribble-based methods require extensive user interaction and modifications,exemplar-based methods face challenges in obtaining suitable reference images,and fully automatic methods often struggle to meet specific colorization requirements.We also discuss the existing challenges and highlight several future research opportunities worth exploring. 展开更多
关键词 video colorization deep convolutional neural network spatial-temporal consistency
原文传递
A Novel Divide and Conquer Solution for Long-term Video Salient Object Detection
6
作者 Yun-Xiao Li Cheng-Li-Zhao Chen +2 位作者 Shuai Li Ai-Min Hao Hong Qin 《Machine Intelligence Research》 EI CSCD 2024年第4期684-703,共20页
Recently,a new research trend in our video salient object detection(VSOD)research community has focused on enhancing the detection results via model self-fine-tuning using sparsely mined high-quality keyframes from th... Recently,a new research trend in our video salient object detection(VSOD)research community has focused on enhancing the detection results via model self-fine-tuning using sparsely mined high-quality keyframes from the given sequence.Although such a learning scheme is generally effective,it has a critical limitation,i.e.,the model learned on sparse frames only possesses weak generalization ability.This situation could become worse on“long”videos since they tend to have intensive scene variations.Moreover,in such videos,the keyframe information from a longer time span is less relevant to the previous,which could also cause learning conflict and deteriorate the model performance.Thus,the learning scheme is usually incapable of handling complex pattern modeling.To solve this problem,we propose a divide-and-conquer framework,which can convert a complex problem domain into multiple simple ones.First,we devise a novel background consistency analysis(BCA)which effectively divides the mined frames into disjoint groups.Then for each group,we assign an individual deep model on it to capture its key attribute during the fine-tuning phase.During the testing phase,we design a model-matching strategy,which could dynamically select the best-matched model from those fine-tuned ones to handle the given testing frame.Comprehensive experiments show that our method can adapt severe background appearance variation coupling with object movement and obtain robust saliency detection compared with the previous scheme and the state-of-the-art methods. 展开更多
关键词 video salient object detection background consistency analysis weakly supervised learning long-term information background shift.
原文传递
小切口白内障手术能力录像评分的一致性研究 被引量:2
7
作者 刘斌 黄文勇 +1 位作者 王兰花 黄圣松 《国际医药卫生导报》 2013年第11期1558-1561,共4页
目的评估培训师利用国际眼科理事会(International Council of Ophthalmology,ICO)批准的小切口白内障手术(SmallIncision Cataract Surgery,MSICS)眼科手术能力评分表(Ophthalmology Surgical C0ropetenev Assessment Rubric,O... 目的评估培训师利用国际眼科理事会(International Council of Ophthalmology,ICO)批准的小切口白内障手术(SmallIncision Cataract Surgery,MSICS)眼科手术能力评分表(Ophthalmology Surgical C0ropetenev Assessment Rubric,OSCAR;ICO—OSCAR:SICS)对外置式录像系统所采集的手术录像资料进行评分的可行性和一致性。方法由经过培训的技术员用统一的外置摄像系统在基层医院现场拍摄10名在我院完成手法小切口白内障手术培训的基层医生的完整手术过程;再由我院经过培训的5位手术培训师观看录像并进行评分,采用国际眼科理事会制定的小切口白内障手术眼科手术能力评分表为基础的5分评分制评分,2分为很不熟练,3分为不熟练,4分为熟练,5分为很熟练;由培训师代替进行的手术步骤,记为0分。在第1次评分2周后再次用同样的方法对录像进行评分。用加权Kappa法计算评定者信度和重测信度。结果共收集了10名医生的录像,医生中位年龄为40岁(29—48岁)。评定者信度的平均Kappa值为0.866(范围0.734~0.982)。2位培训师各评分项目的重测一致性均〉0.800,其中培训师1的平均Kappa值为0.921(范同0.843~0.981),培训师2的平均Kappa值为0.926(范围0.854~0.978)。结论依据ICO—MSICS评分表,利用外置式录像系统,可以对MSICS每一步骤的完成质量进行有效、一致的评价,这为基层医院医生手术质量的远程监控和自我评价提供了新的方法。 展开更多
关键词 小切口白内障手术 录像 眼科手术能力评分表 一致性
下载PDF
Temporally Consistent Depth Map Estimation for 3D Video Generation and Coding 被引量:2
8
作者 Sang-Beom Lee Yo-Sung Ho 《China Communications》 SCIE CSCD 2013年第5期39-49,共11页
In this paper, we propose a new algorithm for temporally consistent depth map estimation to generate three-dimensional video. The proposed algorithm adaptively computes the matching cost using a temporal weighting fun... In this paper, we propose a new algorithm for temporally consistent depth map estimation to generate three-dimensional video. The proposed algorithm adaptively computes the matching cost using a temporal weighting function, which is obtained by block-based moving object detection and motion estimation with variable block sizes. Experimental results show that the proposed algorithm improves the temporal consistency of the depth video and reduces by about 38% both the flickering artefact in the synthesized view and the number of coding bits for depth video coding. 展开更多
关键词 three-dimensional television multiview video depth estimation temporal consistency temporal weighting function
下载PDF
具有自动场景划分的多模板视频着色 被引量:1
9
作者 刘兴业 高媛 +1 位作者 秦品乐 赵一飞 《中北大学学报(自然科学版)》 CAS 2023年第4期388-396,共9页
针对目前视频着色的方法存在视频转换场景时颜色发生明显偏移和时间不一致性的问题,提出了一种具有自动场景划分的多模板视频着色方法。该方法根据视频场景的不同,将整个视频分成若干组,每组利用图像检索的方式找到一个合适的参考图像,... 针对目前视频着色的方法存在视频转换场景时颜色发生明显偏移和时间不一致性的问题,提出了一种具有自动场景划分的多模板视频着色方法。该方法根据视频场景的不同,将整个视频分成若干组,每组利用图像检索的方式找到一个合适的参考图像,使用参考图像与前一帧图像共同指导视频着色,同时,计算余弦相似性对各个边界帧进行比较,保证具有相似场景的视频使用相同的参考图像,使得整个视频满足时间一致性。实验结果表明,所提出的方法可以有效解决视频着色中时间不一致性与颜色抖动的问题,并且在多个场景下的视频着色效果都有明显提升,与全自动视频着色、单模板视频着色和其他多模板视频着色相比,峰值信噪比(PSNR)分别提升了6.01%,3.81%和5.02%,且产生的视频颜色更加自然。 展开更多
关键词 视频着色 深度学习 图像检索 时间一致性 镜头边界检测
下载PDF
一种深度图的时域下采样编码及重建方法 被引量:2
10
作者 葛川 刘琚 +2 位作者 元辉 肖依凡 李凤荣 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2016年第4期160-165,171,共7页
为提高三维视频系统的编码效率,提出了一种针对中间视点的深度时域下采样编码方法.首先确定深度图像的丢弃方式;然后利用基于时间一致性和视点间的相关性,恢复出丢弃的深度图像,并对恢复出的结果进行维纳滤波,进一步提高恢复的深度图的... 为提高三维视频系统的编码效率,提出了一种针对中间视点的深度时域下采样编码方法.首先确定深度图像的丢弃方式;然后利用基于时间一致性和视点间的相关性,恢复出丢弃的深度图像,并对恢复出的结果进行维纳滤波,进一步提高恢复的深度图的质量.该方法需要向编码端发送维纳滤波器系数和重建深度选择标识符.实验结果表明,在保证同等码率的前提下,解码端重建的虚拟视图的峰值信噪比最大能提升0.229dB,平均提升0.130dB,编码性能得到改善. 展开更多
关键词 视频编码 立体图像处理 深度图时域下采样 时间一致性 视点间相关性
下载PDF
基于相关核映射线性近邻传播的视频语义标注
11
作者 张建明 闫婷 孙春梅 《计算机应用研究》 CSCD 北大核心 2013年第2期605-609,630,共6页
针对基于图的半监督学习方法在多媒体研究应用中忽略视频相关性的问题,提出了一种基于相关核映射线性近邻传播的视频标注算法。该算法首先通过核函数按照半监督学习调整后的距离计算出迭代标记传播系数;其次利用传播系数求得表示低层特... 针对基于图的半监督学习方法在多媒体研究应用中忽略视频相关性的问题,提出了一种基于相关核映射线性近邻传播的视频标注算法。该算法首先通过核函数按照半监督学习调整后的距离计算出迭代标记传播系数;其次利用传播系数求得表示低层特征空间的样本,再根据视频相关性建模构造出语义概念间的关联表;最后完成近邻图的构造,并利用已标注视频信息迭代传播到未标注视频中,完成视频标注。实验结果表明,该算法不仅可以提高视频标注的准确度,还能弥补已标注视频数据数量的不足。 展开更多
关键词 半监督学习 视频相关性 视频标注 语义相关性 线性近邻传播 核函数
下载PDF
基于时空几何流的Bandelet稀疏正则化在视频修复中的应用 被引量:1
12
作者 黄淼 何伟娜 赵桂钦 《计算机应用研究》 CSCD 北大核心 2015年第12期3825-3829,共5页
针对现有的大多视频修复方法为了满足视觉一致性而需要额外处理过程的问题,提出了一种基于时空几何流的Bandelet稀疏正则化方法。首先,利用Bandelet变换提取视频时空几何流特征以重建丢失的数据;然后,通过基于Bandelet块融合增强的优先... 针对现有的大多视频修复方法为了满足视觉一致性而需要额外处理过程的问题,提出了一种基于时空几何流的Bandelet稀疏正则化方法。首先,利用Bandelet变换提取视频时空几何流特征以重建丢失的数据;然后,通过基于Bandelet块融合增强的优先级样本方法生成初步修复结果;最后,运用稀疏正则化完成剩余的修复任务。实验结果表明,相比其他几种较好的视频修复算法,该方法取得了更好的修复质量,并在均方差(MSE)衡量和时空最明显失真模型(STMAD)的时间一致性方面取得了更好的性能。 展开更多
关键词 视频修复 视觉一致性 BANDELET变换 稀疏正则化 时空几何流
下载PDF
空时一致的视频显著性检测 被引量:1
13
作者 柳林 张兆丰 +1 位作者 吴泽民 张磊 《微型机与应用》 2017年第13期42-45,共4页
针对现有视频检测算法在空间和时间显著度上一致性不足,提出了空时一致性模型。首先构造梯度流场,整合空间上的颜色对比度与时间上的目标运动信息。而后基于空时梯度流场构造全局对比度,综合局部对比度和全局对比度,得到初始检测结果。... 针对现有视频检测算法在空间和时间显著度上一致性不足,提出了空时一致性模型。首先构造梯度流场,整合空间上的颜色对比度与时间上的目标运动信息。而后基于空时梯度流场构造全局对比度,综合局部对比度和全局对比度,得到初始检测结果。最后通过马尔可夫随机场,对其进行空时一致性优化,得到最终显著图。在3个公开数据集上的大量实验表明,所提算法检测性能较好,并且具有较强的鲁棒性。 展开更多
关键词 视频显著性 空时梯度流场 马尔可夫随机场 空时一致性
下载PDF
基于最优直线段边缘方向的视频清晰度评估
14
作者 罗晨光 陈黎 聂晖 《计算机工程与设计》 北大核心 2018年第2期474-478,526,共6页
为检测由摄像机参数设置不当引起的安防监控视频质量退化问题,提出基于最优直线段边缘方向的视频清晰度检测方法。基于监控视频图像的模糊造成全局的图像质量下降,但在局部区域的表现各不相同的特性,通过最优直线段和最优边缘方向的提取... 为检测由摄像机参数设置不当引起的安防监控视频质量退化问题,提出基于最优直线段边缘方向的视频清晰度检测方法。基于监控视频图像的模糊造成全局的图像质量下降,但在局部区域的表现各不相同的特性,通过最优直线段和最优边缘方向的提取,结合图像强边缘宽度图,得到精准的视频图像清晰度度量指标。算法在LIVE库和安防监控视频库上进行实验,并进行相关性分析,实验结果表明,该方法得到的视频评估数据与主观评价具有良好的一致性,满足安防监控的实际需求。 展开更多
关键词 视频清晰度 最优直线段 边缘最优方向 强边缘宽度 一致性
下载PDF
基于时序概率超图模型的视频多语义标注
15
作者 代东锋 詹永照 柯佳 《计算机工程与应用》 CSCD 2013年第4期197-201,共5页
在基于语义的视频检索系统中,为了弥补视频底层特征与高层用户需求之间的差异,提出了时序概率超图模型。它将时间序列因素融入到模型的构建中,在此基础上提出了一种基于时序概率超图模型的视频多语义标注框架(TPH-VMLAF)。该框架结合视... 在基于语义的视频检索系统中,为了弥补视频底层特征与高层用户需求之间的差异,提出了时序概率超图模型。它将时间序列因素融入到模型的构建中,在此基础上提出了一种基于时序概率超图模型的视频多语义标注框架(TPH-VMLAF)。该框架结合视频时间相关性,通过使用基于时序概率超图的镜头多标签半监督分类学习算法对视频镜头进行多语义标注。标注过程中同时解决了已标注视频数据不足和多语义标注的问题。实验结果表明,该框架提高了标注的精确度,表现出了良好的性能。 展开更多
关键词 视频标注 多语义标注 时序概率超图 时间相关性 半监督学习
下载PDF
基于运动一致性的3D-HEVC深度视频帧间编码快速算法
16
作者 刘晟 陈芬 金德富 《宁波大学学报(理工版)》 CAS 2017年第3期30-35,共6页
针对深度视频在3D-HEVC编码框架中编码复杂度较高,提出了一种基于运动一致性的深度视频快速帧间编码算法.首先把深度视频划分为4个区域:彩色和深度视频均运动区域、彩色视频运动但深度视频静止区域、彩色视频静止但深度视频运动区域以... 针对深度视频在3D-HEVC编码框架中编码复杂度较高,提出了一种基于运动一致性的深度视频快速帧间编码算法.首先把深度视频划分为4个区域:彩色和深度视频均运动区域、彩色视频运动但深度视频静止区域、彩色视频静止但深度视频运动区域以及彩色和深度视频均静止区域.然后,根据不同分区对最大编码单元设计不同的编码策略.结果表明,本算法与原始测试平台HTM-10.0相比,在绘制的虚拟视点质量几乎一致的情况下,各序列深度视频编码时间平均节省了63.58%,总体编码时间节省了40.13%. 展开更多
关键词 深度视频 3D—HEVC 帧间编码 运动相似性 最大分割深度 模式决策
下载PDF
采用视频跟踪技术考察酒石酸美托洛尔片的溶出行为
17
作者 李耕 严菲 +2 位作者 曹玲 夏颖 陈民辉 《中国处方药》 2022年第2期21-23,共3页
目的采用视频跟踪技术考察酒石酸美托洛尔片的溶出行为,为仿制药的质量评价提供新的技术参考。方法以酒石酸美托洛尔片为模型药物,pH1.2的氯化钠盐酸溶液为溶出介质,采用摄像头视频跟踪直观考察溶出行为;同时测定酒石酸美托洛尔片的溶... 目的采用视频跟踪技术考察酒石酸美托洛尔片的溶出行为,为仿制药的质量评价提供新的技术参考。方法以酒石酸美托洛尔片为模型药物,pH1.2的氯化钠盐酸溶液为溶出介质,采用摄像头视频跟踪直观考察溶出行为;同时测定酒石酸美托洛尔片的溶出曲线并计算相似因子(f_(2)),并对处方组成、比例及其制剂工艺进行剖析。结果各时间点的视频图显示各企业样品均为溶蚀性崩解,与原研一致;企业A的样品与原研溶出行为最为接近,B、G和J的25 mg规格样品以及企业E、I和J的50 mg规格样品与原研溶出行为存在较大的差异,与溶出曲线获得的结果一致。溶出视频记录的溶散速率和崩解的颗粒大小、形态更直观反映出处方工艺的差异。结论视频跟踪技术清晰客观地反映了酒石酸美托洛尔片的溶出行为,为溶出质量评价提供新思路新方法。 展开更多
关键词 酒石酸美托洛尔片 溶出视频 溶出曲线 相似因子 处方工艺 一致性评价
下载PDF
基于场景运动程度的深度视频时域一致性增强
18
作者 富显祖 王晓东 +2 位作者 娄达平 秦闯 章联军 《光电工程》 CAS CSCD 北大核心 2016年第12期175-182,共8页
深度视频静止区域普遍存在深度值时域不一致,导致编码效率下降且影响绘制质量。针对该问题,提出一种基于场景运动程度的深度视频一致性增强算法。首先,应用基于块的直方图差值(Block Histogram Difference, BH)对深度视频每帧之间... 深度视频静止区域普遍存在深度值时域不一致,导致编码效率下降且影响绘制质量。针对该问题,提出一种基于场景运动程度的深度视频一致性增强算法。首先,应用基于块的直方图差值(Block Histogram Difference, BH)对深度视频每帧之间做相对运动程度量化度量,根据BH值自适应选取运动程度相对最弱的视频段作为深度值修正源,通过运动检测对相应彩色视频做运动区域分割,接着,利用彩色视频准确的时域一致信息,对深度视频中静止区域的错误变化深度值进行时域一致性校正,最后应用计算复杂度低的时域加权滤波函数对校正后的深度视频进一步优化,得到时域一致性优化的深度视频。本文算法相比于原估计获得的深度视频节省编码码率17.48%~31.75%,深度图所绘制的虚拟视点主观质量提高。 展开更多
关键词 深度视频 时域一致性 运动剧烈程度 深度值修正
下载PDF
基于动态反馈的一致性哈希负载均衡算法 被引量:19
19
作者 胡丽聪 徐雅静 徐惠民 《微电子学与计算机》 CSCD 北大核心 2012年第1期177-180,共4页
负载均衡一直是分布式网络的一个研究重点.近年来随着网络视频监控系统的广泛应用,负载均衡也逐步应用到该领域,以满足分布式视频监控的需要.本文针对分布式系统的视频服务器集群提出了一种新的负载均衡方案,将动态反馈机制与一致性哈... 负载均衡一直是分布式网络的一个研究重点.近年来随着网络视频监控系统的广泛应用,负载均衡也逐步应用到该领域,以满足分布式视频监控的需要.本文针对分布式系统的视频服务器集群提出了一种新的负载均衡方案,将动态反馈机制与一致性哈希算法相结合,并根据其业务特性进行了优化和改进,增加了系统的可靠性和抗冲击性,提高了负载均衡的总体效果. 展开更多
关键词 视频监控 负载均衡 动态反馈 一致性哈希算法
下载PDF
基于多路光流信息的微光视频增强算法
20
作者 刘书生 王九杭 童官军 《现代电子技术》 北大核心 2024年第16期13-22,共10页
图像和视频是记录真实场景信息的重要媒介,它们包含丰富而详细的视觉内容,可以开发各种智能系统来执行各种任务。特别是对于低照度条件下的视频,提升其清晰度和细节可以更好地表现和还原真实场景。针对在夜间低照度环境条件下对周围环... 图像和视频是记录真实场景信息的重要媒介,它们包含丰富而详细的视觉内容,可以开发各种智能系统来执行各种任务。特别是对于低照度条件下的视频,提升其清晰度和细节可以更好地表现和还原真实场景。针对在夜间低照度环境条件下对周围环境感知的需求,提出一种基于多路光流信息时间一致性的微光视频增强算法。通过引入预测的光流与真实的光流信息,构建三分支孪生网络对微光视频进行增强;同时针对微光视频存在的低信噪比以及模糊化问题,设计一种基于双尺度注意力机制的微光视频去噪模块(CA-Swin模块),以提升网络的去噪性能。通过在DAVIS数据集上进行对比实验和评估,得出所提网络在增强微光视频方面更高效,鲁棒性显著;且该策略还具有通用性,可以直接扩展到大规模数据集。 展开更多
关键词 微光视频增强 光流信息 时间一致性 三分支孪生网络 双尺度注意力机制 微光视频去噪模块 视频帧
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部