期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于卷积神经网络的多路视频多视角场景编解码方法
1
作者 于夫 《长江信息通信》 2024年第6期85-88,共4页
常规的多路视频多视角场景编解码,主要采用视频单帧迭代处理实现编解码过程,忽略了视频中冗余信息对编解码效果的影响,导致编解码结果的视频帧峰值信噪比较低。因此,提出基于卷积神经网络的多路视频多视角场景编解码方法。构建双任务的... 常规的多路视频多视角场景编解码,主要采用视频单帧迭代处理实现编解码过程,忽略了视频中冗余信息对编解码效果的影响,导致编解码结果的视频帧峰值信噪比较低。因此,提出基于卷积神经网络的多路视频多视角场景编解码方法。构建双任务的双残差连接块卷积神经网络,在该网络中最小化视频空间点的距离值,匹配得到视频运动估计矢量特征并补偿,降低冗余信息的影响,在此基础上定义多路视频的编码内容,并通过重构解码帧实现多视角场景的编解码过程。实验结果表明:所提方法应用后得出的视频编解码结果,表现出的视频帧峰值信噪比较高,有效改善了视频质量,满足了多路视频多视角场景的实际应用需求。 展开更多
关键词 路视频 视角场景 视频编解码 卷积神经网络 视频处理 编解码方法
下载PDF
基于边缘辅助极线Transformer的多视角场景重建 被引量:1
2
作者 童伟 张苗苗 +2 位作者 李东方 吴奇 宋爱国 《电子与信息学报》 EI CSCD 北大核心 2023年第10期3483-3491,共9页
基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断... 基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断方法仍需要较高的深度采样率,并且在静态或预先设定的范围内采样深度值,容易在物体边界以及光照遮挡等区域产生错误的深度推断。为了缓解这些问题,该文提出一种基于边缘辅助极线Transformer的密集深度推断模型。与现有工作相比,具体改进如下:将深度回归转换为多深度值分类进行求解,在有限的深度采样率和GPU占用下保证了推断精度;设计一种极线Transformer模块提高跨视角代价体聚合的可靠性,并引入边缘检测分支约束边缘特征在极线方向的一致性;为了提高弱纹理区域的精度,设计了基于概率成本体积的动态深度范围采样机制。与主流的方法在公开的数据集上进行了综合对比,实验结果表明所提模型能够在有限的显存占用下重建出稠密准确的3D场景。特别地,相比于Cas-MVSNet,所提模型的显存占用降低了35%,深度采样率降低约50%,DTU数据集的综合误差从0.355降低至0.325。 展开更多
关键词 视角场景重建 视角立体几何 深度估计 极线几何 TRANSFORMER
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部