期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于卷积神经网络的多路视频多视角场景编解码方法
1
作者
于夫
《长江信息通信》
2024年第6期85-88,共4页
常规的多路视频多视角场景编解码,主要采用视频单帧迭代处理实现编解码过程,忽略了视频中冗余信息对编解码效果的影响,导致编解码结果的视频帧峰值信噪比较低。因此,提出基于卷积神经网络的多路视频多视角场景编解码方法。构建双任务的...
常规的多路视频多视角场景编解码,主要采用视频单帧迭代处理实现编解码过程,忽略了视频中冗余信息对编解码效果的影响,导致编解码结果的视频帧峰值信噪比较低。因此,提出基于卷积神经网络的多路视频多视角场景编解码方法。构建双任务的双残差连接块卷积神经网络,在该网络中最小化视频空间点的距离值,匹配得到视频运动估计矢量特征并补偿,降低冗余信息的影响,在此基础上定义多路视频的编码内容,并通过重构解码帧实现多视角场景的编解码过程。实验结果表明:所提方法应用后得出的视频编解码结果,表现出的视频帧峰值信噪比较高,有效改善了视频质量,满足了多路视频多视角场景的实际应用需求。
展开更多
关键词
多
路视频
多
视角
场景
视频编解码
卷积神经网络
视频处理
编解码方法
下载PDF
职称材料
基于边缘辅助极线Transformer的多视角场景重建
被引量:
1
2
作者
童伟
张苗苗
+2 位作者
李东方
吴奇
宋爱国
《电子与信息学报》
EI
CSCD
北大核心
2023年第10期3483-3491,共9页
基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断...
基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断方法仍需要较高的深度采样率,并且在静态或预先设定的范围内采样深度值,容易在物体边界以及光照遮挡等区域产生错误的深度推断。为了缓解这些问题,该文提出一种基于边缘辅助极线Transformer的密集深度推断模型。与现有工作相比,具体改进如下:将深度回归转换为多深度值分类进行求解,在有限的深度采样率和GPU占用下保证了推断精度;设计一种极线Transformer模块提高跨视角代价体聚合的可靠性,并引入边缘检测分支约束边缘特征在极线方向的一致性;为了提高弱纹理区域的精度,设计了基于概率成本体积的动态深度范围采样机制。与主流的方法在公开的数据集上进行了综合对比,实验结果表明所提模型能够在有限的显存占用下重建出稠密准确的3D场景。特别地,相比于Cas-MVSNet,所提模型的显存占用降低了35%,深度采样率降低约50%,DTU数据集的综合误差从0.355降低至0.325。
展开更多
关键词
多
视角
场景
重建
多
视角
立体几何
深度估计
极线几何
TRANSFORMER
下载PDF
职称材料
题名
基于卷积神经网络的多路视频多视角场景编解码方法
1
作者
于夫
机构
[
出处
《长江信息通信》
2024年第6期85-88,共4页
文摘
常规的多路视频多视角场景编解码,主要采用视频单帧迭代处理实现编解码过程,忽略了视频中冗余信息对编解码效果的影响,导致编解码结果的视频帧峰值信噪比较低。因此,提出基于卷积神经网络的多路视频多视角场景编解码方法。构建双任务的双残差连接块卷积神经网络,在该网络中最小化视频空间点的距离值,匹配得到视频运动估计矢量特征并补偿,降低冗余信息的影响,在此基础上定义多路视频的编码内容,并通过重构解码帧实现多视角场景的编解码过程。实验结果表明:所提方法应用后得出的视频编解码结果,表现出的视频帧峰值信噪比较高,有效改善了视频质量,满足了多路视频多视角场景的实际应用需求。
关键词
多
路视频
多
视角
场景
视频编解码
卷积神经网络
视频处理
编解码方法
Keywords
multi-channel video
Multi perspective scenes
Video encoding and decoding
Conv-olutional neural network
Video processing
Encoding and decoding methods
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于边缘辅助极线Transformer的多视角场景重建
被引量:
1
2
作者
童伟
张苗苗
李东方
吴奇
宋爱国
机构
南京理工大学机械工程学院
上海交通大学电子信息与电气工程学院
福州大学电气工程与自动化学院
东南大学仪器科学与工程学院
出处
《电子与信息学报》
EI
CSCD
北大核心
2023年第10期3483-3491,共9页
基金
国家自然科学基金(U1933125,62171274)
国家自然科学基金“叶企孙”重点项目(U2241228)
+1 种基金
国防创新特区项目(193-CXCY-A04-01-11-03,223-CXCY-A04-05-09-01)
上海市级科技重大专项(2021SHZDZX)。
文摘
基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断方法仍需要较高的深度采样率,并且在静态或预先设定的范围内采样深度值,容易在物体边界以及光照遮挡等区域产生错误的深度推断。为了缓解这些问题,该文提出一种基于边缘辅助极线Transformer的密集深度推断模型。与现有工作相比,具体改进如下:将深度回归转换为多深度值分类进行求解,在有限的深度采样率和GPU占用下保证了推断精度;设计一种极线Transformer模块提高跨视角代价体聚合的可靠性,并引入边缘检测分支约束边缘特征在极线方向的一致性;为了提高弱纹理区域的精度,设计了基于概率成本体积的动态深度范围采样机制。与主流的方法在公开的数据集上进行了综合对比,实验结果表明所提模型能够在有限的显存占用下重建出稠密准确的3D场景。特别地,相比于Cas-MVSNet,所提模型的显存占用降低了35%,深度采样率降低约50%,DTU数据集的综合误差从0.355降低至0.325。
关键词
多
视角
场景
重建
多
视角
立体几何
深度估计
极线几何
TRANSFORMER
Keywords
Multiview scene reconstruction
Multi-View Stereo(MVS)
Depth inference
Epipolar geometry
Transformer
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于卷积神经网络的多路视频多视角场景编解码方法
于夫
《长江信息通信》
2024
0
下载PDF
职称材料
2
基于边缘辅助极线Transformer的多视角场景重建
童伟
张苗苗
李东方
吴奇
宋爱国
《电子与信息学报》
EI
CSCD
北大核心
2023
1
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部