期刊文献+
共找到15篇文章
< 1 >
每页显示 20 50 100
虚拟现实视频传输架构和关键技术 被引量:13
1
作者 郭宗明 班怡璇 谢澜 《中兴通讯技术》 2017年第6期19-23,共5页
介绍了虚拟现实(VR)视频传输架构,提出了两种传输方式:全景传输和视点传输。全景传输可提供多角度质量均匀的图像,但存在高码率和带宽浪费问题;视点传送仅传输视点范围内图像,可减少码率浪费,但存在头部运动延迟问题。提出的视点自适应... 介绍了虚拟现实(VR)视频传输架构,提出了两种传输方式:全景传输和视点传输。全景传输可提供多角度质量均匀的图像,但存在高码率和带宽浪费问题;视点传送仅传输视点范围内图像,可减少码率浪费,但存在头部运动延迟问题。提出的视点自适应传输技术、视点预测方法,可以较好地实现低码率、高质量的VR视频传输。 展开更多
关键词 VR视频 视点自适应传输 非均匀映射传输 分块传输 视点预测 用户质量优化
下载PDF
基于视点预测的大规模地形的实时渲染 被引量:7
2
作者 王响 雷小永 戴树岭 《系统仿真学报》 CAS CSCD 北大核心 2013年第6期1202-1206,共5页
实时渲染中帧速率往往与地形规模呈反比,尤其是大规模地形的渲染,在单PC下很难达到实时。对此提出了一种基于视点的可见地形预测算法,动态加载地形数据,降低了图形硬件需要处理的数据量,有效提高了大规模地形的渲染速率。同时,针对大范... 实时渲染中帧速率往往与地形规模呈反比,尤其是大规模地形的渲染,在单PC下很难达到实时。对此提出了一种基于视点的可见地形预测算法,动态加载地形数据,降低了图形硬件需要处理的数据量,有效提高了大规模地形的渲染速率。同时,针对大范围地形集中加载引起的画面停滞现象,采用外推算法对视点的运动进行预测,对即将进入视锥内的地形数据进行提前加载。实验结果表明,随着地形规模的增大,该方法的渲染速率变化小,实时性能良好,场景画面平滑流畅,可用于虚拟现实或仿真中的地形构建、实时生成等相关领域。 展开更多
关键词 地形渲染 视点预测 外推算法 提前加载
下载PDF
基于强化学习的立体全景视频自适应流 被引量:4
3
作者 兰诚栋 饶迎节 +1 位作者 宋彩霞 陈建 《电子与信息学报》 EI CSCD 北大核心 2022年第4期1461-1468,共8页
针对当前立体全景视频传输缺少有效的流自适应方法,且传统全景视频流自适应策略传输双目立体全景视频使得传输数据加倍,所需带宽巨大的问题,该文提出一种基于多智能体强化学习的立体全景视频非对称传输自适应流方法,以实时应对网络带宽... 针对当前立体全景视频传输缺少有效的流自适应方法,且传统全景视频流自适应策略传输双目立体全景视频使得传输数据加倍,所需带宽巨大的问题,该文提出一种基于多智能体强化学习的立体全景视频非对称传输自适应流方法,以实时应对网络带宽波动。首先,根据人眼对视频显著性区域的偏爱,左右视点中每个瓦片(tile)对立体视频的感知质量的贡献度不同,提出一个基于tiles的左右视点观看概率预测方法。其次,设计了一种基于策略-评价(Actor-Critic)的多智能体强化学习框架,对左右视点进行联合码率控制。最后,根据模型结构和双目抑制原理,设计合理的奖励函数。实验结果表明,与传统流自适应传输策略相比,该文所提方法更加适用于基于tiles的立体全景视频传输,实现在有限带宽下提高用户的体验质量(QoE),为立体全景视频联合码率控制提供了一种全新的方法和思路。 展开更多
关键词 立体全景视频传输 多智能体强化学习 视点预测 联合码率控制
下载PDF
基于视点预测的全景视频码率自适应策略
4
作者 刘克峰 李泽平 《计算机应用研究》 CSCD 北大核心 2023年第8期2508-2513,2542,共7页
为解决全景视频传输中存在的视频卡顿多、用户体验质量(quality of experience,QoE)低等问题,研究当前主流的视点自适应传输方案,提出一种基于视点预测的码率自适应策略(VPBAS)。首先,构建了一种基于长短期记忆网络和全卷积网络的视点... 为解决全景视频传输中存在的视频卡顿多、用户体验质量(quality of experience,QoE)低等问题,研究当前主流的视点自适应传输方案,提出一种基于视点预测的码率自适应策略(VPBAS)。首先,构建了一种基于长短期记忆网络和全卷积网络的视点预测模型,模型将视点数据和视频显著性信息进行特征融合,实现不同模态数据的相互补充和修正,提高视点预测的准确率;然后,客户端采用随机森林算法预测当前的可用带宽,并根据视点预测结果和可用带宽信息为视频分块选择码率;最后,客户端把选择的码率信息定期发送给服务器,服务器根据反馈的信息向客户端推送最佳码率的全景视频流,这种交互过程在视频播放期间不断地重复,直至客户端观看完毕。实验结果表明,与现有传输方案相比,VPBAS能有效提高带宽受限情况下的视频观看体验。 展开更多
关键词 全景视频 自适应传输 视点预测 体验质量 码率控制
下载PDF
图像视点预测模型及设计图的注意力影响因素研究 被引量:1
5
作者 侯士江 侯英 +1 位作者 冯希 王兆琦 《设计》 2022年第14期134-136,共3页
为了满足设计图的细粒度视点预测要求,开发了基于深度学习的视点预测模型,以实现热点图生成、特征要素辨识及设计方案的交互式即时检测,并讨论了注意力影响因素。引入显著图来模拟视觉注意力分配机制,提出基于全卷积神经网络的图像视点... 为了满足设计图的细粒度视点预测要求,开发了基于深度学习的视点预测模型,以实现热点图生成、特征要素辨识及设计方案的交互式即时检测,并讨论了注意力影响因素。引入显著图来模拟视觉注意力分配机制,提出基于全卷积神经网络的图像视点预测模型(IVPM),克服了眼动仪测试的诸多限制,模型在图形设计重要性(GDI)数据集上训练后具有出色的时间性能,实验验证了图像的低层级属性是设计注意力的主要影响因素。IVPM可以应用于自然图像、海报设计、包装设计、产品设计以及界面设计等领域,对相关设计工作具有一定的参考价值。 展开更多
关键词 注意力管理 眼动跟踪 视点预测 产品设计 深度学习
下载PDF
基于OGRE的大规模场景核外渲染的研究
6
作者 王全占 吴博 《成都电子机械高等专科学校学报》 2011年第1期33-37,共5页
传统视景系统中采用所有模型全部加载进内存的方式,不适用于超过了内存大小的模型的渲染,也严重影响实时性。针对此问题,本文首先将大型场景模型进行预处理,切分成适合核外数据加载的较小模型,然后通过视点预测、模型预加载、视域外模... 传统视景系统中采用所有模型全部加载进内存的方式,不适用于超过了内存大小的模型的渲染,也严重影响实时性。针对此问题,本文首先将大型场景模型进行预处理,切分成适合核外数据加载的较小模型,然后通过视点预测、模型预加载、视域外模型的卸载等操作实现超大场景模型的实时渲染。经实验验证,该方法可以实现超过内存限制的大场景模型的实时绘制,效率较高。 展开更多
关键词 视点预测 核外算法 动态加载
下载PDF
视觉注意与显著性计算综述 被引量:8
7
作者 孙晓帅 姚鸿勋 《智能计算机与应用》 2014年第5期14-18,共5页
人类视觉系统通过选择性视觉注意机制来对场景中位于重要位置的视觉内容进行动态的序列采样,进而获取必要的视觉信息。本文系统地总结了计算化注意模型和显著度计算领域的研究现状。通过在YORK-120和MIT-1003这两个国际标准数据库上进... 人类视觉系统通过选择性视觉注意机制来对场景中位于重要位置的视觉内容进行动态的序列采样,进而获取必要的视觉信息。本文系统地总结了计算化注意模型和显著度计算领域的研究现状。通过在YORK-120和MIT-1003这两个国际标准数据库上进行的人眼视点预测实验,本文对20种计算模型的实际性能进行了详细的评估和对比。结果表明,基于统计的模型要比其它的方法更容易获取较好的预测结果。 展开更多
关键词 视觉注意 显著度 生物启发式方法 人眼注视点预测
下载PDF
融合注视点预测和流形学习的显著性目标分割 被引量:1
8
作者 曾成 李世其 +1 位作者 刘世平 付艳 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2016年第10期64-69,共6页
针对现有显著性分割算法在图像背景复杂时先验知识不够健壮的问题,提出一种融合注视点预测和流形学习的显著性目标分割算法,能有效地对复杂场景中的显著性目标进行分割.该算法通过引入注视点先验知识和提取超像素分割图,预测并粗分割场... 针对现有显著性分割算法在图像背景复杂时先验知识不够健壮的问题,提出一种融合注视点预测和流形学习的显著性目标分割算法,能有效地对复杂场景中的显著性目标进行分割.该算法通过引入注视点先验知识和提取超像素分割图,预测并粗分割场景中的显著性目标;为了进一步提高显著性分割的性能,利用色彩模型(CIE-Lab)空间的颜色对比度表示超像素的特征;通过基于流形学习的方法对粗分割区域进行显著性优化,提高了分割精度.实验结果表明:在处理复杂图像集过程中,相比其他分割算法,该算法性能提高了21.8%,并且在不同环境下的显著性目标分割的鲁棒性更好. 展开更多
关键词 显著性目标分割 视点预测 流形学习 色彩模型 超像素分割
原文传递
融合多重注意力机制的人眼注视点预测
9
作者 孔力 胡学敏 +3 位作者 汪顶 刘艳芳 张龑 陈龙 《中国图象图形学报》 CSCD 北大核心 2022年第12期3503-3515,共13页
目的经典的人眼注视点预测模型通常采用跳跃连接的方式融合高、低层次特征,容易导致不同层级之间特征的重要性难以权衡,且没有考虑人眼在观察图像时偏向中心区域的问题。对此,本文提出一种融合注意力机制的图像特征提取方法,并利用高斯... 目的经典的人眼注视点预测模型通常采用跳跃连接的方式融合高、低层次特征,容易导致不同层级之间特征的重要性难以权衡,且没有考虑人眼在观察图像时偏向中心区域的问题。对此,本文提出一种融合注意力机制的图像特征提取方法,并利用高斯学习模块对提取的特征进行优化,提高了人眼注视点预测的精度。方法提出一种新的基于多重注意力机制(multiple attention mechanism,MAM)的人眼注视点预测模型,综合利用3种不同的注意力机制,对添加空洞卷积的ResNet-50模型提取的特征信息分别在空间、通道和层级上进行加权。该网络主要由特征提取模块、多重注意力模块和高斯学习优化模块组成。其中,空洞卷积能够有效获取不同大小的感受野信息,保证特征图分辨率大小的不变性;多重注意力模块旨在自动优化获得的低层丰富的细节信息和高层的全局语义信息,并充分提取特征图通道和空间信息,防止过度依赖模型中的高层特征;高斯学习模块用来自动选择合适的高斯模糊核来模糊显著性图像,解决人眼观察图像时的中心偏置问题。结果在公开数据集SALICON(saliency in context)上的实验表明,提出的方法相较于同结构的SAM-Res(saliency attention modal)模型以及DINet(dilated inception network)模型在相对熵(Kullback-Leibler divergence,KLD)、sAUC(shuffled area under ROC curve)和信息增益(information gain,IG)评价标准上分别提高了33%、0.3%和6%;53%、0.5%和192%。结论实验结果表明,提出的人眼注视点预测模型能通过加权的方式分别提取空间、通道、层之间的特征,在多数人眼注视点预测指标上超过了主流模型。 展开更多
关键词 人眼注视点预测 多重注意力 层注意力 通道注意力 空间注意力 高斯学习
原文传递
基于超复数小波和图像空域的卷积网络融合注视点预测算法
10
作者 李策 朱子重 +2 位作者 许大有 高伟哲 靳山岗 《兰州理工大学学报》 CAS 北大核心 2021年第5期76-84,共9页
针对已有注视点预测模型存在特征细节缺失、尺度单一和背景信息干扰严重导致的注视点预测精度偏低等问题,提出了一种基于超复数小波和图像空域的卷积网络融合注视点预测算法.首先,针对细节特征丢失问题,使用超复数小波变换在频域中提取... 针对已有注视点预测模型存在特征细节缺失、尺度单一和背景信息干扰严重导致的注视点预测精度偏低等问题,提出了一种基于超复数小波和图像空域的卷积网络融合注视点预测算法.首先,针对细节特征丢失问题,使用超复数小波变换在频域中提取图像的细节特征,与卷积网络提取的空域特征进行融合.然后,通过空洞空间金字塔池化模块,融合不同感受得到的特征图,有效解决了特征尺度单一的问题.最后,引入了残差卷积注意力模块,结合空间和通道的注意力机制,能够有效抑制背景信息的干扰,提高注视点预测精度.在SALICON数据集上,CC、sAUC和SIM评价指标下,该算法的性能达到0.8847、0.7693和0.7780;在CAT2000数据集上,该算法在相应指标下的性能为0.7355、0.8701和0.6645.主客观对比实验结果表明,该算法具有较好的注视点预测能力. 展开更多
关键词 视点预测 超复数小波变换 空域特征 卷积网络
下载PDF
场景视点偏移的激光雷达点云分割 被引量:5
11
作者 郑阳 林春雨 +2 位作者 廖康 赵耀 薛松 《中国图象图形学报》 CSCD 北大核心 2021年第10期2514-2523,共10页
目的激光雷达采集的室外场景点云数据规模庞大且包含丰富的空间结构细节信息,但是目前多数点云分割方法并不能很好地平衡结构细节信息的提取和计算量之间的关系。一些方法将点云变换到多视图或体素化网格等稠密表示形式进行处理,虽然极... 目的激光雷达采集的室外场景点云数据规模庞大且包含丰富的空间结构细节信息,但是目前多数点云分割方法并不能很好地平衡结构细节信息的提取和计算量之间的关系。一些方法将点云变换到多视图或体素化网格等稠密表示形式进行处理,虽然极大地减少了计算量,但却忽略了由激光雷达成像特点以及点云变换引起的信息丢失和遮挡问题,导致分割性能降低,尤其是在小样本数据以及行人和骑行者等小物体场景中。针对投影过程中的空间细节信息丢失问题,根据人类观察机制提出了一种场景视点偏移方法,以改善三维(3D)激光雷达点云分割结果。方法利用球面投影将3D点云转换为2维(2D)球面正视图(spherical front view,SFV)。水平移动SFV的原始视点以生成多视点序列,解决点云变换引起的信息丢失和遮挡的问题。考虑到多视图序列中的冗余,利用卷积神经网络(convolutional neural networks,CNN)构建场景视点偏移预测模块来预测最佳场景视点偏移。结果添加场景视点偏移模块后,在小样本数据集中,行人和骑行者分割结果改善相对明显,行人和骑行者(不同偏移距离下)的交叉比相较于原方法最高提升6.5%和15.5%。添加场景视点偏移模块和偏移预测模块后,各类别的交叉比提高1.6%Institute)上与其他算法相比,行人和骑行者的分割结果取得了较大提升,其中行人交叉比最高提升9.1%。结论本文提出的结合人类观察机制和激光雷达点云成像特点的场景视点偏移与偏移预测方法易于适配不同的点云分割方法,使得点云分割结果更加准确。 展开更多
关键词 点云分割 球面正视图(SFV) 场景视点偏移 场景视点偏移预测 卷积神经网络(CNN)
原文传递
3D-HEVC中改进的NBDV推导方法 被引量:2
12
作者 杨秋翔 李英 +1 位作者 雷海卫 杜博 《计算机工程与设计》 北大核心 2016年第9期2459-2463,2525,共6页
为提高基于相邻块视差矢量(disparity vector from neighboring blocks,NBDV)的精确度,提出一种NBDV推导的改进算法。依据不同候选位置上DV被最终选为NBDV的概率和率失真优化算法,选出当前编码单元(coding unit,CU)的空域、时域相邻块... 为提高基于相邻块视差矢量(disparity vector from neighboring blocks,NBDV)的精确度,提出一种NBDV推导的改进算法。依据不同候选位置上DV被最终选为NBDV的概率和率失真优化算法,选出当前编码单元(coding unit,CU)的空域、时域相邻块所有最优视差矢量(disparity vector,DV),重新建立NBDV候选列表,根据列表中DV的数量,结合率失真优化算法推导出最终的NBDV。实验结果表明,改进算法较传统NBDV推导算法有大幅提高,NBDV更加精确,在保持码率,PSNR基本不变的情况下,编码时间平均可减少21.73%。 展开更多
关键词 三维视频编码 基于三维视频编码的高效视频编码标准 视点预测工具 视差矢量推导 基于相邻块视差矢量推导
下载PDF
基于DPRAP的高级残差预测算法可重构设计与实现
13
作者 谢晓燕 王淑欣 +2 位作者 朱筠 张西红 姬申涛 《光电子.激光》 CAS CSCD 北大核心 2022年第2期217-224,共8页
针对三维高效视频编码(three dimensional-high efficiency video coding,3D-HEVC)中高级残差预测(advanced residual prediction,ARP)算法没有充分利用深度图的数据特性而导致编码时间长、硬件加速资源占用率高的问题,提出了一种基于... 针对三维高效视频编码(three dimensional-high efficiency video coding,3D-HEVC)中高级残差预测(advanced residual prediction,ARP)算法没有充分利用深度图的数据特性而导致编码时间长、硬件加速资源占用率高的问题,提出了一种基于可重构硬件实现的ARP快速选择算法。本文首先依据深度图的数据特性将其分为近中远3个区域,然后设定阈值对不同区域下的高级残差预测算法进行快速选择,从而达到减少编码时间的目的。实验结果表明与标准平台HTM-16.1相比快速选择算法在平均峰值信噪比(peak signal to noise ratio,PSNR)的损耗仅为0.019dB的情况下编码时间降低8.10%。最后利用动态可编程可重构阵列处理器(dynamic programmable reconfigurable array processor,DPRAP)对ARP快速选择算法进行并行加速,再基于阵列处理器的重构机制提出一种可重构实现方案,达到对算法加速的同时降低硬件资源占用率的目的。实验表明所设计的可重构方案与并行方案相比总体减少了50%的处理元(process element,PE)数量和33.23%的指令数,平均加速比达到1.9。优化前后的算法结合视差估计进行对比验证,平均加速比达到2.5。因此本文对3D-HEVC算法的实时视频编码具有一定的参考价值。 展开更多
关键词 三维高效视频编码 深度图 视点预测 阵列处理器 并行化 可重构
原文传递
联合彩色信息的多视点深度视频视差矢量预测
14
作者 胡春悦 《信息技术》 2015年第10期113-116,共4页
多视点加深度(MVD)格式可以利用虚拟视点绘制技术生成任意视点的视频,能高效地向观看者提供立体感知。由于MVD中的深度视频与对应的彩色视频采集于同一场景,具有高度的相关性。因此,深度视频可以利用已编码的彩色信息辅助编码。提出一... 多视点加深度(MVD)格式可以利用虚拟视点绘制技术生成任意视点的视频,能高效地向观看者提供立体感知。由于MVD中的深度视频与对应的彩色视频采集于同一场景,具有高度的相关性。因此,深度视频可以利用已编码的彩色信息辅助编码。提出一种联合彩色信息的多视点深度视频视差矢量预测方法。该方法首先获得当前编码深度块对应位置的彩色块,提取彩色块预测得到的视差矢量作为深度块的一个候选视差矢量。然后,利用深度块信息计算得到另一个候选视差矢量。最后,对两个候选视差矢量通过计算下采样均方差,选择更精确的一个作为当前深度块的视差矢量预测值。实验结果表明,所提出的方法性能优于3D-HEVC编码平台HTM。 展开更多
关键词 深度视频编码 3D-HEVC 视差矢量 视点预测
下载PDF
基于显著性信息和视点合成预测的3D-HEVC编码方法
15
作者 余芳 安平 严徐乐 《上海大学学报(自然科学版)》 CAS CSCD 北大核心 2019年第5期679-691,共13页
传统的视频编码标准大多着重从减少信息冗余来提高率失真性能,而忽视了人类视觉系统(human visual system,HVS)多样性对视频编码的影响.针对目前先进的3D高效率视频编码(high efficiency video coding,HEVC)技术,提出了一种融合人眼视... 传统的视频编码标准大多着重从减少信息冗余来提高率失真性能,而忽视了人类视觉系统(human visual system,HVS)多样性对视频编码的影响.针对目前先进的3D高效率视频编码(high efficiency video coding,HEVC)技术,提出了一种融合人眼视觉特性的编码方法.首先建立3D显著性模型,根据显著性信息进行分区域编码;然后对原有的视点合成预测算法进行改进,避免深度块的边界效应;最后绘制生成新视点的视频.实验结果证明,该方法在保证主观质量基本不变的情况下,BD-rate可下降10%左右,绘制生成的新视点峰值信噪比(peaksignal to noise ratio,PSNR)可提高0.1dB左右,能有效提高编码效率. 展开更多
关键词 3D-HEVC 显著性信息 视点合成预测 绘制
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部