期刊文献+
共找到127篇文章
< 1 2 7 >
每页显示 20 50 100
TensorFlow平台下的视频目标跟踪深度学习模型设计 被引量:38
1
作者 刘帆 刘鹏远 +1 位作者 李兵 徐彬彬 《激光与光电子学进展》 CSCD 北大核心 2017年第9期277-285,共9页
训练模型复杂且训练集庞大导致深度学习的发展受到严重阻碍。使用Google最新开源的TensorFlow软件平台搭建了用于视频目标跟踪的深度学习模型。介绍了深度学习的原理和TensorFlow的平台特性,提出了使用TensorFlow软件平台设计的深度学... 训练模型复杂且训练集庞大导致深度学习的发展受到严重阻碍。使用Google最新开源的TensorFlow软件平台搭建了用于视频目标跟踪的深度学习模型。介绍了深度学习的原理和TensorFlow的平台特性,提出了使用TensorFlow软件平台设计的深度学习模型框架结构,并使用VOT2015标准数据集中的数据设计了相应的实验。经实验验证,该模型具有较高的计算效率和识别精度,并可便捷地调整网络结构,快速找到最优化模型,很好地完成视频目标识别跟踪任务。 展开更多
关键词 机器视觉 TensorFlow 深度学习 计算机视觉 目标跟踪
原文传递
煤矿井下移动机器人深度视觉自主导航研究 被引量:38
2
作者 马宏伟 王岩 杨林 《煤炭学报》 EI CAS CSCD 北大核心 2020年第6期2193-2206,共14页
煤矿井下移动机器人是煤矿机器人的主力军,煤矿井下移动机器人的自主导航是其研究的难点和热点。目前,煤矿井下移动机器人自主导航所必须的三维环境数据库尚未形成,尤其是制作高分辨率、多信息融合的煤矿井下高精度地图还处于研究阶段... 煤矿井下移动机器人是煤矿机器人的主力军,煤矿井下移动机器人的自主导航是其研究的难点和热点。目前,煤矿井下移动机器人自主导航所必须的三维环境数据库尚未形成,尤其是制作高分辨率、多信息融合的煤矿井下高精度地图还处于研究阶段。为了有效解决煤矿井下移动机器人自主导航问题,构建了基于深度相机的机器视觉系统,提出了一种基于深度视觉的导航方法,自主导航过程分为地图创建与自主运行两个阶段。在地图创建中:①对深度视觉数据进行特征提取与匹配,利用10组煤矿井下真实视频截图,对比测试5种特征提取与匹配组合算法,结果表明SURF+SURF+FLANN与GFTT+BRIEF+BF算法能够在煤矿井下获得良好匹配结果;②建立煤矿井下移动机器人深度视觉定位与建图问题的捆集调整迭代最近点图模型(Iterative Closest Points Bundle Adjustment,ICP BA);③通过图优化方式估计当前观测下的最优位姿与环境路标点坐标。在实验室场景中利用提出的ICP-BA图优化算法,建立了包含关键位姿与三维环境点的原始点云地图。在自主运行阶段:①通过八叉树数据结构,将点云地图转化为移动机器人运动规划可使用的Octomap导航地图,实验结果表明,Octomap导航地图分辨率可调、系统资源占用低、索引效率高;②使用三维到二维映射的视觉图匹配PNP(Perspective N Points)方法进行实时在线重定位;③基于图搜索的A*(A Star)路径规划作为轨迹规划初值,自定义最小化能量损失泛函为最小化加加速度的变化率(Minimum-Snap)求解2次规划问题,生成用于煤矿井下移动机器人运动执行的轨迹。在Matlab开发环境中设计随机导航地图,生成时间分配、位置、速度、加速度、加加速度的最优轨迹规划结果,验证了运动规划算法的正确性。通过理论分析和实验验证,表明笔者提出的煤矿井下移动机器人深度视觉自主导 展开更多
关键词 煤矿井下移动机器人 自主导航 深度视觉 地图创建 重定位 运动规划
下载PDF
融合毫米波雷达与深度视觉的多目标检测与跟踪 被引量:24
3
作者 甘耀东 郑玲 +1 位作者 张志达 李以农 《汽车工程》 EI CSCD 北大核心 2021年第7期1022-1029,1056,共9页
针对现有融合毫米波雷达与传统机器视觉的车辆检测算法准确率较低与实时性较差的问题,本文中对多目标检测与跟踪进行研究。首先,利用阈值筛选和前后帧数据关联方法对毫米波雷达数据进行预处理,进而提出一种用于毫米波雷达数据跟踪的自... 针对现有融合毫米波雷达与传统机器视觉的车辆检测算法准确率较低与实时性较差的问题,本文中对多目标检测与跟踪进行研究。首先,利用阈值筛选和前后帧数据关联方法对毫米波雷达数据进行预处理,进而提出一种用于毫米波雷达数据跟踪的自适应扩展卡尔曼滤波算法。然后,为提高目标检测精度与速度,基于采集到的实车数据集训练卷积神经网络,完成深度视觉的多车辆检测。最后,采用决策级融合策略融合毫米波雷达与深度视觉信息,设计了一种用于复杂交通环境下前方车辆多目标检测与跟踪的框架。为验证所设计的框架,进行了不同交通环境下的实车实验。结果表明:该方法可实时检测跟踪前方车辆,具有比融合毫米波雷达与传统机器视觉的车辆检测方法更好的可靠性与鲁棒性。 展开更多
关键词 车辆检测 目标跟踪 毫米波雷达 深度视觉 自适应卡尔曼滤波 神经网络
下载PDF
基于深度视觉原理的工作面液压支架支撑高度与顶梁姿态角测量方法研究 被引量:22
4
作者 任怀伟 李帅帅 +3 位作者 赵国瑞 张科学 杜明 周杰 《采矿与安全工程学报》 EI CSCD 北大核心 2022年第1期72-81,93,共11页
针对工作面液压支架姿态传统接触式测量方法存在的传感器数量多、故障率高、解算误差大、可视性差等问题,建立了一种基于支架运动机理的液压支架姿态视觉测量模型,提出了一种基于深度视觉原理的液压支架支撑高度与顶梁姿态角测量方法,... 针对工作面液压支架姿态传统接触式测量方法存在的传感器数量多、故障率高、解算误差大、可视性差等问题,建立了一种基于支架运动机理的液压支架姿态视觉测量模型,提出了一种基于深度视觉原理的液压支架支撑高度与顶梁姿态角测量方法,并搭建了测量系统。该测量方法通过在液压支架顶梁上布设RGB-D相机,利用深度视觉技术获取液压支架底座彩色信息和深度信息并实现二者数据流的同步,通过ORB算法和FLANN算法实现底座特征点的快速提取与匹配,基于空间3D-3D的ICP模型估计相邻时刻相机位姿变化,结合液压支架姿态视觉测量模型设计姿态解算算法完成支撑高度和顶梁姿态角参数解算。测量实验结果表明:该方法液压支架姿态参数解算速度快,稳定性好,实现了液压支架内部姿态的非接触实时性监测,同时该姿态解算算法可保证液压支架支撑高度测量绝对误差在10 mm左右,顶梁姿态角测量绝对误差在2°以内,精度上能够满足井下液压支架姿态监测精度需求;此外,该方法减少了支架上传感器的数量,降低了安装与维修成本,为实现工作面综采设备运行位姿状态信息的精准感知与动态监测,以及智能化工作面的精准实时控制提供了技术支撑。 展开更多
关键词 液压支架 支撑高度 顶梁姿态角 深度视觉 智能开采
原文传递
双目立体视觉技术在果蔬采摘机器人中的应用 被引量:18
5
作者 蒋焕煜 彭永石 应义斌 《江苏大学学报(自然科学版)》 EI CAS 北大核心 2008年第5期377-380,共4页
采用双目立体视觉技术获取温室内果蔬的三维位置信息,用于指导果蔬采摘机器人进行自动化采摘作业.试验以植株上成熟的番茄作为研究对象,利用立体摄像机获取不同距离的成熟番茄的立体图像对,通过对图像进行灰度图像处理,将彩色图像转换... 采用双目立体视觉技术获取温室内果蔬的三维位置信息,用于指导果蔬采摘机器人进行自动化采摘作业.试验以植株上成熟的番茄作为研究对象,利用立体摄像机获取不同距离的成熟番茄的立体图像对,通过对图像进行灰度图像处理,将彩色图像转换为灰度图像.然后根据灰度图像对中像素点的相关性进行立体匹配,计算像素点的位置信息而获得一幅深度图像.最后对照番茄形心在深度图像中的位置,获取番茄的三维位置信息.试验结果表明,立体摄像机与番茄的距离小于1 000 mm时,番茄的距离误差为±20 mm. 展开更多
关键词 采摘机器人 番茄 深度信息 机器视觉 双目立体视觉
下载PDF
驾驶员昼间动态环境暖色调障碍物空间距离判识规律 被引量:20
6
作者 刘浩学 赵炜华 +2 位作者 刘凯峥 张娟 周晶 《交通运输工程学报》 EI CSCD 北大核心 2009年第2期105-109,共5页
随机选取32名驾驶员,获得绝对距离和相对距离判识数据。通过数据统计和回归分析,分析了驾驶员在地面动态环境下,对暖色调障碍物空间距离判识变化的定量规律。建立了障碍物在25、75、125m3种距离状态下,空间绝对距离与相对距离判识变化的... 随机选取32名驾驶员,获得绝对距离和相对距离判识数据。通过数据统计和回归分析,分析了驾驶员在地面动态环境下,对暖色调障碍物空间距离判识变化的定量规律。建立了障碍物在25、75、125m3种距离状态下,空间绝对距离与相对距离判识变化的6种数学模型。分析结果表明:在车辆行驶深度方向,驾驶员对暖色调障碍物空间绝对距离判识的准确性随距离增加而下降,相对距离判识准确性高于绝对距离;随车辆运行速度的增加,空间距离判识的准确性不断下降,且两者之间呈负指数变化关系;6种数学模型的相关系数不小于0.941,拟合度良好。 展开更多
关键词 道路交通安全 驾驶员 地面动态环境 暖色障碍物 深度视觉 空间距离判识
原文传递
基于三维深度卷积神经网络的车间生产行为识别 被引量:17
7
作者 刘庭煜 陆增 +3 位作者 孙毅锋 刘芳 何必秒 钟杰 《计算机集成制造系统》 EI CSCD 北大核心 2020年第8期2143-2156,共14页
传统的依赖视频监控的人员行为管理方式费时且易产生疏漏,难以适用复杂的生产制造环境,为了实现更加有效的人员行为管理,针对生产车间工作人员行为识别与智能监控问题,提出一种基于人体骨架信息的生产行为识别方法。基于三维深度视觉传... 传统的依赖视频监控的人员行为管理方式费时且易产生疏漏,难以适用复杂的生产制造环境,为了实现更加有效的人员行为管理,针对生产车间工作人员行为识别与智能监控问题,提出一种基于人体骨架信息的生产行为识别方法。基于三维深度视觉传感器采集人体骨架关节位置数据,用标准化重构方法对骨架关节数据进行归一化处理,合成人体行为的时空特征RGB图像。在此基础上构建深度卷积神经网络模型,进行时空域的生产行为识别。最后通过CUDA GPU加速环境下面向MSR-Action3D数据集和自建验证数据集NJUST3D进行实验验证,说明所提方法具有较高的准确率和实用价值。 展开更多
关键词 深度视觉 行为识别 骨架 深度学习 深度卷积神经网络模型
下载PDF
深度相机在计算机视觉与图形学上的应用研究(英文) 被引量:16
8
作者 向学勤 潘志庚 童晶 《计算机科学与探索》 CSCD 2011年第6期481-492,共12页
越来越多的应用如几何重建、碰撞检测、混合现实、手势识别等,都依赖于对三维场景准确且快速的分析。通过基于图像的分析或者激光扫描技术来获取场景的深度图,其代价高昂且十分耗时。作为距离测量中一种可替代的设备,深度相机拥有传统... 越来越多的应用如几何重建、碰撞检测、混合现实、手势识别等,都依赖于对三维场景准确且快速的分析。通过基于图像的分析或者激光扫描技术来获取场景的深度图,其代价高昂且十分耗时。作为距离测量中一种可替代的设备,深度相机拥有传统的三维测量系统所不具备的一些优点,如较低的价格以及较高的拍摄速度等。最近出现了一些小巧低廉的深度相机设备,这将给计算机视觉、计算机图形学、人机交互等领域带来一系列革命性的变化,吸引了众多研究者的关注。对深度相机最新发展情况进行了介绍,并报告了深度相机在计算机视觉、计算机图形学中的应用现状。 展开更多
关键词 深度相机 计算机视觉 计算机图形学
下载PDF
采摘机器人深度视觉伺服手-眼协调规划研究 被引量:16
9
作者 金玉成 高杨 +3 位作者 刘继展 胡春华 周尧 李萍萍 《农业机械学报》 EI CAS CSCD 北大核心 2021年第6期18-25,42,共9页
针对现有采摘机器人的识别采摘精度与效率偏低等问题,开展了采摘机器人深度视觉伺服手眼协调规划研究。开发了在手RealSense深度伺服的小型升降式采摘机器人,进行了采放果的工作空间与姿态分析,针对“眼在手上”模式建立了手眼协调的坐... 针对现有采摘机器人的识别采摘精度与效率偏低等问题,开展了采摘机器人深度视觉伺服手眼协调规划研究。开发了在手RealSense深度伺服的小型升降式采摘机器人,进行了采放果的工作空间与姿态分析,针对“眼在手上”模式建立了手眼协调的坐标变换模型。对采摘机器人提出了基于在手RealSense深度伺服的由远及近手眼协调策略,并根据RealSense与机械臂参数完成了基于深度视觉的远近景协调关键点间分段动作规划。手眼协调采摘试验表明,末端在X、Y、Z方向的平均定位精度为3.51、2.79、3.35 mm,平均耗时为19.24 s,其中机械臂从初始位开始采果的平均耗时为12.04 s,中间识别与运算的平均耗时为3.82 s,放果动作平均耗时为7.2 s,机械臂动作耗时占整个环节的80.2%。该机器人结构和在手RealSense深度伺服的手眼协调策略可满足采摘作业需求。 展开更多
关键词 采摘机器人 深度视觉 手眼协调 运动规划
下载PDF
基于机器视觉的轮胎花纹深度测量系统研究 被引量:14
10
作者 王希波 李爱娟 +1 位作者 高金胜 慈勤蓬 《国外电子测量技术》 2019年第4期66-70,共5页
轮胎花纹深度对行驶车辆的制动性能有重要影响,为了能够快速准确得测量出轮胎花纹的深度,开发了一套基于机器视觉的轮胎花纹深度自动测量系统。首先介绍了该轮胎花纹深度测量系统的结构组成,由两个摄像机、两个线激光发生器、一块反射... 轮胎花纹深度对行驶车辆的制动性能有重要影响,为了能够快速准确得测量出轮胎花纹的深度,开发了一套基于机器视觉的轮胎花纹深度自动测量系统。首先介绍了该轮胎花纹深度测量系统的结构组成,由两个摄像机、两个线激光发生器、一块反射镜、触发装置和盖板等组成;然后对轮胎花纹深度测量系统进行了数学建模,以利于对轮胎花纹图像的捕捉;最后在开发的轮胎花纹深度测量系统上进行了轮胎花纹深度测量的实车实验。实验结果表明,所开发的基于机器视觉的轮胎花纹深度测量系统能够自动识别出花纹的位置,并能够准确测量出轮胎花纹的深度,测量的绝对误差小于0.2mm,可以满足轮胎花纹测试的要求。 展开更多
关键词 轮胎花纹 深度测量 机器视觉 测量系统
下载PDF
驾驶员感知特性对隧道群交通安全的影响 被引量:13
11
作者 闫彬 陈红 魏建秋 《中国安全科学学报》 CAS CSCD 北大核心 2011年第11期16-21,共6页
针对高速公路隧道群对驾驶员感知特性的影响,以驾驶员的感知特性与高速公路隧道群行车安全的关系为研究对象,采用速度估计测试仪和深度知觉测试仪,在"铜汤高速-安徽段"沿线对高速公路隧道群行车途中的160名驾驶员进行实地测试... 针对高速公路隧道群对驾驶员感知特性的影响,以驾驶员的感知特性与高速公路隧道群行车安全的关系为研究对象,采用速度估计测试仪和深度知觉测试仪,在"铜汤高速-安徽段"沿线对高速公路隧道群行车途中的160名驾驶员进行实地测试,所得数据进行t检验和方差分析,用灰色建模软件V2.1进行关联度分析。结果表明:驾驶员的速度估计特性与高速公路隧道群驾驶员的年龄、驾龄以及连续行车时间具有较强的相关性,其中连续驾车时间的影响最大。年龄对驾驶员深度知觉准确性无显著影响;驾龄、连续行车时间对驾驶员的深视力准确性有显著影响。 展开更多
关键词 感知特性 隧道群 交通安全 速度估计 深视力
下载PDF
基于计算机视觉的深度估计方法 被引量:11
12
作者 江静 张雪松 《光电技术应用》 2011年第1期51-55,共5页
深度估计方法可分为主动视觉和被动视觉两类。介绍了被动视觉测距中的五种深度估计方法,包括立体视觉、运动测距、描影法、聚焦法和散焦法,分析了各自的成像原理、数学模型和测量方法。最后,对基于计算机视觉的深度估计方法进行总结,分... 深度估计方法可分为主动视觉和被动视觉两类。介绍了被动视觉测距中的五种深度估计方法,包括立体视觉、运动测距、描影法、聚焦法和散焦法,分析了各自的成像原理、数学模型和测量方法。最后,对基于计算机视觉的深度估计方法进行总结,分析了现有测量方法各自的局限性,提出算法进一步改进的方向是应用计算机视觉系统中需要的不同模板,联合依赖于实际环境的权重因子与被动深度估计算法相结合。这是当前计算机视觉研究的一个热点领域。 展开更多
关键词 计算机视觉 深度估计 被动测距 双目视觉 单目视觉
下载PDF
斜视矫正手术对不同类型斜视病人视觉功能的影响 被引量:11
13
作者 董玉红 《安徽医药》 CAS 2019年第10期2029-2032,共4页
目的研究斜视矫正手术对不同类型斜视病人视觉功能(visual performance,VP)的影响。方法选取2012年1月至2014年1月,于西安市中心医院行斜视矫正手术的96例病人作为研究对象。按照斜视类型将病人分为三组:先天性上斜肌麻痹(SOP)组14例;... 目的研究斜视矫正手术对不同类型斜视病人视觉功能(visual performance,VP)的影响。方法选取2012年1月至2014年1月,于西安市中心医院行斜视矫正手术的96例病人作为研究对象。按照斜视类型将病人分为三组:先天性上斜肌麻痹(SOP)组14例;共同性内斜视(CET)组19例;共同性外斜视(CXT)组63例。手术方法采用斜视矫正手术,CXT病人给予双眼或单眼行外直肌后徙术(LRR)或单眼LRR联合内直肌缩短术(MRMS),CET病人给予双眼或单眼内直肌后徙术(MRR)或单眼MRR联合外直肌缩短术(ERS),SOP病人给予双眼或单眼下斜肌(IO)断键并摘除多余肌肉组织,随访8周,每2周1次。分析各组病人的手术疗效及预后情况。结果CXT组、CET组、SOP组术后痊愈率分别为23.81%、31.58%、14.29%。三组在痊愈,基本痊愈,进步以及无效率之间,均差异无统计学意义(P>0.05)。CXT组、CET组、SOP组术后正位率分别为77.78%、84.21%、64.29%。CXT组、CET组、SOP组术后立体VP率分别为60.32%、68.42%、57.14%。CXT组、CET组、SOP组术后融合功能率分别为68.25%、78.95%、71.43%。三组均差异无统计学意义(P>0.05)。治疗后病人远立体视检测与近立体视检测结果中立体视结果均显著高于治疗前,均差异有统计学意义(均P<0.05)。结论斜视矫正手术对不同类型斜视病人的治疗疗效相近,不同类型斜视病人给予手术矫正后多数都能恢复双眼VP。 展开更多
关键词 斜视 眼外科手术 视轴矫正法 深度知觉 视觉 视觉 双眼
下载PDF
融合深度信息的视觉注意计算模型 被引量:11
14
作者 曾志宏 李建洋 郑汉垣 《计算机工程》 CAS CSCD 北大核心 2010年第20期200-202,共3页
针对Itti模型在特征选择上的局限性,借鉴心理学中有关视觉注意的研究成果,提出一种融合深度信息的视觉注意计算模型。该模型在基于图像分割的自适应立体匹配基础上提取深度特征,与亮度、方向、颜色特征相结合,实现空间显著性度量,并采... 针对Itti模型在特征选择上的局限性,借鉴心理学中有关视觉注意的研究成果,提出一种融合深度信息的视觉注意计算模型。该模型在基于图像分割的自适应立体匹配基础上提取深度特征,与亮度、方向、颜色特征相结合,实现空间显著性度量,并采用侧抑机制和WTA机制得到注意焦点。实验结果表明,新模型能较好地反映空间立体视觉信息对注意的影响,使计算结果能更符合人类视觉。 展开更多
关键词 注意焦点 深度信息 立体视觉 Itti模型
下载PDF
视差辨别正确率检测在间歇性外斜视术后立体视功能评估中的应用价值 被引量:10
15
作者 封利霞 姚婕颖 +2 位作者 陈丽 汤勇 侯方 《中华眼科杂志》 CAS CSCD 北大核心 2016年第8期584-588,共5页
目的 探讨视差辨别正确率检测在间歇性外斜视术后立体视功能评估中的应用价值.方法 病例对照研究.对2011年7月至2013年6月在安徽医科大学第一附属医院眼科行斜视矫正术后眼球正位的间歇性外斜视患者进行随访,使用Titmus图谱、Randot图谱... 目的 探讨视差辨别正确率检测在间歇性外斜视术后立体视功能评估中的应用价值.方法 病例对照研究.对2011年7月至2013年6月在安徽医科大学第一附属医院眼科行斜视矫正术后眼球正位的间歇性外斜视患者进行随访,使用Titmus图谱、Randot图谱和Frisby立体板分别进行立体视功能的检测,筛选出20例立体视功能恢复正常的成年人患者作为斜视组,门诊随机选取20例健康成年人作为健康对照组,采用自行编写的视差辨别正确率检测程序进行立体视功能检测.对两组的视差辨别正确率采用双因素方差分析,对重复测量结果进行组内相关系数(ICC)分析.结果 对健康对照组的重复测量结果分析显示视差辨别正确率检测方法具有较好的重测信度(ICC=0.99,P<0.01).斜视组对具有不同视差的组合光栅的辨别正确率分别为0.56±0.09、0.67±0.14、0.77±0.15、0.82±0.14、0.85±0.11、0.85±0.14、0.87±0.10、0.84±0.16,与对照组的辨别正确率0.77±0.09、0.88±0.09、0.93±0.08、0.91±0.09、0.95±0.08、0.96±0.05、0.97±0.06、0.96±0.04相比,差异有统计学意义(F=38.06,P<0.01);两组对组合光栅的辨别能力还受到了不同大小视差的影响,小视差条件下斜视组辨别正确率(0.67±0.12)和对照组的辨别正确率(0.86±0.07)的差异更大(F=4.84,P<0.05).结论 视差辨别正确率检测可较全面地评估被试者对具有不同视差的组合光栅的辨别能力,可发现常规立体图检测正常的间歇性外斜视术后患者所存在的立体视功能异常. 展开更多
关键词 外斜视 深度知觉 视觉差异
原文传递
基于编解码卷积神经网络的单张图像深度估计 被引量:10
16
作者 贾瑞明 刘立强 +1 位作者 刘圣杰 崔家礼 《图学学报》 CSCD 北大核心 2019年第4期718-724,共7页
针对传统方法在单目视觉图像深度估计时存在鲁棒性差、精度低等问题,提出一种基于卷积神经网络(CNN)的单张图像深度估计方法。首先,提出层级融合编码器-解码器网络,该网络是对端到端的编码器-解码器网络结构的一种改进。编码器端引入层... 针对传统方法在单目视觉图像深度估计时存在鲁棒性差、精度低等问题,提出一种基于卷积神经网络(CNN)的单张图像深度估计方法。首先,提出层级融合编码器-解码器网络,该网络是对端到端的编码器-解码器网络结构的一种改进。编码器端引入层级融合模块,并通过对多层级特征进行融合,提升网络对多尺度信息的利用率。其次,提出多感受野残差模块,其作为解码器的主要组成部分,负责从高级语义信息中估计深度信息。同时,多感受野残差模块可灵活地调整网络感受野大小,提高网络对多尺度特征的提取能力。在NYUD v2数据集上完成网络模型有效性验证。实验结果表明,与多尺度卷积神经网络相比,该方法在精度δ<1.25上提高约4.4%,在平均相对误差指标上降低约8.2%。证明其在单张图像深度估计的可行性。 展开更多
关键词 CNN 编码器-解码器 深度估计 单目视觉
下载PDF
基于飞行时间的三维成像研究进展和发展趋势 被引量:8
17
作者 侯飞 韩丰泽 +2 位作者 李国栋 孙怡 孙志斌 《导航与控制》 2018年第5期1-7,48,共8页
随着数字成像技术的发展,三维成像已被应用在许多领域中,如自动驾驶汽车、机器人和生物医学成像。基于飞行时间(Time of Flight),TOF的三维成像相机在记录强度和深度信息的同时,在成像速率、功耗、体积等方面有突出的优势,这也使得TOF... 随着数字成像技术的发展,三维成像已被应用在许多领域中,如自动驾驶汽车、机器人和生物医学成像。基于飞行时间(Time of Flight),TOF的三维成像相机在记录强度和深度信息的同时,在成像速率、功耗、体积等方面有突出的优势,这也使得TOF相机在诸如计算机图形、机器视觉、机器人控制中的应用越来越多。介绍了TOF相机的发展情况,详细分析了TOF相机的成像原理、误差来源,总结了当前基于。TOF相机的研究及应用情况。 展开更多
关键词 数字成像 飞行时间 三维成像 深度信息 机器视觉
原文传递
改良性融合性集合指标在间歇性外斜视中的应用 被引量:1
18
作者 李天玺 张童 +2 位作者 左晓霞 刘虎 王子衿 《中华眼科杂志》 CAS CSCD 北大核心 2024年第1期56-63,共8页
目的探讨改良性融合性集合指标——融合性集合幅度/斜视度数与间歇性外斜视患儿的外斜视控制情况、立体视功能及其他视功能之间的关系。方法横断面研究。纳入2020年8月至2021年6月在南京医科大学第一附属医院诊断为间歇性外斜视的患儿... 目的探讨改良性融合性集合指标——融合性集合幅度/斜视度数与间歇性外斜视患儿的外斜视控制情况、立体视功能及其他视功能之间的关系。方法横断面研究。纳入2020年8月至2021年6月在南京医科大学第一附属医院诊断为间歇性外斜视的患儿。将同视机法测量的融合性集合幅度与看远三棱镜法测量的斜视度数结合,获得改良性指标——融合性集合幅度/斜视度数。使用间歇性外斜视控制评分评估患儿看远及看近时的外斜视控制情况,分为控制良好(评分0~1)和控制较差(评分2~5)。采用Spearman相关分析、Mann-Whitney U检验、Fisher精确检验、χ^(2)检验、Logistic回归分析和中介效应分析进行统计学处理。结果本研究共纳入212例患儿,其中105例(49.5%)为男性,107例(50.5%)为女性;年龄为9.0(8.0,10.0)岁;201例(94.8%)有双眼融合视功能,11例(5.2%)无双眼融合视功能。有双眼融合视功能的患儿中,融合性集合幅度/斜视度数与看远看近外斜视控制评分均呈负相关(看远:r=-0.427,P<0.001;看近:r=-0.194,P=0.006)。融合性集合幅度/斜视度数是看远(OR=0.195;95%CI:0.060~0.630;P=0.006)和看近(OR=0.252;95%CI:0.085~0.746;P=0.013)外斜视控制情况的独立影响因素。看远(OR=3.110;95%CI:1.311~7.379;P=0.010)和看近(OR=2.780;95%CI:1.401~5.517;P=0.003)立体视功能也是看远外斜视控制情况的影响因素。但中介分析显示,立体视功能不是融合性集合幅度/斜视度数与看远外斜视控制情况之间关联的中介因素(看远:P=0.066;看近:P=0.181)。15例融合性集合幅度/斜视度数≥1.5°/PD的患儿均表现为外斜视控制良好。相反,融合性集合幅度/斜视度数<1.5°/PD的患儿表现为外斜视控制更差(看远:P=0.001;看近:P=0.040)、斜视度数更大(看远:P<0.001;看近:P<0.001)。结论改良性融合性指标——融合性集合幅度/斜视度数结合了同视机与三棱镜的测量结果,可用于评估间歇性外 展开更多
关键词 外斜视 会聚 深度知觉 视觉 双眼 视敏度 疾病严重程度指数
原文传递
基于深度图像的手势识别综述 被引量:7
19
作者 陈皓 路海明 《内蒙古大学学报(自然科学版)》 CAS CSCD 北大核心 2014年第1期105-111,共7页
手势是一种自然直观的人机交互方式,手势识别是新一代人机交互中的重要技术.深度图像可以方便的实现前景和背景的分割,提高手势识别的性能.从人手分割、特征提取和手势识别三个方面介绍了基于深度图像手势识别的研究现状及其应用,并对... 手势是一种自然直观的人机交互方式,手势识别是新一代人机交互中的重要技术.深度图像可以方便的实现前景和背景的分割,提高手势识别的性能.从人手分割、特征提取和手势识别三个方面介绍了基于深度图像手势识别的研究现状及其应用,并对其中存在的难点展开讨论. 展开更多
关键词 手势识别 深度图像 人机交互 计算机视觉
下载PDF
基于深度学习的钢筋绑扎机器人目标识别定位 被引量:6
20
作者 董国梁 张雷 辛山 《电子测量技术》 北大核心 2022年第11期35-44,共10页
为了解决钢筋绑扎机器人对绑扎点识别准确率低,定位精度差的问题,提出一种基于深度学习的钢筋绑扎机器人目标识别与定位方法。首先采用YOLOv4算法对绑扎点目标框识别和裁剪,完成绑扎点初始定位;其次设计轮廓角点选取方法,利用角点计算... 为了解决钢筋绑扎机器人对绑扎点识别准确率低,定位精度差的问题,提出一种基于深度学习的钢筋绑扎机器人目标识别与定位方法。首先采用YOLOv4算法对绑扎点目标框识别和裁剪,完成绑扎点初始定位;其次设计轮廓角点选取方法,利用角点计算绑扎点的图像坐标;之后通过融入CBAM注意力机制改进Monodepth算法的特征提取部分,解码部分引入路径增强PAN结构,以提高模型的特征提取能力,进一步提高立体匹配精度;最后通过双目立体视觉定位技术获得绑扎点深度信息,并由坐标变换求解钢筋绑扎机器人手眼坐标系映射关系,从而实现对绑扎点的精确识别和定位。实验结果表明:该方法针对绑扎点目标框的识别准确率达到了99.75%,每秒传输帧数达到54.65;在空间中的定位精度最大误差为11.6 mm。可较好地识别定位绑扎点位置,为自动绑扎工作提供有力支持。 展开更多
关键词 钢筋绑扎机器人 深度学习 目标识别 特征提取 深度估计 双目视觉
下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部