-
题名机器人连杆参数的视觉标定
被引量:10
- 1
-
-
作者
张建忠
-
机构
东南大学电光源研究中心
-
出处
《制造业自动化》
2004年第11期32-34,共3页
-
文摘
机器人的连杆参数很难由几何方法测量。本文介绍了一种基于视觉测量装置的连杆参数确定方法,可对各种未知机械臂的连杆参数进行标定。
-
关键词
视觉寻位
连杆参数
连杆坐标系
-
Keywords
visual locating
link parameters
link frames 前言像机的安装位置确定。
-
分类号
TP242
[自动化与计算机技术—检测技术与自动化装置]
-
-
题名移动机器人视觉定位方法的研究与实现
被引量:7
- 2
-
-
作者
于秀芬
段海滨
龚华军
-
机构
南京航空航天大学自动化学院
-
出处
《数据采集与处理》
CSCD
2004年第4期433-437,共5页
-
文摘
针对移动机器人的局部视觉定位问题进行了研究。首先通过移动机器人视觉定位与目标跟踪系统求出目标质心特征点的位置时间序列 ,然后在分析二次成像法获取目标深度信息的缺陷的基础上 ,提出了一种获取目标的空间位置和运动信息的方法。该方法利用序列图像和推广卡尔曼滤波 ,目标获取采用了 HIS模型。在移动机器人满足一定机动的条件下 ,较精确地得到了目标的空间位置和运动信息。仿真结果验证了该方法的有效性和可行性。
-
关键词
移动机器人
运动信息
视觉定位
序列图像
仿真结果
特征点
深度信息
目标获取
目标跟踪系统
推广卡尔曼滤波
-
Keywords
mobile robot
visual locating
object tracking
image sequence
extended Kalman filtering
-
分类号
TP242
[自动化与计算机技术—检测技术与自动化装置]
TP391.41
[自动化与计算机技术—控制科学与工程]
-
-
题名基于时滞卡尔曼滤波的机器人视觉定位
被引量:6
- 3
-
-
作者
于秀芬
段海滨
龚华军
-
机构
南京航空航天大学自动化学院
-
出处
《电光与控制》
2004年第2期29-31,34,共4页
-
文摘
在移动机器人视觉伺服跟踪系统中,考虑到视觉系统的延时,本文在引入单目视觉测量信息的基础上,利用延时的扩展卡尔曼滤波方法进行了空间运动目标定位和运动信息获取。蒙特卡洛仿真实验结果验证了该方法的有效性和可行性。
-
关键词
移动机器人
视觉定位
单目视觉
时滞扩展卡尔曼滤波
-
Keywords
mobile robot
visual locating
monocular vision
time-delay extended Kalman filter
-
分类号
TN713
[电子电信—电路与系统]
TP242.62
[自动化与计算机技术—检测技术与自动化装置]
-
-
题名飞行器视觉定位方法的研究与仿真
被引量:2
- 4
-
-
作者
杨丽梅
郭立红
-
机构
中国科学院长春光学精密机械与物理研究所
-
出处
《电子器件》
EI
CAS
2006年第3期784-787,共4页
-
文摘
针对飞行器的视觉定位问题,提出了基于卡尔曼滤波技术的序列图像飞行器位置和运动参数进行研究的方法。该方法首先求取单目视觉图像飞行器形心特征点位置,并将其映射到三维目标空间中,利用α-β-γ稳态滤波技术,建立了序列图像帧间飞行器视觉定位的仿真数学模型。模型中既考虑了图像处理过程中噪声的影响,把加加速度作为白噪声考虑到数学模型中。根据仿真数学模型,用MATLAB语言对飞行器的位置、速度和加速度进行仿真分析,实验证明该方法对序列图像飞行器位置预测的仿真精度较高,且计算相对简便。
-
关键词
单目视觉
卡尔曼滤波
序列图像
视觉定位
仿真
-
Keywords
monocular vision
kalman filter
image sequences
visual locating
simulation
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于自适应下采样的移动机器人视觉定位技术
被引量:5
- 5
-
-
作者
缪立军
车自远
-
机构
浙江大学光电科学与工程学院
杭州学军中学
-
出处
《应用光学》
CAS
CSCD
北大核心
2017年第3期429-433,共5页
-
文摘
视觉定位是移动机器人定位的一个主要发展方向,针对传统视觉定位技术实时性差的问题,提出一种基于自适应下采样的快速视觉定位技术。通过预先得到的尺寸特征,并根据最小分辨尺寸计算下采样率,而后对下一副图像进行下采样及图像分割,根据对象坐标和下采样率确定对象在源图像中所处区域,对源图像该区域进行图像分割和特征提取。将提取的尺寸特征作为下一幅图像的输入,提取的视觉定位所需特征用于机器人的定位解算,由此在保证视觉定位精度的前提下有效减少视觉定位的时间。实验表明,对文中给定图像,传统方法处理100幅图像时间为20.23s,而文中所述技术对应图像处理时间为1.78s,仅为传统技术的8.8%,有效减少了图像处理时间,提高了机器人视觉定位的实时性。
-
关键词
移动机器人
视觉定位
图像处理
自适应下采样
-
Keywords
mobile robot
visual locating
figure processing
adaptive down sampling
-
分类号
TN202
[电子电信—物理电子学]
TP242
[自动化与计算机技术—检测技术与自动化装置]
-
-
题名微小芯片粘贴系统的拾取误差校正
被引量:2
- 6
-
-
作者
刘轩
汤建华
黄波
-
机构
长春光学精密机械与物理研究所
-
出处
《微计算机信息》
北大核心
2005年第11S期11-13,共3页
-
文摘
为达到微小芯片粘贴系统高精度的性能要求,以二极管粘片机为例在系统分析微小芯片粘贴系统运动控制的各误差因素的基础上,提出了误差校正的方法。特别针对微小芯片粘贴系统的高精度要求,采用了全闭环控制、视觉定位等先进技术。校正方法在具体工作中校正效果良好,对精度提高作用很大。
-
关键词
误差校正
运动控制
视觉定位
粘片机
-
Keywords
error adjusting
movement control
visual locating
die bonder
-
分类号
TP368
[自动化与计算机技术—计算机系统结构]
-
-
题名全自动刀片搬运系统电气设计与运用
- 7
-
-
作者
林志成
-
机构
厦门创云精智机械设备股份有限公司
-
出处
《福建冶金》
2022年第1期34-38,共5页
-
文摘
本设备应用于双端面磨床大规模生产,实现料盘上刀片到行星盘上和行星盘上刀片到料盘上全自动转移,大量解放操作人员。
-
关键词
自动抓取
运动控制
视觉定位
-
Keywords
automatic grabbing
motion control
visual locating
-
分类号
TH122
[机械工程—机械设计及理论]
-
-
题名嵌入式物体自动跟踪系统的研究
被引量:1
- 8
-
-
作者
余成波
杨翼驹
王帅
肖丹
柯艳红
-
机构
重庆理工大学远程测试与控制技术研究所
时删传感及先进检测技术重庆市重点实验室
-
出处
《半导体光电》
CAS
CSCD
北大核心
2014年第5期932-936,940,共6页
-
基金
国家自然科学基金项目(11242006)
重庆市科技创新能力建设计划项目(CSTC2013kjrc-tdjs40012)
-
文摘
针对眼角膜内皮细胞分析仪手动定位跟踪眼球,提出了一种基于嵌入式自动定位跟踪系统的设计方法,采用图像处理与红外测距相结合的方法,对目标物体进行了实时定位跟踪实验,实现了对目标物体的自动定位跟踪,x、y轴定位误差不超过7个像素点,z轴定位误差不超过3mm。经临床证实该方法具有高可靠性、实时性和可实施性。
-
关键词
嵌入式
视觉定位
红外测距
自动跟踪
-
Keywords
embedded system
visual locating
infrared distance measurement
automatic tracking
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于边缘密度的片状零件视觉定位方法
被引量:1
- 9
-
-
作者
王江涛
李淮江
邵芬
杨一军
-
机构
淮北师范大学物理与电子信息学院
-
出处
《吉林师范大学学报(自然科学版)》
2016年第1期81-83,共3页
-
基金
国家自然科学基金项目(61203272)
安徽省自然科学基金项目(1508085MF116
+5 种基金
1308085MF105)
安徽省国际科技合作计划项目(10080703003)
安徽省第七批"115"产业创新团队([2014]4号)
安徽省高校自然科学研究重点项目(KJ2013A237)
淮北师范大学教学研究项目(jy15128
jy13232)
-
文摘
采用机器人手臂对零件产品进行抓取已成为智能上下料的关键技术,在该技术中机器人手臂往往采用视觉定位的方法来获取零件的位置.针对一类表面平滑的片状零件定位问题,从观察零件和背景图像特征出发,设计一种基本边缘密度的零件检测方法.该方法首先对零件图像进行边缘检测,然后以求取一定尺度内的边缘密度.以密度为基准得到图像的密度图,进而对密度图像进行分割和标记连通域,最后得到零件的具体位置.对实际拍摄的零件图片进行检测的结果表明,所研究的方法可以可靠地对零件进行检测和定位.
-
关键词
片状零件
边缘密度
视觉定位
-
Keywords
flaky parts
edge density
visual locating
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于YOLO卷积神经网络的水稻秧苗行线检测
被引量:6
- 10
-
-
作者
陈旭君
王承祥
朱德泉
刘晓丽
邹禹
张顺
廖娟
-
机构
安徽农业大学工学院
安徽省农业科学院水稻研究所
-
出处
《江苏农业学报》
CSCD
北大核心
2020年第4期930-935,共6页
-
基金
安徽省重点研发计划项目(1804a07020111)
安徽省科技重大专项(18030701204)
+2 种基金
安徽省自然科学基金项目(1808085ME158)
安徽省高等学校自然科学研究项目(KJ2017A134)
安徽省大学生创新创业教育训练计划项目(201910364083)。
-
文摘
为了提高插秧机视觉导航精度,提出了一种基于YOLO卷积神经网络的水稻秧苗行线检测方法。首先对原始图像进行裁剪和拉伸预处理,划分为子图,然后由YOLO网络训练子图,根据秧苗目标框的位置信息确定秧苗行定位点,并拼接子图定位点获取全图秧苗行定位点,连接秧苗行定位点生成秧苗行线,计算相邻定位点间线段斜率以获得行线角度。试验结果表明,YOLO网络的秧苗区域检测性能优于Faster R-CNN和ResNet101,且秧苗行线的检测准确率高于Hough变换和聚类算法。该方法泛化性能强,可以准确检测秧苗行线,为插秧机视觉导航的路径规划提供可靠的定位信息。
-
关键词
视觉导航
秧苗行线
YOLO网络
秧苗行定位点
-
Keywords
visual navigation
rice seedling row lines
YOLO network
locating points of seedling row
-
分类号
S126
[农业科学—农业基础科学]
-
-
题名视频监测区的特定视觉特征快速定位方法研究
被引量:2
- 11
-
-
作者
张娟
-
机构
南京航空航天大学计算机科学与技术学院
-
出处
《计算机仿真》
CSCD
北大核心
2016年第3期355-358,共4页
-
文摘
针对视频监测区的特定视觉特征进行快速定位,在提高视频监测区的视觉目标定位方面具有重要意义。由于视频监测区一般设置在人流量大且多,使得监测区的目标特征不容易固定。传统的定位方法主要根据目标特征进行定位,当监测区内出现的大量类似的目标特征时不能及时进行检测筛选,导致定位准确度低的问题。提出视频监测区的特定视觉特征快速定位方法研究。通过混合高斯背景模型构建视频监测区多态散布模型,对监测区域的视频图像进行去噪处理,并提取视频图像颜色特征,利用颜色直方图Euler距离实现特定图像特征的跟踪匹配,实现对视觉检测区域的特定视觉特征快速识别定位。实验结果表明,改进的定位方法相比传统算法,对相同视频片段的1000幅图像进行特定视觉特征快速定位时,定位准确度高,时间短。
-
关键词
视频监测区
特定视觉特征
快速定位
-
Keywords
Video monitoring area
Specific visual features
fast locating
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-
-
题名一种基于大视野的微操作系统的目标定位方法
- 12
-
-
作者
武栋梁
周权
-
机构
西北工业大学机电学院
-
出处
《机电一体化》
2010年第12期78-83,共6页
-
文摘
针对微操作系统中位于视野之外的操作对象的任意性,提出了一种对显微镜视野之外操作对象的自动定位方法,实验证明,该方法能将操作对象自动移至显微镜视场内,可提高工作效率,提高自动化程度。
-
关键词
微操作
大视野
定位
-
Keywords
micromanipulation large visual field object locating
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-