机器人无标定视觉伺服系统设计与实现
摘要:为了实现手眼关系无标定情况下的机械臂末端定位,针对单目手眼系统,设计并实现了一个基于图像的无标定视觉伺服系统。进行模块化的系统设计,使用卡尔曼滤波器在线估计关节-图像雅可比矩阵,根据关节-图像速度数学模型设计图像视觉伺服控制器,利用C++多线程技术开发各个并行算法模块,实现了在手眼关系完全无标定情况下机械臂末端的高精度定位。实验表明,该系统的定位精度为0.1像素。
0 引言
传统应用中,机械臂手眼系统对目标物体的操作都是基于标定过程完成的,标定工作包括:相机内参数标定[1]、机器人运动学参数标定和手眼关系标定[2-4]。但标定具有一些明显缺点[5-6],例如:(1)高温、强辐射等条件下无法进行标定;(2)系统结构改变,标定参数会发生变化,需要定期进行再标定;(3)标定过程繁复,需要专业的人员和设备,标定成本较高。这些标定工作严重限制了智能机器人的发展和进步,因此研究人员开始深入研究无标定视觉伺服,例如使用神经网络来拟合手眼关系,基于卡尔曼滤波估计雅可比矩阵、基于ADRC的无标定视觉伺服控制等[3]。
无标定视觉伺服(UVS)是在没有预先进行手眼关系标定的情况下,利用视觉反馈的信号形成闭环控制系统,引导机器人运动完成相关任务的技术[2]。根据视觉系统反馈信号是纯图像信息还是估计出的位置,UVS可分为基于图像的无标定视觉伺服(IBUVS)和基于位置的无标定视觉伺服(PBUVS)[7]。相较于PBUVS,IBUVS不需要相机参数,可以实现完全的无标定视觉伺服控制,使手眼系统具有更高的灵活性和智能性[8-9]。
本文拟采用IBUVS控制方案实现完全无标定的机械臂末端定位操作,从系统软硬件结构设计、关节-图像雅可比矩阵估计算法设计、控制器算法设计三方面展开论述,最后通过实验说明该系统设计的有效性和可行性。