开放科学(资源服务)标志码(OSID):
对接定位,尤其是端面圆特征对接定位,在产品自动化装配[1-2]、航天交会对接[3-4]、飞机大部件对接[5-6]、电子产品贴合等工程领域应用广泛。其通过数字化测量技术获取零部件的空间状态信息,并反馈给相关设备进行位姿调整,可大幅提高对接过程的柔性化。端面圆特征定位通常可由空间中的圆特征在不同坐标系下的相对旋转量和相对位移量表示[7-8],其检测精度将影响对接成功率、对接效率等。实际端面圆的材质、加工精度、镜面反射、环境光照等因素严重制约了端面圆的高精度检测。
目前,对接定位方法主要分为激光跟踪仪测量方法[9]、激光雷达测量方法[10]、机器视觉测量方法[11-13]等。激光跟踪仪方法属于点位测量,可用于跟踪目标点的位置,但需要在产品表面安装特定标识。激光雷达测量方法属于海量点云测量,测量效率和数据处理效率较低,检测精度往往不高。机器视觉测量方法[12-14]属于非接触测量且不需要粘贴特定标识,通过视觉测量获取目标的空间位置和姿态,具有高精度、高效率的特点,成为当前的研究热点。文献[15-17]采用多目视觉对圆位姿进行求解,然而由于多目视觉测量方法需采用多部设备,因此限制了视觉测量的视场范围,导致该方法在测量范围和测量距离上有待提高。此外,由于多目视觉测量方法需要对目标的立体匹配及测量系统进行现场校准,因此其研究算法和系统步骤均较复杂[5-7]。相比多目视觉测量方法,单目视觉测量方法[18-20]仅釆用一部相机对空间物体特征进行测量,由于结构简单、计算速度快、测量准确度高等优点,其具有更高的研究价值。空间圆可以提供圆心坐标和法向量(即位姿解),然而在采用单目视觉测量方法时,圆特征的位姿解存在二义性问题[7-8]。ZHOU等[2]为降低大型齿轮的装配误差,通过引入权重,提出改进的圆特征姿态计算方法。LI等[15]分析三维物体圆形特征的投影与相应的符号距离函数之间的关系,提出一种利用水平集方法结合椭圆形状先验信息进行物体姿态估计的方法。WANG等[17]针对圆位姿解的非唯一性及处理精度不高的问题,引入4个共面特征点,并提出一种基于点特征的单目视觉位姿测量算法。ZHU[20]等提出基于连续图像的位姿测量算法,根据连续图像的相关性位姿得到位姿正确解。ZHANG等[21]通过增加空间特征点几何约束,证明特征点与光心和圆平面的相对位置,并得到唯一位姿解。ZHANG等[22]借助激光测距仪,改进圆特征的单目视觉测量算法,并进行仿真验证。HAO等[23]提出一种多因素融合的误差分析方法,通过抑制相机畸变和提高相机分辨率,提升位姿测量精度。QU等[24]在分析圆形合作目标特征点的提取精度基础上,提出专门设计圆形和方形合作目标进行位姿测量的方法。
针对不同的应用背景,研究人员针对单目视觉圆特征位姿测量改进开展了大量研究,然而在获取高精度、高鲁棒圆特征位姿解方面仍存在一些不足,尤其是在机器人对接定位领域,由于需要通过背靠视觉对端面圆位姿进行高效、高精度解算,因此限制了其在工程领域的应用。
本文从提高测量精度和鲁棒性目的出发,以排列点激光位移传感器和背靠视觉为测量手段,提出一种基于法向约束的背靠视觉端面圆对接定位方法。针对端面圆检测中由图像噪声、边缘识别精度等因素引起的椭圆拟合中心不准确问题,引入随机采样一致性(Random Sample Consensus,RANSAC)算法进行椭圆拟合,降低噪声点和无序点对拟合中心的影响。针对圆位姿解二义性问题,采用排列点激光构建法向约束,通过设定法向阈值判定圆位姿解,从而得到准确的圆位姿解。
1 相机模型坐标系在相机测量模型中[15, 25],主要使用世界坐标系、图像坐标系、像平面坐标系和相机坐标系表征物体与图像像素点之间的转换关系,如图 1所示。世界坐标系描述物体的空间位姿,图像坐标系表示像素所在的列数和行数,像平面坐标系描述像素在图像中的物理位置。相机坐标系与世界坐标系之间的关系可以用物体与相机的平移与旋转来表示。
![]() |
Download:
|
图 1 相机模型的坐标系描述 Fig. 1 Coordinate description of camera model |
根据相机的理想小孔成像模型[14, 24],世界坐标系下点
$ \begin{align} & {{z}^{c}}\left[ \begin{matrix} u \\ v \\ 1 \\ \end{matrix} \right]=\left[ \begin{matrix} {}^{1}\!\!\diagup\!\!{}_{{{d}_{x}}}\; & s & {{u}_{0}} \\ 0 & {}^{1}\!\!\diagup\!\!{}_{{{d}_{x}}}\; & {{v}_{0}} \\ 0 & 0 & 1 \\ \end{matrix} \right]\left[ \begin{matrix} f & 0 & 0 & 0 \\ 0 & f & 0 & 0 \\ 0 & 0 & 1 & 0 \\ \end{matrix} \right]\left[ \begin{matrix} \boldsymbol{R} & T \\ {{0}^{\text{T}}} & 1 \\ \end{matrix} \right]\left[ \begin{matrix} {{x}^{W}} \\ {{y}^{W}} \\ {{z}^{W}} \\ 1 \\ \end{matrix} \right]= \\ & \qquad\qquad\quad \boldsymbol{K}\left[ \begin{array}{*{35}{l}} \boldsymbol{R} & \boldsymbol{H} \\ \end{array} \right]\left[ \begin{matrix} {{x}^{W}} \\ {{y}^{W}} \\ {{z}^{W}} \\ 1 \\ \end{matrix} \right] \\ \end{align} $ | (1) |
其中:
在机器人对接装配中,需要以下工件的端面为基准,对上工件进行姿态调节和位移调节,从而确保上下工件完成对接装配。本文方法的流程如图 2所示。
![]() |
Download:
|
图 2 本文方法流程 Fig. 2 Procedure of method in this paper |
本文方法的具体流程如下:
1)进行背靠相机标定和机器人手眼标定,得到相机的内参以及相机到机器人基坐标系的转换关系;
2)下相机采集下工件端面图像,经由特征提取、RANSAC算法进行特征拟合得到下工件端面的中心位置,并将其作为上下工件对接的基准位置;
3)上相机采集上工件端面图像,经由特征提取、RANSAC算法进行特征拟合得到图像坐标系下的椭圆方程;
4)根据单目相机圆位姿模型,计算在相机坐标系下以相机光心为顶点、目标圆为底面的椭圆锥方程,得到二义性的特征圆位姿解;
5)下相机采集排列点激光的激光点,通过光点中心以及激光测距信息进行平面拟合,以平面法向量作为法向约束;
6)将法向约束与得到的圆位姿解进行计算,得到正确的圆位姿解;
7)判断圆姿态偏差,若不满足阈值(一般取阈值ε=0.01 °)则由机器人进行调整,重复步骤2~步骤7,直至满足阈值要求;
8)计算上下工件端面中心位移偏差量,判断位移偏差量是否在阈值(一般取η=0.01 mm)范围内,否则由机器人进行位移调整,重复步骤2~步骤8,直至满足阈值范围,从而完成上下工件端面的对接定位调节。
本文方法的特点在于背靠视觉获取上下工件端面特征图像,采用RANSAC算法进行圆特征拟合,并引入排列点激光作为法向约束,实现端面圆位姿参数的准确获取。此外,通过机器人进行姿态迭代调整和位移迭代调整,完成上下工件姿态和位移的调节,从而实现准确的端面对接。
2.2 基于RANSAC的端面圆特征拟合相机采集的工件端面圆图像通常表现为椭圆,需先进行特征亚像素边缘提取[25],然后根据边缘提取结果进行椭圆拟合,从而得到椭圆的空间表达式。设成像椭圆在像面XY坐标系中的方程[13]如式(2)所示:
$ {x}^{2}+axy+b{y}^{2}+cx+dy+e=0 $ | (2) |
则根据最小二乘拟合原理,可通过取如式(3)所示的目标函数最小值来决定参数
$ \begin{array}{l}F\left(a, b, c, d, e\right)=\\ \sum\limits_{j=1}^{{\kappa }_{nm}}({x}_{{}^{j}}^{2}+a{x}_{j}{y}_{j}+b{y}_{j}^{2}+c{x}_{j}+d{y}_{j}{+e)}^{2}\end{array} $ | (3) |
其中:
令每个参数的偏微分算子均为0,即:
$ \frac{\partial F}{\partial a}=\frac{\partial F}{\partial b}=\frac{\partial F}{\partial c}=\frac{\partial F}{\partial d}=\frac{\partial F}{\partial e}=0 $ | (4) |
可得如式(5)所示的线性方程:
$ \left[\begin{array}{ccccc}\sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}^{3}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}{y}_{j}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}^{3}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}^{4}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}^{3}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}^{2}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}{y}_{j}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}^{3}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}\kappa }{y}_{j}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}{y}_{j}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}^{2}& \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}& \sum\limits_{j=1}^{{\kappa }_{nm}}{y}_{j}& {\kappa }_{nm}\end{array}\right]\left[\begin{array}{c}a\\ b\\ c\\ d\\ e\end{array}\right]=\left[\begin{array}{c}\sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{3}{y}_{j}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}{y}_{j}^{2}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{3}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}{y}_{j}\\ \sum\limits_{j=1}^{{\kappa }_{nm}}{x}_{j}^{2}\end{array}\right] $ | (5) |
通过求解式(5),可以得到上述椭圆参数。最小二乘椭圆拟合算法属于无偏估计,即所有点均参与拟合,因此拟合误差大,且鲁棒性较差[25]。而RANSAC算法能够迭代地从含有大量局外点的观测数据集中估计设定数学模型的参数,剔除了噪声极值、异常值等边缘点带来的影响,从而可以提高拟合结果的鲁棒性和准确性[25]。RANSAC算法的步骤如下:
1)从工件端面椭圆边缘点中随机抽取样本点,根据式(2)~式(5)进行最小二乘椭圆拟合,得到椭圆参数;
2)计算所有样本点与得到的椭圆参数的拟合残差,并选择小于容许误差的样本数据和样本数目;
3)当样本数目大于局内点个数阈值时,停止局内点搜索,保存此样本数据;
4)设置迭代次数并重复步骤1~步骤3,如果局内点个数小于局内点个数阈值,则停止局内点搜索,保存最大个数的局内点集合和此样本数据;
5)根据式(2)~式(5)对步骤4得到的样本数据进行最小二乘椭圆拟合,得到椭圆表达式。
通过RANSAC算法得到的椭圆表达式,由于剔除了异常值并降低了噪声值的影响,因此可以得到更高鲁棒性、更高准确性的椭圆拟合结果。
2.3 基于排列点激光法向约束的圆位姿求解在单目相机圆位姿模型[18-20]中,相机光心到工件端面形成一个椭圆锥面。求解端面圆位姿即寻找一截平面,使该平面与椭圆锥相交形成一个已知半径为r的圆,其圆心坐标和法向量即为端面圆的空间位置和姿态。在单目视觉下空间端面圆描述一般需要圆心、半径、俯仰角及倾斜角[17]参数,空间圆的姿态可用俯仰角和倾斜角表示。如图 3所示,其中:
![]() |
Download:
|
图 3 圆位姿示意图 Fig. 3 Schematic diagram of circular pose |
假设
$ \begin{array}{l}\alpha =\left\{\begin{array}{l}\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{{\boldsymbol{n}}_{y}}{{\boldsymbol{n}}_{x}}, {\boldsymbol{n}}_{x} > 0, {\boldsymbol{n}}_{y} > 0\\ \mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{{\boldsymbol{n}}_{y}}{{\boldsymbol{n}}_{x}}+\mathrm{\pi }, {\boldsymbol{n}}_{x} < 0\\ \mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{{\boldsymbol{n}}_{y}}{{\boldsymbol{n}}_{x}}+2\mathrm{\pi }, {\boldsymbol{n}}_{x} > 0, {\boldsymbol{n}}_{y} < 0\end{array}\right.\\ \beta =\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{t}\mathrm{a}\mathrm{n}\frac{{\boldsymbol{n}}_{z}}{\sqrt{{\boldsymbol{n}}_{x}^{2}+{\boldsymbol{n}}_{y}^{2}}}\end{array} $ | (6) |
相机光心到端面形成一个椭圆锥面,在相机坐标系
$ \begin{array}{c}{X}_{c}^{2}{f}^{2}+a{X}_{c}{Y}_{c}{f}^{2}+b{Y}_{c}^{2}{f}^{2}+c{X}_{c}{Z}_{c}f+\\ d{Y}_{c}{Z}_{c}f+e{Z}_{c}^{2}=0\end{array} $ | (7) |
式(7)可重写为如式(8)所示:
$ \begin{array}{l}{\boldsymbol{C}}_{c}^{\mathrm{T}}\boldsymbol{Q}{\boldsymbol{C}}_{c}=0\\ \boldsymbol{Q}=\left[\begin{array}{ccc}{f}^{2}& a{f}^{2}/2& cf/2\\ a{f}^{2}/2& b{f}^{2}& df/2\\ cf/2& df/2& e\end{array}\right], {\boldsymbol{C}}_{c}=\left[\begin{array}{c}{X}_{c}\\ {Y}_{c}\\ {Z}_{c}\end{array}\right]\end{array} $ | (8) |
相机坐标系下的点
$ {z}^{c}\left[\begin{array}{c}{u}_{i}\\ {v}_{i}\\ 1\end{array}\right]=\boldsymbol{K}\left[\begin{array}{c}{X}_{i}\\ {Y}_{i}\\ {Z}_{i}\\ 1\end{array}\right] $ | (9) |
将式(9)代入式(8)中,式(10)可写为:
$ {z}^{c}{\boldsymbol{C}}_{{c}}^{\mathrm{T}}{\boldsymbol{K}}^{\mathrm{T}}\boldsymbol{Q}{\boldsymbol{C}}_{c}=0 $ | (10) |
式(10)为相机光心与端面圆形成的椭圆锥,图像平面上的椭圆投影为椭圆锥的一个截平面。设
$ \begin{array}{l}{\boldsymbol{C}}_{c}^{\mathrm{T}}\boldsymbol{Q}{\boldsymbol{C}}_{c}={{\boldsymbol{C}}_{{c}}^{\bf{'}}}^{\mathrm{T}}\left({\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{Q}\boldsymbol{P}\right){\boldsymbol{C}}_{{c}}^{\bf{'}}={{\boldsymbol{C}}_{{c}}^{\bf{'}}}^{\mathrm{T}}R{\boldsymbol{C}}_{{c}}^{\bf{'}}= \\ \left[\begin{array}{ccc}{X}_{{c}}^{\bf{'}}& {Y}_{{c}}^{\bf{'}}& {Z}_{{c}}^{\bf{'}}\end{array}\right]{\boldsymbol{P}}^{\mathrm{T}}\boldsymbol{Q}\boldsymbol{P}{\left[\begin{array}{ccc}{X}_{{c}}^{\bf{'}}& {Y}_{{c}}^{\bf{'}}& {Z}_{{c}}^{\bf{'}}\end{array}\right]}^{\mathrm{T}}=0 \end{array} $ | (11) |
若取
$ {\lambda }_{1}{{X}_{{c}}^{\bf{'}}}^{2}+{\lambda }_{2}{{Y}_{{c}}^{\bf{'}}}^{2}+{\lambda }_{3}{{Z}_{{c}}^{\bf{'}}}^{2}=0 $ | (12) |
根据式(12),端面圆在主轴坐标系下的圆心和法向量可分别描述为式(13)所示:
$ \begin{array}{l}\left({x}_{0}^{\bf{'}}, {y}_{0}^{\bf{'}}, {z}_{0}^{\bf{'}}\right)=\left(\pm r\sqrt{\frac{-{\lambda }_{3}({\lambda }_{1}-{\lambda }_{2})}{{\lambda }_{1}({\lambda }_{1}-{\lambda }_{3})}}, 0, r\sqrt{\frac{{\lambda }_{1}({\lambda }_{2}-{\lambda }_{3})}{-{\lambda }_{3}({\lambda }_{1}-{\lambda }_{3})}}\right)\\ {\boldsymbol{n}}_{}^{\bf{'}}=\left({\boldsymbol{n}}_{{x}}^{\bf{'}}, {\boldsymbol{n}}_{{y}}^{\bf{'}}, {\boldsymbol{n}}_{{z}}^{\bf{'}}\right)=\left(\pm \sqrt{\frac{{\lambda }_{1}-{\lambda }_{2}}{{\lambda }_{1}-{\lambda }_{3}}}, 0, \sqrt{\frac{{\lambda }_{2}-{\lambda }_{3}}{{\lambda }_{1}-{\lambda }_{3}}}\right)\end{array} $ | (13) |
将式(13)转换到相机坐标系下,从而得到端面圆的圆心坐标及法向量,如式(14)所示:
$ \begin{array}{l}{\left({x}_{0}^{}, {y}_{0}^{}, {z}_{0}^{}\right)}^{\mathrm{T}}={\boldsymbol{P}}_{3\times 3}{\left({x}_{0}^{\bf{'}}, {y}_{0}^{\bf{'}}, {z}_{0}^{\bf{'}}\right)}^{\mathrm{T}}\\ {\left({\boldsymbol{n}}_{x}^{}, {\boldsymbol{n}}_{y}^{}, {\boldsymbol{n}}_{z}^{}\right)}^{\mathrm{T}}={\boldsymbol{P}}_{3\times 3}{\left({\boldsymbol{n}}_{x}^{\mathrm{'}}, {\boldsymbol{n}}_{y}^{\mathrm{'}}, {\boldsymbol{n}}_{z}^{\mathrm{'}}\right)}^{\mathrm{T}}\end{array} $ | (14) |
由式(14)得到端面圆的圆心坐标和法向量,其中包括了一个虚假解和一个正确解,如图 4所示。端面圆在椭圆锥中可以找到2个截圆平面,分别表示一个虚假解和正确解。从式(14)中可以看出,虚假解和正确解的法向量均可以得到,为此,引入排列点激光作为法向约束,消除圆位姿解的二义性问题。
![]() |
Download:
|
图 4 端面圆的二义性位姿解示意图 Fig. 4 Schematic diagram of ambiguous pose solution of end-face circle |
背靠相机分别采集点激光在工件端面圆的图像,以激光点轮廓的质心作为激光点对应的图像坐标。根据相机的光心和各点激光的距离,并由点激光测距结果,可得到激光点在相机坐标系下的坐标
$ {\boldsymbol{n}}_{{}_{1}}^{U}x+{\boldsymbol{n}}_{{}_{2}}^{U}y+{\boldsymbol{n}}_{{}_{3}}^{U}z-{d}^{U}=0 $ | (15) |
其中:
$ \begin{array}{l}e=\sum\limits_{i=1}^{}{\left({\boldsymbol{n}}_{{}_{1}}^{U}{x}_{i}+{\boldsymbol{n}}_{{}_{2}}^{U}{y}_{i}+{\boldsymbol{n}}_{{}_{3}}^{U}{z}_{i}-{d}^{U}\right)}^{2}\to \\ \qquad \mathrm{m}\mathrm{i}\mathrm{n}{\left({\boldsymbol{n}}_{{}_{1}}^{U}\right)}^{2}+{\left({\boldsymbol{n}}_{{}_{2}}^{U}\right)}^{2}+{\left({\boldsymbol{n}}_{{}_{3}}^{U}\right)}^{2}=1\end{array} $ | (16) |
利用拉格朗日乘数法求函数极值,如式(17)所示:
$ \tau =\sum\limits_{i=1}^{}\left(\begin{array}{l}{\left({\boldsymbol{n}}_{{}_{1}}^{U}{x}_{i}+{\boldsymbol{n}}_{{}_{2}}^{U}{y}_{i}+{\boldsymbol{n}}_{{}_{3}}^{U}{z}_{i}-{d}^{U}\right)}^{2}-\\ \eta \left({\left({\boldsymbol{n}}_{{}_{1}}^{U}\right)}^{2}+{\left({\boldsymbol{n}}_{{}_{2}}^{U}\right)}^{2}+{\left({\boldsymbol{n}}_{{}_{3}}^{U}\right)}^{2}-1\right)\end{array}\right) $ | (17) |
令
$ \frac{\partial \tau }{\partial {\boldsymbol{n}}_{{}_{1}}^{U}}=\frac{\partial \tau }{\partial {\boldsymbol{n}}_{{}_{2}}^{U}}=\frac{\partial \tau }{\partial {\boldsymbol{n}}_{{}_{3}}^{U}}=0 $ | (18) |
根据式(18)可以得到实对称矩阵,如式(19)所示:
$ \boldsymbol{E}=\left[\begin{array}{ccc}\sum\limits_{i=1}^{m}{\left({x}_{i}-\sum \frac{{x}_{i}}{\boldsymbol{n}}\right)}^{2}& \sum\limits_{i=1}^{m}\left({x}_{i}-\sum \frac{{x}_{i}}{\boldsymbol{n}}\right)\left({y}_{i}-\sum \frac{{y}_{i}}{\boldsymbol{n}}\right)& \sum\limits_{i=1}^{m}\left({x}_{i}-\sum \frac{{x}_{i}}{\boldsymbol{n}}\right)\left({z}_{i}-\sum \frac{{z}_{i}}{\boldsymbol{n}}\right)\\ \sum\limits_{i=1}^{m}\left({x}_{i}-\sum \frac{{x}_{i}}{\boldsymbol{n}}\right)\left({y}_{i}-\sum \frac{{y}_{i}}{\boldsymbol{n}}\right)& \sum\limits_{i=1}^{m}{\left({y}_{i}-\sum \frac{{y}_{i}}{\boldsymbol{n}}\right)}^{2}& \sum\limits_{i=1}^{m}\left({y}_{i}-\sum \frac{{y}_{i}}{\boldsymbol{n}}\right)\left({z}_{i}-\sum \frac{{z}_{i}}{\boldsymbol{n}}\right)\\ \sum\limits_{i=1}^{m}\left({x}_{i}-\sum \frac{{x}_{i}}{\boldsymbol{n}}\right)\left({z}_{i}-\sum \frac{{z}_{i}}{\boldsymbol{n}}\right)& \sum\limits_{i=1}^{m}\left({y}_{i}-\sum \frac{{y}_{i}}{\boldsymbol{n}}\right)\left({z}_{i}-\sum \frac{{z}_{i}}{\boldsymbol{n}}\right)& \sum\limits_{i=1}^{m}{\left({z}_{i}-\sum \frac{{z}_{i}}{\boldsymbol{n}}\right)}^{2}\end{array}\right] $ | (19) |
由式(20)可以求解E的特征值,则最小特征值
$ \left|\boldsymbol{E}-\eta \boldsymbol{I}\right|=0 $ | (20) |
对式(14)得到的二义性圆法向量根据式(21)分别计算其与对应平面法向量的夹角,即:
$ {\theta }_{}^{U}=\mathrm{m}\mathrm{i}\mathrm{n}\left(〈{\boldsymbol{n}}_{U1}^{\mathrm{'}}, {\boldsymbol{n}}_{{}_{}}^{U}〉, 〈{\boldsymbol{n}}_{U2}^{\mathrm{'}}, {\boldsymbol{n}}_{{}_{}}^{U}〉\right) $ | (21) |
取对应最小夹角的圆法向量为端面圆圆法向量,从而通过增加排列点激光法向约束的方式得到端面圆法向量的正确解。
2.4 基于机器人的对接位姿调整由2.3节可以得到端面圆特征的空间姿态和位置。由于下工件端面固定不动,机器人抓取上工件端面需在进行相对位置和姿态调整之后才可完成对接。因此,需将由背靠相机和排列点激光得到的工件端面圆特征的空间姿态和位置,转换为在机器人基座标系下得到的姿态调整量和位置调整量。
在对接装置中,测量单元安装在固定装置上,与机器人的标定属于手眼标定[4-6],如图 5所示。
![]() |
Download:
|
图 5 机器人手眼标定 Fig. 5 Robot hand-eye calibration |
因此需事先对机器人和背靠相机进行手眼标定,由于相机相对机器人基坐标系固定不动,则相机在机器人基坐标系下的位姿可描述为式(22)所示:
$ {\boldsymbol{T}}_{\mathrm{b}\mathrm{a}\mathrm{s}\mathrm{e}}^{\mathrm{c}\mathrm{a}\mathrm{m}\mathrm{e}\mathrm{r}\mathrm{a}}={\boldsymbol{T}}_{\mathrm{b}\mathrm{a}\mathrm{s}\mathrm{e}}^{\mathrm{t}\mathrm{o}\mathrm{o}\mathrm{l}}\times {\boldsymbol{T}}_{\mathrm{t}\mathrm{o}\mathrm{o}\mathrm{l}}^{\mathrm{p}\mathrm{l}\mathrm{a}\mathrm{t}\mathrm{e}}\times {\boldsymbol{T}}_{\mathrm{p}\mathrm{l}\mathrm{a}\mathrm{t}\mathrm{e}}^{\mathrm{c}\mathrm{a}\mathrm{m}\mathrm{e}\mathrm{r}\mathrm{a}} $ | (22) |
其中:
通过对背靠相机进行的标定,可以分别得到背靠相机的内部参数和外部参数。为了将下相机的坐标系转换到上相机坐标系中,设上下相机相对机器人基座标系的外参分别为CU和CD,则下相机坐标系到上相机坐标系的旋转和平移矩阵可表示为
已知下工件端面为对接装配的基准,设下工件端面的法向量
$ {\theta }_{U}^{D}=\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{c}\mathrm{o}\mathrm{s}\frac{{\boldsymbol{n}}^{U}\times \left({\boldsymbol{C}}_{D}^{U}\right){\boldsymbol{n}}^{D}}{\left|{\boldsymbol{n}}_{{}_{}}^{U}\right|\cdot \left|\left({\boldsymbol{C}}_{D}^{U}\right){\boldsymbol{n}}_{{}_{}}^{D}\right|} $ | (23) |
则上工件端面相对下工件端面的位置和姿态调整量可描述为如式(24)所示:
$ \left\{\begin{array}{l}\mathrm{\Delta }{x}_{D}^{U}=\left({\boldsymbol{C}}_{D}^{U}\right){x}_{0}^{D}-{x}_{0}^{U}\\ \mathrm{\Delta }{y}_{D}^{U}=\left({\boldsymbol{C}}_{D}^{U}\right){y}_{0}^{D}-{y}_{0}^{U}\\ \mathrm{\Delta }{\theta }_{Dx}^{U}=\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{c}\mathrm{o}\mathrm{s}\frac{\left(\left({\boldsymbol{C}}_{D}^{U}\right){\boldsymbol{n}}_{{}_{}}^{D}-{\boldsymbol{n}}_{{}_{}}^{U}\right)\times \left(\mathrm{1, 0}, 0\right)}{\left|\left({\boldsymbol{C}}_{D}^{U}\right){\boldsymbol{n}}_{{}_{}}^{D}-{\boldsymbol{n}}_{{}_{}}^{U}\right|}\\ \mathrm{\Delta }{\theta }_{Dy}^{U}=\mathrm{a}\mathrm{r}\mathrm{c}\mathrm{c}\mathrm{o}\mathrm{s}\frac{\left(\left({\boldsymbol{C}}_{D}^{U}\right){\boldsymbol{n}}_{{}_{}}^{D}-{\boldsymbol{n}}_{{}_{}}^{U}\right)\times \left(\mathrm{0, 1}, 0\right)}{\left|\left({\boldsymbol{C}}_{D}^{U}\right){\boldsymbol{n}}_{{}_{}}^{D}-{\boldsymbol{n}}_{{}_{}}^{U}\right|}\end{array}\right. $ | (24) |
在机器人基座标系下的位置和姿态调整量如式(25)所示:
$ \left[\begin{array}{c}\mathrm{\Delta }x\\ \mathrm{\Delta }y\\ \mathrm{\Delta }{\theta }_{x}\\ \mathrm{\Delta }{\theta }_{y}\end{array}\right]={\boldsymbol{T}}_{\mathrm{b}\mathrm{a}\mathrm{s}\mathrm{e}}^{\mathrm{t}\mathrm{o}\mathrm{o}\mathrm{l}}\times {\boldsymbol{T}}_{\mathrm{t}\mathrm{o}\mathrm{o}\mathrm{l}}^{\mathrm{p}\mathrm{l}\mathrm{a}\mathrm{t}\mathrm{e}}\times \left[\begin{array}{c}\mathrm{\Delta }{x}_{D}^{U}\\ \mathrm{\Delta }{y}_{D}^{U}\\ \mathrm{\Delta }{\theta }_{Dx}^{U}\\ \mathrm{\Delta }{\theta }_{Dy}^{U}\end{array}\right] $ | (25) |
由于在机器人位姿调整过程中,姿态的偏移会影响到位置信息,因此先通过机器人进行姿态迭代调整,当满足姿态调整的阈值后,再进行位移迭代调整,直至满足位移偏差阈值,完成机器人对上工件端面的位姿调整,实现上下工件端面的对接。
3 实验结果与分析图 6所示为机器人对接装配装置,主要由机器人、测量装置、装配台等构成。图 7为背靠视觉和排列点激光形成的测量装置。机器人型号为KR600(KUKA,最大负载600 kg)。点激光的型号为ACR-LDS510-10(上海达拉斯光电科技有限公司,测量范围为10 mm,分辨率为0.5 μm,重复精度为2 μm)。相机的型号为MV-CH650-90TM-M58S-NF(海康威视,分辨率为9 344×7 000像素),镜头的型号为LSF2528,焦距为25 mm。软件工具为Halcon 20.05,运行平台为win10 X64、内存32 GB、硬盘1 TB、处理器i9-9900K。在图 6中,上下工件的端面尺寸直径为204 mm、端面止口双向间隙为0.08 mm。
![]() |
Download:
|
图 6 机器人对接装配装置 Fig. 6 Robot docking assembly device |
![]() |
Download:
|
图 7 背靠视觉和排列点激光测量装置 Fig. 7 Measuring device with back against vision and arrangement point lasers |
图 8和图 9分别为背靠下相机和上相机的部分标定图像,由此可得到背靠相机的标定参数,以及上相机和下相机相对机器人基坐标系的外参变换关系。
![]() |
Download:
|
图 8 不同位姿下的下相机标定图像 Fig. 8 Calibration images captured by the down camera under different positions and attitudes |
![]() |
Download:
|
图 9 不同位姿下的上相机标定图像 Fig. 9 Calibration images captured by the up camera under different positions and attitudes |
为更好地判断本文方法的精度,将标定板安装在上工件端面,以标定板的中心点作为特征点,从而得到机器人的位移调整精度,如图 10所示。
![]() |
Download:
|
图 10 标定板位移验证 Fig. 10 Displacement verification with calibration plate |
分别移动机器人示教器的X轴和Y轴,并固定步长,进行标定板位移偏差的重复测验,结果如表 1所示。从表 1可以看出,机器人的位置调整精度在X方向和Y方向均小于0.01 mm,产生误差的原因主要在于大负载机器人存在一定抖动、机器人定位精度误差等因素。图 11所示为下相机采集的下工件端面图像,图中显示了特征边缘提取及拟合中心。图 12为上相机采集的不同位姿下的上工件端面图像,图中显示了边缘提取及拟合中心。
![]() |
下载CSV 表 1 标定板位移误差 Table 1 Displacement deviation of calibration plate |
![]() |
Download:
|
图 11 下工件端面 Fig. 11 End-face of down workpiece |
![]() |
Download:
|
图 12 上工件端面的迭代调整图像 Fig. 12 Iterative adjustment images of the end-face of up workpiece |
为证明本文方法的有效性,将本文方法与方法1[4-5]、方法2[7, 26]和方法3[27]进行比较分析。由于物体的空间姿态会影响空间位置,因此首先对物体进行姿态调节,然后再进行位移调整。表 2为端面姿态测量验证结果。可以看出,端面姿态的测量结果相对机器人的姿态有约0.03°的偏差,相比表 1、表 2的位移偏差明显增大,这是由于标定板图像中心点的边缘识别和提取精度更高,受视场和光照等因素影响,端面特征更难提取,导致位移偏差增大。
![]() |
下载CSV 表 2 端面圆姿态测量结果 Table 2 Attitude measurement results of the end-face of up workpiece |
表 3为采用本文方法时机器人的位置调整情况,下工件端面基准为手控器中X轴和Y轴的数据,在3次不同基准下,通过上工件端面的重复位移调整验证,可以看出X方向最大偏差为0.01 mm,Y方向的最大偏差为0.03 mm。
![]() |
下载CSV 表 3 不同基准下端面位置调整验证 Table 3 Position adjustment verification of up workpiece under different position benchmarks |
表 4为不同方法下的姿态测量结果,从表 2和表 4中可以看出:方法1的姿态偏差约为0.1°,这是姿态解算精度不高引起的;方法2的姿态偏差约为0.03°,方法3的姿态偏差约为0.04°,虽然方法2和方法3的姿态精度非常接近本文方法,但本文方法具有更优的一致性,且收敛速度更快。
![]() |
下载CSV 表 4 不同方法下端面姿态调整比较 Table 4 Comparison of end-face attitude deviation with different methods |
表 5为在不同基准下不同方法的端面位置偏差情况,图 13为在同一基准下进行多次重复实验时,不同方法的端面位置偏差情况。由图 13可以看出,方法1的位移偏差最大,方法2与方法3的位移偏差接近,但方法3的收敛性更快,本文方法具有最小的位移偏差和最多的迭代次数。从表 2和图 13可以看出,本文方法的姿态和位移需3~5次迭代调整。
![]() |
下载CSV 表 5 不同方法下端面位置调整比较 Table 5 Comparison of end-face position adjustment with different methods |
![]() |
Download:
|
图 13 重复实验下不同方法位移偏差和迭代次数 Fig. 13 Displacement deviation and iteration times of different methods in repeated test |
由表 4、表 5和图 13可以看出,方法1的姿态计算偏差和位移偏差最大,原因在于采用最小二乘法进行椭圆中心提取属于无偏差估计方法,受图像噪声、边缘提取精度影响较大,尤其在大视场下,图像噪声更易受光照影响。方法2和方法3的偏差优于方法1的偏差,这是因为方法2和方法3对单目相机测量姿态产生的二义性解进行了正确解的判断和提取,仍存在较大偏差的主要原因是该方法受端面图像特征边缘的提取精度影响较大。方法2和方法3均具有较大的姿态偏差和位移偏差,其位移计算与姿态计算相互影响,姿态的调整偏差影响了位移的调整。相比方法1、方法2和方法3,本文方法获得了更小的姿态计算偏差和位移调整偏差。这是因为本文方法采用了RANSAC算法进行椭圆拟合,可以减少噪声的影响,具有较高的鲁棒性。此外,本文方法采用点激光位移传感器建立法向约束,对单目相机测得的姿态进行正确解提取。由表 4、表 5和图 13可以看出,相比方法1、方法2和方法3,本文方法具有姿态调整准确、位移调整收敛快的特点,姿态对接角度最大偏差为0.03°,中心位移X方向的最大偏差为0.01 mm、Y方向的最大偏差为0.03 mm,证明本文方法的有效性和准确性。
图 14所示为机器人完成的对接装配,通过对上下工件的端面尺寸直径为204 mm、端面止口双向间隙为0.08 mm的验证实验可知,姿态和位移需3次~5次迭代调整可完成对接装配。这证明了本文方法的有效性、鲁棒性和实用性。
![]() |
Download:
|
图 14 机器人完成的对接装配 Fig. 14 Docking assembly completed by the robot |
本文从机器人对接装配工程应用出发,并考虑圆位姿解的二义性问题,提出一种背靠视觉端面对接定位方法。采用RANSAC算法进行椭圆拟合,以避免在采用单目视觉进行测量时,姿态和中心位置图受图像噪声、边缘提取等因素影响。通过排列点激光建立法向约束,得到更准确的圆姿态解。实验结果表明,该方法的姿态对接角度最大偏差为0.03°,中心位移X方向最大偏差为0.01 mm、Y方向的最大偏差为0.03 mm,具有姿态调整准确、位移调整收敛快的特点。下一步将引入深度学习等人工智能技术,以减少该定位方法的位姿调整次数,提高对接效率。
[1] |
CAPUANO V, KIM K, HARVARD A, et al. Monocular-based pose determination of uncooperative space objects[J]. Acta Astronautica, 2020, 166: 493-506. DOI:10.1016/j.actaastro.2019.09.027 |
[2] |
ZHOU K, HUANG X, LI S G, et al. 6D pose estimation method for large gear structure assembly using monocular vision[J]. Measurement, 2021, 183: 54-64. |
[3] |
MA Y, ZHAO R, LIU E, et al. A novel autonomous aerial refueling drogue detection and pose estimation method based on monocular vision[J]. Measurement, 2019, 136: 132-142. DOI:10.1016/j.measurement.2018.12.060 |
[4] |
吴正华. 基于视觉的近距离航天器相对位姿测量技术的研究[D]. 南京: 南京邮电大学, 2019. WU Z H. Research on vision-based relative position and attitude measurement technology for close-range spacecraft[D]. Nanjing: Nanjing University of Posts and Telecommunications, 2019. (in Chinese) |
[5] |
李旭龙. 飞机翼身对接中的自动定位技术研究与系统开发[D]. 南京: 南京航空航天大学, 2011. LI X L. Research on the technology of automatic location for wing-fuselage connection and developing of the control system software[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2011. (in Chinese) |
[6] |
WANG D, HONG Q Z, WANG J, et al. An experimental testbed for the study of visual based navigation docking of two vertical compound aircraft[J]. IEEE Access, 2021, 9: 75035-75048. DOI:10.1109/ACCESS.2021.3081507 |
[7] |
秦宇. 基于激光测距和机器视觉的飞机大部件对接技术研究[D]. 南京: 南京航空航天大学, 2019. QIN Y. Research on large aircraft component assembly based on laser ranging technology and machine vision[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2019. (in Chinese) |
[8] |
王洁. 基于视觉的火箭分离相对运动测量方法研究[D]. 长沙: 国防科技大学, 2017. WANG J. Research on relative motion measurement of rocket separation based on vision[D]. Changsha: National University of Defense Technology, 2017. (in Chinese) |
[9] |
WAN A, WANG Y X, XUE G J, et al. Accurate kinematics calibration method for a large-scale machine tool[J]. IEEE Transactions on Industrial Electronics, 2021, 68(10): 9832-9843. DOI:10.1109/TIE.2020.3021657 |
[10] |
JINDAL M, JHA A, CENKERAMADDI L R. Bollard segmentation and position estimation from lidar point cloud for autonomous mooring[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1-9. |
[11] |
李少飞, 史泽林, 庄春刚. 基于深度学习的物体点云六维位姿估计方法[J]. 计算机工程, 2021, 47(8): 216-223. LI S F, SHI Z L, ZHUANG C G. Deep learning-based 6D object pose estimation method from point clouds[J]. Computer Engineering, 2021, 47(8): 216-223. (in Chinese) |
[12] |
吕立, 姚拓中, 宋加涛, 等. 基于单目视觉三维重建系统的设计与实现[J]. 计算机工程, 2018, 44(12): 233-239. LÜ L, YAO T Z, SONG J T, et al. Design and implementation of 3D reconstruction system based on monocular vision[J]. Computer Engineering, 2018, 44(12): 233-239. (in Chinese) |
[13] |
劳达宝, 张慧娟, 熊芝, 等. 基于单目视觉的姿态自动测量方法[J]. 光子学报, 2019, 48(3): 165-171. LAO D B, ZHANG H J, XIONG Z, et al. Automatic measurement method of attitude based on monocular vision[J]. Acta Photonica Sinica, 2019, 48(3): 165-171. (in Chinese) |
[14] |
周单, 董秀成, 张帆, 等. 基于自适应重投影误差单目位姿优化算法[J]. 激光与光电子学进展, 2019, 56(2): 119-126. ZHOU D, DONG X C, ZHANG F, et al. Monocular pose optimization algorithm based on adaptive reprojection error[J]. Laser & Optoelectronics Progress, 2019, 56(2): 119-126. (in Chinese) |
[15] |
于长志. 基于自适应双目条纹投影的柱类零件空间状态测量关键技术研究[D]. 北京: 中国工程物理研究院, 2020. YU C Z. Research on the key technology of spatial state measurement for cylindrical objects based on adaptive binocular fringe projection[D]. Beijing: China Academy of Engineering Physics, 2020. (in Chinese) |
[16] |
LIU Z Y, LIU X, DUAN G F, et al. Precise pose and radius estimation of circular target based on binocular vision[J]. Measurement Science and Technology, 2019, 30(2): 025006-025013. DOI:10.1088/1361-6501/aaf8c8 |
[17] |
LI J. Relative pose measurement of moving rigid bodies based on binocular vision[J]. Optik, 2019, 180: 159-165. DOI:10.1016/j.ijleo.2018.11.070 |
[18] |
LI C, CHEN D R, GONG J L, et al. Elliptic shape prior for object 2D-3D pose estimation using circular feature[J]. EURASIP Journal on Advances in Signal Processing, 2020, 20(1): 1-19. |
[19] |
WANG Z Y, LI Y R, HAO R J, et al. Monocular vision pose measurement algorithm based on points feature[J]. Infrared and Laser Engineering, 2019, 48(5): 517002-517013. DOI:10.3788/IRLA201948.0517002 |
[20] |
朱亚冰. 基于特征圆的单目视觉位姿测量算法的研究[D]. 大连: 大连理工大学, 2015. ZHU Y B. Monocular vision research of pose estimation based on circlar features[D]. Dalian: Dalian University of Technology, 2015. (in Chinese) |
[21] |
张丽敏, 朱枫, 郝颖明, 等. 基于圆特征和异面点特征的位姿测量[J]. 光子学报, 2015, 44(11): 89-94. ZHANG L M, ZHU F, HAO Y M, et al. Pose measurement based on a circle and a non-coplanar feature point[J]. Acta Photonica Sinica, 2015, 44(11): 89-94. (in Chinese) |
[22] |
张磊, 徐科军, 赵锐, 等. 一种基于圆特征的单目视觉位姿测量算法的改进[J]. 合肥工业大学学报(自然科学版), 2009, 32(11): 1669-1673. ZHANG L, XU K J, ZHAO R, et al. Improvement of position and orientation measurement algorithm of monocular vision based on circle features[J]. Journal of Hefei University of Technology (Natural Science), 2009, 32(11): 1669-1673. (in Chinese) DOI:10.3969/j.issn.1003-5060.2009.11.010 |
[23] |
郝仁杰, 王中宇, 李亚茹. 一种单目视觉位姿测量系统的误差分析方法[J]. 应用光学, 2019, 40(1): 79-85. HAO R J, WANG Z Y, LI Y R. Error analysis method for monocular vision pose measurement system[J]. Journal of Applied Optics, 2019, 40(1): 79-85. (in Chinese) |
[24] |
屈也频, 刘坚强, 侯旺. 单目视觉高精度测量中的合作目标图形设计[J]. 光学学报, 2020, 40(13): 124-131. QU Y P, LIU J Q, HOU W. Graphics design of cooperative targets on monocular vision high precision measurement[J]. Acta Optica Sinica, 2020, 40(13): 124-131. (in Chinese) |
[25] |
YU C Z, JI F, XUE J P. Dynamic granularity matrix space model based high robust multi-ellipse center extraction method for camera calibration[J]. IEEE Access, 2020, 8: 128308-128323. DOI:10.1109/ACCESS.2020.3008559 |
[26] |
LI S Z, LIANG B, GAO X H, et al. Pose measurement method of non-cooperative circular feature based on line structured light[C]//Proceedings of 2016 IEEE International Conference on Information and Automation. Washington D.C., USA: IEEE Press, 2016: 374-380.
|
[27] |
MA X, FENG J B, LI Y B, et al. Active 6D position-pose estimation of a spatial circle using monocular eye-in-hand system[J]. International Journal of Advanced Robotic Systems, 2018, 15(1): 1-13. |