网站首页  词典首页

请输入您要查询的论文:

 

标题 基于单目视觉的移动机器人室内定位
范文

    魏焱 符秀辉

    摘要:阐述移动机器人定位技术在机器人技术中的重要性,提出在单目视觉的条件下实现对于移动机器人的定位,并在实际室内环境运用单目相机、智能小车以及halcon软件平台进行试验,先通过相机标定得到相机参数,再运用相机在实验现场实际采集图像,利用相机参数和采集到的图像信息来定位智能小车,得出了小车实际坐标位置,证明本文提出的方法有效。

    关键词:单目视觉;特征提取;移动机器人;定位

    中图分类号:TP24文献标识码:A

    移动机器人的定位是机器人最基本亦是最重要的功能之一,[1]假如无法完成机器人定位,那机器人要完成事先规划的任务仅是空谈而已。目前机器人定位技术可分为位置跟踪和全局定位两种,[1]位置跟踪是指通过测量机器人相对于初始参考位置的方向和距离来确定当前位置。全局定位的挑战性更大,它要求机器人可以在对初始位置没有任何认知的条件下,直接通过外部传感器感知信息确定位置与姿态。作为一个近年来热门的研究领域,机器视觉的技术要点是物体的几何尺寸以及物体在空间的位置、姿态等的测量。[3]

    1 单目相机模型

    单目视觉测量是指仅使用一台视觉传感器(如摄像机)来进行测量工作,因为需要的传感器少,因此单目视觉结构简单、相机标定相对简便,同时也避免了双目立体视觉中视场小、匹配难的不足,[2]所以经综合考虑本文选择单目视觉方案。

    在进行测量之前,必须进行相机标定,获得相关相机参数,才能继续完成测量过程。为了标定相机,首先要创建一个模型将世界坐标系中三维空间点投影到二维图像中,[4]如图1所示。其中,几个坐标系分别表示为世界坐标系(xw,yw,zw),摄像机坐标系(xc,yc,zc),图像坐标系(r,c),成像平面坐标系(u,v)。Sx和Sy是缩放比例因子,表示相邻像素之间分别在水平和垂直方向上的距离。f表示相机主距,并非相机的焦距。点P为世界坐标系中的点Pw在成像平面上的投影。[4]

    将世界坐标系中的点Pw变换到它在成像平面上的点P需要如下四步:

    第一步,通过式(1)将Pw变换到摄像机坐标系中的点Pc,

    Pc=RPW+T(1)

    其中,R=R(α,β,γ)是旋转矩阵,α,β,γ分别表示绕摄像机坐标系x轴、y轴、z轴的旋转角度,T=(tx,ty,tz)T是平移向量,R和T中的6个参数(α,β,γ,tx,ty,tz)称为相机的外参数,它们决定了摄像机坐标系与世界坐标系之间的相对位置。[10]

    第二步,由式(2)将摄像机坐标系中的点Pc转换到成像平面中,它们之间存在透视投影关系。

    uv=fzcxcyc(2)

    第三步,在不考虑镜头畸变时,世界坐标系中的点Pw和成像平面上的投影点P之间的连线直接通过相机的光学中心,在大多数情况下,镜头畸变可以近似看作径向畸变[4][7],即

    (3)

    其中参数k决定畸变程度,假如k为正值,畸变为枕型畸变;假如k=0,则没有畸变;假如k为负值,则畸变为桶型畸变。

    第四步,最终通过式(4)将畸变后的成像平面坐标~u,~v转换为图像坐标。

    (4)

    其中,Cx、Cy表示图像中心点,这个点和投影中心的连线垂直于成像平面,是通过垂直投影来投影在成像平面上。

    由此我们可以知道,相机标定实际上是确定相机内参(f,k,Sx,Sy,Cx,Cy)和相机外参(α,β,γ,tx,ty,tz)的过程。[4]

    2 单目相机标定

    首先调节好镜头光圈以及聚好焦并保持不变,接着在镜头前不断变换标定板位姿,采集多幅图像,如图2所示。

    当采集完成后,利用Halcon结合采集的多幅标定板图像进行标定。Halcon是德国MVtec公司开发的图像处理软件,它拥有综合标准软件库和机器视觉集成开发环境,[4]支持多种操作环境。Halcon提供了丰富的函数库,整个函数库可以用多种编程语言开发,大大提高了开发效率,而且执行速度快,具备良好的跨平台移植性。

    其过程如下:首先由相机采集标定板某一帧图像,接着通过阈值分割算法将标定板区域与背景分离;其次利用Canny滤波器提取标定板各特征圆边缘,然后采用Fitzgibbon[5]提出的通过线性方法来最小化代数差以得到拟合椭圆,该算法具有很好的稳健性,可以抑制边缘中孤立点对边缘拟合的影响。[4]最终提取出椭圆最小的外接四边形,可以很容易确定特征点及其与图像中投影之间的关系。

    标定结果如下:相机焦距f=0.00503229m,畸變系数k=-4249.42,水平方向上相邻像素之间距离Sx=2.19743×10-6m,垂直方向上相邻像素之间距离Sy=2.2×10-6m,图像主点坐标Cx=1253.36,Cy=1000.45。

    3 现场定位实验

    3.1 引言

    完成相机标定后,将相机拿到实验室安装在实验所用大理石平台正上方支架上固定好位置。这里需注意保证实验台水平和相机位置固定,通过这一约束保证图像点和空间点一一对应。接着在智能车上安装靶标,对小车处于平台上不同位置时进行采样,如图3所示。

    3.2 阈值化

    采集完图像后,首先通过阈值分割算法剔除部分像素,将靶标区域与背景区域分开。首先把图像的像素点按照不同的特征阈值分成若干类,然后按照一定的标准f(x,y)获得特征值T,将原图分割为两部分,从而初步消除复杂背景对图像处理的干扰。通过Halcon算子threshold()即可实现这一步。

    3.3 特征选择与提取

    然后需通过特征提取算法提取出靶标特征圆并得到圆心位置,本文采用一种改进的SURF特征提取算法,SURF(Speed Up Robust Features)特征提取算法是一种具有鲁棒性的局部特征检测算法[12],其主要步骤如下:

    (1)生成尺度空间。

    运用不同尺寸的滤波器与原图像进行卷积,获得图像金字塔,即生成图像的尺度空间。

    (2)检测关键点。

    SURF算法是通过采用快速Hessian矩阵法来定位特征点。计算待选特征点及其周围点的Hessian值,认为极大值点即为特征点[11]。像素的Hessian值由原图和Hessian矩阵得到。

    (3)分配关键点方向。

    以特征点为中心,在一定邻域内对60°扇形里的所有点在水平和垂直方向的Haar小波相应值进行累加,最大的Haar相应累加值即为该特征点对应的主方向。

    (4)生成特征点描述子。

    以特征点为中心,将20×20d(d为该特征点所在尺度)的图像区域划分成4×4个子块,每个子块统计25个像素相对主方向的水平方向之和∑dx、水平方向绝对值之和∑|dx|、垂直方向之和∑dy 和垂直方向绝对值之和∑|dy|。每个子块得到如上4个特征值,因此每个特征点可得到64维向量。在此基础上可进行特征点的匹配。

    本文对SURF特征提取算法进行了部分改进,采用两级匹配,即SURF初级匹配与select_shape()算子相结合的方式提高匹配精度。select_shape()是一个功能强大的算子,它先通过形状初步确定特征提取区域,再通过比较各区域面积提取出所需特征,特征提取结果如图4所示。

    3.4 特征点边缘检测

    特征提取成功后,为了计算出特征点圆心坐标,需要进行边缘检测得到特征点轮廓后再进行椭圆拟合,为了更好的提取出边缘,本文采用一种改进的Canny边缘检测算法。Canny边缘检测算法的基本思想是先去噪,选用二维高斯函数的任意方向上的一阶导数为噪声滤波器,通过和图像卷积进行滤波达到去噪效果。

    图像去噪后运用一阶差分算子分别在水平方向和垂直方向上计算梯度幅值分量,得到图像梯度的幅值和方向,在梯度方向上幅值最大的点即为边缘点。[12]

    本文对该算法的改进是用形态学方法结合Canny边缘检测算法提高检测精度,先将特征点进行形态学膨胀处理,充分保留其边缘区域,随后对特征点进行Canny边缘检测,提取出特征点的边缘,其效果图如图5所示。

    3.5 计算特征点圆心坐标

    完成特征点边缘检测和椭圆拟合后,接下来利用相机之前标定好的参数以及在标定之前确定的世界坐标,通过image_points_to_world_plane()算子去求出各特征点圆心实际世界坐标。

    接下来手动测量特征点的位置,并与实验中得出的结果进行比较,将各个位置坐标绘制成下表。

    根据比较实验结果,本文所采用定位方法误差小,精度较高,可满足定位要求。

    4 小结与展望

    基于单目视觉的移动机器人定位具有系统结构简单、设计实验方便的优点,本文实验方法经验证可行,但是目前使用此种靶标具有特征点太多、提取复杂的缺点,因此下一阶段工作可以考虑重新设计一款特征显著且特征点不密集的靶标,进一步改进该定位方法。

    参考文献:

    [1]厉茂海,洪炳镕,罗荣华,等.基于单目视觉的移动机器人全局定位[J].机器人,2007,29(2):140144,178.

    [2]牛凯,项辉宇,于修洪.基于序列图像的冲压件检测系统研究[J].机电产品开发与创新,2011,24(3):135137.

    [3]黄桂平,李广云,王保丰,等.单目视觉测量技术研究[J].计量学报,2004,25(4):314317.

    [4]罗珍茜,薛雷,孙峰杰,等.基于HALCON的摄像机标定[J].电视技术,2010,34(04):100102.

    [5]FITZGIBBON A,PILU M,FISHER R B.Direct least square fitting of ellipses[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1999,21(5):475480.

    [6]朱佩.基于机器视觉的移动机器人机械臂控制系统设计与实现[D].南京:东南大學,2015.

    [7]S.LANSER,C.ZIERL,R.BEUTLHAUSER.Multibildkalibrierung einer CCDKamera.In G.SAGERER,S.POSCH,F.KUMMERT,EDITORS,Mustererkennung,Informatik aktuell,pp.481491.SpringerVerlag,Berlin,1995.

    [8]田晓燕.基于机器视觉的移动机器人机械臂控制系统设计与实现[D].西安:西北大学,2006.

    [9]邵泽明.视觉移动机器人自主导航关键技术研究[D].南京:南京航空航天大学,2009.

    [10]唐品,赵曦,赵群飞.基于机器视觉的电梯导轨垂直度检测[J].计算机工程,2012,38(12):161164.

    [11]陈敏,汤晓安.SIFT与SURF特征提取算法在图像匹配中的应用对比研究[J].现代电子技术,2018,41(7):4144.

    [12]徐亮,魏锐.基于Canny算子的图像边缘检测优化算法[J].科技通报,2013,29(7):127131,150.

随便看

 

科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。

 

Copyright © 2004-2023 puapp.net All Rights Reserved
更新时间:2025/3/21 20:43:32