摘要:针对当前各类测距方法的缺点和不足,提出了一种基于相似原理的新型双目测距法。介绍了该方法的原理,并推导了距离的计算公式。由于该计算公式不便于直接在工程中应用,又提出了一种实验方法来实现新型测距法的工程价值。为验证该方法的实用性,进行了两组实验。实验结果表明,该方法在中短距离上可以实现较高精度的测量。该方法成本低,适用于移动机器人的视觉测距系统,并可以使机器人同时获得望远镜和广角镜能力,提高了其感知世界的深度和广度。
1 引 言
实现移动机器人路径规划和实时避障的一个关键技术就是准确地测出机器人到障碍的距离。目前常用的测距方法主要分为主动测距法和被动测距法两种。
1) 主动测距法。主动测距法主要包括反射能量法、超声时间法等。反射能量法需要发射一束红外光或激光到被测物体表面,同时接收被测物体的反射光能量,根据接收到的能量来判断被测物体的距离;超声时间法测量一束超声波从发射到反射回仪器的时间来判断被测物的距离[1]。主动测距法的优点是受外界环境干扰较小,其缺点是需要额外的能量发射装置,增加了成本,而且有的可能需要能量传播介质,限制了其使用环境。
2) 被动测距法。被动测距法根据被测物体本身发出的信号(如光信号)来测量距离,主要包括立体视觉测距法、单目测距法、测角被动测距法等[2]。立体视觉测距法是仿照人类利用双目感知距离的一种测距方法,该方法的难点是选择合理的匹配特征和匹配准则[3];单目测距法是通过在光学系统中引进满足一定条件的“mask”,使成像系统的光学传递函数形成一系列周期变化的与目标物体距离有关的零点,该方法要求目标物体具有低空间频率特性[4];测角被动测距法通过对目标两次测角来实现测距,该方法要求平台加速度不能为零。
上述各种测距法都存在一定的不足。为给移动机器人提供一种低成本、高精度的测距方法,本文基于相似原理提出了一种新型双目视觉测距法。
2 原 理
该新型双目视觉测距法的原理如图1 所示。图中有两片焦距不同的透镜,分别命名为透镜1 和透镜2,其焦距分别为f1和f2;AB 为被测物体,长度为h,到透镜的垂直距离为u;A1B1为 AB 通过透镜 1 的成像,A2B2为 AB 通过透镜2 的成像;v1是透镜1 成像的像距,v2是透镜2 成像的像距。


式中:h 为被测物体AB 的长度,对应图1 中的|AB|;U 为被测物体到透镜的距离,对应图1 中的|AO1|;h1为被测物体通过透镜 1 成像的长度,对应图 1 中的|A1B1|;h2为被测物体通过透镜2 成像的长度,对应图1中的|A2B2|;v1为透镜1成像的像距,对应图1中的|A1O1|;v2为透镜2成像的像距,对应图1中的|B2O2|;f1为透镜 1 的焦距;f2为透镜2 的焦距。
3 实验与分析
对式(4)和式(5),需要专门的摄像头来验证其正确性,这两个摄像头应该具有固定焦距,而且以通过改变像距的方式调焦。当前没有这样的实验条件,暂时用两部数码相机搭建了双目测距实验台(图2)。其中一部相机的型号为富士 S9500,变焦范围相当于 135 相机的 28~300 mm,最高分辨率为 910 万像素;另一部相机的型号为索尼 W100,变焦范围相当于 135 相机的 38~114 mm,最高分辨率为 800 万像素。
根据式(4)和式(5),需要知道两部相机的焦距。实验中,两部相机都可以通过手动方式将镜头的焦距值设为某一固定值(将其命名为名义焦距),但由于两部相机的镜头都是变焦镜头,都通过改变焦距的方式调焦,且对距离不同的被测物体,调焦量也不同,每次调焦都会改变镜头的实际焦距,难以得到相机镜头的实际焦距值,所以式(4)和式(5)不能在工程中直接应用。鉴于该原因,采取了一种特殊的实验方法来测定被测物体的距离,该实验分为短距离实验和中距离实验,以分别测定短、中距离的被测物体。
3.1 短距离实验
为测量近距离物体,将富士S9500 的名义焦距设置为 28 mm,将索尼 W100 的名义焦距设置为 38 mm。为提高测量精度,将两部相机的分辨率都设置为最高。被测物体为一张 120 mm×80 mm 的深色矩形卡片。实验过程是:在不同距离 u 上对被测物体进行拍照,将照片放大到原尺寸后,用刻度尺测量出矩形卡片长边的尺寸,将富士 S9500 测得的卡片长边尺寸值定义为 h1,将索尼 W100 测得的卡片长边尺寸值定义为 h2,这样可得到 h1/h2的值 i。为得到比较精确的 i 值,共进行了三次同样的实验,实验结果如表1 所示,表中的 i 值为三次实验的平均值。

为找出i 与物距u 之间的函数关系,将表1 中的数据输入Origin 软件,i 作为 x 轴,物距 u 作为 y轴。用Logistic 函数进行非线性拟合,其表达式为

为验证式(7)的正确性,再次进行了一组实验,实验条件与前所述完全相同,该次实验得到的数据如表2 所示。表中数据显示,当 u≤4 227 mm 时,相对误差 e≤1.5%,当 u≥4 227 mm 时,相对误差 e 会急剧增大,这时式(7)已不能描述 i 与 u 之间的函数关系。为解决该问题,可以采取增大镜头焦距的方法。式(7)显示,当 i=0.8 时,u=3 061.6。不妨以 i=0.8 作为分界点,当 i≤0.8 时,用式(7)来计算物距 u,当 i>0.8 时,用另一个方程来计算物距u。


3.2 中距离实验
为了测量中距离对象,将富士 S9500 的名义焦距设置为最大的 300 mm,将索尼 W100 的名义焦距也设置为最大的 114 mm,与短距离实验相同的方法进行另一组实验,为得到比较精确的 i 值,共进行了三次同样的实验,实验结果如表3 所示,表中i 值为三次实验的平均值。


为找出i 与物距 u 之间的函数关系,将表3 的数据输入 Origin 软件,i 为 x 轴,物距u 为 y 轴。仍然用 Logistic 函数进行非线性拟合,其表达式如式(6)所示。最终得到的拟合曲线如图4,得到的拟合参数为A1=2 117.874 01,A2= 4 880 474 965.780 2,x0=3.58283,p=44.942 99。将其代入式(6)得到 i 与物距u 之间的函数关系:
![]()
为验证式(8)的正确性,再次进行了一组实验,实验条件与前所述完全相同,该次实验得到的数据如表4 所示。可以看出,中距离测量精度比短距离测量精度稍低,但在工程中仍具实用价值。

由表2 和表4 可以看出,该新型双目测距法在短距离上测得的相对误差 e≤2%,在中距离上测得的相对误差e≤3.4%。如果改善实验设备,会取得更高精度的测量结果。该方法成本低,原理简单,测量精度较高。由于采用了不同焦距的镜头,可以同时获得望远镜和广角镜效果,提高了感知世界的深度和广度。配以相应算法,该测距法可应用于移动机器人的视觉系统、空间卫星跟踪系统、自动飞行器着陆与精确导航系统、战场的侦察系统等。
4 结 论
本文介绍了一种基于相似原理的新型双目视觉测距法,文中介绍了该方法的工作原理,并用实验的方法验证了该方法的工程实用性。本文得出以下结论:
1) 该视觉测控系统中采用的相似测距法原理正确,在中短距离上可以实现较高精度的测量。
2) 根据式(4),所使用的两个镜头的焦距不能太接近,否则会使测量误差加大。
3) 提高相机的分辨率、提高图像尺寸的测量精度和提高非线性拟合的精度,是提高测量精度的必要条件。另外,提高两个摄像头的安装精度,也可以在一定程度上减小测量误差。
4) 图像尺寸的测量可以采用图像处理的方法,相应算法是一个难点,需要进一步研究。该新型双目测距法已申请发明专利。
参考文献:
[1] 冯华君,徐之海,李 奇. 红外主动式 PSD 测距系统[J]. 光电工程,1999,26(3):42-46.FENG Hua-jun,XU Zhi-hai,LI Qi. An Infrared Active Position Sensitive Device Range Finding System [J]. OptoElectroNIcEngineering,1999,26(3):42-46.
[2] 赵勋杰,高稚允. 光电被动测距技术[J]. 光学技术,2003,29(6):652-656.ZHAO Xun-jie,GAO Zhi-yun. Review of passive range sensing techniques [J]. Optical Technique,2003,29(6):652-656.
[3] Okutomi M,Kanade T. A multiple-baseline stereo [J]. IEEE transactions on Pattern Anal & Mch Intell,1993,15(4):353-363.
[4] Dowski E R,Cathey W T. Single-lens single-image incoherent passive ranging systems [J]. Applied Optics,1994,33(29):6762-6773.
[5] 袁旭沧. 光学设计[M]. 北京:北京理工大学出版社,1988.YUAN Xu-cang. Optical Design [M]. Beijing:Beijing Institute of Technology Press,1998.
[6] 李 林,安连生. 计算机辅助光学设计的理论与应用[M]. 北京:国防工业出版社,2002.LI Lin,AN Lian-sheng. Theory and application of Computer Aided Optical Design [M]. Beijing:National Defense IndustryPress,2002.
[7] 李士贤,郑乐年. 光学设计手册[K]. 北京:北京理工大学出版社,1990.LI Shi-xian,ZHENG Le-nian. Optical Design Handbook [K]. Beijing:Beijing Institute of Technology Press,1990.
[8] Milan Sonka,Vaclav Hlvac,Roger Boyle. 图像处理、分析与机器视觉 [M]. 艾海舟,武 勃,译. 北京:人民邮电出版社,2003.Milan Sonka,Vaclav Hlvac,Roger Boyle. Image processing, analysis and Machine Vision [M]. AI Hai-zhou,WU Bo.Beijing:Posts & Telecom Press,2003.
[9] 高 文,陈熙霖. 计算机视觉[M]. 北京:清华大学出版社,1999.GAO Wen,CHEN Xi-lin. Computer Vision [M]. Beijing:Tsinghua University Press,1999.
[10] 叶卫平,方安平,于本方. Origin 7.0 科技绘图及数据分析[M]. 北京:机械工业出版社,2004.YE Wei-ping,FANG An-ping,YU Ben-fang. Origin 7.0 Science and Technology Drawing and Data Analysis [M]. Beijing:China Machine Press,2004.
基金项目:“新世纪优秀人才支持计划”、教育部国家外专局“高等学校学科创新引智计划”、北京市教改项目及自然科学基金(60371043)
作者简介:岳荣刚(1980-),男(汉族),山东青州人,博士研究生,主要研究工作是野外探测机器人。E-mail: beijing2008-v@126.com




