扫地机器人传感器抓取时怎么定位的?用什么传感器来检测?

您还可以使用以下方式登录
当前位置:&>&&>& > NAO机器人的视觉伺服物品抓取设计与实现
机器人视觉定位抓取 NAO机器人的视觉伺服物品抓取设计与实现
分类号:TP242密级:公开学号:201213016.∥▲东岁,番硕士学位论文ThesisforMasterDegree(专业学位)论文题目:NAO机器人的视觉伺服物品抓取设计与实现DesignandImplementationofvisualservograspingofhouseholdobjectsforNAorobot作者姓名耋亘童、丽学院名称控制科学与工程学院专业名称控制工程指导教师职≮合作导师2015年5月19日万方数据JIlllllIJIllllllHIMllJY2791773原创性声明本人郑重声明:所呈交的学位论文,是本人在导师的指导下,独立进行研究所取得的成果。除文中已经注明引用的内容外,本论文不包含任何其他个人或集体已经发表或撰写过的科研成果。对本文的研究作出重要贡献的个人和集体,均已在文中以明确方式标明。本声明的法律责任由本人承担。论文作者签名:圭函日关于学位论文使用授权的声明本人完全了解山东大学有关保留、使用学位论文的规定,同意学校保留或向国家有关部门或机构送交论文的复印件和电子版,允许论文被查阅和借阅;本人授权山东大学可以将本学位论文的全部或部分内容编入有关数据库进行检索,可以采用影印、缩印或其他复制手段保存论文和汇编本学位论文。(保密论文在解密后应遵守此规定)论文作者签名:墓函导师签名:衅日期:酬万方数据山东大学硕士学位论文目录摘要…………………………………….……………………………………………..……………………….IABSTRACT………………………………………………………………………………………………..III第—章绪论………………………………………………………………………………………11.1研究背景及意义………………………………………………………………11.2相关问题的研究现状…………………………………………………………21.2.1NAO机器人抓取研究现状………………………………………………21.2.2视觉测量定位研究现状…………………………………………………31.2.3视觉伺服控制研究现状…………………………………………………41.3本文主要研究内容……………………………………………………………51.4论文章节安排…………………………………………………………………7第二章实验平台及NAO机器人的建模………………………………………………….92.1实验平台简介…………………………………………………………………92.1.1NAO机器人………………………………………………………………92.1.2Bumblebee2双目视觉…………………………………………………..122.2NAO机械臂的运动学建模………………………………………………….132.2.1运动学正解……………………………………………………………..142.2.2运动学逆解……………………………………………………………..162.3本章小结………….j…………………………………………………………18第三章视觉测量定位…………………………………………………………………………193.1基于本体单目视觉的物体定位…………………………………………….193.1.1摄像机模型及参数标定………………………………………………。193.1.2基于单应矩阵分解的物品位姿估计…………………………………..223.2基于双目立体视觉的物体定位…………………………………………….263.2.1对极几何及基本矩阵分解……………………………………………..263.2.2位姿估计………………………………………………………………..293.3实验结果与分析…………………………………………………………….3l3.3.1单目视觉定位实验……………………………………………………..313.3.2双目视觉定位实验……………………………………………………..323.4本章小结…………………………………………………………………….35第四章基于本体单目视觉的物品抓取………………………………………………。374.1单臂抓取的PBVS控制律………………………………………………….37万方数据山东大学硕士学位论文4.2双臂抓取的PBVS控制律………………………………………………….384.3增加路径点的PBVS控制律……………………………………………….404.4实验结果与分析…………………………………………………………….404.4.1单臂抓取实验………………………………………………………….414.4.2双臂抓取实验………………………………………………………….424.5本章小结…………………………………………………………………….44第五章基于双目立体视觉的物品抓取……………………………………………455.1视觉伺服系统标定………………………………………………………….465.2静止物体抓取……………………………………………………………….485.2.1PBVS抓取控制律………………………………………………………485.2.2结合迭代学习控制的改进控制律…………………………………….505.3运动物体抓取……………………………………………………………….515.3.1基于扩展卡尔曼滤波的物体位姿估计与运动预测………………….515.3.2PBVS抓取控制律………………………………………………………535.3.3结合迭代学习控制的改进控制律…………………………………….545.4实验结果与分析…………………………………………………………….555.4.1系统标定实验………………………………………………………….555.4.2静止物品抓取实验…………………………………………………….565.4.3运动物品抓取实验…………………………………………………….585.5本章小结…………………………………………………………………….62第六章总结与展望…………………………………………………………………636.1总结……………………………………………………………………………………………………636.2展望……………………………………………………………………………………………………64参璃汶献………………………………………………………………………………………………………65致谢……………………………………………………………………………………………………………71硕士期间发表的论文和科研成果………………………………………………….73硕士期间参加的科研工作……………………………………………………………。73万方数据山东大学硕士学位论文CoNTENTSChineseAbstract……..……………………………………….…………………….……………………….IEnglishAbstract……………………………………………….…………………….……………………IllChapter1Introduction…………………………………………………………………………………..11.1BackgroundandSignificance………….….……..…..…..….….…..………..…..……..…..11.2ResearchStatusofRelatedProblems….……..…….…….……………….…………….….21.2.1ReviewofNAORobotGrasping……………………………………………………….21.2.2ReviewofVisualMeasurementandLocalization…………………………………31.2.3ReviewofVisualServoingControl….……..…….….…..…….……..…….….…...41.311leMainContentofthethesis…………………………………………………………………51.4ChapterArrangementofthethesis…..………..…..…….………..……..…..…..….….…..7Chapter2ExperimentalPlatformandModelingofNAORobot………………………92.1ExperimentalPlatform…..…………..….….……..….……..….….….….….……..………….92.1.1NJz!LORobot..….…..….….………..….….…..…..…….….….…..……..….…….…..…..92.】【.2Bumblebee2Camera.….…..…….…….….……………….….….….…..…..….….….122.2KinematicModelingofNAO’SManipulator…………………………………………….132.2.1ForwardKinematics.….….………..……..……..….…….….….….….…..…….….…142.2.2InverseKinematics…………………………………………………………………………162.3Summary…..….….….…..…..….….………..………..….…….………..……..….…….….…..18Chapter3VisualMeasurementandLocalization…………………….…………………….193.1ObiectLocalizationBasedonNoumenalMonocularVision………………………193.1.1CameraModelandParameterCalibration…………………………………………193.1.2ObjectPoseEstimationBasedonHomographyDecomposition…………..223.2ObiectLocalizationBasedonBinocularStereoVision………………………………263.2.1EpipolarGeometryandDecompositionofFundamentalMatrix…………。26:;.2.2PoseEstimation..…..….….……….…….….…..….…….….….……..….……………..29:;.3ExperimentandResultAnalysis..…….….….…….……….……..…….…….…….….….3l,3.3.1ExperimentofMonocularVisualLocalization…………………………………。313.3.2ExperimentofStereoVisualLocalization…………………………………………32:;.4Summary……………………………………………………………………………………………..35Chapter4NoumenalMonocularVisionBasedObjectGrasping…………………….374.1PBVSControlLawofUnimanualGrasping…………………………………………….374.2PBVSControlLawofBimanualGrasping……………………………………………….384.3PBVSControlLawofAddingPathPoints.…….…….….….….….….…….………….40万方数据山东大学硕士学位论文4.4ExperimentandResultAnalysis……………………………………………………………。404.4.1ExperimentofUnimanualGrasping…………………………………………………414.4.2ExperimentofBimanualGrasping…………………………………………………..424.5Summary……………………………………………………………………………………………..44BasedChapter5BinocularStereoVisionObjectGrasping……………………………?455.1CalibrationofVisualServoSystem…………………………………………………………465.2StaticObjectGrasping…………………………………………………………………………..48ControlLawofCombiningIterativeLearningControl…………505.2.1PBVSControlLaw………………………………………………………………………。485.2.25.3ModifiedMovingObjectGrasping………………………………………………………………………?515.3.1ObjectPoseEstimationandMotionPredictionBasedonEKF…………….515.3.2PBVSControlLaw………………………………………………………………………..535.3.3ModifiedControlLawofCombiningIterativeLearningControl…………54ResultAnalysis……………………………………………………………??555.4Experimentand5.4.1ExperimentofSystemCalibration……………………………………………………555.4.2ExperimentofStaticObjectGrasping………………………………………………565.4.3ExperimentofMovingObjectGrasping…………………………………………..585.5Summary……………………………………………………………………………….一…………”62Chapter6ConclusionsandFutureWorks………………………..……………………………636.1Conclusions………………;………………………………………………………………………。636.2FutureWorks……………………………………………………………………………………….64References…………………………………….……..………………………………………………………65Ackonwledgments………………………………………。………………………....…………。……….71fortheMasterate……………………………………?73PapersPublishedDuringStudyingResearchProjectsParticipatedDuringStudyingfortheMasterate………………??73万方数据山东大学硕士学位论文摘要随着人口老龄化问题日益加剧,“空巢老人”不断增多,导致如何解决照顾陪伴“空巢老人”的问题成为社会难题。在日常生活中,物品的操作是最为频繁的行为之一,老年人和残疾人由于行动不便或各种其他的原因,难以完成这些日常行为,需要家庭服务机器人给予帮助,所以服务机器人不仅需要在非结构化的家庭环境中运动,更为重要的是需要具有操作能力,能够帮助人完成家庭物品的抓取和传送。本文以家庭服务机器人为用户提供家庭物品抓取和传递服务为应用背景,以仿人机器人NAO为实验平台,为使NAO能够更智能更自主地进行运动控制,对NAO机器人的五自由度手臂进行运动学建模,利用NAO的本体单目视觉和外设双目立体视觉构成视觉伺服控制系统,提出了准确的物品位姿估计算法,设计了基于位置的视觉伺服(Position.BasedVisualServoing,PBVS)控制方法,并且结合迭代学习控制改进了PBVS控制律,并通过实验验证提出的机器人控制方法能够使机器人很好的完成家庭物品抓取、传递任务,对机器人走入家庭为人提供服务具有重要意义。针对在机器人附近且在机器人视野范围内物品的抓取问题,基于本体单目视觉提出基于Naomark标签的物品识别和定位方法,利用世界平面单应矩阵分解算法对目标物的位姿进行估计,使本体单目视觉能够对物体进行快速识别和准确定位。同时,本文设计了单臂抓取和双臂抓取的PBVS控制律,利用运动学逆解进行关节控制量的求解实现抓取,并提出双臂抓取在运送物品过程中需满足的位姿约束条件。为避免抓取过程中末端执行器与障碍物和目标抓取物的碰撞,对原有PBVS控制律引入路径规划进行了改进,通过实验验证了改进控制律的优越性。对于未贴Naomark标签的物体和传递过程中运动的物体,本体视觉存在分辨率低,深度信息未知单目视觉难以进行精确定位,图像特征提取困难,难以进行快速图像处理,易产生图像动态模糊等问题。为解决这些难题以实现本体单目视觉难以准确识别与定位的物品的抓取,借助Bumblebee2双目立体相机构建视觉伺服系统,通过图像处理获取物品的自然特征点,利用对极几何及本质矩阵分解和线性三角形法获取特征点的三维坐标,进而估计出摄像机坐标系与物体坐标系的相对位姿。对T万方数据山东大学硕士学位论文于传递过程中运动物体的定位问题,提出了基于扩展卡尔曼滤波的物体位姿估计与运动预测方法。针对静止物品和传递过程中运动物品的抓取问题,分别设计了李雅普诺夫渐进稳定的PBVS抓取控制律,但由于机械误差和物品运动预测误差的存在,导致末端执行器不能完全跟踪上期望的抓取轨迹,本文结合迭代学习控制对PBVS控制律进行了改进,通过迭代实验验证提出的方法能够快速校正系统误差,提高系统响应速度,使机器人能够快速、稳定的完成目标物品的抓取,实现相应的家庭服务。关键词.INAO机器人;物品抓取;视觉伺服;位姿估计:迭代学习控制lI万方数据山东大学硕士学位论文ABSTRACTWiththeincreasingagingpopulationandthegrowingnumberof”empty—nesters”,howtocareandaccompany”empty—nesters”hasbecomeaserioussocialproblem.Indallylife,theoperationofhouseholdobjectsisoneofthemostfrequentbehavior,theelderlyandthedisabledarehardtoaccomplishthesedallyactsduetolimitedmobilityormanyotherreasons,theyneedhomeservicerobotsforhelp.Sonotonlymovinginunstructuredhomeenvironment,itismoreimportantfortheservicerobotstohavetheabilityofoperation,tohelppeopleaccomplishthehandlinganddeliveringofhouseholdobjects.Thethesistakeshomeservicerobotsprovidingservicesofhandlinganddeliveringhouseholdobjectsasapplicationbackground,appliesNAOhumanoidrobotasexperimentalplatform.ToenableNAOtoproceedsmarterandmoreautonomousmotioncontrol,thekinematicsmodeloftheNAO’Sfivedegreesoffreedomariaisestablished.111enoumenalmonocularvisionandbinocularstereovisionareusedtoconstitutevisualservocontrolsystem,accurateposeestimationalgorithmisproposedandposition—basedvisualservoing(PBVS)controlmethodisdesignedanditerativelearningcontrolisappliedtoimprovethePBVScontrollaw.Experimentsverifythattheproposedmethodenablestherobottoaccomplishthetaskofhandlinganddeliveringhouseholdobjects,whichisofgreatsignificancefortherobotstoprovidehomeservicesforpeople.Tograsptheobjectsaroundtherobotandinthesightoftherobot,therapididentificationandlocalizationofobjectisachievedbyusingNaomarklabelbasedonnoumenalmonocularvisionandthepositionandorientationinfonnationofobjectisestimatedthroughtheworldhomographymatrixdecompositionrapidlyandaccurately.Atthesametime,thePBVScontrollawisdesignedforeitherunimanualorbimanualgrasping,byusinginversekinematicstoacquirethejointcontrolangleofrealizingobjectgrasping.AndtheposeconstraintisproposedduringtheprocessoftransportingobjectsIII万方数据山东大学硕士学位论文bimanually.Toavoidthecollisionoftheend-effectorwitlltheobstaclesandthetargetobjectduringthegraspingprocesS,pathplanningoftheend-effectorisaddedtotheoriginalcontrollaw.ExperimentalresultsshowthesuperiorityofimprovedPBVScontrolFortheobjectswithoutNaomarklabelandthemovingobjectsduringdelivery,thenoumenalmonocularvisionishardtorecognizeandlocatethemaccuratelyduetothelowresolution,theunknowndepthinformation,difficultiesofimagefeatureextractionandfastimageprocessing,motionblur.Toaddressthesechallengesofgraspingtheobjectswhichisdifficulttorealizebaseonnoumenalmonocularvision,thethesisusesbinocularstereocameraBumblebee2toconstitutevisualservosystem.Therapididentificationofobjectisachievedthroughnaturalfeatureextractionbyimageprocessing,theposeofobjectisestimatedbyepipolargeometryandfundamentalmatrixdecomposition.The3Dcoordinatesoffeaturepointsaleacquiredbylineartriangularmethod,thentherelativepositionandorientationofthecameracoordinatesystemandtheobjectcoordinatesystemiscalculated.Tosolvethelocalizationproblemofmovingobjectsduringdeliveryprocess,anextendedKalmanfilterbasedobjectposeestimationandmotionpredictionmethodisproposed.ThePBVSLyapunovasymptoticstablecontrollawisdesignedforeitherstaticobjectgraspingormovingobjectgrasping.However,thepresenceofmechanicalerrorandobjectmotionpredictionerrormakestheend-effectorhardtocompletelytrackthedesiredgraspingtrajectory.IterativelearningcontrolisaddedtoPBVScontrollawtoimprovetheperformanceoftheservosystem.IterativeexperimentsverifythattheimprovedPBVScontrollawCancorrecterrorsquicklyandimprovetheresponsespeedofsystem.Theproposedmethodcanhelptherobotachieveobjectgraspinganddeliveryrapidlyandstably,accomplishhomeservices.Keywords:NAORobot;ObjectGrasping;VisualServoing;PoseEstimation;IterativeLeamingControl;IV万方数据山东大学硕士学位论文第一章绪论1.1研究背景及意义人口老龄化已经成为世界性难题,而中国的老龄化现象尤为严重。国家统计局在2015年2月公布上一年度社会发展与国民经济统计数据显示,截止2014年末我国60周岁及以上的入口占总入口的15.5%,达到21241万。65周岁及以上的人口突破10%,占总人口的10.1%,达到13755万,可见我国已进入老年型社会,人口老龄化不可避免。据全国老龄办统计数据显示,中国“空巢老人”占老年人口比例接近50%,去年突破1亿人,“空巢老人”中许多存在孤独、抑郁甚至厌世等心理问题,导致如何解决照顾陪伴“空巢老人”的问题成为社会难题。因此,家庭服务陪伴机器人研究和开发具有重大的社会价值和意义。随着服务机器人逐渐进入家庭,服务机器人不仅需要在非结构化的家庭环境中运动,更为重要的是需要具有操作能力,能够帮助人完成家庭物品的抓取和传送。世界各国日益加剧的人口老龄化问题是推动家庭服务机器人操作能力研究的主要原因之一。老年人由于各个器官老化,导致视力下降、反应变慢、记忆力减退、动作不灵活,甚至患有或大或小的疾病,其子女在外工作无暇照顾,导致他们的生活存在困难。除此之外,我国还有大量的残障人士,他们由于先天或者后天导致身体某些方面的残疾,甚至生活不能自理,急需能够帮助他们的服务机器人。在日常生活中,物品的操作是最为频繁的行为之一,老年人和残疾人由于行动不便或各种其他的原因,难以完成这些日常行为,需要家庭服务机器人给予帮助,所以机器人抓取技术的研究是服务机器人开发急需解决的问题。●为使机器人迅速准确地完成家庭环境中物体的抓取任务,最有效的途径是给服务机器人机械臂赋予视觉能力以构成视觉伺服系统。不同于机器视觉,视觉伺服是以实现对机器人的控制为目的而进行的图像自动获取与分析【lJ,实现机器人的视觉伺服系统涉及到控制理论、图像处理、机器视觉、运动学、动力学、实时数学计算等多方面内容,因此实现机器人的视觉伺服控制的难度很大,是机器人学中的一个万方数据山东大学硕士学位论文十分具有挑战性的课题吲。本文以为用户提供家庭物品抓取和传递服务为应用背景,以仿人机器人NAO为实验平台,针对机器人抓取中机器人建模、视觉测量定位、视觉伺服控制等相关问题展开研究,不仅使机器人能够准确快速智能的完成指定任务,而且对服务机器人的应用和发展具有重要意义。1.2相关问题的研究现状1.2.1NAO机器人抓取研究现状家庭服务机器人是工作于家庭环境中,能够为人提供各种家庭服务的智能机器人。其中人形机器人以其亲和拟人的外表和高自由度、具有双手协调操作等有利条件以及能够完成各种类人的动作、实现各种服务任务等优点,正成为当代服务机器人的一个重点研究领域。NAO机器人是一款智能的仿人机器人,目前,国外已经有相关的NAO机器人抓取的研究。Louloudi“3】等在智能家居环境下,NAO接受人的服务指令利用分布式视觉获取的位置信息导航行进至指定处,通过预设的固定动作对目标物品进行抓取和递送。MullerJ【4】等将NAO机器人上下分布的摄像头改装为左右分布的双目视觉,通过颜色分割和边缘检测等从图像中分割出杯子,建立杯子的3D模型,提出基于A}算法的无碰撞路径规划算法完成对杯子的抓取(如图1—1所示)。MOUGHLBAYAA[5】等设计了两种新型误差校正策略来加快任务的执行速度,根据误差的大小设置不同的误差收敛指数,实现了特定物品的快速抓取,但未考虑末端执行器和物品的碰撞情况,导致实际抓取能力受到限制。BurgetF【6】等利用快速扩展随机树(Rapidly-exploringRandomTree,Ⅺ盯)算法进行无碰撞的路径和姿态规划,建立NAO机器人操作物品运动过程中保持平衡的各姿态数据库,在机器人操作系统(RobotOperationSystem,ROS)下进行研究开发,将Kinect固定于NAO头部(如图1.2所示)辅助机器人获取物品及环境的三维信息,从数据库选取相应的机器人运动姿态完成物品的操作。vanderWalE【7】提出机器学习的方法,对比了神经网络、K.近邻对抓取示教数据的离线训练结果和增强学习的在线训练结果,得出增强学习是实现抓取最优万方数据山东大学硕士学位论文的学习方法,通过学习和探索运动空间得到的最优抓取策略和轨迹,进而控制NAO机器人完成物品抓取。MellmannH【81等提出了一种适应性的双臂抓取算法,但由于算法只约束了左右机械臂的末端执行器与物体质心的距离和相对位置,导致实际抓取的应用受到一定限制。图1.1NAO机器人规划抓取杯子的路径图1.2NAO机器人抓取和投递物品1.2.2视觉测量定位研究现状视觉测量定位是机器人视觉控制的重要研究内容,也是实现视觉控制的基础。视觉测量主要是研究从二维图像信息到二维或三维笛卡尔空间信息的映射以及视觉测量系统的构成【9】,即三维重建(3DReconstruction)问题。针对三维重建过程中涉及的特征提取、图像匹配、模型识别、射影重构等图像处理与空间几何恢复的问题,LoweD等【lo】提出了在二维灰度图像中三维物品的识别方法,基于物品三维模型的先验知识,不通过深度信息重建的方式,而是利用空间对应关系和线一线对应关系、以及对应关系的空间不变性,利用这些关系和性质进行拍摄的二维图像与物品三维模型的特征匹配完成图像中物品识别;ZhangZ等【11】针对未标定的图像,图像的相对运动和摄像机参数均未知,利用极线约束基于最小中值估计方法提出鲁棒的图像匹配算法,由计算出的基础矩阵筛选符合条件的匹配点对,实现准确的图像匹配;HartleyRI等【12】全面分析了根据若干幅景物图像恢复三维景物空间结构的方法,首先介绍了射影几何、变换和估计的基础知识,接着讨论了摄像机几何和单视图几何,然后对两视图几何中的对极几何和基本矩阵、摄像机矩阵恢复、平面单应等进行了万方数据山东大学硕士学位论文阐述,最后扩展到三视图几何和N视图几何的情况,从理论和实现详细剖析了多视图几何的三维重构问题。对于视觉伺服控制系统中位姿(位置与旋转)估计的问题,MariottiniGL等【13】针对非完整移动机器人基于图像的视觉伺服控制中位姿估计问题,基于针孔摄像机提出基于图像特征点提取和对极几何的位姿估计算法,不依赖于景物先验的三维模型知识,控制移动机器人由初始位姿运动至期望位姿;ChoiC等【14l提出用于视觉伺服的实时物品三维位姿估计方法,同时适用于单目相机和双El立体相机,使用SIFT(ScaleInvariantFeatureTransform)算法进行自然特征的提取与匹配,结合KLT(Kande.Lucas—Tomasi)目标跟踪算法对固定特征点进行实时跟踪,并通过实验验证提出算法的有效性,且双目立体相机的定位效果优于单目相机;Janabi.SharifiF等‘15】针对机器人视觉伺服中位姿估计问题,改进了扩展卡尔曼滤波(ExtendedKalmanFilter,EKF)算法,提出迭代自适应扩展卡尔曼滤波(iterativeadaptiveEKF,IAEKF),通过实验对比EKF、白适应扩展卡尔曼滤波(adaptiveEKF,AEKF)、迭代扩展卡尔曼滤波(iterativeEKF,IEKF)、IAEKF的位姿估计结果,得出IAEKF取得的效果最好,能够消除机械噪声,解决错误的位姿初始化、非线性、快速轨迹跟踪等问题。1.2.3视觉伺服控制研究现状家庭物品的抓取和传送是服务机器人的基本功能,如何获取物体相对于机器人的位姿,并据此控制和设定机器人的位姿是要解决的核心问题‘16】。而视觉伺服则是解决这一核心问题的有效途径。机器人视觉伺服系统,按照状态反馈信号的不同,主要分为基于位置的视觉伺服控制(positionbasedvisualservo,PBVS)[17-191、基于图像的视觉伺服控制(imagebasedvisualservo,IBVS)[20-211和混合视觉伺服(hybridvisualservo,HYBVS)[22-24】等3类。PBVS在任务空间中以三维笛卡尔坐标的形式定义反馈误差信号,其基本原理是根据提取的图像特征,由已知目标物的几何模型和摄像机模型,在三维直角坐标系中对目标物品和末端执行器相对于摄像机的位姿进行定位估计,然后根据机械臂末端执行器当前位姿与目标期望位姿之间的误差,进行轨迹规划并计算出控制量,4万方数据山东大学硕士学位论文驱动末端执行器向目标物品运动,最终实现抓取功能;IBVS的误差反馈信号直接用二维图像特征的误差,其基本原理是由二维图像误差信号计算出控制量,通过计算图像雅克比矩阵将控制量转换得到机器人运动空间的控制量,从而控制机械臂末端执行器向目标物品运动,完成相应的伺服任务;HYBVS的反馈信号既有用任务空间中的三维笛卡尔坐标形式表示,也有用图像特征表示。混合视觉伺服控制既能像IBVS避免机器人运动学建模误差和摄像机标定误差对系统控制精度产生的影响,又可以像PBVS有效地将目标物体保持在观测视野之内,避免进入图像雅克比矩阵的奇异点。因PBVS直接在笛卡尔空间下进行位姿估计和运动控制,具有很好的直观性和简单有效性,故被大多数系统所采用。为解决PBVS控制中物体的位姿估计问题,VARGASM提出了一种解析式的单应矩阵分解的算法【251。为解决PBVS过程中目标DH、THUILOTB等人根据实时计算出的物脱离视野导致伺服失败的问题,PARK目标物位姿设计出摄像机的跟踪轨迹,从而保证目标物体时刻在视野中口6271。为解决伺服过程中目标物被遮挡而无法完整成像、机械臂与障碍物发生碰撞、机械臂关节角度限制等问题,CHESIG等人提出将末端执行器的路径规划与视觉伺服相结合的处理方法128捌。针对运动物体的跟踪和抓取问题,JiangP【3∞11等提出迭代学习控制结合基于图像的视觉伺服完成机械臂对示教的离散轨迹的跟踪,在每步迭代中不断逼近未知且变化的图像雅克比矩阵。GeLt321等提出了一种实时视觉伺服控制平行算法,物体的识别是通过快速模板匹配实现,利用卡尔曼滤波进行位置和速度的估计。1.3本文主要研究内容针对目前NAO机器人物品抓取研究存在的一些问题与不足,本文以基于位置的视觉伺服为主要的控制方法,基于NAO机器人的本体视觉与双目立体视觉,分别设计了具有鲁棒性的抓取控制算法,围绕机器人抓取中物品位姿估计、机器人运动控制、视觉伺服控制、抓取路径规划等问题展开研究和实验。论文的研究工作主要包括以下几个方面:万方数据山东大学硕士学位论文(1)机器人的运动学建模。针对NAO机械臂的运动控制问题,目前大部分研究是使用示教的方式建立NAO机器人的各种姿势动作数据库,根据要完成的动作从数据库中选取相应的动作样例,但如果在建立的姿态库中没有对应的动作样例,将导致运动控制失败。本文为使NAO能够更智能更自主地进行运动规划,提出对NAO机器人的五自由度手臂进行运动学建模,推导出运动学正逆解和机器人雅克比矩阵,根据给定的期望位姿计算得到各关节自由度的角度控制量,从而对NAO进行精确、稳定的运动控制。(2)物品位姿估计算法的设计与实现。为使本体单目视觉能够对物体进行快速识别和准确定位,本文提出基于Naomark标签的物品识别和定位方法,利用世界平面单应矩阵分解算法对目标物的位姿进行估计。但对于未贴Naomark标签的物体和传递过程中运动的物体,本体视觉存在分辨率低,深度信息未知单目视觉难以进行精确定位,图像特征提取困难,难以进行快速图像处理,易产生图像动态模糊等问题。为解决这些难题,本文借助Bumblebee2双目立体相机,通过图像处理获取物品的特征点,利用对极几何及本质矩阵分解和线性三角形法获取特征点的三维坐标,进而估计出摄像机矩阵与物体坐标系的相对位姿。对于运动物体的定位问题,提出了基于扩展卡尔曼滤波的物体位姿估计与运动预测方法。(3)基于本体单目视觉物品抓取方法的设计与实现。在机器人附近且在机器人视野范围内物品,基于本体单目视觉分别设计了单臂抓取和双臂抓取的PBVS控制律,利用运动学逆解进行关节控制量的求解实现抓取,并提出双臂抓取在运送物品过程中需满足的位姿约束条件;目前大部分的PBVS研究只关注末端执行器初始位姿与期望位姿,未考虑抓取过程中末端执行器与障碍物和目标抓取物的碰撞,本文引入路径规划,对原有PBVS算法进行改进,通过实验验证了改进控制律的优越性。(4)基于双目立体视觉物品抓取方法的设计与实现。为解决本体单目视觉对物品识别和定位存在的限制,结合Bumblebee2双目相机构建视觉伺服系统,以实现本体单目视觉难以准确识别与定位的物品的抓取。针对静止物品和传递过程中的运动物品,分别设计了李雅普诺夫渐进稳定的PBVS抓取控制律,但由于机械误差和物品运动预测误差的存在,导致末端执行器不能完全跟踪上期望的抓取轨迹,本文结合迭代学习控制对PBVS控制律进行了改进,通过迭代实验验证提出的方法能够6万方数据山东大学硕士学位论文快速校正系统误差,提高系统响应速度,使机器人能够快速、稳定的完成目标物品的抓取。1.4论文章节安排本文的章节内容安排如下:第一章:绪论。首先描述了课题的研究背景,并介绍了课题的研究意义。针对NAO机器人抓取、视觉测量定位和视觉伺服控制的国内外研究现状进行了阐述,并给出本文解决的问题、主要研究内容和论文的结构安排。第二章:实验平台及NAO机器人的建模。介绍了本课题的实验平台NAO机器人和Bumblebee2双目视觉,并对NAO机器人的机械臂进行了运动学建模和正逆解的数学分析。第三章:视觉测量定位。首先介绍了摄像机模型和摄像机参数的标定方法,基于本体单目视觉辅助Naomark标签提出了世界平面单应矩阵分解的位姿估计算法,基于双目立体视觉提出了基于对极几何及基本矩阵分解的位姿估计算法,并通过实验分别验证了定位算法的有效性。第四章:基于本体单目视觉的物品抓取。设计了单臂和双臂的PBVS抓取算法,同时,提出了双臂抓取在物品运送过程中的约束条件。为避免末端执行器与障碍物和目标抓取物的碰撞,对PBVS控制律进行了增加路径点的改进,通过抓取实验对传统控制律和改进控制律进行了误差分析。第五章:基于双目立体视觉的物品抓取。针对本体单目视觉物品定位的限制,利用双目立体视觉构成视觉伺服系统,并提出了系统标定的算法,分别设计了静止物品抓取和传递过程中运动物品抓取的PBVS控制律。为减小系统误差,改善控制系统性能,进一步结合迭代学习控制改善控制律,通过实验结果表明该方法可以有效提高控制精度和视觉伺服系统的鲁棒性。第六章:总结与展望。对本文的研究内容进行了总结,并分析了现技术手段存在的问题,对进一步的研究进行了展望与讨论。万方数据8万方数据山东大学硕士学位论文山东大学硕士学位论文第二章实验平台及NAO机器人的建模作为一款可自主编程机器人,NAO机器人被广泛应用到定位导航、运动控制和人工智能等研究领域。本章将详细介绍实验平台NAO机器人的软件框架、动作模块和视觉模块,以及Bumblebee2双目相机的性能数据参数。针对NAO机器人的物品抓取服务任务,对其机械臂进行运动学建模与正逆解的数学分析,为视觉伺服控制的实现奠定了基础。2.1实验平台简介2.1.1NAO机器人本课题使用的是V3.2版本的NAO机器人,全身具有25个自由度,可完成各种仿人动作,因此NAO被机器人世界杯RoboCup选定为竞赛标准平台,高自由度为其完成类似物品抓取传递等家庭服务任务提供了可能。NAO机器人全身自由度分布如图2.1所示。零一:善I囊鬻蠹纛j;4”8鬻毳薹懑%纛兰=.|三兰爱鬟添篾Alderbaran::j一_Ii肇攀誊魏潮黪蕊黼黝《。9。”图2-1NAO机器人的全身自由度分布i踽氅蒸缫纛;Robotics公司【33’3卅为NAO机器人配置100多个传感器,如摄像头、麦克风、红外、声呐、惯性单元等。NAO各个传感器分布如图2.2所示。完备的各种传感器使NAO具备声音识别、视觉识别与定位、探测障碍物和发光二极管灯光9万方数据山东大学硕士学位论文效果等功能,为服务任务的获取、人机交互、家庭环境的导航和机器人的运动控制提供了条件。触觉传摩器扬声器[x2l红外发射与接收器头部关节摄像头Ix2l侧面麦克风Ix2l肩关节前后麦克风胸部按钮声呐Ix2l肘关节电池髓关节可抓握的手肮关节触觉传巷器膝关节联关节扬声器【x2】图2-2NAO机器人的传感器分布(1)软件框架zkq
NAO的处理器是x86的AMDGEODE主频为500MHz的CPU,NAO的操作系统是嵌入式Linux。NA0qi是运行在NAO机器人上的总体软件框架,控制机器人实现音频、视频、动作等不同模块之间的信息传递与共享。NA0qi是一个跨平台软件框架,提供了各种模块的应用程序接口函数,支持多种语言C++、Python、.Net、Java、Urbi等编程调用,同时支持各种扩展开发包,例如0penCV进行图像处理。通过无线网络连接NA0,可在Windows、Linux或MacOS等不同操作系统下进行远程在线或离线编程控制,实现相应的服务功能需求。Choregraphe[351是NAO机器人的可视化图形编程界面,其中每个指令盒保存了机器人某项的行为,根据事件的逻辑关系连接指令盒的输入点和输出点,从而可控制机器人完成一项整体的服务任务,对比于单纯的代码编程控制Choregraphe为使用者提供了更直观的方式。Monitor用于获取机器人摄像头拍摄到的图像和视频数据,管理机器人的摄像头设定参数。Webots模拟器提供各种仿真场景,且能够与Choregraphe连接进行机器人在仿真场景中的控制,例如视觉模块、动作模块等的控lO万方数据山东大学硕士学位论文制,如图2.3所示。图2-3Webots中NAO机器人的场景动作仿真(2)动作模块NAO的动作模块主要包括关节控制和笛卡尔空间控制两种方式。关节控制(Jointcontr01)是通过控制NAO机器人各自由度对应的电机,使各自由度达到指zkq
定位置从而使NAO完成指定动作。笛卡尔空间控制(Cartesiancontr01)是直接对NAO的各末端执行器(如图2-4所示)进行三维空间位置与姿态的控制,但任意指定的末端执行器位姿可能存在达不到无解的情况,所以要完成精确的动作控制,只能使用建立运动学模型进行具体各关节控制的方式。图2.4NAO机器人的各末端执行器万方数据山东大学硕士学位论文(3)视觉模块NAO机器人的两个摄像头安装在面部,它们具有相同的参数。图2.5为摄像机的位置分布及参数,摄像头的分辨率为640×480,上、下摄像头的视角范围均为34.80。由于两摄像头之间没有重叠区域,所以NAO机器人的本体视觉是单目视觉。表2.1为摄像头的具体参数。图2-5NAO摄像头分布及参数表2-1摄像头参数摄像头型号zkq
0V7670摄像头输出VGA@30fpsfYl.『V422colorspace)视野范围580DFOV(47.80HFOV,34.80VFOV)聚焦范围30cm—。inf'mity聚焦类型Fixedfocus2.1.2Bumblebee2双目视觉由于NAO机器人的两摄像头之间没有重叠区域,利用本体视觉测量定位的原理是单目视觉定位,无法获取深度信息,导致结果不准确且误差大。所以要完成更精确的物品定位与抓取,本课题借助T拿大Pointgray公司的Bumblebee2双目视觉(如图2-6所示)构建视觉伺服系统,相机的图像扫描处理速率为平均48帧/秒。Pointgray公司提供的程序开发包编写了图像采集程序,使图像采集功能集成到应用程序中。Bumblebee2相机可以快速获取图像和抓拍,并同时获得目标运动或静止物1’万方数据山东大学硕士学位论文体在右摄像机坐标系中的3D坐标,并将这些数据与信息通过1394接口传送给主控计算机。Bumblebee2640x480at48FPSor102叙768at20FPS图2-6Bumblebee2双目相机Bumblebee2相机的主要性能指标如下:.SONY1/3”逐行扫描传感器;?分辨率640×480像素,48FPS:1024×768像素,18FPS;?基线距离12cm:?用于传输图像数据的接口为6针的IEEE.1394a接口;?触发方式为DCAMvl.3l触发方式0,1,3和14。zkq
2.2NAO机械臂的运动学建模为完成对NAO手臂末端执行器的精确控制,需要对NAO机器人的机械臂进行运动学建模,获取其精确的运动学参数。图2.7是NAO左手臂各自由度的活动角度范围。驴LShouldetPitch磨-104,5"图2.7NAO手臂各自由度的角度范围NAO手臂具有5个自由度,其结构图如图2.8所示。肩膀处有俯仰和横滚两个万方数据山东大学硕士学位论文自由度,肘部具有偏转和横滚两个自由度,腕部具有偏转一个自由度。除此之外,手爪具有张合一个自由度。图2-9为建立的NAO手臂的各连杆坐标系。图2-8NAO手臂的结构图图2-9NAO手臂的各连杆坐标系根据建立的各连杆坐标系和NAO机器人手臂的各参数,可以得到如表2—2所示NAO手臂的ModifiedDenavit.Hanenberg方法规定的连杆参数冈。由此可确定NAO手臂的运动学模型。表2-2NAO手臂的连杆参数zkq
其中,a、口、d、p分别为各连杆的扭角、长度、偏置和转角。2.2.1运动学正解运动学正解是根据建立的连杆坐标系,已知各连杆的位移或旋转,确定末端执行器坐标系{P)相对基坐标系{0)的位姿。相邻两连杆坐标系之间的变换矩阵通式为:cosoj——sinOi0q一1’1Z=sinOicosO,COS6ti一1一sin呸一1一Zsinolf—l(2-1)sin0,cosO,sinai—lCOS呸一1Zcostz,一l0O0l根据建立好的NAO手臂连杆坐标系和得到的D.H参数带入变换矩阵通式可得到14万方数据山东大学硕士学位论文各连杆间的齐次变换矩阵:『q10Oq20Ol。z:I西q00oo10110olO,?五:ll乞O0I1I哪2吖20o01l0001,孕睢--S3㈡0,L【10001j毕慝O0l岛一S500咄000qOOOO1,}雠瓣55将以上连杆齐次变换矩阵依次相乘,可得到。疋:oTe=o互1正2五3T44瓦(2?2)记nxoxnxpxore=nyoyaypy(2—3)nzoznzpzzkq
00O仇=c5(c4(sl墨+CLC2C3)一ClS2S4)"1"S5(c3s1一CIC2邑)胛。=一Cs(q(qs3一C2C3S1)+SIS2S4)一Ss(qC3+c2S1S3)nz=s2¥3S5一C5(C2S4+C3C4S2)Ox=C5(c3sl—qc2S3)一ss(c4(_s3+ClC2C3)一ClS2S4)Oy=S5(C4(ClS3一C2C3S1)"1-墨s23'4)--C5(ClC3+C2SIS3)0:=s5(C2S4+C3C4S2)+C5S2S3(2-4)ax=一S4(S1S3+qc2c3)一ClC4S2ay=S4(ClS3——C2C3S1)—‘C4SIS2nz2c3S2S4一c≯4见=一O.09qs2—0.05055(S4(SIS3+qc2c3)一ClC4S2)Py=0.05055(s4(c1岛一c2巳■)一c4&是)一O.09sls2pz=0.05055(C3S2S4一c2c4)一0.0%2其中,引用了简写符号Cl=cosOl,sl=sinOl等。根据建立的NA0机械臂运动学模型,利用机器人工具箱‘371仿真出NAO手臂的连杆模型,如图2—10所示。15万方数据山东大学硕士学位论文O.1O.05N0”.0.05-0—YX图2.10NAO手臂的连杆模型2.2.2运动学逆解运动学逆解‘381是根据已给定的满足工作要求的末端执行器相对参考坐标系的位置和姿态,求各关节的运动参数。如(2—3)和(2.4)所示,(2-3)中各元素已知,需求解(2—4)中的各关节变量目1,如,仍,以,05。直接求解很困难,因此,可将。疋左乘。五一1把变量p1分离出来:一c5(s2&一c2c3c4)一C2S3S5S5(S2S4一c2c3c4)一C2C5S3一C4S2一C2C3S4一c3S5一c一5S3c4S3ss—c3c5S3s4s2邑墨一巳(乞s4"-[-C3C4S2)S5(C2S4+乞气是)+6屯岛c3s2S4一c2c4000(2-5)一O.09s2—0.05055(c4s2"-FC2C3S4)0.05055S3S4—0.09c2+0.05055(C3S2S4一巳q)1Cl吃-I-S1FlyCtox+SlOyClq+S1aycIPx+S1Py--S1唿+C1l'ly—spx-t-ClOy—spx七clay—Slpx+clPy(2—6)吃o2哆pz0O0l令(2.5)与(2.6)中各对应元素相等,有如下等式:16万方数据山东大学硕士学位论文l—咯lq+cl口y=s3s4<【飞B+cl岛20.05055s3s4求解可得:岛=Atan2(py一0.05055ay,n一0.05055a,)同样,将。疋左乘。巧1把变量口l,眈分离出来,进而解出如,岛,04,侠:c3c4c5一邑黾一c5s3一c3c4s5一c3s4—0.05055c3s4I一巳竺一巳5一Sc4c5s3.0+c4s3s54c哪!5…c4一c3c5505伽s3S40nu.05055蚋0910I001Iqc2n,+乞墨b一是他qc20x+C2S10P—Spzcf2nx+C2Slay—s2nz一qs2nj—SIS2rly—c2他—CIS20J—sls20y—C202—ClS2ax—Sls2ay—c2nz一sl恢+clb一spx+qoy—spx+qay0OOqc2p,七c2S、py—s2pZ—qs2px—SlS2Py—c2PZ—stpx+c、py1令(2—9)与(2-10)qb各对应元素相等,则有如下等式:Iqc2吱+c2Slay—s2哆=飞&【qc2P:,+cj■B一?S12见=-0.05055q&≮够::0二2i现{-cl篙三嚣篡硝邓啪糍少,嘭一1以哆弘一一&^由(2-11)求解可得:岛=Atan2(G(0.05055a;一见)+量(o.05055ay—Py),0.05055a:一见)将(2.12)两式相除得:万方数据(2—7)(2-8)(2-9)(2—10)(2-11)(2-12)(2—13)(2—14)(2-15)山东大学硕士学位论文03=Atan2(slq—Clay,ClC2dx+CESlay—s2a:)(2-16)将(2-13)两式相除得:幺=Atan2(sla*一qay,qs2邑q+SiS2S3ay+C2S3G:)(2—17)将(2-14)两式相除得:岛=Atan2(一qs2q一曲曼嘭一C20z,Cls2nx+sls2刀y+c2%)(2—18)至此,式(2.8).(2.18)给出了全部的五组解析解。2.2.2.2数值解2.2.2.1节给出TNAO机器人手臂各连杆间的齐次变换矩阵,据此可依次求得‘疋,i=1,2…5,记IlnxlQxLOxpx。T卜‘口‘口‘P]lL2lnyay‘Oy‘Py0001l2l(2-19)tnzln:lozpzOOO1对于转动关节i=1,2,3,4,5而言:。‘=[(。p幽):(7p巾):(‘p×f口):nz哆心]T(2-20)则8.,=[。以。五。以。‘8以]为机械臂末端执行器相对于末端执行器坐标系{P)的速度与关节角速度间的线性映射关系的雅克比矩阵,是关于关节角的函数:计坝拼(2-21)2.3本章小结本章主要介绍了实验所用到的平台仿人机器人NAO和Bumblebee2双目视觉,对NAO机器人的自由度分布、传感器参数和软件框架,以及双目视觉的性能参数进行了介绍。同时,对NAO机器人的手臂进行了运动学建模,从运动学正解和逆解进行了数学分析,为家庭环境下机器人进行物品抓取服务的实现奠定了基础。万方数据山东大学硕士学位论文第三章视觉测量定位视觉测量定位是实现视觉控制的基础,由摄像机获取的景物图像恢复其与摄像机的相对位姿和景物的3D结构问题,是基于位置的视觉伺服所必需的关键环节。而摄像机标定是视觉测量定位的前提,本章首先介绍了摄像机模型和摄像机参数的标定方法。然后针对基于本体单目视觉和基于双目立体视觉两种不同情况,分别介绍了相应的物品位姿估计算法,并分别进行了定位实验,验证所提出算法的有效性,对实验结果进行了详细分析和说明。3.1基于本体单目视觉的物体定位3.1.1摄像机模型及参数标定所有景物通过摄像机光轴中心点投射到成像平面上的摄像机模型称为针孔模型[391。假设摄像机坐标系的原点C位于投影中心,/是摄像机的焦距,则平面Z=f图像平面。在针孔摄像机模型下,空间坐标点X=(置Lz)T被映射到图像平面上的一点,该图像上的点是连接点X与投影中心的直线与图像平面的交点,如图3.1所示。根据相似三角形原理,可得到点X被映射到图像平面上点的坐标为(/xlz,∥/z,厂)7。省略最后一个图像坐标,得到点从世界坐标到图像坐标的中心投影关系是:(置Lz)1专(∥/z,fi'lZ)1(3-1)投影中心即为摄像机中心,也就是摄像机镜头的光心。摄像机中心到图像平面的垂线称为摄像机的主轴或主射线,而主轴与图像平面的交点P称为主点。如果用齐次坐标表示世界和图像点,那么中心投影可以简单地表示成齐次坐标之间的线性映射。式(3—1)可写成如下矩阵乘积形式:19万方数据山东大学硕士学位论文Xx】,Z1料[厂厂。o]】,Z(3—2)1YZC图3—1针孔摄像机模型式(3—2)中的矩阵可写成diag(/,f,1)【110】,世界点x用4维齐次坐标(x,Y,Z,1)T表示,图像点x表示成3维齐次坐标形式,则x=PX(3—3)式(3.3)中,P为中心投影的针孔模型的摄像机矩阵:P--diag(f,f,1)[I0】(3-4)式(3—1)假定图像平面的坐标原点在主点上,但实际情况一般存在主点偏置,因此一般情形的映射为(x,】,,z)T专(弘/z+见,fY/Z+py)1(3-5)其中慨瑚T是实际主点的坐标,该映射用齐次坐标可以表示成xX】,专吲=㈠PX01】厂ZZ(3?6)11肛[厂Px]记fPyI(3-7)1JI则(3—6)可表示为x=g[IIo】k(3-8)20万方数据山东大学硕士学位论文矩阵置称为摄像机的内参数矩阵,可通过棋盘标定获得。K锄是点X在摄像机坐标系下的笛卡尔坐标。一般情况下,空问中的点可用不同的笛卡尔坐标系(世界坐标系)表示,各坐标系之间通过旋转和平移相互转换,如图3.2所示,如果贾是世界坐标系下一点的3维非齐次坐标,而疋。是该点在摄像机坐标系下表示的同一点,那么≈=足(文一e),其中e表示摄像机中心在世界坐标系下的坐标,R是一个3×3的旋转变换矩阵,则这个方程表示成齐次坐标的形式x瓦=[Z1】,Z=[_e卜p9,l与(3—8)结合得到x=皿I广_1II—cIx(3—10)其中X用世界坐标系表示,为了方便,把世界到图像的变换表示成屯。=武+f,摄像机矩阵简化成P=置陋If】,其中f=趣e,变换矩阵【胄|f】称为摄像机的外参数。图3-2世界和摄像机坐标系的相对位姿本文采用张正友【40】提出的非线性模型摄像机的线性标定算法进行摄像机标定,获取摄像机的内参数模型。标定过程中棋盘角点检测如图3.3所示,摄像机与棋盘的相对位姿如图3.4所示。2l万方数据山东大学硕士学位论文∞伽伽抛瑚一∞E喜iu!一u卜娜伽伽00200300400frame)500600沁仰camera置=[759.≯59.并筹吲k[401.一∽≥攀刁j‘。n=[37。’i647378.÷539主三::毛;兰雪三]3.1.2基于单应矩阵分解的物品位姿估计B㈣p㈦c3-?3,为方便NAO机器人本体单目摄像头能够实现被操作目标物品的快速识别和准确的位姿估计,避免产生较大误差,通过在具有不同形状和特征的各类物品上布置已知尺寸的不同Naomark标签,从而解决了家庭环境中物品种类繁多、操作方式多样复杂而造成识别区分定位困难的问题【4l也】。如图3.5所示,Naomark是由黑色圆圈及以圆心为中心打开的白色扇叶组成的人工地标。其中心的数字代表了Naomark的ID用于标识不同种类的物品,以确定对应的抓取方式。万方数据山东大学硕士学位论文图3.5不同的Naomark对获取的目标物品图像进行边缘检测和Hough直线拟合获取Naomark的各特征点,进而识别出Naomark的ID,如图3-6所示。(a)咖啡盒(b)积木图3-6从目标物体的图像中检测出Naomark由于Naomark标签各特征点共面,取Z=0的平面作为物体坐标系的xy平面,如图3.7所示。设Naomark标签的各特征点在物体坐标系下的三维坐标为。P=『-。x,。】J:,0,1]1,i=1,2,…,各特征点在摄像机坐标系{c)中的齐次图像坐标为。辟=h,v,1】1,i=1,2,…,由射影成像模型可得,图3.7平面上点的透视图像q。Pi=研。RoI。fo】。只(3-14)23万方数据山东大学硕士学位论文其中,毋为特征点在摄像机的成像深度,K为摄像机内参数矩阵,[。goI。to]为3.1.1节中所介绍的摄像机外参数,即物体坐标系{D>相对于摄像机坐标系{c)的旋转记。R=[。rl,c眨,。‘ב吒],则式(3-14)可写为aljf—l。jI==c。,j。,j。f,[。手]c3-?5,记物体特征点在摄像机坐标系{c)中的图像射影坐标为。慨=K-1Cpi=[。誓。咒1]T(3-16)记奢=[置z1】T,则日=[。吒。吒。t](3-17)为世界平面的欧氏单应阵m451,它表征如下的线性变换:q。啦=越(3—18)IIH,IIF:l(3-19)tT,Cm,=%日霉(3-20)问题转换为已知。鸭和孝,在(3—19)的约束下求日’。为消去单目相机无法获取的尺度因子q和口,可让式(3—20)作矢量叉乘:q。幌×(%日雾)=0(3-21)0T一户?r。只p?r户j0T一。一户?r—cyltcx?礼01[善;]=4厅’=。c3-22,万方数据山东大学硕士学位论文4,∈R3删,则彳=[4T,4T,A/,4T]T,H’的F一范数为1意味着渺0:=1,因此,式(3.22)的解h’可以由直接线性变换法(DLT)解出,即h’为方阵ATA的最小特征值对应的单位特征矢量。解出口’后,记为日’=【口bc】。根据式(3-17)、(3-19)n-19}II,abc】_吐。rl。吒。t](3-23)对式(3-23)前两列列矢量分别取2.范数,则一华p24,将式(3—24)代入式(3-19),可求得世界平面的欧氏单应为H:上日,(3.25)式(3—25)求解出的H有两种可能解,但H必须满足约束:特征点的三维坐标珥一定位于摄像机的前方。在此约束条件下,可消除日的二义性,得到符合约束条件的唯一日。在式(3—20)07,0"i为摄像机{c>图像平面前方的3D点只的成像深度,因此,目标物体坐标系{D)的原点必然位于{c)的前方才能保证约束的成立。将户=【o01】代/K(3—18),并根据(3—19)可得:q:绣,:堕(3.26)其中,魄,,k分别是欧氏单应阵H,归一化欧氏单应阵H’的最后一个元素。欲使驴o,n-I'll(3.24)中的仅为正值,∥,,为正值。这意味着h’取方阵4■的最小特征值对应的单位特征向量,且h’最后一个元素取正值。由式(3.22)、(3—24)、(3—25)得到了世界平面的单应日,继而根据式(3.17)可以求得摄像机外参数[。RI。乞]=[。‘,。吒,。,i×。眨,。f0]。图像噪声和Naomark特征点提取误差的存在,导致上述恢复出的。R不是一个严格的旋转变换矩阵,因此,对。咒进行奇异值分解。go=UDVT,则R=UVT是满足Ⅱ乒锄盈一。兄IlF}条件的旋转矩阵。万方数据山东大学硕士学位论文3.2基于双目立体视觉的物体定位3.2.1对极几何及基本矩阵分解虽然3.1节针对本体单目视觉提出了基于世界平面单应矩阵分解这种相对准确的定位算法,但是Naomark标签只能在近距离时进行识别,较远距离时很难实现准确的识别与定位。除此之外,单目视觉定位由于深度信息未知,分辨率低使得图像特征提取不准确等诸多因素导致难以实现精确的定位,因此本文借助Bumblebee2双目相机来进行位姿估计,以实现更准确的视觉控制。下面将介绍双目视觉定位相关对极几何的原理与算法。定义两摄像机中心的连线为基线,以基线为轴的平面簇与图像平面的交的几何是两幅视图之间的对极几何H6】。对极几何是表示两幅视图之间内在联系的射影几何,如图3.8所示。图3-8对极几何示意图图中C和C分别表示两摄像机的中心,中心前方的平面分别是两摄像机的成像平面。摄像机中心C和C、3维空间点X和它的图像点柳x’都位于对极平面7c上。图像点X反向投影成3维空间的一条射线,它由第一个摄像机中心c和x确定,射线Cx在第二幅视图中被影像成一条直线,’。投影Nx的3维空间点X必然在射线Cx上,因雌第二幅视图上的图像点X’必然在Z’上。摄像机基线与每幅图像平面交于对极点P和e’。任何包含基线的平面是一张对极平面,并且与图像平面交于相应的对极线琊Z’。当3D空间点x位置变化时,该对极平面绕基线旋转,形成的平面簇称为对极平面束,所26万方数据山东大学硕士学位论文有对极线相交于对极点。(1)基本矩阵与本质矩阵基本矩阵是对极几何的代数表示,由图3—8可看出对于一副图像上的点x,在另一副图像中存在一条与之对应的对极线≠’。在第二幅图像上与该点X匹配的点X’必然在对极线,’上。该对极线是过点X与第一个摄像机中心C的射线在第二幅图像上的投影。因此存在一个从一个图像上的点到另一幅图像上与之对应的对极线的映射xHJ『’(3—27)用基本矩阵朦示这个从点到直线的射影映射。给定图像点x’,通过x’和对极点P’的对极线|f’可记为,’--e’×x’--[e’Lx’,p’】x表示三维向量e’的反对称矩阵。x’可记为xt-致x,以是从一副图像到另一幅图像通过任意平面兀的转移映射,则有萝’=p’LI坚.x=rxL(3—28)得出基本矩阵F=k‘1.以,因为k’1秩为2和识的秩为3,所以脆秩为2的矩阵。JדL““基本矩阵的性质:a.假设两幅图像由中心不重合的摄像机获得,则基本矩阵F为所有的对应点x付x’,都满足x”Fx=0的秩为2的唯一的3×3齐次矩阵。b.对极线:,’=Fx是对应于图像点x的对极线,I『=FTx,是对应于图像点x’的对极线。c.对极点:Fe=0,FTew=0。假设两个摄像机的的内参数矩阵都已标定,世界坐标系的原点在第一个摄像机上,则P=K[Il0】,P,_F㈣t】(3—29)与归一化摄像机矩阵F1P=【Ilo】和K,-1P7=降If】对应的基本矩阵称为本质矩阵【47】,基本矩阵和本质矩阵的关系:E=置’TFK(3.30),7万方数据山东大学硕士学位论文最常用的是归一化八点法H羽,该算法是由Longuet.Higgins于1981年提出的。由基x”Fx=0(3.31)8对),可用来计算未知的矩阵F。记x=(x,Y,1)T,x,=(x’,Y’,1)T,(x’X,X’Y,x’,Y’x,Y’Y,Y’,x,y,1)f=0(3—33)X1’五五’M一’Yl’五M’MM’五M1lAs"=Ii;;iii;i;If=0(3-34)I%’%%’%矗’此’%以’此此’吒乩1I噪声,导致数据不准确,4的秩可能大于8,此时可用最dx--乘法求解唯一解。肭最最后一列矢量,用这种方法得到的解矢蜕条件0厂l=1-F取llAflI的最小值。范数忙一F1I达到最小。确sVD分解严叻旷,其中D是对角阵,D=diag(r,s,f)满足,.≥s≥f,则F7=Udiag(r,J,O)VT最小化FF的FrobeIlius范数,满足秩为2的要求。万方数据山东大学硕士学位论文假设第一个摄像机矩阵P=[I0】,先对本质矩阵进行奇异值分解,E=UD旷(3.35)(3—35)中D=diag(I,1,0)。令蹦R,则s=p】×,…㈥一㈥硎……月=删或者UWTVT,t=u3或一u3,即U的最后一列。Pt_[唧TI坞]:[删TI一鸭]:[UWTyTI鸭];[UWTyTI一坞]。AB(1)图3—9由本质矩阵分解出的四种司能解其中字母A,B分别表示左右两个摄像机的中心,用横线表示摄像机的成像平面,竖线表示摄像机的光轴。(1)与(2),(3)与(4)的区别是摄像机的基线倒置,(1)与(4),(2)与(3)的区别是只有摄像机B绕基线旋转了180度。可以看出,只有在(1)中,重构的点同时在两个摄像机的前方,即在A,B摄像机中的成像深度均为正值。为从四个不同的解中确定唯一满足条件摄像机矩阵P’,用一个空间点进行测试,验证该点是否在两个摄像机的成像深度均为正,即可确定出正确的P’。万方数据山东大学硕士学位论文3.2.2位姿估计由本质矩阵恢复得到摄像机矩阵后,可利用线性三角形法【叫来计算得到图像中的点在摄像机坐标系下的三维坐标。由匹配点X<--->x’估计对应的3D点X,使它满足给定的摄像机几何,即x=PX,x,=P’X(3—36)将(3.36)等式左边叉乘等式右边,消去齐次纯量因子,组合成4X=0的形式。每一个图像点则对应三个方程,其中任意两个是线性独立的,例如,对第一幅图像中的特征点xx(PXl=o展开得x(P3Tx)-(P"x)=oy(p3Tx)-(e2Tx)=o(3—37)x(P打x)一y(pTx)=o其中,是P的第i行,组成形女HAX=0的方程,x(P3T)-p1TAX:=Y(P3T)-p2Tx’(P弓T)-p1TX=0(3—38)J,’(P弓T)一P哩T对每一组匹配点,均可得到上述线性方程。使用最dx-.-乘法进行求解,对矩陬进行SVD分解A=UD旷,姗勺解对应于啪最后一列。因为要求求出的空间点艉齐次的,可将坐标矢量的每个元素都除以矢量的第四个元素进行归一化,进而得至tJ3D点的齐次坐标。fl了(3-38)得到三个不共线的特征点在Bumblebee2右摄像头坐标系{c”:的三维坐标。只,i=1,2,3,。丑=‘Ro。丑+。to。置=。lto。最+。to(3-39)。只=。Ro。只+。to等式两两相减,消去‘t。,得:万方数据山东大学硕士学位论文q一鼍=巩(q一卫i‘罡一。只=cN(3.40)一。忍)憾。二镪简。。兄黼侩三6(3-42)Rc=p4。,一dc2:==[c:;口c:。]3.3实验结果与分析3.3.1单目视觉定位实验‘3-44’利用3.1.2节中提出的基于世界平面单应矩阵分解的物品位姿估计算法,可得到NAO机器人的本体单目摄像机坐标系与物体坐标系的相对位姿为:7.0.0623632-0.0205215。ro=鲥引M弘烈为,t,I、-,,IL钳饥渤弛嘴mo绷m娜。必髫毗。0.997843O、J.、J2&H.孔弱倦叭弦妣,f3-45)豇锥旧●万方数据山东大学硕士学位论文三维空间中的相对位姿表示如图3.10所示:01005E商0.005.01图3.10单目摄像机与物体的相对位姿3.3.2双目视觉定位实验双目视觉定位的实验流程框图如图3.11所示:图3.11双目视觉物体定位流程框图32万方数据山东大学硕士学位论文本文中的图像处理用的是OpenCV[501库,对双目视觉获取的左右视图进行极线校正,校正后的图像如图3一12所示。图3.12双目视觉获取的校正后左右视图对校正后的图像进行surf特征提取与匹配,利用随机采样一致性算法(RandomSampleConsensus,RANSAC)去除匹配点集中的外点,处理结果如图3-13所示。图3.13双目视觉左右视图特征匹配根据图像中的匹配点对计算出基本矩阵F。按3.2.1中提出的算法进行基本矩阵F分解,计算出满足条件的摄像机矩阵Pl,见。通过物品模板与图像匹配分割出物品,再利用Slli.Tomasi角点检测获取物品在左右视图的特征点,筛选匹配出对应的特征点,如图3.14所示,由3.2.2中提出的位姿估计算法可知,只要已知任意不共线三个点的三维坐标就能计算出摄像机与物品的相对三维位姿,为方便建立物品坐标系,我们选取物品顶面的三个特征点并获取其各自的图像坐标。万方数据山东大学硕士学位论文图3.14物品的识别与特征点提取由线性三角形法计算得到所选取的物品特征点在双目视觉坐标系下的三维坐标,进而由3.2.2提出的方法计算得到双目相机坐标系与物品坐标系的相对位姿结果为:0.8785470.160787.0.4497820.1441610.177308.0.984140.0.005476790.0275467。L=(3-46).0.443529.0.0749383.0.8931220.4310910001三维空间中的相对位姿表示如图3.15所示:04图3.15双目摄像机与物体的相对位姿34万方数据山东大学硕士学位论文3.4本章小结本章首先对摄像机模型和摄像机参数标定的方法进行了详细介绍。基于本体单目视觉提出了基于Naomark标签的物品识别定位方法,设计了基于单应矩阵分解的物品位姿估计算法。为弥补本体单目视觉定位的不足,基于双目立体视觉提出了对极几何及本质矩阵分解和线性三角形法的物品位姿估计算法,实验结果表明提出的方法能够实现抓取物品的准确定位,为家庭环境下机器人进行物品抓取服务的实现奠定了基础。万方数据36万方数据山东大学硕士学位论文山东大学硕士学位论文第四章基于本体单目视觉的物品抓取针对家庭环境中服务机器人基于机器人本体单目视觉抓取在机器人附近且在机器人视野范围内物品的问题,提出了一种改进的基于位置的单/双臂视觉伺服抓取算法。物体的快速识别是通过Naomark标签完成,物体的位姿估计是通过世界平面单应矩阵分解算法完成;针对不同尺寸不同重量物品的抓取,分别设计了相应的单臂和双臂抓取的视觉伺服控制律,通过利用对NAO机器人的左右机械臂所建立的运动学模型完成对末端执行器的精确控制;最后,为进一步提高抓取的稳定性和鲁棒性,对机械臂的末端执行器进行了路径规划。通过实验表明,提出的方法能够使NAO机器人快速、稳定地抓取目标物品。视觉伺服系统的各坐标系如图4.1所示。图4.1(a)中{r}为机器人坐标系,{c)为摄像机坐标系,{D)为目标物体坐标系,{e)为末端执行器坐标系,图4.1(b)中{L)、{R)分别代表左、右手末端执行器坐标系。(a)单臂抓取(b)双臂抓取图4.1视觉伺服系统各坐标系4.1单臂抓取的PBVS控制律对于形状小、质量轻的物体,NAO机器人只用单臂就可完成抓取和运送任务,万方数据山东大学硕士学位论文其PBVS控制方法原理如图4.2所示。建立运动学模型后,机械臂末端执行器相对机器人坐标系的位姿7霉=rZ(口),它是关于机械臂各关节转角的函数,即它由机械臂各关节自由度的转角所确定。PBVS控制律是根据视觉测量得到的物体位姿求出抓取成功时的7£,可按(4.1)式计算。式中,7瓦为摄像机坐标系相对机器人坐标系的位姿,。L为目标物体坐标系相对摄像机坐标系的位姿,利用世界平面单应矩阵分解算法由提取的图像特征点求出,。互=占Z.为抓取到物体时末端执行器与物体的相对位姿。7z27霉。ro。互==,r。Cro(,】Ccro。)‘lrr。(4-1)(a)期望抓取成功的控制原理图嘞实际抓取成功的控制原理图图4.2单臂抓取控制方法原理图根据PBVS控制律求得的’Z和运动学逆解可得到各关节的期望角度值0‘,定义误差e=0一矿,设定每次的关节控制量为e的10%,每次控制各关节移动后,进行实时视觉反馈得到最新的期望角度值和实时采样关节角度值得到最新的误差e,重复上述过程让末端执行器逐步逼近物品完成抓取操作。4.2双臂抓取的PBVS控制律对于操作形状大、质量重的物体,单臂抓取是难以实现的,需要双臂协调操作,其PBVS控制方法原理如图4.3所示。抓取任务要求根据摄像机定位估计得到的物体位姿,求出能成功抓取的左、右机械臂末端执行器相对机器人坐标系的期望位姿7正与’砭,类似的,由获取到的抓取成功时末端执行器与目标物体坐标系的相对位姿,t.与。’L。,可由(4.2)式计算出7互、7瓦,根据运动学逆解求解出左、右机械臂各关节的期望角度值,进而控制左、右机械臂末端执行器逐步逼近目标物万方数据山东大学硕士学位论文体完成抓取。7瓦=7正。ro。瓦=7C。to(7tf乃)_7弓7疋=7乏‘ro口瓦(4?2)=7瓦。to(7‘。ro。)。17%{三){D){R,图4-3双臂抓取控制方法原理图抓取成功后,左、右机械臂、物体构成一个闭式运动链(如图4-4所示)。{尺)和{三}分别为左、右机械臂末端连杆坐标系,{o}为目标物坐标系。在抓取到物体进行运送的过程中,双臂的位姿需要满足约束关系:岛乏三ro=岛致%毛RTo(4—3)即R靠=(b氏)-1岛五三to(尺瓦)-1=(k氏厂1岛互£瓦(4—4)其中‘砭=‘to(Rto)q是个常数阵,在物品运送过程中应保持不变。如}{三o>{Ro)图4_4双臂抓持位姿约束尺寸链39万方数据山东大学硕士学位论文4.3增加路径点的PBVS控制律目前的视觉伺服控制研究都主要集中于机械臂末端执行器的当前位姿与期望位姿差的控制,而对到达期望位姿的过程中末端执行器的路径一般不予以规划,这样容易使机械臂的末端执行器与障碍物或目标抓取物发生避碰,从而导致抓取成功率降低。在整个抓取控制过程中,利用基于位置的视觉伺服原理在规划出的无碰撞抓取路径上设置13.个路径点仞I,P2,...,肌>能很好的解决这个问题,该末端执行器到达各路径点处的位姿通过相对于目标物坐标系的相对旋转平移关系。L确定,PBVS控制原理图如图4.5所示。这样控制过程被分成n+l段,机械臂末端执行器由初始位置到达各路径点,再由第聆个路径点趋近并到达目标位姿完成抓取。控制律为慕rTe--瓦o*T≥.=。麓筹c-≥i:"、。…¨%,=1,2,…,,2。%=岛件5,、’{O){r)图4.5增加路径点的PBVS控制原理图4.4实验结果与分析对单臂、双臂抓取和其各自增加路径规划的改进控制律算法各进行100组抓取实验,每次实验目标抓取物体的位置任意摆设,NAO手臂末端执行器的初始位置也任意给定,统计出100组实验中不同抓取方式各自的成功次数以及成功率(如表4—1所示)。由表4.1可知,改进的算法相比于传统的PBVS控制能够明显地提高抓取成功率。下面根据抓取过程中各关节角度误差的实时变化对抓取的稳定性进行分析。万方数据programming[C]//Robot and1 8th IEEE InternationalHuman InteractiveCommunication,2009.RO-MAN2009.TheSymposium on.IEEE,2009:46-5 1.【36】蔡自兴.机器人学[M】.清华大学出版社,2000. [37】CorkeP.A robotics toolbox forMATLAB[J].Robotics&Automation Magazine,IEEE,1996,M G analyticalinverse kinematics for3(1):24-32. [38】Kofinas N,Orfanoudakis NAO[C]//Autonomous2013:1-6. machine E,Lagoudakis CompleteRobotSystems(Robotica),20 1 31 3th International Conference on.IEEE,[39】Sonka M,Hlavac VLearning,20 1 4.Boyle R.Imageprocessing,analysis,andvision[M].Cengage[40]ZhangZ.A flexible new technique for cameracalibration[J].PattemAnalysis and MachineIntelligence,IEEETransactions on,2000,22(1 1):1330—1334.[4l】李国栋,田国会,薛英花.基于QRCode技术的家庭服务机器人视觉伺服抓取操作研究[J】. 东南大学学报:自然科学版,2010,40:30.36. [42】穴洪涛,田国会,李晓磊,路飞.QRCode在多种类物体识别与操作中的应用【J】.山东大学 学报(工学版),2007,37(6):25—30. 【43】李国栋,田国会,王洪君,周风余.一种景物平面法向已知条件下的单应矩阵快速分解算法 【J】.控制与决策,2014,29(4):735—738.[44】MALLSE,VARGASM.Deeper understanding of thehomographydecompositionforvis

我要回帖

更多关于 工业机器人传感器 的文章

 

随机推荐