210 likes | 449 Views
基于 AGV 的目标检测与追踪文献综述. 周凯. 目录. AGV 概述 AGV 目标检测 AGV 目标追踪 研究展望 参考文献. 1.AGV 概述. 按照导引原理的不同,分为外导式和自导式两大类型 [1] 。 1 ) 外导式 (固定路径导引):是在运行路线上设置导向信息媒介,如导线、色带等,由于车上的导向传感器检测接收到导向信息(如频率、磁场强度、光强度等),再将此信息经实时处理后用以控制车辆沿运行线路正确地运行。
E N D
目录 • AGV概述 • AGV目标检测 • AGV目标追踪 • 研究展望 • 参考文献
1.AGV概述 • 按照导引原理的不同,分为外导式和自导式两大类型[1]。 • 1)外导式(固定路径导引):是在运行路线上设置导向信息媒介,如导线、色带等,由于车上的导向传感器检测接收到导向信息(如频率、磁场强度、光强度等),再将此信息经实时处理后用以控制车辆沿运行线路正确地运行。 • 2)自导式(自由路径导引):采用坐标定位原理,即在车上预先设定运行作业路线的坐标信息,并在车辆运行时,实时地检测出实际的车辆位置坐标,再将两者比较、判断后控制车辆导向运行(激光导引、视觉导引)。
1.AGV概述 • 光学与磁性导引方式 最早的导引方式,在AGV运行路径上粘贴反光带或者磁力线,通过AGV上的光学识别装置和磁力识别装置识别路径。 优点:导向线路费用低。 缺点:控制和通讯线路需另行单独铺设;导向线路必须保持清洁。
1.AGV概述 • 电磁感应导引 应用最为广泛,在地板内埋入密封电磁线,由交流频率发生器输入形成环路,产生一个同心圆磁场;AGV上装设感应线圈,可以检测磁场强度偏移量,实现导引。 优点:埋线隐蔽;不易污染和破损;易于控制和通讯;抗声光干扰;成本低。 缺点:路径难改,复杂交叉路径、楼上有钢筋地板难实现。
1.AGV概述 • 激光导引 路径的周围安装位置精确的激光反射板,AGV发射激光束,采集反射的激光束,确定位置和方向,通过连续的三角几何运算来实现AGV的导引。 优点:定位精度高;地面无需其他辅助定位;路径灵活,变更方便;适合多种环境;适应复杂路径和狭窄通道;系统兼容性和扩展性好。 缺点:价格较贵;扫描头需较高位置。近年来,国内及欧洲优先采用。
1.AGV概述 • 视觉导引 • 这是一种处于发展中的技术。主要是通过CCD摄像头获取周边或者地表图像,然后进行仿生图像识辨确定自身坐标位置,进而导引AGV。 • 其一就是标识线图像识别方法,它是在AGV运行所经过的地面上画1条标识明显的导向标线,利用CCD系统动态摄取标线图像并识别出AGV相对于标线的方向和距离偏差,以控制车辆沿着设定的标线运行。 • 其二就是利用CCD系统动态摄取运行路径周围环境图像信息,并与拟定的运行路径周围环境图像数据库中的信息进行比较,从而确定当前位置及对继续运行路线做出决策。这种方法不要求设置任何物理路径,因此,在理论上是最佳的柔性导向。但实际应用还存在问题,主要是实时性差和运行路径周围环境信息库的建立困难。
2.AGV目标检测 • 静态背景的动态目标检测技术(背景建模) • Haritaoglu I. et al.(2000)[2]运用已有背景与检测到的背景进行差分,从而检测出交通监控过程中的运动目标,并按时段进行背景更新。 • 如果事先不知道背景,可以用著名的高斯模型进行背景建模,高斯模型分为单一高斯模型(Christopher W.etal(1997)[3])和混合高斯模型(Stauffer C.et al.(1999)[4]),与帧间差分算法结合起来发展了很多新的算法。
YANG Junetal.(2009)[5]改进了单高斯模型利用均值法初始化背景模型,引入判断值进行背景更新,从而解决了目标物体停止而造成的误检测为背景,也抑制了非背景物体造成的干扰。 • 陈祖爵等(2007)[6]在混合高斯模型基础上,在模型更新中引入了加速因子和合理性反馈使得模型能更快、 更准确地反应真实的背景。 • 刘静等(2010)[7]提出一种混合高斯模型背景法与三帧差分法相结合的运动目标检测新算法,对目标区域和背景区域进行不同的混合高斯背景模型的更新策略,提高了模型的收敛速度,达到了实时性。
2.AGV目标检测 • 静态背景的动态目标检测技术(光流法) • 光流场不同于运动场,光流通过亮度表观运动反应实际的目标运动。 • 比较著名的有Horn-Schunck光流法[8]和Lucas-Kanade[9]光流法,前者为致密光流,对图像每个像素点进行检测,后者为稀疏光流,部分检测。光流法可以同时用于静态背景和动态背景两种情况下的目标检测中,目前的研究集中于光流法与其他算法的结合上。
2.AGV目标检测 • 动态背景的动态目标检测技术(运动补偿法与光流法) • 运动补偿法通过建立相应的仿射模型,来补偿摄像机的运动所带来的图像总体背景的运动,然后运用静态背景的运动目标检测技术检测目标。 • Shoichi Araki(1998)[10]提出了一种用具有鲁棒统计特性的最小中位平方(Least Median of Squares)来估计仿射模型的参数,此方法通过对所有像素建立模型,并提出运动目标上的错误点。
RobertCollinset al.( 2006)[11]使用一个全局运动模型(仿射或投影)来估计两帧之间的背景运动。用标准化的互相关匹配两帧之间的Harris角点来计算稀疏流。给定两帧之间的一组有潜力的对应角点,采用RandomSampleConsensus(RANSAC)算法从得到的偏移矢量中鲁棒估计出全局运动参数。 • DongxiangZhou et al.(2009)[12]在此基础上将DavidG.Lowe(1999,2004)[13,14]提出的SIFT特征点来代替Harris角点,并与传统的光流法进行了比较,从而得到了很好的检测效果。 • 安博(2009)[15]将基于预测的灰度投影法动态背景补偿与基于梯度阈值的LK-HS光流法相结合,进行了运动目标的检测。 • GillesAubertet al.( 2001)[16]在获得摄像机的运动参数后,运用基于区域的主动轮廓模型(ACM),得到了运动目标的边界,从而分割出运动目标。
3.AGV目标追踪 • 地面标识线(Landmark)跟踪型AGV • 国内研究较多 • 杨世才,赵林度(2009)[17]提出了一种不同尺度的双目视觉AGV导引方法,运用多尺度滤波思想获得道路信息,并对前进道路的障碍物进行了去障研究。
3.AGV目标追踪 • 人体追踪(Human-Following)类型AGV • 国外研究较多 • Nobutaka Hirai et al.[18]提出人体追踪类型AGV,主要根据人体特征识别肩膀和后背,达到追踪的目的。
3.AGV目标追踪 • 追踪方法研究 • Meanshift • Kalman Filter • Bayes Filter • Partical Filter • 结合算法
Meanshift • Meanshift又叫均值漂移,由Fukunaga (1975)[19]等人在1975年的一篇关于概率密度梯度函数的估计的文章中提出来的,其最初含义正如其名,就是偏移的均值向量。 • YizongCheng(1995)[20]成功把它扩展,并且运用到计算机视觉领域,这引起了人们的广泛关注。 • Comaniciu,Meer et al.(1999,2002)[21,22]成功将Meanshift方法应用到图像分割和特征空间分析中。 • Comaniciu,Meer et al.(2000,2003)[23,24]主要讨论MeanShift中核函数带宽选择问题和实时追踪问题。
Collins(2003)[25]将尺度空间和Meanshift算法相结合解决了核函数带宽实时变化的目标跟踪。Collins(2003)[25]将尺度空间和Meanshift算法相结合解决了核函数带宽实时变化的目标跟踪。 • 彭宁篙,杨杰(2005)[26]使用角点与Meanshift算法进行结合,增强了对目标缩放的追踪能力。 • 林庆等(2009)[27]将多尺度空间理论与Kalman滤波器相结合,利用Kalman滤波器对尺寸变化的目标面积比例进行预测的方法提出目标自适应的跟踪算法。 • 颜佳等(2009)[28] 基于Meanshift算法,采用跟踪窗口内协方差矩阵主分景分析法来计算跟踪目标的方向和尺寸大小。 • 黄家祥等(2009)[29]将Meanshift中的迭代步长进行了改进,提出了自适应步长方法,从而增加了收敛速度。
4.研究展望 • 目标检测方面将集中于动态目标检测,不同于交通监测,需要在前几帧检测出目标,考虑将光流算法用于匹配后的检测,同时结合snake算法检测轮廓区域进行追踪。 • 定位后的目标追踪集中于研究适合Human-Following的AGV追踪,Meanshift与两种KalmanFilter结合算法。 • 追踪标记设计,衣服背部贴标签方式,缩小追踪区域。 • 实时性算法(难点)。
5.参考文献 • [1]张辰贝西,黄志球.自动导航车(AGV)发展综述[J].信息技术应用.2010,39(1),53-59 • [2] Haritaoglu I , Har wood D,Davis L S . W: real-time surveillance of people and their activities [J ]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2000, 22(8) : 809 . • [3] WREN C,AZARBAYEJANI A,DARREL T,et al.Pfinder:real-time tracking of the human body [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785. • [4]Stauffer C,Grimson W.Adaptive background mixture models for real time tracking [C] Proceedings of IEEE International Conferenceon Computer Vision and Pattern Recognition,1999:246-252. • [5]杨珺,史忠科.基于改进单高斯模型法的交通背景提取[J].光子学报,2009,38(5),1293-1296. • [6]陈祖爵, 陈潇君 ,何鸿.基于改进的混合高斯模型的运动目标检测[J].中国图象图形学报,2007,12(9),1585-1589. • [7]刘静,王玲.混合高斯模型背景法的一种改进算法[J].计算机工程与应用,2010,46(13),168-170. • [8] Horn,B.K.P.and Sehunc KB.G.Determining optical flow.Artificial Intelligence [J]. Vol17,1981, pp 185-203. • [9] B.Lucas and T.Kanade. An iterative image registration technique with an application to stereo vision[J].Proc. DARPA Image Understanding Workshop,1981,121-130. • [10].Araki,S.Matsuoka,T.Takemura,H.Yokoya,N.Real-time Tracking ofMultiple Moving Objects in Moving Camera Image Sequences Using Robust Statistics[J].Graduate Sch.of Inf.Sci.Nara Inst.of Sci.&Technol.1998.vol.2,pp 1433~1435. • [11]Zhao zheng Yin,Robert Collins.Moving Object Localization in Thermal Imagery by Forward-backward MHI[A].Proceedings of the 2006 Conference on Computer Vision and Pattern Recognition[C].New York :IEEE, 2006 :133~133.
[12] Dongxiang Zhou, Liangfen Wang, Xuanping Cai, and Yunhui Liu. Detection of Moving Targets with a Moving Camera [J]. Proceedings of the 2009 IEEE International Conference on Robotics and Biomimetics,2009,677-681. • [13] D. G. Lowe. Object recognition from local scale-invariant features [A]. In: Proceedings of the IEEE International Conference on Computer Vision [C]. Kerkyra, Greece, 1999:1150-1157. • [14] D. G. Lowe. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2):91-110. • [15]安博;动态背景下运动目标检测的研究[D];天津理工大学;2009. • [16]Stéphanie Jehan-Besson,Michel Barlaud,Gilles Aubert:Region-based active contours for video object segmentation with camera compensation.ICIP(2)2001:61~64. • [17]Yang S, Zhao L. AGV Guidance Methods based on Various Scale Binocular Vision[J]. Chinese Association of Automation Congress 2009. Hangzhou, China, 2009. • [18] Nobutaka Hirai, Hiroshi Miroguchi. Visual Tracking of Human Back and Shoulder for Person-Following Robot[J]. Proceedings of the 2003 IEEE/ASME International Conference on Advanced Intelligent Mechatronics. vol.1,527-532. • [19] ]Fukanaga K, Hostetler L.D.The estimation of the gradient of a density function,with application in Pattern recognition[J].IEEE Trans Information Theory,1975,21(l):32-40. • [20] ]ChengYizong. Meanshift, model seeking and clustering[J].IEEE Trans. On Pattern Analysis and Machine Intelligenee,1995,17(8):790-799. • [21] Comaniciu D, Meer P. MeanShift Analysis and Application[A].In:Proc of the7th IEEE International Conference on Computer Vision[C].Kerkyra,Greece:IEEE Computer Society Press 1999.1197-1203.
[22] Comaniciu D, Meer P. MeanShift:A Robust application toward feature space analysis[J] IEEE Trans.on Pattern Analysis and Machine Intelligence,2002,24(5):603-619. • [23] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-575. • [24] Comaniciu D,Ramesh V,Meer P. Real-time Tracking of Non-rigid Objects Using MeanShift[A].In:Proc of the IEEE Conference on CVPR[C].South Carelina,USA:IEEE Computer Society Press,2000,142-149. • [25] Collins R T. Mean-shift Blob Tracking through Scale Space[A].In: Proceedings of the IEEE Computer Society Conference on Computer version and Pattern Recognition [C]. Wisconsin,USA:IEEE Computer Society Press,2003.234-240. • [26]]彭宁篙,杨杰,刘志,张风超.Mean-Shift跟踪算法中核函数窗宽的自动选取[J].软件学报,2005,16(9):1542- 2550. • [27]林庆,陈远祥,王士同,詹永照.目标窗口尺寸自适应变化的Mean-Shift跟踪算法[J].计算机应用,2009,29(12), 3329-3335. • [28]颜佳,吴敏渊,陈淑珍,张青林.跟踪窗口自适应的Mean Shift跟踪[J].光学和精密工程,2009,17(10),2606-2611. • [29]黄家祥,李绍滋,成运,张帆. Mean Shift 自适应步长的改进[J].厦门大学学报(自然科学版),2009,48(2),189-193.