网站首页  词典首页

请输入您要查询的论文:

 

标题 一种基于预测的跟踪方法研究
范文

    梁志达

    摘要:该文提出了一种新型预测方法,将运动目标的运动模型考虑其中,可以有效缩小目标有效搜索区域,从而达到提高搜索效率的目的。在目标匹配方法上采用主成分分析法和灰度值差值两种方法的有机结合,有效降低误差率。从实验效果上看,该文提出算法能够准确跟踪目标。

    关键词:目标跟踪;预测;主成分分析;灰度值

    中圖分类号:TP391 文献标识码:A 文章编号:1009-3044(2017)35-0224-03

    Target Tracking Based on Prediction Method

    LIANG Zhi-da

    (Information Department of Dalian Sanatorium, Dalian 116013, China)

    Abstract: In this paper, a new prediction method is proposed. The motion model of moving object is taken into account, which can effectively reduce the effective search area of target, so as to improve the search efficiency. In the method of target matching, the combination of principal component analysis and gray value two method can effectively reduce the error rate. From the experimental results, this paper proposes that the algorithm can track the target accurately.

    Key words: Object tracking; prediction; principal component analysis; gray value

    1 背景

    本文在经典跟踪方法的基础上,利用精确预测的方法,首先构建目标的运动模型,使下一帧的搜索中心点更靠近目标真实位置,从而提高搜索效率。在计算候选同目标模板的相似性上,在利用PCA矢量构建字典的稀疏表示方法[6]基础上,融入图像灰度值误差判断方法,通过分析两者误差的均值和方差,设定自适应阈值门限,综合判断确定目标位置。第四节中多个测试视频的跟踪结果验证了本文方法的有效性。

    2 基于PCA稀疏表示跟踪的改进方法

    2.1 在目标跟踪搜索上的改进方法

    本文在目标跟踪搜索上采用了先预测再搜索的方法,预测模型的建立借鉴了卡尔曼滤波的思想,卡尔曼滤波[11]是一种高效的递归滤波器,由鲁道夫.E.卡尔曼于1960年提出,卡尔曼滤波由状态方程和观测方程来描述,如式(1)、(2):

    (1)

    (2)

    式(1)是状态预测方程,可以预测系统下一时刻的状态,(2)是状态观测方程,可以在多项变量中提取我们感兴趣的变量。

    针对目标跟踪问题,如何利用卡尔曼滤波思想建立模型,是问题关键,由于一般视频为25bps,两帧之间的时间只有40ms,所以,我们首先假设目标是作匀速运动,在视频图像内需要确定横纵坐标及横纵方向速度,我们就可以预测目标下一时刻出现的大概位置,在这里将目标跟踪过程看成一个系统预测和更新的过程,在建立模型时,时刻的系统状态由一个四维向量构成,因为假设目标的瞬时速度为匀速运动,所以对应时刻横坐标方向速度为

    , (3)

    纵坐标方向速度为

    , (4)

    系统预测时刻目标中心点横坐标为:

    (5)

    系统预测时刻目标中心点纵坐标为:

    (6)

    跟踪系统的状态方程为

    (7)

    根据(7)和(8)式,我们可以推算状态转移矩阵

    (8)

    将状态方程式(7)展开即为(5)和(6)式

    时刻系统的观测值为一个二维向量,这里的观测值是在所有候选中通过相似性计算得到最佳匹配值,观测值的二维向量取状态向量中的前两项,所以对应的观测方程为

    (9)

    所以系统的观测矩阵为

    (10)

    噪声和的协方差矩阵和分别取单位矩阵。由于在跟踪问题中,我们将匹配值看做最终的跟踪结果,所以就不需要卡尔曼滤波中的迭代公式对结果进行校正,直接将匹配值对下一帧进行预测。利用卡尔曼滤波思想的目标跟踪问题建模流程图如图1所示:

    在以预测中心点为中心,搜索半径设定为自适应的,首先计算前20帧预测点同匹配点的欧式距离的平均值,然后由计算机按高斯分布产生600个均值为0,方差为1的随机数,将600个数乘以2倍的作为横纵坐标搜索的范围,这样每一帧的搜索半径就会根据不同视频目标运动快慢自适应调整。乘以的系数,经过多次实验,取2实验结果最为理想。在跟踪过程中,将新的一帧预测值同匹配值得距离乘以0.2加上原平均值乘以0.8作为新的搜索半径,即如式(11)

    (11)

    代表原搜索半径平均值,代表新的一帧预测值同匹配值得距离,代表最终确定该帧的搜索半径。

    通过这种预测模型的预测结果在第3节中给出。

    2.2 在目标匹配上的改进方法

    本节在PCA稀疏表示方法的基础上,加入了图像灰度值误差判断方法,综合比较分析两者的误差,加权定位目标坐标位置。

    图像灰度值误差判断方法首先是通过前20帧选取目标模板集,取其归一化像素值的均值,然后将跟踪图像同这个均值做差值并取2范数平方,如式(12)

    (12)

    其中為第个跟踪目标均值,为目标模板均值,为加权值,取值同文献[6]中的方法,为惩罚系数。通过式(12)来判断,选取值最小的候选为该帧的目标位置。

    两种匹配方法得出的结果可能不同,需要进行逻辑判断,分别将PCA稀疏方法同图像灰度值误差方法设定一个门限阈值,这个阈值的取值是动态的,采用统计的方法,计算两种方法的均值和标准差,在综合判断上区分为4种情况:

    表示图像灰度值误差方法得到最优候选的匹配误差,主成分分析法得到的误差值,表示前者的门限阈值,表示后者的门限阈值。区分为4种情况

    (1) 当且,则采用PCA稀疏表示方法得到的匹配结果;

    (2) 当且,则采用图像灰度值误差方法得到的匹配结果;

    (3) 当且,则采用二者匹配误差的加权平均来确定目标位置,即权值设定为

    , (13)

    根据权值来确定当前帧目标中心点坐标为:

    , (14)

    其中和为图像灰度值误差方法判断的匹配目标中心点横坐标和纵坐标值,和为PCA稀疏表示方法判断的匹配目标中心点横坐标和纵坐标值。

    (4) 当且,则提高门限阈值为均值加上3倍标准差,判断目标匹配结果方法策略同(1)(2)(3)方法;

    通过这种选取策略,我们可以将误差小的方法增加其权值,误差大的方法减小权值,从而防止单一方法目标丢失情况,从而提高了目标跟踪的准确性。

    3 实验结果及分析

    本节对本文跟踪方法进行有效性评估,并同当前流行的典型算法进行了对比。采用MATLAB 2010b运行进行仿真实验。选取了遮挡、复杂背景、运动模糊、姿态变化等具有挑战性的4组视频,并同目标跟踪领域经典方法及最近流行方法进行结果对比,误差曲线见图2。

    从测试结果上可以看到,本文目标跟踪算法,在不同的测试序列中,误差值要小于其他方法,目标跟踪效果优于其他方法。

    4 结束语

    本文提出一种新型预测跟踪方法,通过构建预测模型使当前帧搜索目标的中心点更加靠近目标真实位置,从而使搜索到目标的可能性大大提高,通过计算相邻帧目标运动距离自适应调整搜索半径,防止因搜索范围没覆盖目标而丢失目标。主成分分析和灰度值判断两种方法的智能结合,构建了两套计算匹配方法,通过统计误差的均值和标准差设定一个可变动的阈值门限,及时选取两套方法中的最优解,防止目标丢失。与其他几种方法的测试对比表明该方法有较好跟踪效果。

    参考文献:

    [1] Yilmaz A, Javed O, Shah M. Object tracking:a survey[J]. ACM Computing Surveys, 2006, 38(4):1-45.

    [2] MEI X, LING H. Robust visual tracking using L1 minimization[C]. In Proceedings of the IEEE International Conference on Computer Vision. Kyoto, Japan, 2009: 1436-1443.

    [3] Bao C, Wu Y, Ling H, et al. Real time robust l1 tracker using accelerated proximal gradient approach[C]. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1830-1837.

    [4] Zhang S, Yao H,et al.Robust visual tracking Based on online learning sparse representation[J]. Neurocomputing, 2013, 100: 31-40.

    [5] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3):125-141.

    [6] Wang D,lu H,Yang M H. Online objiect tracking with sparse prototypes[J]. IEEE Ttansactions on Image Processing, 2013, 22(1):314-325.

    [7] Xie Y, Zhang W, Li C,et al. Discriminative objiect tracking via sparse representation and online dictionary learning[J]. IEEE Transactions on Cybernetics, 2014, 44(4):539-553.

    [8] Zhong W, Lu H,Yang M H.Robust object tracking via sparsity-based collaborative model[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1838-1845.

    [9] Dong W,Chang F, Zhao Z.Visual tracking with multi-feature joint sparse representation[J]. Journal of Electronic on Imaging, 2015, 24(4):013006.

    [10] Dong W,H Lu, Z X. Inverse Sparse Tracker With a Locally Weighted Distance Metric[J]. IEEE Transactions on Image Processing, 2015, 24(9).

随便看

 

科学优质学术资源、百科知识分享平台,免费提供知识科普、生活经验分享、中外学术论文、各类范文、学术文献、教学资料、学术期刊、会议、报纸、杂志、工具书等各类资源检索、在线阅读和软件app下载服务。

 

Copyright © 2004-2023 puapp.net All Rights Reserved
更新时间:2025/3/14 12:02:51