目标跟踪《八》--- DCFNET论文笔记

目标跟踪《八》--- DCFNET论文笔记

介绍

paper 地址 https://arxiv.org/pdf/1704.04057.pdf

基于判别相关滤波器(DCF)的方法现在成为在线对象跟踪的主要方法。 在这个工作中,作者提出一个轻量级的end-to-end的训练的网络—DCFnet,同时学习深度特征和执行滤波过程。(之前特征很多是手工的.)

作者将DCF视为在Siamese网络中添加的特殊相关滤波器层,并通过将网络输出定义为对象位置的概率heatmap来仔细地通过它来推导反向传播。 因为推导仍然在傅里叶频率域$\xi$内进行,所以保留了DCF高效的特性。 在测试时,文中的tracker能达到60FPS。

作者提出,之前的方法中采用的特征和相关滤波的过程是独立的,在这个工作中,作者重新审视了基于DCF的跟踪器的特征提取。与采用现有特点的常见DCF方法不同,作者仔细分析了DCF的闭形式解,发现很容易得到一个最适应DCF跟踪的学习特征的网络,并且是用端到端的方式,不需要手工干扰。这是通过将DCF作为一个特殊相关滤波层加入到siamese网络中,并且通过DCF推导反向传播实现.

主要成分

  • Discriminant correlation filters (判别式相关滤波器)

假设 $\phi$ 是提特征的 map, 那么这个回归就可以看成是target patch $\phi(x)$ 和 gt 的heatmap $y$ 之间的一个ridge loss:

avator

这个是由解的,通过fourier transform可以得到

avator

最后再能过fourier inverse transform得到网络的输出,即那个希望与 $y$ 比较接近的量

avator

  • 作者给出了DCF的derivation: 反向传播

这说明了可以利用优化cnn的方式来进行end-to-end的训练和优化,并且为了增加稳定性作者还在卷积层的后面加入了LRN - layer.

  • Online model update:RNN explanation

在online tracking的时候,仅仅更新filters w, 上面的优化问题也可以随着时间迭代累加起来成下面的形式,

avator

其中 $\beta_t$ 是影响因子,也称为online learning rate,作者在实验的时候把这个值固定为0.008,同时filters w也可以以下面的形式进行更新

avator

而且作者提出这样累加更新的好处是不再需要 maintain 一个很大的样本集(我印象中在MDnet中就是maintain一个样本集),并且作者将这种累加更新的方式用RNN给了一个合理的解释.

avator

Thoughts

  • atom中在线tracking的时候用到了dcf中的一些想法,我想这应该是atom在复杂的网络结构下还能够保持速度的原因。

  • 我觉得在tracking的精度上要从网络结构着手,而在速度上,之前如dcf,kcf的方法仍然有优势,感觉atom就是这种思路.

打赏,谢谢~~

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,多谢支持~

打开微信扫一扫,即可进行扫码打赏哦