Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记

Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记

arXiv

  摘要:本文提出了一种 DRL 算法进行单目标跟踪,算是单目标跟踪中比较早的应用强化学习算法的一个工作。

   在基于深度学习的方法中,想学习一个较好的 robust spatial and temporal representation for continuous video data 是非常困难的。

   尽管最近的 CNN based tracker 也取得了不错的效果,但是,其性能局限于:

  1. Learning robust tracking features ;

  2. maximizing long-term tracking performance    ---->>> without taking coherency and correlation into account.

  

  本文的创新点在于:

  1. 提出一种 convolutional recurrent neural network model, 可以学习到单帧图像的空间表示 以及 多帧图像之间的时序上的表示;

    得到的特征可以更好的捕获 temporal information,并且可以直接应用到跟踪问题上;

  2. 我们的框架是端到端的进行训练的 deep RL algorithm,模型的目标是最大化跟踪性能;

  3. 模型完全是 off-line的;

  

  

  Tracking Framework :

  

  

  本文提出的 Deep RL 算法框架,由三个部分构成:

  1  CNN 特征提取部分;

  2  RNN 历史信息构建部分;

  3  DEEP RL 模块

  前两个部分没什么要说的,就是简单的 CNN, LSTM 结构。

  第三个 RL 部分:

  说到底,这个文章是在之前 attention model based Tracker ICLR 2016 年的一个文章基础上做的。

  RL 部分就是没有变换,直接挪过来的。

  状态,是跟踪视频的 frame ;

  动作,是 多变量高斯分布得到的 predicted location;

  奖励,是 scalar reward signal, 定义为:$r_t = -avg(l_t - g_t) - max(l_t - g_t)$ ,lt 是RL单元的输出,gt 是时刻 t 的 gt ;

     avg() 是给定矩阵的 mean value; max() 是计算给定元素的最大值。

  

  训练的目标是最大化奖励信号 R。

  

  学习的目标函数为:

  

  其中,p(z1:T; W) 是可能交互的分布,参数化为 W (the distribution over possible interactions parameterized by W).

  

  上述函数涉及到 an expectation over high-dimensional interactions,以传统的监督方法来解决是非常困难的。

  利用 RL 领域中的 REINFORCE algorithm 进行近似求解。

  

  



  总体来说,在我之前,将 DRL 这个框架用于 跟踪问题,这一点,我服了。。。

  第二点,就是,在前人方法上的改动不大,不能说非常大的创新点 。。。

  

  

时间: 2024-10-13 18:44:56

Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记的相关文章

论文笔记之:Collaborative Deep Reinforcement Learning for Joint Object Search

Collaborative Deep Reinforcement Learning for Joint Object Search   CVPR 2017 Motivation: 传统的 bottom-up object region proposals 的方法,由于提取了较多的 proposal,导致后续计算必须依赖于抢的计算能力,如 GPU 等.那么,在计算机不足的情况下,则会导致应用范围受限.而 Active search method (就是 RL 的方法) 则提供了不错的方法,可以很大

Online Object Tracking: A Benchmark 论文笔记

Factors that affect the performance of a tracing algorithm 1 Illumination variation 2 Occlusion 3 Background clutters Main modules for object tracking 1 Target representation scheme 2 Search mechanism 3 Model update Evaluation Methodology 1 Precison

Online Object Tracking: A Benchmark 论文笔记(转)

转自:http://blog.csdn.net/lanbing510/article/details/40411877 Factors that affect the performance of a tracing algorithm 1 Illumination variation 2 Occlusion 3 Background clutters Main modules for object tracking 1 Target representation scheme 2 Search

Paper Reading 1 - Playing Atari with Deep Reinforcement Learning

来源:NIPS 2013 作者:DeepMind 理解基础: 增强学习基本知识 深度学习 特别是卷积神经网络的基本知识 创新点:第一个将深度学习模型与增强学习结合在一起从而成功地直接从高维的输入学习控制策略 详细是将卷积神经网络和Q Learning结合在一起.卷积神经网络的输入是原始图像数据(作为状态)输出则为每一个动作相应的价值Value Function来预计未来的反馈Reward 实验成果:使用同一个网络学习玩Atari 2600 游戏.在測试的7个游戏中6个超过了以往的方法而且好几个超

repost: Deep Reinforcement Learning

From: http://wanghaitao8118.blog.163.com/blog/static/13986977220153811210319/ accessed 2016-03-10 深度强化学习(Deep Reinforcement Learning)的资源 Google的Deep Mind团队2013年在NIPS上发表了一篇牛x闪闪的文章,亮瞎了好多人眼睛,不幸的是我也在其中.前一段时间收集了好多关于这方面的资料,一直躺在收藏夹中,目前正在做一些相关的工作(希望有小伙伴一起交流)

Deep Reinforcement Learning 深度增强学习资源

1 学习资料 增强学习课程 David Silver (有视频和ppt): http://www0.cs.ucl.ac.uk/staff/D.Silver/web/Teaching.html 最好的增强学习教材: Reinforcement Learning: An Introduction https://webdocs.cs.ualberta.ca/~sutton/book/the-book.html 深度学习课程 (有视频有ppt有作业) https://www.cs.ox.ac.uk/p

深度强化学习(Deep Reinforcement Learning)的资源

来源:http://wanghaitao8118.blog.163.com/blog/static/13986977220153811210319/ Google的Deep Mind团队2013年在NIPS上发表了一篇牛x闪闪的文章,亮瞎了好多人眼睛,不幸的是我也在其中.前一段时间收集了好多关于这方面的资料,一直躺在收藏夹中,目前正在做一些相关的工作(希望有小伙伴一起交流). 一.相关文章 关于DRL,这方面的工作基本应该是随着深度学习的爆红最近才兴起的,做这方面的研究的一般都是人工智能领域的大

(zhuan) Deep Reinforcement Learning Papers

Deep Reinforcement Learning Papers A list of recent papers regarding deep reinforcement learning. The papers are organized based on manually-defined bookmarks. They are sorted by time to see the recent papers first. Any suggestions and pull requests

DRL前沿之:Hierarchical Deep Reinforcement Learning

1 前言 如果大家已经对DQN有所了解,那么大家就会知道,DeepMind测试的40多款游戏中,有那么几款游戏无论怎么训练,结果都是0的游戏,也就是DQN完全无效的游戏,有什么游戏呢? 比如上图这款游戏,叫做Montezuma's Revenge.这种游戏类似超级玛丽,难在哪里呢?需要高级的策略.比如图中要拿到钥匙,然后去开门.这对我们而言是通过先验知识得到的.但是很难想象计算机如何仅仅通过图像感知这些内容.感知不到,那么这种游戏也就无从解决. 那么这篇文章: Hierarchical Deep