论文笔记之:Curriculum Learning of Multiple Tasks

Curriculum Learning of Multiple Tasks

CVPR 2015

  对于多任务的学习(Multi-Task Learning)像是属性识别等任务,之前都是每一个属性训练一个分类器,后来有了深度学习,大家都用共享卷积层的方式来联合的学习(Joint Learning)。让网络去学习各个任务或者说各个属性之间潜在的联系,最后对其进行分类,或者逻辑回归。本文对这种做法提出了其诟病,说是:多个task之间的相互关系并不相同,有的有关系 有的关系很弱或者基本不相关等等。  如上图所示,给出了两种pipeline,一种是绿色箭头所示的那样,所有的学习任务都被建模成相关的,这种相关性主要基于信息共享(Sharing Information);另一种,是本文提出的先学习某一任务,再在此基础之上,去学习其他的任务,按照这种相关性最终完成所有的task learning。本文focus在参数转移方法,该方法基于这样的idea:models corresponding to related tasks are similar to each other in terms of their parameter representations. 即:对应相关任务的模型根据他们的参数表示来说都是相似的。本文的一个假设是:模型之间的相似性可以通过对应的参数向量之间的欧式距离来度量。本文所提出的方法可以看做是将 multi-task problem 分解为一系列的 domain adaptation problems 。

  当然了这里也有吹水啦,如:本文是受到人类教育过程的启发,将在校的学生看做是一个多任务的学习机,假设要学习很多的课程。但是并非一次性全部学习完毕,而是按照一定的序列,依次进行,按照一定的有意义的序列,该学生就可以逐渐的增加他们的只是,并且将之前学到的东西,用于后面更加有效的进行课程学习。

  学习课程的次序严重影响最终的表现,本文用 PAC-Bayesian theory 来证明依赖于数据表示和算法的一个总的边界(a genetalization bound)来解决这个任务。基于这个bound,本文提出了一个理论上可证明的算法自动的选择一个较好的序列进行学习。本文的实验证明按照自动学习到的序列,可以获得比单独训练或者联合训练都要好的结果。

  看到这里,大伙是不是迫不及待了?Come On !

  



  假设我们有n个任务,分别为 t1 t2 t3 ... tn,共享相同的输入和输出空间。每一个任务 ti 定位对应的集合Si,有mi个采样的训练点。我们也假设为了解决每一个任务,学习者用一个线性估计 f(x) = sign<w, x>,w是一个权重向量,通过 0/1 loss 衡量分类的性能。学习者的目标是为了找到n个权重向量 w1 w2 ... wn 使得任务t1 t2 t3 ...tn的平均期望误差最小:

  1. Learning in a fixed order.

   本节就是用Adaptive SVM来学习每一个任务,并且将之前的任务用于下一个任务的学习,给定一个权重向量和一个任务的训练数据,Adaptive SVM执行下列的优化:

  上式中带波浪线的w表示的是上一个任务的权重向量。

  2. Learning a data-dependent order.

  这里我们根据结果的平均期望误差(the average expected error)检查序列 pi 的作用,我们假设:用来解决单独任务 t 的学习算法对于所有任务来说都是一样的而且是确定的。算法基于上一个解决的任务得到的解 和 训练数据S,返回对应的权重向量 W。紧接着的理论提供了平均期望误差的上线:  

    

  

时间: 2024-08-11 03:27:37

论文笔记之:Curriculum Learning of Multiple Tasks的相关文章

论文笔记 Deep Patch Learning for Weakly Supervised Object Classi cation and Discovery

Background 1) "Patch-level image representation"的优势 "Patch-level image representation is very important for object classification and detection, since it is robust to spatial transformation, scale variation, and cluttered background" &

Deep Learning 论文笔记 (3): Deep Learning Face Attributes in the Wild

这是Xiaogang Wang和Xiaoou Tang组的一篇technical report,作者是优秀的学弟Ziwei Liu. 通常人脸识别里面先要对人脸图像进行检测和对齐,然后在相应的地方提取特征,但是在自然场景中,由于背景混乱,人脸检测和对齐会受到影响,进而影响特征提取和最后的识别效果. 这篇论文的主要思想是通过学习两个deep network来构建face attributes recognition的系统,其中第一个用来localization,第二个用来提取feature. 主要

论文笔记之:Learning Multi-Domain Convolutional Neural Networks for Visual Tracking

Learning Multi-Domain Convolutional Neural Networks for Visual Tracking CVPR 2016 本文提出了一种新的CNN 框架来处理跟踪问题.众所周知,CNN在很多视觉领域都是如鱼得水,唯独目标跟踪显得有点“慢热”,这主要是因为CNN的训练需要海量数据,纵然是在ImageNet 数据集上微调后的model 仍然不足以很好的表达要跟踪地物体,因为Tracking问题的特殊性,至于怎么特殊的,且听细细道来. 目标跟踪之所以很少被 C

论文笔记之:Learning to Track: Online Multi-Object Tracking by Decision Making

Learning to Track: Online Multi-Object Tracking by Decision Making ICCV   2015 S

论文笔记-Wide &amp; Deep Learning for Recommender Systems

本文提出的W&D是针对rank环节的模型. 网络结构: 本文提出的W&D是针对rank环节的模型. 网络结构: wide是简单的线性模型,但是可以预先对特征做各种变换.交叉等来增加wide模型的非线性性. deep是一个FNN,对高维稀疏类别特征采取embedding降维,embedding的结果是在训练时候学出来的. wide与deep结合的方式,是将两者的输出通过加权最后喂给一个logistic损失函数.值得注意的是,这里是join train并不是ensemble,ensemble是

Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记

Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记 arXiv 摘要:本文提出了一种 DRL 算法进行单目标跟踪,算是单目标跟踪中比较早的应用强化学习算法的一个工作.  在基于深度学习的方法中,想学习一个较好的 robust spatial and temporal representation for continuous video data 是非常困难的.  尽管最近的 CNN based tracke

【转】Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现

原作者:zouxy09 原文链接:http://blog.csdn.net/zouxy09/article/details/9993371 Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 [email protected] http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样.所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现(转)

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 [email protected] http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样.所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面也方便未来自己的勘察.更好的还可以放到博客上面与大家交流.因为基础有限,所以对论文的一些理解可能不太正确,还望大家不

Deep Learning Face Representation from Predicting 10,000 Classes论文笔记

Deep Learning Face Representation from Predicting 10,000 Classes论文笔记(2015.03.24) 一.基本思路 作者利用卷积神经网络(Convolutional Neural Network,CNN)对大量样本进行训练,提取Deep hidden identity feature(DeepID)特征,然后利用这些特征进行人脸验证(Face Verification).在LFW(Labeled Faces in the Wild)库上