深度学习论文笔记--Depth Map Prediction from a Single Image using a Multi-Scale Deep Network

阅读时间:2015.04.26

论文源:NIPS2014

作者及单位: David Eigen  [email protected]

Christian Puhrsch  [email protected]

Rob Fergus [email protected]

纽约大学

主要内容:通过CNN来进行对单张图片进行深度估计,单张图片进行深度信息估计做的人比较少,一般是用双目摄像头做的。在这里,作者把CNN当作一个黑盒来看待,用CNN来直接学习图像到它的深度图像信息的映射。

创新点:

  1. 正如文章题目所言,相对于传统的CNN,它是多尺度的,(其实也就是两个尺度,一个粗粒度的,一个细粒度的),这个创新点有点弱。
  2. 对于第二个创新,则是它采用了一个新的损失函数形式,也是加一个类似于正则化项的东西。

其它的没有了,看这篇文章主要是因为我目前做的也是用图像来做回归,看看它这边的损失函数有什么新的东西没有。

网络结构:

这边解析一下它的网络结构:

  1. 两个层次的结构,第一个网络是由一个除粒度的网络结构,其输入是304 ×  228 大小的图片,而它的输出,则是原图像大小的1/16 左右,这个可以指定,因为它就是设计的全连接层的维度。通过ground true图像就可以训练这样网络了。
  2. 第二个网络结构是细粒度的网络,但是它也是作用在原输入图像上面,并且第二层卷积层会加上第一个网络的输出。第二个网络没有全连接层,是属于全卷积网络。

损失函数:

  1. 损失函数,同时也是对其结果的评价标准,这是文章的第二个创新点,其损失函数为: 其中
  2. 第二项α  表示平均的误差项,第一项的前面部分表示每个像素之间的误差项,把第二项加到第一项中做为整体,可以使得同时满足平均误差小同时每个像素的误差也小,相当于一个惩罚项。

实验结果:

时间: 2024-08-06 16:06:04

深度学习论文笔记--Depth Map Prediction from a Single Image using a Multi-Scale Deep Network的相关文章

深度学习论文笔记--Recover Canonical-View Faces in the Wild with Deep Neural Network

文章来源:CVPR2014 作者:Zhenyao Zhu,Ping Luo,Xiaogang Wang,Xiaoou Tang (香港中文大学果然牛啊,CVPR一刷一大堆) 主要内容: 提出了利用深度学习(还是CNN)来进行人脸图像重构正面人脸,然后利用重构的正面人脸图像来进行人脸的verification,当然能够取得更高的准确率(比没有用正脸去verification),文章提出利用DL来学习从任意脸到canonical 脸的转换,可以认为是一个回归问题(也不一定非得用DL方法来做). 现有

深度学习论文阅读笔记--Deep Learning Face Representation from Predicting 10,000 Classes

来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang 题目:Deep Learning Face Representation from Predicting 10,000 Classes 主要内容:通过深度学习来进行图像高级特征表示(DeepID),进而进行人脸的分类. 优点:在人脸验证上面做,可以很好的扩展到其他的应用,并且夸数据库有效性:在数据库中的类别越多时,其泛化能力越强,特征比较少,不像其他特征好几K甚至上M,好的泛化能力+不过拟合于

深度学习word2vec笔记之算法篇

深度学习word2vec笔记之算法篇 声明:  本文转自推酷中的一篇博文http://www.tuicool.com/articles/fmuyamf,若有错误望海涵 前言 在看word2vec的资料的时候,经常会被叫去看那几篇论文,而那几篇论文也没有系统地说明word2vec的具体原理和算法,所以老衲就斗胆整理了一个笔记,希望能帮助各位尽快理解word2vec的基本原理,避免浪费时间. 当然如果已经了解了,就随便看看得了. 一. CBOW加层次的网络结构与使用说明 Word2vec总共有两种类

(转)大牛的《深度学习》笔记,60分钟带你学会Deep Learning。

大牛的<深度学习>笔记,60分钟带你学会Deep Learning. 2016-08-01 Zouxy 阅面科技 上期:<从特征描述到深度学习:计算机视觉发展20年> 回复“01”回顾全文   本期:大牛的<深度学习>笔记,60分钟带你学会Deep Learning. 深度学习,即Deep Learning,是一种学习算法(Learning algorithm),亦是人工智能领域的一个重要分支.从快速发展到实际应用,短短几年时间里,深度学习颠覆了语音识别.图像分类.文本

文献 | 2010-2016年被引用次数最多的深度学习论文(修订版)

本来来自 :http://blog.csdn.net/u010402786/article/details/51682917 一.书籍 Deep learning (2015) 作者:Bengio 下载地址:http://www.deeplearningbook.org/ 二.理论 1.在神经网络中提取知识 Distilling the knowledge in a neural network 作者:G. Hinton et al. 2.深度神经网络很易受骗:高信度预测无法识别的图片 Deep

深度学习word2vec笔记之应用篇

好不容易学了一个深度学习的算法,大家是否比较爽了?但是回头想想,学这个是为了什么?吹牛皮吗?写论文吗?参加竞赛拿奖吗? 不管哪个原因,都显得有点校园思维了. 站在企业的层面,这样的方式显然是不符合要求的,如果只是学会了,公式推通了,但是没有在工作中应用上,那会被老大认为这是没有产出的.没有产出就相当于没有干活,没有干活的话就……呃……不说了. 下面就给大家弄些例子,说说在互联网广告这一块的应用吧. 一.对广告主的辅助 1.1基本概念 互联网广告的广告主其实往往有他们的困惑,他们不知道自己的目标人

吴恩达-深度学习-课程笔记-7: 优化算法( Week 2 )

1 Mini-batch梯度下降 在做梯度下降的时候,不选取训练集的所有样本计算损失函数,而是切分成很多个相等的部分,每个部分称为一个mini-batch,我们对一个mini-batch的数据计算代价,做完梯度下降,再对下一个mini-batch做梯度下降.比如500w个数据,一个mini-batch设为1000的话,我们就做5000次梯度下降(5000个mini-batch,每个mini-batch样本数为1000,总共500w个样本). 对于batch梯度下降(每次计算所有的样本),随着迭代

深度学习论文翻译解析(五):Siamese Neural Networks for One-shot Image Recognition

论文标题:Siamese Neural Networks for One-shot Image Recognition 论文作者: Gregory Koch   Richard Zemel Ruslan Salakhutdinov 论文地址:https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf 声明:小编翻译论文仅为学习,如有侵权请联系小编删除博文,谢谢! 小编是一个机器学习初学者,打算认真研究论文,但是英文水平有限,所以论文翻译中用到了Goo

吴恩达-深度学习-课程笔记-6: 深度学习的实用层面( Week 1 )

1 训练/验证/测试集( Train/Dev/test sets ) 构建神经网络的时候有些参数需要选择,比如层数,单元数,学习率,激活函数.这些参数可以通过在验证集上的表现好坏来进行选择. 前几年机器学习普遍的做法: 把数据分成60%训练集,20%验证集,20%测试集.如果有指明的测试集,那就用把数据分成70%训练集,30%验证集. 现在数据量大了,那么验证集和数据集的比例会变小.比如我们有100w的数据,取1w条数据来评估就可以了,取1w做验证集,1w做测试集,剩下的用来训练,即98%的训练