2016.4.5 ImageNet Classification with Deep Convolutional Neural Networks

ImageNet Classification with Deep
Convolutional Neural Networks

http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

这个网络也叫做alexnet,因为第一作者的名字是alex,这是个经典的网络,因为这个网络在12年的时候在imagenet上面提升了十个点的准确率。第三作者是hinton。

Abstract介绍的就是我们这个网络很牛逼啊,有卷积,下采样,relu,lrn,全连接,多gpu,还减少了过拟合,通过扩充数据集和dropout。然后就开始逐渐介绍这个网络。

有一些内容比较常见,我就记录下来我比较容易忽略的点。

对于一个网络过拟合来说,1000类用10个比特可以表示,所以作者说这个网络这么大,很容易就过拟合。

相比于全连接网络,cnn参数少,层差不多,而且还容易训练,理论上来说就差了那么一点儿,所以cnn很不错的啊。

Ilsvrc2010有test data 2012没有,所以2012用的是validation。

Top-1 error 和top-5 error。

第一个relu是为了放置saturate problem,速度很快好不好。Relu最开始训练是为了防止过拟合,但是这里是为了训练非常快。

第二个是多gpu训练。

第三个是lrn,感觉用处不太大,还是bn感觉更有大局观一些。

第四个是overlapping pooling,这个经过实践验证似乎是更好一些。

Conv-relu-lrn-pool

-conv-relu-lrn-pool

-conv-relu

-conv-relu

-conv-relu-pool

-fc-relu-fc-relu-softmax

为了减少过拟合,第一个是data augmentation,大量扩充数据集和,而且在计算的时候采用cpu,所以刚好不会影响运算效率,也不会占用空间。第二个是pca,去除噪声,随即改变一下主要的成分的所占比重。或者说是对于主要的相关信息的概率分布进行调整,使得在某些样本中能够强化学习一些较弱的特征,感觉这个还是有一些用的蛤,因为有些隐藏的小规律,可能在大规律的作用下难以被很好的发现。第三个是dropout,降低网络节点之间的相关度。

学习的时候采用momentum,虽然慢了点儿,但是还是比较准确的。

结果很牛逼啊很牛逼。

在最后的一个直观的图像展示中,有这么几点,第一个就是展示了一些和test data的欧式距离最相近的图片,这个相近,是采用的自编码来的,为啥捏,最后算出来的4096长度的向量计算上太不方便了,所以采用一个自编码对于高层的feature进行提取,降维。之所以不对原始图片进行这样的自编码然后计算距离是因为那样学出来的比较初级,自编码编码的是像素级的信息,而在这一层次,编码的就是抽象的语义级的信息。

之后还有一个有意思的工作可能开展就是采用连续的图片进行输入,而不是这样的静态图片。

下面问题来了:

1.     
为什么按照论文中的图示,两个gpu 的特征差异这么大,第一个gpu似乎都是边缘,而第二个有了很多颜色。这是为什么?

2.     
Lrn感觉奇奇怪怪的,尤其是各个参数,有没有什么道理?

3.     
Dropout的位置有关系吗?比如说我在做实验的时候喜欢放在后面的fc。

4.     
Pca到底有多大的效果?毕竟是比较初级的图像处理的方式,是否对于深层次的神经网络来说可以通过增加某些结果对于数据进行处理来代替这一步骤?

5.    两个gpu进行训练的交互性或者独立性对于最后结果的影响有多大-

时间: 2024-12-13 07:44:28

2016.4.5 ImageNet Classification with Deep Convolutional Neural Networks的相关文章

ImageNet?Classification?with?Deep?Convolutional?Neural?Networks?阅读笔记 转载

ImageNet Classification with Deep Convolutional Neural Networks 阅读笔记 (2013-07-06 22:16:36) 转载▼ 标签: deep_learning imagenet hinton 分类: 机器学习 (决定以后每读一篇论文,都将笔记记录于博客上.) 这篇发表于NIPS2012的文章,是Hinton与其学生为了回应别人对于deep learning的质疑而将deep learning用于ImageNet(图像识别目前最大的

【Papers】《ImageNet Classification with Deep Convolutional Neural Networks》阅读笔记

参考资料: ImageNet Classification with Deep Convolutional Neural Networks,Alex Krizhevsky,Ilya Sutskever,Geoffrey E. Hinton http://www.cnblogs.com/tornadomeet/p/3258122.html http://blog.sina.com.cn/s/blog_890c6aa30100z7su.html

ImageNet Classification with Deep Convolutional Neural Networks(转载)

ImageNet Classification with Deep Convolutional Neural Networks 阅读笔记 (决定以后每读一篇论文,都将笔记记录于博客上.) 这篇发表于NIPS2012的文章,是Hinton与其学生为了回应别人对于deep learning的质疑而将deep learning用于ImageNet(图像识别目前最大的数据库)上,最终取得了非常惊人的结果,其结果相对原来的state of the art好了非常多(前5选错误率由25%降低为17%). I

ImageNet Classification with Deep Convolutional Neural Networks

ImageNet Classification with Deep Convolutional Neural Networks Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton 摘要 我们训练了一个大型的深度卷积神经网络,来将在ImageNet LSVRC-2010大赛中的120万张高清图像分为1000个不同的类别.对测试数据,我们得到了top-1误差率37.5%,以及top-5误差率17.0%,这个效果比之前最顶尖的都要好得多.该神经网络有

中文版 ImageNet Classification with Deep Convolutional Neural Networks

ImageNet Classification with Deep Convolutional Neural Networks 摘要 我们训练了一个大型深度卷积神经网络来将ImageNet LSVRC-2010竞赛的120万高分辨率的图像分到1000不同的类别中.在测试数据上,我们得到了top-1 37.5%, top-5 17.0%的错误率,这个结果比目前的最好结果好很多.这个神经网络有6000万参数和650000个神经元,包含5个卷积层(某些卷积层后面带有池化层)和3个全连接层,最后是一个1

《ImageNet Classification with Deep Convolutional Neural Networks》 剖析

CNN 领域的经典之作, 作者训练了一个面向数量为 1.2 百万的高分辨率的图像数据集ImageNet, 图像的种类为1000 种的深度卷积神经网络.并在图像识别的benchmark数据集上取得了卓越的成绩. 该神经网络有6千万个参数,650,000个神经元.包含了五个卷积层(卷积操作层和下采样层统称之为卷积层), 和三个全连接层. 为了使得训练更快,让网络实现在GPU上进行卷积操作运算,为了减小overfitting, 全连接层引入一个最近兴起的方法:dropout.下面是整个网络的大致介绍:

AlexNet:ImageNet Classification with Deep Convolutional Neural Networks

论文理解  在ImageNet LSVRC-2010上首次使用大型深度卷积神经网络,并获得很好的成果. 数据集:ILSVRC使用ImageNet的一个子集,1000个类别每个类别大约1000张图像.总计,大约120万训练图像,50000张验证图像和15万测试图像. 网络架构:5个卷积层和3个全连接层另外还有无权重的池化层. 激活函数使用了ReLU非线性函数,大大加快了训练时间. 训练方式采用多GPU训练,基于GPU跨GPU并行性好的特点,如翻译中的图2所示,GPU分工明确,只在某些层有数据的交互

论文解读《ImageNet Classification with Deep Convolutional Neural Networks》

这篇论文提出了AlexNet,奠定了深度学习在CV领域中的地位. 1. ReLu激活函数 2. Dropout 3. 数据增强 减小过拟合(Reducing Overfitting) 动机:由于整个网络拥有6000万个参数:尽管ILSVRC的1000个类使得每个训练示例对从图像到标签的映射施加10位约束,十分有必要去考虑过拟合的问题. 数据扩充(Data Augmentation) 图像数据扩充,即人工的扩大数据集, 是减小过拟合现象最简单和常用的方法,作者使用两者不同的数据扩充方法: --第一

[转]XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks

感谢: XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks 本人想把算法思想实现在mxnet上(不单纯是一个layer),有意愿一起的小伙伴可以联系我,本人qq(邮箱):564326047(@qq.com),或者直接在下面留言. 一.Introdu