四大网络之Alexnet

? ?本文主要介绍AlextNet的一些知识,这些知识经常被忽略

一、AlextNet的创新点

(1)成功使用ReLU作为CNN的激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题。虽然ReLU激活函数在很久之前就被提出了,但是直到AlexNet的出现才将其发扬光大。

使用Relu的优点如下:
????1>因为正半轴为向上升的函数,所以好求导,提升了计算速度
????2>同样的因为正半轴为向上升的函数,所以相比sigmoid函数不会梯度消散
????3>负半轴为0,所以增加了网络的稀疏性
????4>非线性

(2)训练时使用Dropout随机忽略一部分神经元,以避免模型过拟合。Dropout虽有单独的论文论述,但是AlexNet将其实用化,通过实践证实了它的效果。在AlexNet中主要是最后几个全连接层使用了Dropout。

????1>Dropout之所以能够防止过拟合是因为,当dropout掉一些神经元时就相当于对不同的网络进行正向和反向传播,整个dropout的过程就相当于对多个不同的神经网络取平均,一些互为反向的拟合相互抵消

(3)在CNN中使用重叠的最大池化。此前CNN中普遍使用平均池化,AlexNet全部使用最大池化,避免平均池化的模糊化效果。并且AlexNet中提出让步长比池化核的尺寸小,这样池化层的输出之间会有重叠和覆盖,提升了特征的丰富性。

(4)提出了LRN层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。

(5)使用CUDA加速深度卷积网络的训练,利用GPU强大的并行计算能力,处理神经网络训练时大量的矩阵运算。AlexNet使用了两块GTX?580?GPU进行训练,单个GTX?580只有3GB显存,这限制了可训练的网络的最大规模。因此作者将AlexNet分布在两个GPU上,在每个GPU的显存中储存一半的神经元的参数。因为GPU之间通信方便,可以互相访问显存,而不需要通过主机内存,所以同时使用多块GPU也是非常高效的。同时,AlexNet的设计让GPU之间的通信只在网络的某些层进行,控制了通信的性能损耗。?

(6)数据增强,随机地从256256的原始图像中截取224224大小的区域(以及水平翻转的镜像),相当于增加了2*(256-224)^2=2048倍的数据量。如果没有数据增强,仅靠原始的数据量,参数众多的CNN会陷入过拟合中,使用了数据增强后可以大大减轻过拟合,提升泛化能力。进行预测时,则是取图片的四个角加中间共5个位置,并进行左右翻转,一共获得10张图片,对他们进行预测并对10次结果求均值。同时,AlexNet论文中提到了会对图像的RGB数据进行PCA处理,并对主成分做一个标准差为0.1的高斯扰动,增加一些噪声,这个Trick可以让错误率再下降1%。

二、防止过拟合和欠拟合的方法
1、防过拟合

(1)增加训练样本
(2)加入正则化
(3)dropout
(4)提前停止

2、防欠拟合

(1)加特征
(2)加多项式次数
(3)减小正则化的系数

三、训练步骤

图像输入---->提取图像特征---->前向传播和后向传播---->预测

四、学会SAME、VALID在conv和pool的运用

链接

五、其他

会计算链接数,知道AlexNet有5个卷积层,2个全链接层,采用了全局最大池化、dropout、数据增强技术防过拟合

最后的疑问

卷积核是怎么算的?怎样算是一个卷积核,卷积核的可视化(仔细看看)

原文地址:https://www.cnblogs.com/liuboblog/p/11617851.html

时间: 2024-11-05 11:43:48

四大网络之Alexnet的相关文章

卷积网络之-----AlexNet网络结构

AlexNet网络是由5个卷积层和3个全连接层构成 下面这个是一个平面图,可能会更好看一些: 1                                  2                           3                           4                               5 6                              7                          8                   

RCNN学习笔记(8):Fully Convolutional Networks for Semantic Segmentation(全卷积网络FCN)

[论文信息] <Fully Convolutional Networks for Semantic Segmentation> CVPR 2015 best paper Reference link: http://blog.csdn.net/tangwei2014 http://blog.csdn.net/u010025211/article/details/51209504 概览&主要贡献 提出了一种end-to-end的做semantic segmentation的方法,简称FC

CNN网络架构演进:从LeNet到DenseNet

卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀.CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙.新年有假期,就好好总结一波CNN的各种经典架构吧,领略一下CNN的发展历程中各路大神之间的智慧碰撞之美. 上面那图是ILSVRC历年的Top-5错误率,

Squeeze Excitation Module 对网络的改进分析

Squeeze-and-Excitation Networks SE-net 来自于Momenta 1 SE-net的灵感 VGG 网络将 Alexnet 7*7 和 5*5  替换成了3*3 的卷积核 Wide Resnet如下右: 除此之外,GoogleNet 内部inxeption 实际使用的是一个多尺度 的结构. googlenet 是将卷积在空间维度上进行组合 ResNeXt 是将左边的分支结构极端化,在不同的通道上进行group conversation,最后concat 我们希望c

语义分割相关网络简述

1.Fully Convolution Networks (FCNs) 全卷积网络 相应连接:Arxiv 我们将当前分类网络(AlexNet, VGG net 和 GoogLeNet)修改为全卷积网络,通过对分割任务进行微调,将它们学习的表征转移到网络中.然后,我们定义了一种新的架构,它将深的.粗糙的网络层的语义信息和浅的.精细的网络层的表层信息结合起来,来生成精确和详细的分割.我们的全卷积网络在 PASCAL VOC(在2012年相对以前有20%的提升,达到了62.2%的平均IU),NYUDv

#ICCV2019论文阅读#Fully_convolutional_Features

一 知识背景 3D scan&cloud points(点云)patch-based features,fully convolutional network, deep metric learning, sparse tensors,sparse convolutions, hard negetive-mining, contrastive loss, triplet loss, batch normalization... 1.cloud points(点云) “在逆向工程中通过测量仪器得到

论文阅读笔记:Fully Convolutional Networks for Semantic Segmentation

这是CVPR 2015拿到best paper候选的论文. 论文下载地址:Fully Convolutional Networks for Semantic Segmentation 尊重原创,转载请注明:http://blog.csdn.net/tangwei2014 1.概览&主要贡献 提出了一种end-to-end的做semantic segmentation的方法,简称FCN. 如下图所示,直接拿segmentation 的 ground truth作为监督信息,训练一个端到端的网络,让

程序员遇到问题时怎么办

今日要闻: 新浪创业上线 毫无疑问,2015是属于创业者的时代,O2O将颠覆每一个服务细分行业: 出行相关的应用层出不穷,大大降低了出行成本: 在线教育正在革新我们获取知识的方式: 全新的移动社交生态体系将我们拉的更近. 每一个颠覆的机会都是从创业者小小的梦想开始的,在梦的起点最需要支持和帮助. 我们希望新浪的平台能够全力帮助创业者和创新产品加速成长.同时, 也让我们的用户尽快用上这些足以改变我们生活的新创想,这就是新浪创业频道的使命. 今日英文: http://docs.oracle.com/

论文笔记 Visualizing and Understanding Convolutional Networks

之前,我知道可以可视化CNN,也只是知道有这么一回事情.至于它是"怎么做的.其原理是什么.给我们的指导意义是什么",也不清楚.说白了,就是我知道有"CNN可视化",仅仅停留在"知道"层面!但当自己需要运用.理解其他CNN可视化技术时,才晓得将这篇paper精读一下. Background 1)在很多分类任务中(如手写字符识别.人脸识别,以及极具挑战性的Imagenet Classification),CNN取得了极好的性能.但是,CNN是怎么做到