卷积网络之-----AlexNet网络结构

  AlexNet网络是由5个卷积层和3个全连接层构成

下面这个是一个平面图,可能会更好看一些:

1                                  2                           3                           4                               5

6                              7                          8                         9                         10                  11

一、 字母解析:

1、s:(stride)步伐的意思,表示每次跨几个像素点

  (例:s = 1则表示第一次最左上角取(1,1)这个点,往后走两步,下一次的左上角取(1,3)这个点)

2、pad:(padding)补充的意思,就是在原来图片的基础上在外面补充几行(列)

  (例:pad = 2,则表示在原来图片的基础上两边补两列,上下分别补两行,补的数据全部为0)

3、f:(filter)过滤器的意思,在池化的时候会用到

  (例: f = 3,表示这个过滤器为3*3大小,在AlexNet中采取最大池化,所以就会将3*3区域内的数据取最大值替代该区域)

4、pooling:池化

5、FC:全连接

二、过程解析:

1、卷积过程,用96个11*11大小的卷积核去卷积该数据,所以卷积完应该有96张特征图,每张特征图的大小为55*55((227-11)/4+7=55),使用ReLu作为激活函数

2、降采样,也称池化,采用最大池化方式(PM),因为过滤器为3*3,没有进行补充,所以最后池化完的大小为27*27((55-3)/2+1=27)

3、卷积过程,共有256个卷积核,所以卷积完后共有256个特征图,卷积核大小为5*5,步伐为1,补充2行和2列,卷积完大小依然为27*27((55+2*2-5)/1+1=27),使用ReLu作为激活函数

4到8分别是池化、卷积、卷积、卷积、池化操作,原理同上面。

9、全连接操作,使用4096个神经元对256个6*6大小的特征图进行全连接,即通过4096个6*6的卷积核对256个特征图进行卷积操作,再通过ReLU激活函数,最后经过dropout,在训练的以1/2概率使得隐藏层的某些neuron的输出为0,这样就丢到了一半节点的输出,BP的时候也不更新这些节点。通过drop运算后输出4096个本层的输出结果值最后得到4096个神经元

10、输入的4096个数据与上一层的4096个神经元进行全连接,操作如同然后上一层一样经由ReLU进行处理后生成4096个数据,再经过dropout(同样是以0.5的概率)处理后输出4096个数据。

11、上一层输出的4096个数据与本层的1000个神经元进行全连接,经过训练后输出被训练的数值。

原文地址:https://www.cnblogs.com/lyf98/p/11748711.html

时间: 2024-07-31 22:52:07

卷积网络之-----AlexNet网络结构的相关文章

R-FCN:基于区域的全卷积网络来检测物体

http://blog.csdn.net/shadow_guo/article/details/51767036 原文标题为"R-FCN: Object Detection via Region-based Fully Convolutional Networks ",作者代季峰 1,14年毕业的清华博士到微软亚洲研究院的视觉计算组,CVPR 16 两篇一作的会议主持人~ ╰(°▽°)╯ 同时公布了源码~ 2 后面主要内容为原文随便的翻译或概括.必有不紧贴原文原意之处,曲解请指出,否则

语义分割--全卷积网络FCN详解

语义分割--全卷积网络FCN详解 1.FCN概述 CNN做图像分类甚至做目标检测的效果已经被证明并广泛应用,图像语义分割本质上也可以认为是稠密的目标识别(需要预测每个像素点的类别). 传统的基于CNN的语义分割方法是:将像素周围一个小区域(如25*25)作为CNN输入,做训练和预测.这样做有3个问题: - 像素区域的大小如何确定 - 存储及计算量非常大 - 像素区域的大小限制了感受野的大小,从而只能提取一些局部特征 为什么需要FCN? 我们分类使用的网络通常会在最后连接几层全连接层,它会将原来二

深度卷积网络CNN与图像语义分割

转载请注明出处: http://xiahouzuoxin.github.io/notes/ 级别1:DL快速上手 级别2:从Caffe着手实践 级别3:读paper,网络Train起来 级别3:Demo跑起来 读一些源码玩玩 熟悉Caffe接口,写Demo这是硬功夫 分析各层Layer输出特征 级别4:何不自己搭个CNN玩玩 级别5:加速吧,GPU编程 关于语义分割的一些其它工作 说好的要笔耕不缀,这开始一边实习一边找工作,还摊上了自己的一点私事困扰,这几个月的东西都没来得及总结一下.这就来记录

RCNN学习笔记(8):Fully Convolutional Networks for Semantic Segmentation(全卷积网络FCN)

[论文信息] <Fully Convolutional Networks for Semantic Segmentation> CVPR 2015 best paper Reference link: http://blog.csdn.net/tangwei2014 http://blog.csdn.net/u010025211/article/details/51209504 概览&主要贡献 提出了一种end-to-end的做semantic segmentation的方法,简称FC

全卷积网络 FCN 详解

背景 CNN能够对图片进行分类,可是怎么样才能识别图片中特定部分的物体,在2015年之前还是一个世界难题.神经网络大神Jonathan Long发表了<Fully Convolutional Networks for Semantic Segmentation>在图像语义分割挖了一个坑,于是无穷无尽的人往坑里面跳. 全卷积网络 Fully Convolutional Networks CNN 与 FCN 通常CNN网络在卷积层之后会接上若干个全连接层, 将卷积层产生的特征图(feature m

使用Caffe完成图像目标检测 和 caffe 全卷积网络

一.[用Python学习Caffe]2. 使用Caffe完成图像目标检测 标签: pythoncaffe深度学习目标检测ssd 2017-06-22 22:08 207人阅读 评论(0) 收藏 举报  分类: 机器学习(22)  深度学习(12)  版权声明:本文为博主原创文章,未经博主允许不得转载. 目录(?)[+] 2. 使用Caffe完成图像目标检测 本节将以一个快速的图像目标检测网络SSD作为例子,通过Python Caffe来进行图像目标检测. 必须安装windows-ssd版本的Ca

1. CNN卷积网络初识

1. 前言 卷积神经网络是一种特殊的深层的神经网络模型,它的特殊性体现在两个方面, 它的神经元间的连接是非全连接的, 同一层中某些神经元之间的连接的权重是共享的(即相同的). 它的非全连接和权值共享的网络结构使之更类似于生物 神经网络,降低了网络模型的复杂度(对于很难学习的深层结构来说,这是非常重要的),减少了权值的数量. 2. CNN卷积网络结构 我们先重整体的角度观察一下CNN卷积网络的结构: 上图的结构从左到右是,输入层.卷积层(Convolution Layer).池化层(Pooling

四大网络之Alexnet

? ?本文主要介绍AlextNet的一些知识,这些知识经常被忽略 一.AlextNet的创新点 (1)成功使用ReLU作为CNN的激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题.虽然ReLU激活函数在很久之前就被提出了,但是直到AlexNet的出现才将其发扬光大. 使用Relu的优点如下: ????1>因为正半轴为向上升的函数,所以好求导,提升了计算速度 ????2>同样的因为正半轴为向上升的函数,所以相比sigmoid函数不会梯度消

可变形的卷积网络

机器学习_深度学习_入门经典(博主免费教学视频系列) https://study.163.com/course/courseMain.htm?courseId=1006390023&share=2&shareId=400000000398149 本文链接:https://blog.csdn.net/yeler082/article/details/78370795原文链接:Deformable Convolutional Networks 代码链接:https://github.com/m