4.2 CNN实例探究

  阅读他人的代码能够帮助你学习编程。类似的,研究他人开训练出的实例,有助于你构建自己的CNN。

1.classicla network

1.1 LeNet-5

  

  n_H,n_W在减小,n_C在增加

  一个或多个卷积层后边跟一个池化层

  阅读论文:只需精读第二段

1.2 AlexNet

论文:任务被分到了两个GPU上处理

    LRN局部响应归一化层

1.3 VGGNet

 

2.ResNet

  

  跳远连接输入和输出若维度不同,则需要将输入乘以一个矩阵,以便将其维度与输出一致

3.Inception

  网路中的网络(1*1卷积)给神经网络添加了一个非线性函数,从而可以压缩信道数量或者保持信道数量不变

原文地址:https://www.cnblogs.com/cs-zzc/p/11428194.html

时间: 2024-10-29 19:36:14

4.2 CNN实例探究的相关文章

吴恩达《深度学习》第四门课(2)卷积神经网络:实例探究

2.1为什么要进行实例探究 (1)就跟学编程一样,先看看别人怎么写的,可以模仿. (2)在计算机视觉中一个有用的模型,,用在另一个业务中也一般有效,所以可以借鉴. (3)本周会介绍的一些卷积方面的经典网络经典的包括:LeNet.AlexNet.VGG:流行的包括:ResNet.Inception,如下图: 2.2经典网络 (1)LeNet-5网络结构如下图所示: (2)在LeNet-5中的一些注意点:网络输入单通道的,大概有6万个参数,池化用的是平均池化而不是最大值池化,还没有用到padding

Halcon二维仿射变换实例探究

二维仿射变换,顾名思义就是在二维平面内,对对象进行平移.旋转.缩放等变换的行为(当然还有其他的变换,这里仅论述这三种最常见的). Halcon中进行仿射变换的常见步骤如下: ① 通过hom_mat2d_identity算子创建一个初始化矩阵(即[1.0, 0.0, 0.0, 0.0, 1.0, 0.0]): ② 在初始化矩阵的基础上,使用hom_mat2d_translate(平移).hom_mat2d_rotate(旋转).hom_mat2d_scale(缩放)等生成仿射变换矩阵:(这几个算子

cnn 实例

http://www.geekcome.com/content-10-3761-1.html http://www.geekcome.com/content-10-3761-1.html http://blog.csdn.net/zouxy09 http://blog.csdn.net/celerychen2009/article/details/8973218

Python装饰器有趣实例探究

廖老师的教程实在太高深,没弄懂,点击打开链接 def deco_functionNeedDoc(func): if func.__doc__ == None : print func, "has no __doc__, it's a bad habit." else: print func, ':', func.__doc__, '.' return func @deco_functionNeedDoc def f(): print 'f() Do something' @deco_f

【iOS发展-53】实例探究:scrollView使用方法和解决方案无法滚动核心

案例效果: (1)基本的就是练习scrollView的使用方法.界面里面的其它元素基本都是UIView和UIButton堆砌起来的. (2)主要用代码实现.当然,能够先用storyboard拖个scrollView出来.注意须要滚动的都须要放在scrollView,注意层级关系. (3)我们要在代码中使用设置这个scrollView所以直接拖拽形成一个变量,代码都在ViewController.m中: --设置scrollView的最重要的三个属性例如以下,已用凝视标出. --取得一个控件的最大

深度学习——深卷积网络:实例探究

1. 三个经典网络 红色部分不重要,现在已经不再使用 这篇文章较早,比如现在常用max,而当时用avg,当时也没有softmax 这篇文章让CV开始重视DL的使用,相对于LeNet-5,它的优点有两个:更大,使用ReLU 以作者名字命名 same表示使用same过滤器,也就是输入和输出维度一致 16表示总共有16个CONV和FC,这篇文章指出了信道数和维度变化的规律性(随网络增加/减少),缺点是参数实在太多了 阅读论文顺序:2-3-1 2. 残差网络 残差网络由残差块组成,它使得网络可以变得更深

卷积神经网络(二)深度卷积网络:实例探究

1.经典网络: (1)LeNet-5:识别手写数字 (2)AlexNet: (3)VGG-16: 2.Residual networks(ResNets 残差网络): (1)Residual block(残差块): 多个残差块构成一个残差网络: (2)残差网络的优势: 理论上,随着神经网络的深入,训练误差会越来越小,但实际上,层数越多训练的难度越大,因此层数过多误差也会增大. 但残差网络适用于深层的神经网络,误差随着层数的增多而减小. (3)为什么残差网络性能更好? 3.网络中的网络和1*1卷积

使用docker安装部署Spark集群来训练CNN(含Python实例)

使用docker安装部署Spark集群来训练CNN(含Python实例) 本博客仅为作者记录笔记之用,不免有很多细节不对之处. 还望各位看官能够见谅,欢迎批评指正. 博客虽水,然亦博主之苦劳也. 如需转载,请附上本文链接,不甚感激! http://blog.csdn.net/cyh_24/article/details/49683221 实验室有4台神服务器,每台有8个tesla-GPU,然而平时做实验都只使用了其中的一个GPU,实在暴遣天物! 于是想用spark来把这些GPU都利用起来.听闻d

Spark MLlib Deep Learning Convolution Neural Network (深度学习-卷积神经网络)3.3

3.Spark MLlib Deep Learning Convolution Neural Network(深度学习-卷积神经网络)3.3 http://blog.csdn.net/sunbow0 第三章Convolution Neural Network (卷积神经网络) 3实例 3.1 测试数据 按照上例数据,或者新建图片识别数据. 3.2 CNN实例 //2 测试数据 Logger.getRootLogger.setLevel(Level.WARN) valdata_path="/use