七月算法--12月机器学习在线班-第十九次课笔记-深度学习--CNN

七月算法--12月机器学习在线班-第十九次课笔记-深度学习--CNN

七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com

1,卷积神经网络-CNN 基础知识

三个要点

1: 首先将输入数据看成三维的张量(Tensor)

2:
引入Convolution(卷积)操作,单元变成卷积核,部分连接共享权重

3:引入Pooling(采样)操作,降低输入张量的平面尺寸

,1.1 张量(Tensor)

高,宽度,深度,eg:彩色图像:rgb,3个深度,图像的大小是160高度,320,

(3,160,320)一个三维张量

1.2 卷积操作:

一维信号的卷积:

卷积核:1,0,-1

如图步长stride:2 具体的操作是于卷积核对应位置相乘后续相加即 0*1+1*0+2*(-1)=-2这就是第一个数据和卷积核相乘相加得到的-2;后面一次类推

那么3D-张量的卷积操作如下:

?

1.3 3D-张量的卷积操作

nn.Spatisl Convolution(3,2,3,3) 第一个3,是输入图像的深度为3,第一个数字2是两个卷积核,后面的3,3,是生成图像的大小3*3的,一共有2张图。

卷积操作在深度上面不滑动,为了后面的共享全连接

如下图,将蓝色的部分和对应红色的部分相乘后香蕉,之后再将三个卷积核对应操作得到的数值全部相加,可以得到数值9,这也就是3维张量的卷积操作,

Padding:1在左右都加上0,其中为了能更好的适应卷积的操作需要将图像的边缘一周全部加上0,为了尺寸的方便。 (3,5,3,3, 1,1 1,1)后面两个都是补0操作。

Bias:偏移量,每个卷积核都带有一个,b0[:,:,0]

?

特征是由深度网络学习出来的,而不是提取出来的

1.4 卷积后的激活函数

三种:ReLU LeakReLU ELU


?

1.5 Pooling操作

对应区域,按照规则,求最大,或者求平均如下图,为了调整尺寸,深度不减少,但是可以将H*W处理的尺寸降下来。

1.6 Batched Normalisation

将一组图像调整成0均值,调整偏移量offset

2 卷积网络设计

针对图像识别的卷及网络设计

2.1 tips

1, 尽量使用3x3尺寸的卷积核,甚至更小(2x2或者1x1), stride取1(除去第一层可以采用稍大尺寸的卷积核),后面的层次采取较密集的滑动

2, 使用Pooling(2x2)对网络进行1/4下采样

3, 采用多层次架构,采用残差结构实现更深的网络

2.2 Pattern设计

1, [CONV-RELU-POOL]xN+[FC一RELU]xM+SOFTMAX 卷积CONV, RELU的激活函数,降维到1/4,重复N,

2, [CONV-RELU一CONV-RELU一POOL]xN+[FC一RELU]xM+SOFTMAX 卷积两次降维一次,(注意最后一层FC,不采用ReLU激活函数)

输入图像 224*224*3

第一层

1,(3,3,3)一共有64个卷积核,1728个权重, 第一个3是深度,第二个3*3是卷积核的大小,输出224*224*64,(人工指定)会输出64张图。

2,输入224*224*64,之后深度变为64,参数:(3*3*64)36864个权重,因为有64个深度

3,poling3一次,将图片大小变为112*112*64 ,由3.2M变为800K

……

FC进行全连接

?

3 残差网络

3.1复杂网络结构的BP计算

1,核心:依然是链式规则

2,利用框架搭建网络

3,对自己实现的结构,严格用,数值计算验证

跑一边epoch

4, 卷积网络中的正则化

1,训练时,对图像增加随机噪声,

2,在257x257图像中,随机采样224x224的子图

3,图像采用随机左右镜像

4,在FC层之间使用Dropout技术,可以用用残差的网络

5,尝试BN,残差结构

(Waifu2X实验示例)

时间: 2024-08-06 00:42:25

七月算法--12月机器学习在线班-第十九次课笔记-深度学习--CNN的相关文章

七月算法-12月机器学习在线班--第十八次课笔记-条件随机场CRF

七月算法-12月机器学习在线班--第十八次课笔记-条件随机场CRF 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com 1,对数线性模型 一个事件的几率odds,是指该事件发生的概率与该事件不发生的概率的比值. 1.1对数线性模型的一般形式 令x为某样本,y是x的可能标记,将Logistic/ Softmax回归的特征 记做 特征函数的选择:eg: 自然语言处理 1, 特征函数几乎可任意选择,甚至特征函数间重叠: 2, 每个特征之和当前的词

七月算法-12月机器学习在线班--第十四次课笔记—EM算法

七月算法-12月机器学习在线班--第十四次课笔记-EM算法 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com ? EM Expection Maxium 期望最大化 1 引例 1000人,统计身高,1.75,1.62,1.94,有多少男女,每个身高对应的男女 ? 1.1 如何算?利用极大似然估计,估算均值和方差 上述结论和矩估计的结果是一致的, 即:样本的均值即高斯分布的均值,样本的伪方差即高斯分布的方差. 如果是高斯分布,就可以这么用本

七月算法--12月机器学习在线班-第十二次课笔记—支持向量机(SVM)

七月算法-12月机器学习在线班--第十二次课笔记-支持向量机(SVM) 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com ? 复习的内容: 对偶问题 KKT条件 ? SVM 1.1三类数据类型 线性可分支持向量机 线性支持向量机 非线性支持向量机 ? 1.2 线性分类 1.2.1 样本到分类面的距离的意义 点到直线的距离,ABC是归一化的."+"正类别,"-"负类别 因此距离可以直接用AX+BY+c=f(x,

七月算法-12月机器学习在线班--第十六次课笔记—采样和变分

七月算法-12月机器学习--第十六次课笔记—采样和变分 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com 第一部分 采样 引言 为什么要研究采样? 根据采样结果估算分布的参数,完成参数学习. 前提:模型已经存在,但参数未知: 方法:通过采样的方式,获得一定数量的样本,从而学习该系统的参数. 1 采样算法 现需要对概率密度函数f(x)的参数进行估计,若已知的某概率密度函数g(x)容易采样获得其样本,可以如何估计f(x)的参数? g(x)很容

七月算法-12月机器学习在线班--第十五次课笔记—主题模型

七月算法-12月机器学习--第十五次课笔记—主题模型 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com 复习的知识: 1.,Γ函数 是阶乘在实数上的推广,即实数的阶乘 2,Beta分布 Beta分布的概率密度: 其中系数B为: 两者的关系 1,朴素贝叶斯分析 朴素贝叶斯没有分析语意,无法解决语料中一词多义和多词一义的问题,更像是词法的分析,可以 一, 1个词可能被映射到多个主题中——一词多义 二,多个词可能被映射到某个主题的概率很高——多

七月算法--12月机器学习在线班-第三次课笔记—矩阵和线性代数

七月算法--12月机器学习在线班-第三次课笔记—矩阵和线性代数 七月算法(julyedu.com)12月机器学习在线班学习笔记 http://www.julyedu.com

七月算法--12月机器学习在线班-第五次课笔记—回归

七月算法--12月机器学习在线班-第五次课笔记—回归 七月算法(julyedu.com)12月机器学习在线班学习笔记 http://www.julyedu.com

七月算法--12月机器学习在线班-第一次课笔记—微积分与概率论

七月算法--12月机器学习在线班-第一次课笔记—微积分与概率论 七月算法(julyedu.com)12月机器学习在线班学习笔记 http://www.julyedu.com

七月算法--12月机器学习在线班-第六次课笔记—梯度下降和拟牛顿

七月算法--12月机器学习在线班-第六次课笔记—梯度下降和拟牛顿 七月算法(julyedu.com)12月机器学习在线班学习笔记 http://www.julyedu.com