TensorFlow(3)CNN中的函数

tf.nn.conv2d()函数

参数介绍:

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

  • input:输入参数,具有这样的shape[batch, in_height, in_width, in_channels],分别是[batch张图片, 每张图片高度为in_height, 每张图片宽度为in_width, 图像通道为in_channels].
  • filter:滤波器,滤波器的shape为[filter_height, filter_width, in_channels, out_channels],分别对应[滤波器高度, 滤波器宽度, 接受图像的通道数, 卷积后通道数],其中第三个参数 in_channels需要与input中的第四个参数 in_channels一致.
  • strides:代表步长,其值可以直接默认一个数,也可以是一个四维数如[1,2,1,1],则其意思是水平方向卷积步长为第二个参数2,垂直方向步长为1.
  • padding:代表填充方式,参数只有两种,SAME和VALID,SAME比VALID的填充方式多了一列,比如一个3*3图像用2*2的滤波器进行卷积,当步长设为2的时候,会缺少一列,则进行第二次卷积的时候,VALID发现余下的窗口不足2*2会直接把第三列去掉,SAME则会填充一列,填充值为0.
  • use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true.
  • name:给返回的tensor命名。给输出feature map起名字.

例子:

一张3*3的图片,元素如下:

* * *
0 3 6
1 4 7
2 5 8

卷积核为1个2*2的卷积,如下:

* *
0 2
1 3

TensorFlow代码(padding为SAME):

import tensorflow as tf
import numpy as np

g = tf.Graph()
with g.as_default() as g:
    input = tf.Variable(np.array(range(9), dtype=np.float32).reshape(1,3,3,1))
    filter = tf.Variable(np.array(range(4), dtype=np.float32).reshape(2,2,1,1))
    op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding=‘SAME‘)

with tf.Session(graph=g) as sess:
    sess.run(tf.global_variables_initializer())
    a,b,c = sess.run([input, filter, op])
    print(a)
    print(b)
    print(c)

输出:

[[[[ 0.]
   [ 1.]
   [ 2.]]

  [[ 3.]
   [ 4.]
   [ 5.]]

  [[ 6.]
   [ 7.]
   [ 8.]]]]
[[[[ 0.]]

  [[ 1.]]]

 [[[ 2.]]

  [[ 3.]]]]
[[[[ 19.]
   [ 25.]
   [ 10.]]

  [[ 37.]
   [ 43.]
   [ 16.]]

  [[  7.]
   [  8.]
   [  0.]]]]

即卷积后的结果为:

* * *
19 37 7
25 43 8
10 16 0

如果padding为VALID,则输出如下:

[[[[ 0.]
   [ 1.]
   [ 2.]]

  [[ 3.]
   [ 4.]
   [ 5.]]

  [[ 6.]
   [ 7.]
   [ 8.]]]]
[[[[ 0.]]

  [[ 1.]]]

 [[[ 2.]]

  [[ 3.]]]]
[[[[ 19.]
   [ 25.]]

  [[ 37.]
   [ 43.]]]]

即卷积后的结果为:

* *
19 37
25 43

tf.nn.max_pool()函数

tf.nn.max_pool(value, ksize, strides, padding, name=None)

参数是四个,和卷积函数很类似:

  • value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape.
  • ksize:池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在batch和channels上做池化,所以这两个维度设为了1.
  • strides:和卷积类似,窗口在每一个维度上滑动的步长,一般也是[1, stride,stride, 1].
  • padding:和卷积类似,可以取‘VALID‘ 或者‘SAME‘.

返回一个Tensor,类型不变,shape仍然是[batch, height, width, channels]这种形式.

TensorFlow代码:

import tensorflow as tf
import numpy as np

g = tf.Graph()
with g.as_default() as g:
    input = tf.Variable(np.array(range(9), dtype=np.float32).reshape(1,3,3,1))
    filter = tf.Variable(np.array(range(4), dtype=np.float32).reshape(2,2,1,1))
    op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding=‘SAME‘)
    pool = tf.nn.max_pool(op, [1,2,2,1], [1,1,1,1], padding=‘SAME‘)

with tf.Session(graph=g) as sess:
    sess.run(tf.global_variables_initializer())
    PL = sess.run(pool)
    print(PL)

输出:

[[[[ 43.]
   [ 43.]
   [ 16.]]

  [[ 43.]
   [ 43.]
   [ 16.]]

  [[  8.]
   [  8.]
   [  0.]]]]
* * *
43 43 8
43 43 8
16 16 0

tf.nn.avg_pool()

计算方法: 计算非padding的元素的平均值

例子:

import tensorflow as tf
import numpy as np

g = tf.Graph()
with g.as_default() as g:
    input = tf.Variable(np.array(range(9), dtype=np.float32).reshape(1,3,3,1))
    filter = tf.Variable(np.array(range(4), dtype=np.float32).reshape(2,2,1,1))
    op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding=‘SAME‘)
    pool = tf.nn.avg_pool(op, [1,2,2,1], [1,1,1,1], padding=‘SAME‘)

with tf.Session(graph=g) as sess:
    sess.run(tf.global_variables_initializer())
    PL = sess.run(pool)
    print(PL)

输出为:

[[[[31.  ]
   [23.5 ]
   [13.  ]]

  [[23.75]
   [16.75]
   [ 8.  ]]

  [[ 7.5 ]
   [ 4.  ]
   [ 0.  ]]]]
* * *
31 23.75 7.5
23.5 16.75 4.
13. 8. 0.

tf.nn.dropout()

tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None)

  • x:输入参数
  • keep_prob:保留比例。 取值 (0,1] 。每一个参数都将按这个比例随机变更
  • noise_shape:干扰形状。 此字段默认是None,表示第一个元素的操作都是独立,但是也不一定。比例:数据的形状是shape(x)=[k, l, m, n],而noise_shape=[k, 1, 1, n],则第1和4列是独立保留或删除,第2和3列是要么全部保留,要么全部删除。
  • seed:随机数种子
  • name: 命名空间

tensorflow中的dropout就是:shape不变,使输入tensor中某些元素按照一定的概率变为0,其它没变0的元素变为原来的1/keep_prob.

dropout层的作用: 防止神经网络的过拟合

例子:

import tensorflow as tf

g = tf.Graph()
with g.as_default() as g:
    mat = tf.Variable(tf.ones([10,10]))
    dropout_mat = tf.nn.dropout(mat, keep_prob=0.5)

with tf.Session(graph=g) as sess:
    sess.run(tf.global_variables_initializer())
    output, dropout = sess.run([mat, dropout_mat])
    print(output)
    print(dropout)

输出:

[[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]]
[[2. 0. 0. 0. 2. 0. 2. 2. 0. 2.]
 [0. 2. 0. 0. 2. 2. 0. 0. 0. 0.]
 [2. 2. 2. 0. 0. 2. 0. 2. 0. 0.]
 [2. 0. 0. 0. 2. 2. 2. 0. 2. 0.]
 [0. 2. 2. 0. 2. 2. 2. 2. 0. 2.]
 [2. 0. 0. 0. 2. 0. 0. 2. 0. 2.]
 [2. 2. 0. 2. 2. 0. 0. 0. 2. 2.]
 [2. 0. 0. 0. 0. 2. 0. 2. 0. 0.]
 [2. 2. 0. 0. 0. 0. 0. 2. 0. 0.]
 [2. 0. 2. 2. 2. 2. 0. 2. 0. 0.]]

tf.reshape()

shape里最多有一个维度的值可以填写为-1,表示自动计算此维度

原文地址:https://www.cnblogs.com/jclian91/p/9520233.html

时间: 2024-10-31 02:32:25

TensorFlow(3)CNN中的函数的相关文章

CNN中的卷积核及TensorFlow中卷积的各种实现

声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了"应该"二字 首先,通俗说一下,CNN的存在是为了解决两个主要问题: 1. 权值太多.这个随便一篇博文都能解释 2. 语义理解.全连接网络结构处理每一个像素时,其相邻像素与距离很远的像素无差别对待,并没有考虑图像内容的空间结构.换句话说,打乱图像像素的输入顺序,结果不变. 然后,CNN中的卷积核的一个重要特点是它是需要网络自己来学习的.这一点很简

CNN中的卷积理解和实例

卷积操作是使用一个二维卷积核在在批处理的图片中进行扫描,具体的操作是在每一张图片上采用合适的窗口大小在图片的每一个通道上进行扫描. 权衡因素:在不同的通道和不同的卷积核之间进行权衡 在tensorflow中的函数为例: conv2d: 任意的卷积核,能同时在不同的通道上面进行卷积操作. 卷积核的卷积过程是按照 strides 参数来确定的,比如 strides = [1, 1, 1, 1] 表示卷积核对每个像素点进行卷积,即在二维屏幕上面,两个轴方向的步长都是1.strides = [1, 2,

基于tensorflow的CNN卷积神经网络对Fasion-MNIST数据集的分类器

写一个基于tensorflow的cnn,分类fasion-MNIST数据集 这个就是fasion-mnist数据集了 先上代码,在分析: import tensorflow as tf import pandas as pd import numpy as np config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.3 train_data = pd.read_csv('test.csv'

使用tensorflow实现机器学习中的线性拟合

使用tensorflow实现机器学习中的线性拟合这个例子是模拟的单变量线性回归,通过提高单变量的阶数来增加特征数量,例如:4阶相当于分解为四个特征这种思想同样适用于多变量线性回归 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt plt.rcParams['font.sans-serif']=['FangSong'] # 用来正常显示中文标签 plt.rcParams['axes.unicode_

C++中的函数对象(一)

STL中的函数对象,大多数STL类属算法(以及某些容器类)可以以一个函数对象作为参数.引入函数对象的目的是为了使算法的功能富于变化,从而增强算法的通用性. 所谓函数对象,是指一段代码实体,它可以不带参数,也可以带有若干参数,其功能是获得一个值,或者改变操作的状态.在C++编程中,任何普通的函数都满足这个定义,而且,任何一个重载了运算符operator()的类的对象也都满足这一定义,称为函数对象. 普通函数 int multfun(int x, int y) { return x*y; } 或者下

Oracle 中 decode 函数用法

Oracle 中 decode 函数用法 含义解释:decode(条件,值1,返回值1,值2,返回值2,...值n,返回值n,缺省值) 该函数的含义如下:IF 条件=值1 THEN RETURN(翻译值1)ELSIF 条件=值2 THEN RETURN(翻译值2) ......ELSIF 条件=值n THEN RETURN(翻译值n)ELSE RETURN(缺省值)END IFdecode(字段或字段的运算,值1,值2,值3) 这个函数运行的结果是,当字段或字段的运算的值等于值1时,该函数返回值

js中一些函数(一)【丫头, 今天去哪儿了呢,好些没有】

Math.Rondom()   ==>  0 到 1 之间的小数 Math.floor(x)  ==>  小于或者等于 x 的整数(即转换成整数后是不能比 x 大的整数) setInterval(hanshu,1000)  ==>  意思为调用下面的 hanshu(), 间隔时间为 1000 ms(毫秒) js中一些函数(一)[丫头, 今天去哪儿了呢,好些没有],码迷,mamicode.com

Mysql中的函数

阅读目录 什么是函数 与存储过程的区别 mysql自带函数 自定义函数 什么是函数 mysql中的函数与存储过程类似,都是一组SQL集: 与存储过程的区别 函数可以return值,存储过程不能直接return,但是有输出参数可以输出多个返回值: 函数可以嵌入到sql语句中使用,而存储过程不能: 函数一般用于实现较简单的有针对性的功能(如求绝对值.返回当前时间等),存储过程用于实现复杂的功能(如复杂的业务逻辑功能): mysql自带函数 mysql本身已经实现了一些常见的函数,如数学函数.字符串函

javascript中所有函数的参数都是按值传递的

[javascript中所有函数的参数都是按值传递的] 参考:http://www.jb51.net/article/89297.htm