TensorFlow 基本概念

一、概述

  • 使用图(graph)来表示计算任务
  • 在会话(Session)的上下文(context)中执行图(graph)
  • 使用tensor表示数据
  • 通过 变量(Variable)维护状态
  • 使用 feed 和fetch可为任意的操作(arbitrary opertaion)赋值或者从其中获取数据;    

  TensorFlow使用图来表示计算任务,图中的节点被称之为op(operation的缩写),一个op获得N个Tensor,执行计算,产生N个Tensor。每个Tensor是一个类型化的多维数组。

 例如,可以将一小组图像集表示为一个四维浮点数数组,这个四个维度分别是 [ batch, height, width, channels ]。

  一个TensorFlow 图 描述了计算的过程,为了进行计算,图必须在 会话 里被启动,会话 将图的 op 分发到诸如 cpu 或者 GPU 之类的设备上, 同时提供执行 op 的方法。 这些方法执行后,将产生的 tensor 返回, 在python 语言中,返回的 tensor 是 numpy ndarray 对象;在c/c++ 中,返回的tensor 是tensorflow::Tensor 实例。

二、计算图

  TensorFlow 程序通常被组织成一个构建阶段和一个执行阶段:

    构建阶段: op的执行步骤 被描述成一个图

    执行阶段: 使用会话执行图中的 op

  例如, 通常在构建 阶段创建一个图来 表示和训练 神经网络, 然后在执行阶段反复执行图中的训练 op;

  TensorFlow 支持 C, C++, Python 编程语言,目前, TensorFlow 的python库更加易用, 她提供了大量的辅助函数来简化 构建图的工作,这些函数还未被c/c++库支持;

三、构件图

  构建图的第一步,是创建源op(source.op). 源op不需要任何输入, 例如 常量(Constant). 源op的输出被传递给其他  op 做运算;

  python 库中, op构造器的 返回值代表被构建出的 op 的输出, 这些返回值可以传递给其他 op 构造器作为输入。

  TensorFlow python 库有一个默认图(default graph), op 构造器可以为其增加节点, 这个默认图 对很多 程序来说以及足够用了:

 1 import tensorflow as tf
 2
 3 #构建阶段开始
 4 #创建一个产量op, 产生一个 1*2 矩阵。这个 op 被作为一个节点
 5 #添加到默认图中
 6
 7 #构造器的返回值代表该常量 op 的返回值
 8 matrix1 = tf.constant([[3., 3.]])
 9
10 #创建另外一个常量 op,产生一个 2 * 1 矩阵
11 matrix2 = tf.constant([[2.], [2.]])
12
13 #创建一个矩阵乘法 matmul op, 把 matrix1 和 matrix2 作为输入
14 #返回值 ‘product‘ 代表矩阵乘法的结果
15
16 product = tf.matmul(matrix1, matrix2)
17
18 #默认图现在有三个节点, 两个constant() op,和一个matmul() op.为了真正进行矩阵相乘运算,并得到矩阵乘法的结果,
19
20
21 #=================构造阶段完成===============
22
23 #=================执行阶段开始===============
24
25 #启动默认图
26 sess = tf.Session()
27
28 #调用 sess 的 ‘run()‘ 方法来执行矩阵乘法 op, 传入 ‘product‘ 作为该方法的参数.
29 #‘product‘ 代表了矩阵乘法 op 的输出, 传入它是向方法表明, 我们希望取回 矩阵乘法 op 的输出.
30
31 #整个执行过程是自动化的, 会话负责传递 op 所需的全部输入. op 通常是并发执行的.
32
33 # 函数调用 ‘run(product)‘ 触发了图中三个 op (两个常量 op 和一个矩阵乘法 op) 的执行.
34
35 # 返回值 ‘result‘ 是一个 numpy `ndarray` 对象.
36
37 result = sess.run(product)
38 print result
39
40 #任务完成, 关闭会话
41 sess.close()
42
43 ‘‘‘
44 with tf.Session() as sess:
45     result = sess.run(product)
46     print result
47 ‘‘‘
48
49 #=================执行阶段完成===============

四、Tensor

  TensorFlow程序使用 tensor 数据结构来表示所有的数据, 计算图中,操作间传递的数据都是 tensor。

 可以把TensorFlow tensor 看作一个 n 维的数组或列表, 一个tensor包含一个静态类型 rank, 和一个 shape。 详细了解Rank、 Shape 和Type

1、变量

    变量维护图执行过程中的状态信息, 下面示例演示了如何使用变量实现一个简单的计算器;

 1 #encoding=utf-8
 2
 3 import tensorflow as tf
 4
 5 #创建一个变量,初始化为标量0
 6 state = tf.Variable(0, name="counter")
 7
 8 #创建一个op,其作用是使 state 增加 1
 9 one = tf.constant(1)
10
11 new_value = tf.add(state, one)
12
13 update = tf.assign(state, new_value)
14
15 #启动图后,变量必须先经过 "初始化" (init) op初始化
16 #首先必须增加一个 "初始化" op 到图中
17 init_op = tf.initialize_all_variables()
18
19 #启动图, 运行op
20 with tf.Session() as sess:
21     #运行 init op
22     sess.run(init_op)
23     #打印 ‘state‘ 的初始值
24     print sess.run(state)
25     print "======="
26     #运行op,更新 state,并打印 state
27     for _ in range(3):
28         sess.run(update)
29         print sess.run(state)
30
31 #代码中 assign() 操作是图所描绘的表达式的一部分,
32 #正如 add() 操作一样. 所以在调用 run() 执行表达式之前, 它并不会真正执行赋值操作.
33
34 #通常 需要将一个统计模型中的参数表示为一组变量。
35 # 例如,将一个神经网络的权重作为某个变量存储在一个 tensor 中,在训练过程中,
36 #通过重复运行训练图, 更新这个tensor

  2、 Fetch(提取)

    为了取回操作的输出内容, 可以在使用Session 对象的 run() 调用 执行图时,传入一些 tensor, 这些tensor 会帮助取回结果。 在之前的例子中, 我们只取回了 单个节点 state, 但是也可以取回多个 tensor:

 1 #encoding=utf-8
 2
 3 import tensorflow as tf
 4
 5 input1 = tf.constant(3.0)
 6 input2 = tf.constant(2.0)
 7 input3 = tf.constant(5.0)
 8
 9 intermed = tf.add(input2, input3)
10
11 mul = tf.mul(input1, intermed)
12
13 with tf.Session() as sess:
14     result = sess.run([mul, intermed])
15     print result

  3、Feed

    在计算图中引入了 tensor, 以常量或变量的形式存储. TensorFlow 还提供了 feed 机制, 该机制 可以临时替代图中的任意操作中的 tensor 可以对图中任何操作提交补丁, 直接插入一个 tensor;

    feed 使用一个 tensor 值临时替换一个操作的输出结果. 你可以提供 feed 数据作为 run() 调用的参数. feed 只在调用它的方法内有效, 方法结束, feed 就会消失. 最常见的用例是将某些特殊的操作指定为 "feed" 操作, 标记的方法是使用 tf.placeholder() 为这些操作创建占位符.

 1 #encoding=utf-8
 2
 3 import tensorflow as tf
 4
 5 input1 = tf.placeholder(tf.float32)
 6 input2 = tf.placeholder(tf.float32)
 7 output = tf.mul(input1, input2)
 8
 9 with tf.Session() as sess:
10     print sess.run([output], feed_dict={input1:[7.], input2:[2.]})
时间: 2024-11-08 23:01:36

TensorFlow 基本概念的相关文章

深度学习框架之TensorFlow的概念及安装(ubuntu下基于pip的安装,IDE为Pycharm)

2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源. 1.TensorFlow的概念 TensorFlow 是使用数据流图进行数值计算的开源软件库.也就是说,TensorFlow 使用图(graph)来表示计算任务.图中的节点表示数学运算,边表示运算之间用来交流的多维数组(也就是tensor,张量).TensorFlow 灵活的架构使得你可以将计算过程部署到一个或多个CPU或GPU上. TensorFlow 最初是由 Google Brain Team 的研究人员和

TensorFlow核心概念及基本使用

TensorFlow核心概念 综述:TensorFlow中的计算可以表示为一个有向图,或称计算图,其中每一个运算操作将作为一个节点,节点间的链接叫做边.这个计算图描述了数据的计算流程,它也负责维护和更新状态,用户可以对计算图的分支进行条件控制和循环操作.计算图中的每一个节点可以有任意多个输入和输出,每一个节点描述了一种运算操作,节点可以算是运算操作的实例化.在计算图的边中流动的的数据被称为张量. 1.计算图 TensorFlow是一个通过计算图的形式来表述计算的编程系统.每一个计算都是计算图的一

tensorflow核心概念之op

TF中的op代表了对"操作"的抽象,说它抽象是因为,op仅仅说明了操作是做什么用的,但没有说明具体怎么做.举个例子,MatMul是一个操作,它表示了矩阵乘法,但并不包含矩阵乘法的具体实现,因为我们知道,在CPU和GPU上,矩阵乘法的高效率实现是完全不同的.为了把不同设备上的实现细节隐藏起来,为相同的计算提供统一的对外表示,TF提出了op的概念. 为了方便序列化,TF中很多核心概念定义在proto文件中,操作的定义OpDef放在op.proto(/tensorflow/core/fram

TensorFlow 基础概念

(未完待续) 1Session 我们先定义要执行的结构: matrix1 = tf.constant([3,3]) matrix2 = tf.constant([[2],[2]]) product = tf.matmul(matrix1,matrix2) session使用方法1 sess = tf.Session() result = sess.run(product) print(result) sess.close() session使用方法2 with tf.Session as ses

tensorflow.一些概念01

1.平方差(a+b)(a-b) = a² - b² 2.均方差 方差 3.交叉熵 均方差 交叉熵 方差 4. 5. 6.资料: A.方差,平方差,标准差的公式是什么?_百度知道.html(https://zhidao.baidu.com/question/688221660902304484.html) 方差是各个数据与平均数之差的平方的和的平均数,公式为: s² = 1/n * [(x? - x)² + (x? - x)² + ... + (x? - x)² ] 其中,x表示样本的平均数,n表

Tensorflow学习:基本概念

一.Tensorflow基本概念 1.使用图(graphs)来表示计算任务 2.在被称之为会话(Session)的上下文(context)中执行图 3.使用tensor表示数据 4.通过变量(Variable)维护状态 5.使用feed和fetch可以为任意的操作赋值或者从其中获取数据 Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或者多个Tensor,执行计算,产生0个或多个Tensor,T

机器学习与Tensorflow(1)——机器学习基本概念、tensorflow实现简单线性回归

一.机器学习基本概念 1.训练集和测试集 训练集(training set/data)/训练样例(training examples): 用来进行训练,也就是产生模型或者算法的数据集 测试集(testing set/data)/测试样例 (testing examples):用来专门进行测试已经学习好的模型或者算法的数据集 2.特征向量 特征向量(features/feature vector):属性的集合,通常用一个向量来表示,附属于一个实例 3.分类问题和回归问题 分类 (classific

(转)一文学会用 Tensorflow 搭建神经网络

一文学会用 Tensorflow 搭建神经网络 本文转自:http://www.jianshu.com/p/e112012a4b2d 字数2259 阅读3168 评论8 喜欢11 cs224d-Day 6: 快速入门 Tensorflow 本文是学习这个视频课程系列的笔记,课程链接是 youtube 上的,讲的很好,浅显易懂,入门首选, 而且在github有代码,想看视频的也可以去他的优酷里的频道找. Tensorflow 官网 神经网络是一种数学模型,是存在于计算机的神经系统,由大量的神经元相

任何人都能看懂的TensorFlow介绍

本文经机器之心(微信公众号:almosthuman2014)授权转载,禁止二次转载 原文链接:任何人都能看懂的TensorFlow介绍 深度 | 机器学习敲门砖:任何人都能看懂的TensorFlow介绍 2016-08-21 机器之心 选自 kdnuggets 作者:Soon Hin Khor 机器之心编译 参与:Rick.吴攀.李亚洲 本文是日本东京 TensorFlow 聚会联合组织者 Hin Khor 所写的 TensorFlow 系列介绍文章的前两部分,自称给出了关于 TensorFlo