TensorFlow基础知识

TensorFlow最初是由Google Brain 团队(隶属于Google的Al部门)中的研究人员和工程师开发的,可为机器学习和深度学习提供强力支持。

一、TensorFlow的基础概念

1.1 TensorFlow计算模型—计算图

TensorFlow是一个通过计算图的形式表述计算的编程系统,每一个计算都是计算图上的一个节点,节点之间的边描述了计算之间的关系。

TensorFlow = Tensor + Flow
Tensor张量
           数据结构:多维数组
Flow流
            计算模型:张量之间通过计算而转换的过程

TensorFlow有两种边:

  • 常规边(实线):代表数据依赖关系。一个节点的运算输出成为另一个节点的输入,两个节点之间有tensor流动(值传递)
  • 特殊边(虚线):不携带值,表示两个节点之间的控制相关性。比如,happens-before关系,源节点必须在目的节点执行前完成执行

1.2Tensor 张量

在TensorFlow中,所有的数据都通过张量的形式来表示

从功能的角度,张量可以简单理解为多维数组

  零阶张量表示标量(scalar),也就是一个数;
  一阶张量为向量(vector),也就是一维数组;
  n阶张量可以理解为一个n维数组;
张量并没有真正保存数字,它保存的是计算过程

  • 张量的属性

Tensor("Add:0",shape=(),dtype=float32)
名字(name)
  “node:src_output”:node节点名称,src_output来自节点的第几个输出
形状(shape)
  张量的维度信息,如:shape=()  表示是标量
类型(type)
  每一个张量会有一个唯一的类型
  TensorFlow会对参与运算的所有张量进行类型的检查,发现类型不匹配时会报错

  • 张量的类型

TensorFlow支持14种不同的类型
  实数 tf.float32,tf.float64

  整数tf.int8,tf.int16,tf.int32,tf.int64,tf.uint8

  布尔tf.bool

  复数 tf.complex64,tf.complex128
默认类型:
不带小数点的数会被默认为int32
带小数点的会被默认为float32

二、TensorFlow的基本运算

2.1Session会话

会话拥有并管理TensorFlow程序运行时的所有资源,当所有计算完成之后需要关闭会话帮助系统回收资源。

(1)会话的模式1

#定义计算图
tens1=tf.constant([1,2,3])
#创建一个会话
sess = tf.Session()
#使用这个创建好的会话来得到关心的运算的结果。比如可以调用sess.run(result)
#来得到张量result的收值
print(sess.run(tens1))
#关闭会话使得本次运行中使用到的资源可以被释放
sess.close()

(2)会话的模式2

node1=tf.constant(3.0,tf.float32,name="node1")
node3=tf.constant(4.0,tf.float32,name="node2")
result = tf.add(node1,node2)
#创建一个会话,并通过Python中的上下文管理器来管理这个会话
with tf.Session()as sess:
      #使用这创建好的会话来计算关心的结果
      print(sess.run(result))
#不需要调用 Session.close()函数来关闭会话
#当上下文退出时会话关闭和资源释放也自动完成了

(3)指定默认的会话

TensorFlow不会自动生成默认的会话,需要手动指定
当默认的会话被指定之后可以通过tf.Tensor.eval函数来计算一个张量的取值

node1= tf.constant(3.0,tf.float32,name="node1")
node2= tf.constant(4.0,tf.float32,name="node2")
result = tf.add(node1,node2)

sess= tf.Session()
with sess.as_default():
      print(result.eval())

2.2常量与变量

常量:在运行过程中值不会改变的单元,在TensorFlow中无须进行初始化操作

创建语句:
  constant_name = tf.constant(value)

变量:在运行过程中值会改变的单元,在TensorFlow中须进行初始化操作

创建语句:
  name_variable = tf.Variable(value,name)    #注意“V”是大写
个别变量初始化:
  init_op = name_variable.initializer()
所有变量初始化:
  init_op= tf.global_variables_initializer()

例程2.2

node1= tf.Variable(3.e,tf.float32,name="node1")
node2 = tf.Variable(4.e,tf.float32,name="node2")
result = tf.add(node1,node2,name=‘add‘)
sess = tf.Session()
#变量初始化
init = tf.global_variables_initializer()
sess.run(init)
print(sess.run((result))

2.3变量赋值

与传统编程语言不同,TensorFlow中的变量定义后,一般无需人工赋值,系统会根据算法模型,训练优化过程中自动调整变量对应的数值。如果对于某变量不想参与更新,需在定义时加上“trainable=False”,如:

  epoch =tf.Variable(0,name=‘epoch",trainable=False)
特殊情况需要人工更新的,可用变量赋值语句
变量更新语句:
  update_op=tf.assign(variable_to_be_updated,new_value)

例程2.3

#通过变量赋值输出1、2、3...10
import tensorflow as tf
value = tf.Variable(e,name="value")
one=tf.constant(1)
new_value = tf.add(value,one)
update_value = tf.assign(value,new_value)
init= tf.global_variables_initializer()
with tf.Session() as sess:
      sess.run(init)
      for _ in range(10):
              sess.run(update_value)
              print(sess.run(value))

2.4占位符

TensorFlow中的Variable变量类型,在定义时需要初始化,但有些变量定义时并不知道其数值,只有当真正开始运行程序时,才由外部输入,比如训练数据,这时候需要用到占位符。

tf.placeholder占位符,是TensorFlow中特有的一种数据结构,类似动态变量,函数的参数、或者C语言或者Python语言中格式化输出时的“%”占位符。

TensorFlow占位符Placeholder,先定义一种数据,其参数为数据的Type和Shape
占位符Placeholder的函数接口如下:
  tf.placeholder(dtype,shape=None,name=None)

如:x=tf.placeholder(tf.float32,[2,3],name=‘tx‘)  #此代码生成一个2x3的二维数纽,矩阵中每个元素的类型都是tf.fLoat32,内部对应的符号名称是tx

2.4.1Feed提交数据

如果构建了一个包含placeholder操作的计算图,当在session中调用run方法时,placeholder占用的变量必须通过feed_dict参数传递进去,否则报错。

例程2.4.1

import tensorflow as tf
a= tf.placeholder(tf.float32,name=‘a‘)
b=tf.placeholder(tf.float32,name=‘b‘)
c = tf.multiply(a,b,name=‘c‘)
init = tf.global_variables_initializer()
with tf.Session() as sess:
      sess.run(init)
      #通过feed_dict的参数传值,按字典格式
      result = sess.run(c, feed_dict={a:8.0, b:3.5})
      print(result)

#结果输出28.0

例程2.4.2 可以一次返回多个值分别赋给多个变量

import tensorflow as tf
a=tf.placeholder(tf.float32,name=‘a‘)
b= tf.placeholder(tf.float32,name=‘b‘)
c= tf.multiply(a,b,name=‘c‘)
d =tf.subtract(a,b,name=‘d‘)
init= tf.global_variables_initializer()
with tf.Session() as sess:
      sess.run(init)
      #返回的两个做分别赋给两个变量
      rc,rd=sess.run([c,d],feed_dict={a:[8.0,2.0,3.5],b:[1.5,2.0,4.]})
      print("value of c=",rc,"value of d=",rd)

#输出结果 value of c=[ 12.  4.  14.]value of d=[6.5  0.  -0.5]

三、TensorFlow可视化初步

TensorBoard是TensorFlow的可视化工具,原理是通过TensorFlow程序运行过程中输出的日志文件可视化TensorFlow程序的运行状态。另外,TensorBoard和TensorFlow程序跑在不同的进程中。

案例1:在TensorBoard中查看图结构

import tensorflow as tf
#清除default_graph和不断增加的节点
tf.reset_default_graph()
#Logdir改为自己电脑上的合适路径
logdir=‘D:/1og‘
#定义一个简单的计算图,实现向量加法的操作
input1 = tf.constant([1.0,2.0,3.0],name="input1")
input2= tf.Variable(tf.random_uniform([3]),name="input2")
output = tf.add_n([input1,input2],name="add")
#生成一个写日志的writer,并将当前的TensorFLow计算图写入日志。
writer = tf.summary.FileWriter(logdir,tf.get_default_graph())
writer.close()

程序运行后,会在指定目录下创建一个日志文件,接着需要启动TensorBoard查看。

在Anaconda Prompt中先进入日志存放的目录,再运行TensorBoard,并将日志的地址指向程序日志输出的地址
命令:tensorboard --logdir=/path/log

启动服务的端口默认为6006;使用一port参数可以改编启动服务的端口

回车后会出现一个网址,用浏览器打开,即可显示上述案例所生成的计算图。

原文地址:https://www.cnblogs.com/HuangYJ/p/11623507.html

时间: 2024-11-09 00:51:55

TensorFlow基础知识的相关文章

tensorflow笔记(一)之基础知识

tensorflow笔记(一)之基础知识 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7399701.html 前言 这篇notebook将一步步构建一个tensorflow的线性回归的例子,并讲述其中的一些基础知识.我会把notebook文件放在结尾的百度云链接. 首先第一步,要安装tensorflow,这个网上的教程很多,我安装的版本是ubuntu下1.2.1的tensorflow,推荐用pip(一步就好)这里附上一个

机器学习中的基础知识(入门上篇)

前面我们已经给大家讲述了很多有关机器学习的概念,这些概念都是十分重要的,我们如果要学习人工智能的话就需要重视这些知识.在这篇文章我们接着给大家介绍机器学习中的基础知识,希望这篇文章能够给大家带来帮助. (1)正则化就是对模型复杂度的惩罚.正则化帮助防止过拟合.正则化包括不同种类:L1 正则化.L2 正则化.dropout正则化. (2)正则化率就是一种标量级,用lambda来表示,指正则函数的相对重要性. (3)表征就是将数据映射到有用特征的过程. (4)根目录就是指定放置 TensorFlow

MySQL数据库基础知识

day02 MySQL数据库基础知识 一.基础知识概述: 基础决定你这门课程的学习成败!只有学习好这些基础知识以后,你才能真正的运用自如.才能够对数据库有更深入的了解,道路才会越走越远. 二.基础知识: 1.数据库(database):数据库就好比是一个物理的文档柜,一个容器,把我们整理好的数据表等等归纳起来. 创建数据库命令:        create database 数据库名; 2.查看数据库         show databases; 3.打开指定的数据库         use 

linux入门基础知识及简单命令介绍

linux入门基础知识介绍 1.计算机硬件组成介绍 计算机主要由cpu(运算器.控制器),内存,I/O,外部存储等构成. cpu主要是用来对二进制数据进行运算操作,它从内存中取出数据,然后进行相应的运算操作.不能从硬盘中直接取数据. 内存从外部存储中取出数据供cpu运存.内存的最小单位是字节(byte) 备注:由于32的cpu逻辑寻址能力最大为32内存单元.因此32位cpu可以访问的最大内存空间为:4GB,算法如下: 2^32=2^10*2^10*2^10*2^2 =1024*1024*1024

BroadcastReceive基础知识总结

BroadcastReceive基础知识总结 1.BroadcastReceive简介 BroadcastReceive也就是"广播接收者"的意思,顾名思义,就是用来接收来自系统和应用中的广播 在Android系统中,广播体现在方方面面,例如当开机完成后系统会产生一条广播,接收到这条广播就能实现开机启动服务的功能,当网络状态改变时,系统会产生一条广播,接收到这条广播,就能及时的做出提示和保存数据等操作,当电池的电量改变的时候,系统会产生一条广播,接收到这条广播就能在电量低的时候告知用户

基础知识--:before伪元素和:after伪元素

http://book.51cto.com/art/201108/285688.htm 3.7  替换指定位置 大家都知道before和after是前.后的意思.但是奇怪的是,CSS中的:before伪元素和:after伪元素是为源文档中不存在的内容设置样式的. 没有内容怎么设置样式呢?别急!它们有一个content属性,一起使用就可以为某个选择器前.后的内容设置样式了. 下面就来了解一下:before伪元素和:after伪元素的用法. 视频教学:光盘/视频/3/3.7  替换指定位置.avi 

20_Shell语言———VIM编辑器基础知识三之窗口属性定制、配置文件及查找替换功能

Vim编辑器可以让用户按照需求来定制一些使用属性. 一.窗口属性定义 1)显示行号 行号不是内容,只是用来帮助用户确认文本所在的行.在vim编辑器中,如果要显示行号,可以在末行模式下输入: set number 如果想关闭,则可以在功能名称前面加上no,即: set nonumber 命令可以被简写,如set number 可以简写为 set nu:set nonumber 可以简写为 set nonu. 注意,上述设定仅对当前vim的进程有效,一旦当前进程关闭,这些设定就会失效,如果要使设定永

web基础知识(一)关于ajax传值最基础东西

HTTP方法之 GET对比POST GET:从指定的资源请求数据, POST:向指定的资源提交要被处理的数据 GET方法: 请注意,查询字符串(名称/值对)是在 GET 请求的 URL 中发送的: /test/demo_form.asp?name1=value1&name2=value2 有关 GET 请求的其他一些注释: GET 请求可被缓存 GET 请求保留在浏览器历史记录中 GET 请求可被收藏为书签 GET 请求不应在处理敏感数据时使用 GET 请求有长度限制 GET 请求只应当用于取回

线程基础知识

什么是线程: 在一个程序里的一个执行路线就叫做线程(thread).更准确的定义是:线程是"一个进程内部的控制序列" 一切进程至少都有一个执行线程 进程与线程 进程是资源竞争的基本单位 线程是程序执行的最小单位 线程共享进程数据,但也拥有自己的一部分数据 线程ID 一组寄存器 栈 errno 信号状态 优先级 fork和创建新线程的区别 当一个进程执行一个fork调用的时候,会创建出进程的一个新拷贝,新进程将拥有它自己的变量和它自己的PID.这个新进程的运行时间是独立的,它在执行时几乎