TensorFlow(二):基本概念以及练习

一:基本概念

  • 1、使用图(graphs)来表示计算任务
  • 2、在被称之为会话(Session)的上下文(context)中执行图
  • 3、使用tensor表示数据
  • 4、通过变量(Variable)维护状态
  • 5、使用feed和fetch可以为任意的操作赋值或者从其中获取数据

TensorFlow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或多个tensor,执行计算,产生0个或多个tensor。tensor看做是一个n维的数组或列表。图必须在会话(Session)里被启动。

二:TensorFlow结构

三:简单练习

1、热身前技巧:

a、首先在桌面创建一个专门用来存放TensorFlow代码的文件夹,以后把全部和TensorFlow相关的代码存放在该文件夹下。

b、打开jupyter:首先打开系统终端(cmd):进入刚才创建的存放代码的文件夹(比如我的study_tensor)输入:cd C:\Users\felix\Desktop\study_tensor

进入后输入jupyter notebook

会再浏览器中打开jupyter notebook的编辑环境。(这样打开的话,默认jupyter的工作环境就是刚才创建的文件夹了)

新建工作环境。

如下图表示成功进入工作环境:

2、切入正题,撸代码

shift+enter  执行代码

tab  代码提示

shift+tab  详情提示

a、创建图和启动图

import tensorflow as tf

# 创建一个常量op
m1=tf.constant([[3,3]])
# 创建一个常量op
m2=tf.constant([[2],[3]])
# 创建一个矩阵乘法的op,把m1,m2传入
product=tf.matmul(m1,m2)
print(product) #直接打印并没有执行

# 定义一个会话,自动默认图
sess=tf.Session()
# 调用sess的run方法来执行矩阵乘法op
# run(product)触发图中3个op
result=sess.run(product)
print(result)
sess.close() # 关闭

# 将上一句简化
with tf.Session() as sess:
    # 调用sess的run方法来执行矩阵乘法op
    # run(product)触发图中3个op
    result=sess.run(product)
    print(result)

创建图,启动图

图中的每一个代码块都执行了。(按shift+enter执行)

b、变量

import tensorflow as tf

x=tf.Variable([1,2]) # 创建一个变量op
a=tf.constant([3,3]) # 创建一个常量op
# 增加一个减法op
sub=tf.subtract(x,a)
# 增加一个加法op
add=tf.add(x,sub)
# 初始化全部的变量,不初始化会出问题
init=tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)# 先进行变量的初始化
    print(sess.run(sub))
    print(sess.run(add))

state=tf.Variable(0,name=‘counter‘)# 初始化变量为0,可以给变量起名字
new_value=tf.add(state,1) # 创建一个op,作用是使state加1
update=tf.assign(state,new_value) # 将后面的值赋值给前面的值,赋值op
# 初始化全部的变量,不初始化会出问题
init=tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)# 先进行变量的初始化
    print(sess.run(state))
    for i in range(5):
        sess.run(update)
        print(sess.run(state))

变量

c、fetch和feed

import tensorflow as tf

# fetch 可以执行多个op
input1=tf.constant(3.0)
input2=tf.constant(2.0)
input3=tf.constant(5.0)

add=tf.add(input2,input3)
mul=tf.multiply(input1,add) # 乘法op

with tf.Session() as sess:
    result=sess.run([mul,add]) # 同时运行多个op,就是fetch
    print(result)

# feed 以字典的形式传入值
input1=tf.placeholder(tf.float32) # 创建一个占位符,具体的值可以在运行的时候传入
input2=tf.placeholder(tf.float32) # 创建一个占位符
output=tf.multiply(input1,input2)

with tf.Session() as sess:
    # feed的数据以字典的形式传入
    result=sess.run(output,feed_dict={input1:[7.0],input2:[2.0]})
    print(result)

fetch和feed

d、简单示例-优化线性模型,使模型接近样本

import tensorflow as tf
import numpy as np  # pip3 install numpy安装

# 使用numpy生成100个随机点
# 样本
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2 # 直线  标准直线

# 构造一个线性模型
b=tf.Variable(0.0)
k=tf.Variable(0.0)
y=k*x_data+b

# 使用TensorFlow优化k 和 b 来优化线性模型,使其接近样本

# 二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y)) # reduce_mean求平均值,tf.square计算平方
# 定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2) # 0.2为学习率,梯度下降的优化器
# 最小化代价函数
train=optimizer.minimize(loss)

# 初始化变量
init=tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)# 初始化
    for step in range(201):# 进行迭代
        sess.run(train)
        if step%20==0: # 每20次输出一次结果
            print(step,sess.run([k,b]))

# 发现结构k值越来越接近0.1,b值越来越接近0.2

简单示例 优化线性模型

原文地址:https://www.cnblogs.com/felixwang2/p/8666266.html

时间: 2024-11-09 05:27:39

TensorFlow(二):基本概念以及练习的相关文章

tensorflow二次开发

编译 方法1: 1 2 3 4 5 6 7 ./configure bazel build --config=opt //tensorflow/tools/pip_package:build_pip_package build出错清理: /root/.cache/bazel 把下面的之前出错的缓存文件给删除掉 生成whell包 bazel-bin/tensorflow/tools/pip_package/build_pip_package /root/tensorflow/wheel_pkg/b

实时计算Samza中文教程(二)——概念

希望上一篇背景篇让大家对流式计算有了宏观的认识,本篇根据官网是介绍概念,先让我们看看有哪些东西呢? 概念一:Streams Samza是处理流的.流则是由一系列不可变的一种相似类型的消息组成.举个例子,一个流可能是在一个网站上的所有点击,或者更新到一个特定数据库表的更新操作,或者是被一个服务或者事件数据生成所有日志信息.消息能够被加到另一个流之后或者从一个流中读取.一个流能有多个消费者,并且从一个流中读取不会删除消息(使得小心能够被广播给所有消费者).另外消息可以有一个关联的key用来做分区,这

2016 - 2 - 20 ARC知识总结(二 autorelease概念及实现)

首先祝自己生日快乐~23咯~ 一  autorelease的概念 autorelease会像C语言的自动变量那样来对待对象实例.当超出作用域(相当于变量作用域)时,对象的实例release实力方法被调用. 另外,同C语言的自动变量不同的是,编程人员可以自己设置变量的作用域,即通过autoreleasepool来实现 . 调用对象的autorelease方法,其实就是将对象就近放入一个NSAutoreleasePool中,该对象的生存周期相当于C语言变量的作用域.对于所有调用了autoreleas

从零开始学JavaScript二(基本概念)

基本概念 一.区分大小写 在ECMAScript中的一切(变量.函数名.操作符)都是区分大小写的. 如变量名test和Test分别表示两个不同的变量, 二.标识符 所谓标识符,就是指变量.函数.属性的名字,或者函数的参数.标识符按照下列格式规则组合起来的一或者多个字符: 第一个字符必须为一个字母.下划线(_).或者一个美元符号($); 其它字符可以是字母.下划线.美元符号或数字. ECMAScript标识符采用驼峰大小写格式,也就是第一个字母小写,剩下的每个单词的首字母大写,例如:firstSe

PowerDesigner教程系列(二)概念数据模型

目标:本文主要介绍PowerDesigner概念数据模型以及实体.属性创建.一.新建概念数据模型1)选择File-->New,弹出如图所示对话框,选择CDM模型(即概念数据模型)建立模型. 2)完成概念数据模型的创建.以下图示,对当前的工作空间进行简单介绍.(以后再更详细说明) 3)选择新增的CDM模型,右击,在弹出的菜单中选择“Properties”属性项,弹出如图所示对话框.在“General”标签里可以输入所建模型的名称.代码.描述.创建者.版本以及默认的图表等等信息.在“Notes”标签

Twitter Storm学习之二-基本概念介绍

2.1 Storm基本概念 在运行一个Storm任务之前,需要了解一些概念: Topologies Streams Spouts Bolts Stream groupings Reliability Tasks Workers Configuration Storm集群和Hadoop集群表面上看很类似.但是Hadoop上运行的是MapReduce jobs,而在Storm上运行的是拓扑(topology),这两者之间是非常不一样的.一个关键的区别是: 一个MapReduce job最终会结束,

Hello TensorFlow 二 (GPU)

官方说明:https://www.tensorflow.org/install/ 环境: 操作系统 :Windows 10 家庭中文版 处理器 : Intel(R) Core(TM) i7-7700 CPU @3.6GHZ 3.60GHZ 内存 :16GB 显卡:NVIDIA GeForce GTX 1060 6GB Python:3.6.2 安装GPU版 pip3 install --upgrade tensorflow-gpu 安装 NVIDIA CUDA? Toolkit 8.0. 下载地

delphi 基础之二 面向对象概念初步

面向对象概念初步 1.类的定义 类的定义分两步:首先在类(单元)的接口(interface)部分说明这个方法.然后在实现部分(implementation)部分编写方法的实现代码. 定义: type 类名=class(父类名) 数据域说明;      //类内部使用变量/常量的声明; 方法说明首部; end; 实现代码: procedure 类名.方法(参数); 实现代码; end; 2.创建对象及对象成员的引用 创建对象分两步: 首先声明对象,语法格式为 var 类名;//此时对象名还只是个指

JVM调优总结(二) 一些概念

Java对象的大小 基本数据的类型的大小是固定的,这里就不多说了.对于非基本类型的Java对象,其大小就值得商榷. 在Java中,一个空Object对象的大小是8byte,这个大小只是保存堆中一个没有任何属性的对象的大小.看下面语句: Object ob = new Object(); 这样在程序中完成了一个Java对象的生命,但是它所占的空间为:4byte+8byte.4byte是上面部分所说的Java栈中保存引用的所需要的空间.而那8byte则是Java堆中对象的信息.因为所有的Java非基