tensorflow-数据流图汇总及运行次数(tf.summary)


#!/usr/bin/env python2
# -*- coding: utf-8 -*-
"""
Created on Thu Sep 6 10:16:37 2018
@author: myhaspl
@email:[email protected]
"""

import tensorflow as tf
g1=tf.Graph()

with g1.as_default():
my_var=tf.Variable(1,dtype=tf.float32)
my_step=tf.Variable(1,dtype=tf.int32)
varop=tf.assign_add(my_var,tf.pow(my_var,2))
stepop=tf.assign_add(my_step,1)
init=tf.initialize_all_variables()
addop=tf.group([varop,stepop])

with tf.Session(graph=g1) as sess:
sess.run(init)
print sess.run([my_step,my_var])
sess.run(addop)
print sess.run([my_step,my_var])
sess.run(addop)
print sess.run([my_step,my_var])
sess.run(addop)
print sess.run([my_step,my_var])

[1, 1.0]
[2, 2.0]
[3, 6.0]
[4, 42.0]

#!/usr/bin/env python2
# -*- coding: utf-8 -*-
"""
Created on Thu Sep  6 10:16:37 2018
@author: myhaspl
@email:[email protected]
"""

import tensorflow as tf
g1=tf.Graph()

with g1.as_default():
    with tf.name_scope("input_Variable"):
        my_var=tf.Variable(1,dtype=tf.float32)
    with tf.name_scope("global_step"):
        my_step=tf.Variable(0,dtype=tf.int32)
    with tf.name_scope("update"):
        varop=tf.assign_add(my_var,tf.pow(my_var,2))
        stepop=tf.assign_add(my_step,1)
        addop=tf.group([varop,stepop])
    with tf.name_scope("summaries"):
        tf.summary.scalar(‘myvar‘,my_var)
    with tf.name_scope("global_ops"):
        init=tf.global_variables_initializer()
        merged_summaries=tf.summary.merge_all()

with tf.Session(graph=g1) as sess:
    writer=tf.summary.FileWriter(‘sum_vars‘,sess.graph)
    sess.run(init)
    #---0
    step,var,summary=sess.run([my_step,my_var,merged_summaries])
    writer.add_summary(summary,global_step=step)
    print step,var
    #---1
    sess.run(addop)
    step,var,summary=sess.run([my_step,my_var,merged_summaries])
    writer.add_summary(summary,global_step=step)
    print step,var
    #--2
    sess.run(addop)
    step,var,summary=sess.run([my_step,my_var,merged_summaries])
    writer.add_summary(summary,global_step=step)
    print step,var
    #--3
    sess.run(addop)
    step,var,summary=sess.run([my_step,my_var,merged_summaries])
    writer.add_summary(summary,global_step=step)
    print step,var  

    writer.flush()
    writer.close()

0 1.0
1 2.0
2 6.0
3 42.0

原文地址:http://blog.51cto.com/13959448/2322798

时间: 2024-11-07 00:12:48

tensorflow-数据流图汇总及运行次数(tf.summary)的相关文章

tensorboard在windows系统浏览器显示空白的解决writer =tf.summary.FileWriter("logs/", sess.graph)

writer =tf.summary.FileWriter("logs/", sess.graph) >tensorboard --logdir=D://logs http://localhost:6006/

Jmeter 线程组、运行次数参数化(转)Jpara1=4 -Jpara2=5

Jmeter的jmx文件保存了线程数和运行次数等参数,这个参数可以在命令行中传入参数的方式来修改数值 步骤如下 1.生成线程和运行次数的参数 Jmeter选项中函数助手对话框,选中__P参数,这个参数是设置jmeter的属性值的,属性名称设置为para1  默认值设置为2,点击生成,就生成一个字符串,把这个字符串拷贝的线程数里面如下图,同样的方法设置para2,作为运行次数参数 2.保存jmx 文件 3.执行命令 jmeter -Jpara1=4 -Jpara2=5 -n -t thread_p

Tensorflow问题汇总

问题: Cannot assign a device for operation 'MatMul': Operation was explicitly assigned to /device:GPU:1 but available devices are [ /job:localhost/replica:0/task:0/device:CPU:0, /job:localhost/replica:0/task:0/device:GPU:0 ]. Make sure the device speci

跟我学算法- tensorflow模型的保存与读取 tf.train.Saver()

save =  tf.train.Saver() 通过save. save() 实现数据的加载 通过save.restore() 实现数据的导出 第一步: 数据的载入 import tensorflow as tf #创建变量 v1 = tf.Variable(tf.random_normal([1, 2], name='v1')) v2 = tf.Variable(tf.random_normal([2, 3], name='v2')) #初始化变量 init_op = tf.global_v

HttpRunner学习11--指定用例运行次数

前言 在HttpRunner中,一般情况下,我们写的用例脚本都是每次运行一次,如果我们想要指定用例运行的次数,可以通过 times 关键字来实现. 测试场景 在这里,我们以访问 TesterHome 和 百度 的首页为例,模拟重复多次访问的场景. - config: name: test - test: name: visit TesterHome request: url: https://testerhome.com/ method: GET validate: - eq: [status_

Keras/Tensorflow选择GPU/CPU运行

首先,导入os,再按照PCI_BUS_ID顺序,从0开始排列GPU, import os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" 然后就可以选择用哪一个或者那几个GPU运行: os.environ[”zCUDA_VISIBLE_DEVICES”] = "0" 用0号GPU,即'/gpu:0'运行: os.environ[“CUDA_VISIBLE_DEVICES”] = “0,1” 用0号和1

Tensorflow实战 手写数字识别(Tensorboard可视化)

一.前言 为了更好的理解Neural Network,本文使用Tensorflow实现一个最简单的神经网络,然后使用MNIST数据集进行测试.同时使用Tensorboard对训练过程进行可视化,算是打响学习Tensorflow的第一枪啦. 看本文之前,希望你已经具备机器学习和深度学习基础. 机器学习基础可以看我的系列博文: https://cuijiahua.com/blog/ml/ 深度学习基础可以看吴恩达老师的公开课: http://mooc.study.163.com/smartSpec/

TensorFlow——TensorBoard可视化

TensorFlow提供了一个可视化工具TensorBoard,它能够将训练过程中的各种绘制数据进行展示出来,包括标量,图片,音频,计算图,数据分布,直方图等,通过网页来观察模型的结构和训练过程中各个参数的变化. Tensorboard通过一个日志展示系统进行数据可视化,在session运行图的时候,将各类的数据汇总并输出到日志文件中.然后启动Tensorboard服务,Tensorboard读取日志文件,并开启6006端口提供web服务.让用户可以在浏览器中查看数据. 相关的API函数如下;

TensorFlow基础知识

TensorFlow最初是由Google Brain 团队(隶属于Google的Al部门)中的研究人员和工程师开发的,可为机器学习和深度学习提供强力支持. 一.TensorFlow的基础概念 1.1 TensorFlow计算模型—计算图 TensorFlow是一个通过计算图的形式表述计算的编程系统,每一个计算都是计算图上的一个节点,节点之间的边描述了计算之间的关系. TensorFlow = Tensor + FlowTensor张量           数据结构:多维数组Flow流