TensorFlow——TensorBoard可视化

TensorFlow提供了一个可视化工具TensorBoard,它能够将训练过程中的各种绘制数据进行展示出来,包括标量,图片,音频,计算图,数据分布,直方图等,通过网页来观察模型的结构和训练过程中各个参数的变化。

Tensorboard通过一个日志展示系统进行数据可视化,在session运行图的时候,将各类的数据汇总并输出到日志文件中。然后启动Tensorboard服务,Tensorboard读取日志文件,并开启6006端口提供web服务。让用户可以在浏览器中查看数据。

相关的API函数如下;

tf.summary.scalar() :标量数据汇总,输出protobuf

tf.summary.histogram() :记录变量var的直方图,输出到直方图汇总的protobuf

tf.summary.image() :图像数据汇总,输出protobuf

tf.summary.merge() :合并所有的汇总日志

tf.summary.FileWriter() :创建SummaryWriter

tf.summary.FileWriter().add_summary()

tf.summary.FileWriter().add_session_log()

tf.summary.FileWriter().add_event()

tf.summary.FileWriter().add_graph() : 将protobuf写入文件的类

代码如下:

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

train_x = np.linspace(-5, 3, 50)
train_y = train_x * 5 + 10 + np.random.random(50) * 10 - 5

# plt.plot(train_x, train_y, ‘r.‘)
# plt.grid(True)
# plt.show()

X = tf.placeholder(dtype=tf.float32)
Y = tf.placeholder(dtype=tf.float32)

w = tf.Variable(tf.random.truncated_normal([1]), name=‘Weight‘)
b = tf.Variable(tf.random.truncated_normal([1]), name=‘bias‘)

z = tf.multiply(X, w) + b

tf.summary.histogram(‘z‘, z)

cost = tf.reduce_mean(tf.square(Y - z))

tf.summary.scalar(‘loss‘, cost)

learning_rate = 0.01
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

init = tf.global_variables_initializer()

training_epochs = 20
display_step = 2

with tf.Session() as sess:
    sess.run(init)
    loss_list = []

    merged_summary_op = tf.summary.merge_all()  # 合并所有的summary
    summary_wirter = tf.summary.FileWriter(‘log/linear‘, sess.graph)

    for epoch in range(training_epochs):
        for (x, y) in zip(train_x, train_y):
            sess.run(optimizer,feed_dict={X:x, Y:y})

        if epoch % display_step == 0:
            loss = sess.run(cost, feed_dict={X:x, Y:y})
            loss_list.append(loss)
            print(‘Iter: ‘, epoch, ‘ Loss: ‘, loss)
        summary_str = sess.run(merged_summary_op, feed_dict={X:train_x, Y:train_y})
        summary_wirter.add_summary(summary_str, epoch)

    w_, b_ = sess.run([w, b], feed_dict={X: x, Y: y})
    print(" Finished ")
    print("W: ", w_, " b: ", b_, " loss: ", loss)
    plt.plot(train_x, train_x*w_ + b_, ‘g-‘, train_x, train_y, ‘r.‘)
    plt.grid(True)
    plt.show()

上述的可视化步骤主要是

  1.将需要可视化的变量加入summary,做好可视化的定义操作

  2.merged_summary_op = tf.summary.merge_all() # 合并所有的summary

  3.创建summary_wirter对象,并将图写入文件

  4.获取可视化的数据,通过summary_writer对象将数据进行写入

在程序运行完,将会在指定好的路径中生成日志文件,

通过命令行工具切换到该目录,

执行命令:tensorboard --logdir=生成的日志文件的路径

打开浏览器进行查看,

定义的图的结构:

原文地址:https://www.cnblogs.com/baby-lily/p/10931302.html

时间: 2024-11-05 21:34:13

TensorFlow——TensorBoard可视化的相关文章

Tensorflow学习笔记3:TensorBoard可视化学习

TensorBoard简介 Tensorflow发布包中提供了TensorBoard,用于展示Tensorflow任务在计算过程中的Graph.定量指标图以及附加数据.大致的效果如下所示, TensorBoard工作机制 TensorBoard 通过读取 TensorFlow 的事件文件来运行.TensorFlow 的事件文件包括了你会在 TensorFlow 运行中涉及到的主要数据.关于TensorBoard的详细介绍请参考TensorBoard:可视化学习.下面做个简单介绍. Tensorf

学习TensorFlow,TensorBoard可视化网络结构和参数

在学习深度网络框架的过程中,我们发现一个问题,就是如何输出各层网络参数,用于更好地理解,调试和优化网络?针对这个问题,TensorFlow开发了一个特别有用的可视化工具包:TensorBoard,既可以显示网络结构,又可以显示训练和测试过程中各层参数的变化情况.本博文分为四个部分,第一部分介绍相关函数,第二部分是代码测试,第三部分是运行结果,第四部分介绍相关参考资料. 一. 相关函数 TensorBoard的输入是tensorflow保存summary data的日志文件.日志文件名的形式如:e

tensorboard可视化遇到的问题

由于 TensorFlow版本差异,经常会报模块对象没有某属性的错误,先把tensorboard可视化过程遇到的几个报错解决方案记录如下: 1. AttributeError: 'module' object has no attribute 'histogram_summary' histogram_summary 改为:tf.summary.histogram 2. AttributeError: 'module' object has no attribute 'scalar_summar

在Keras中使用tensorboard可视化acc等曲线

1.使用tensorboard可视化ACC,loss等曲线 1 keras.callbacks.TensorBoard(log_dir='./Graph', 2 histogram_freq= 0 , 3 write_graph=True, 4 write_images=True) 5 tbCallBack = keras.callbacks.TensorBoard(log_dir='./Graph', 6 histogram_freq= 0, 7 write_graph=True, 8 wri

Tensorflow实战 手写数字识别(Tensorboard可视化)

一.前言 为了更好的理解Neural Network,本文使用Tensorflow实现一个最简单的神经网络,然后使用MNIST数据集进行测试.同时使用Tensorboard对训练过程进行可视化,算是打响学习Tensorflow的第一枪啦. 看本文之前,希望你已经具备机器学习和深度学习基础. 机器学习基础可以看我的系列博文: https://cuijiahua.com/blog/ml/ 深度学习基础可以看吴恩达老师的公开课: http://mooc.study.163.com/smartSpec/

tensorflow 2.0 学习 (九) tensorboard可视化功能认识

代码如下: # encoding :utf-8 import io # 文件数据流 import datetime import matplotlib.pyplot as plt import tensorflow as tf from tensorflow import keras # 导入常见网络层, sequential容器, 优化器, 损失函数 from tensorflow.keras import layers, Sequential, optimizers, losses, met

TensorFlow基础笔记(9) Tensorboard可视化显示

参考: http://blog.csdn.net/l18930738887/article/details/55000008 import tensorflow as tf import numpy as np def add_layer(inputs, in_size, out_size, n_layer, activation_function=None): # add one more layer and return the output of this layer layer_name

基于TensorFlow进行TensorBoard可视化

1 # -*- coding: utf-8 -*- 2 """ 3 Created on Thu Nov 1 17:51:28 2018 4 5 @author: zhen 6 """ 7 8 import tensorflow as tf 9 from tensorflow.examples.tutorials.mnist import input_data 10 11 max_steps = 1000 12 learning_rate = 0

TensorBoard: 可视化学习

当使用Tensorflow训练大量深层的神经网络时,我们希望去跟踪神经网络的整个训练过程中的信息,比如迭代的过程中每一层参数是如何变化与分布的,比如每次循环参数更新后模型在测试集与训练集上的准确率是如何的,比如损失值的变化情况,等等.如果能在训练的过程中将一些信息加以记录并可视化得表现出来,是不是对我们探索模型有更深的帮助与理解呢? Tensorflow官方推出了可视化工具Tensorboard,可以帮助我们实现以上功能,它可以将模型训练过程中的各种数据汇总起来存在自定义的路径与日志文件中,然后