tensorflow summary

定义summary

writer = tf.summary.FileWriter(logdir=self.han_config.log_path, graph=session.graph)

1.scalar存储结果

  a.先在训练的循环外定义:

test_accuracy_summary = tf.summary.scalar(‘test_accuracy‘, self.han_model.accuracy)
            test_loss_summary = tf.summary.scalar(‘test_loss‘, self.han_model.loss)
            test_scalar = tf.summary.merge([test_accuracy_summary, test_loss_summary])

  b.在session run的时候run test_scalar,获得值,然后再添加。

 writer.add_summary(summary=train_scalar_, global_step=steps)

2.histogram存储权重,偏执。

  a.先在训练的循环外定义:

            W_w_attention_word_histogram = tf.summary.histogram(‘W_w_attention_word‘, self.han_model.W_w_attention_word)
            W_b_attention_word_histogram = tf.summary.histogram(‘W_w_attention_word‘, self.han_model.W_b_attention_word)
            context_vecotor_word_histogram = tf.summary.histogram(‘context_vecotor_word‘,
                                                                  self.han_model.context_vecotor_word)
            W_w_attention_sentence_histogram = tf.summary.histogram(‘W_w_attention_sentence‘,
                                                                    self.han_model.W_w_attention_sentence)
            W_b_attention_sentence_histogram = tf.summary.histogram(‘W_b_attention_sentence‘,
                                                                    self.han_model.W_b_attention_sentence)
            context_vecotor_sentence_histogram = tf.summary.histogram(‘context_vecotor_sentence‘,
                                                                      self.han_model.context_vecotor_sentence)
            train_variable_histogram = tf.summary.merge([W_w_attention_word_histogram, W_b_attention_word_histogram,
                                                    context_vecotor_word_histogram, W_w_attention_sentence_histogram,
                                                W_b_attention_sentence_histogram, context_vecotor_sentence_histogram])

  b.在session run的时候run test_scalar,获得值,然后再添加。

writer.add_summary(summary=train_variable_histogram_, global_step=steps)

原文地址:https://www.cnblogs.com/callyblog/p/9549993.html

时间: 2024-11-03 13:11:36

tensorflow summary的相关文章

通俗易懂之Tensorflow summary类 & 初识tensorboard

前面学习的cifar10项目虽小,但却五脏俱全.全面理解该项目非常有利于进一步的学习和提高,也是走向更大型项目的必由之路.因此,summary依然要从cifar10项目说起,通俗易懂的理解并运用summary是本篇博客的关键. 先不管三七二十一,列出cifar10中定义模型和训练模型中的summary的代码: # Display the training images in the visualizer. tf.summary.image('images', images) def _activ

tensorboard及summary data

(新手上路,如果有不对的地方,望指正.另外有没有小伙伴一起学习交流啊?) tensorboard为tensorflow提供了可视化,它的重要性不言而喻. tensorboard是通过读取events files来显示的,events file则包含在图计算时生成的summary data. tf.summary.scalar('mean', mean) tf.summary.histogram('histogram', var) 1.summary data 某个summary操作原型: tf.

TensorFlow(一)

一  基本概念: Tensorflow是一个计算密集型的编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或多个Tensor,执行计算,产生0个或多个Tensor. Tensor 看作是一个 n 维的数组或列表.图必须在会话(Session)里被启动 使用图(graphs)来表示计算任务在被称之为会话(Session)的上下文(context)中执行图使用tensor表示数据通过变量(Variable)维护状态使用feed

tensorflow加载embedding模型进行可视化

1.功能 采用python的gensim模块训练的word2vec模型,然后采用tensorflow读取模型可视化embedding向量 ps:采用C++版本训练的w2v模型,python的gensim模块读不了. 2.python训练word2vec模型代码 import multiprocessing from gensim.models.word2vec import Word2Vec, LineSentence print('开始训练') train_file = "/tmp/train

tensorflow 的 summary&tensorboard

在TensorFlow中,所有的操作只有当你执行,或者另一个操作依赖于它的输出时才会运行. tf.scalar_summary(tags, values, collections=None, name=None) 产生一个标量summary values=1D           tags=1D string tf.image_summary(tag, tensor, max_images=None, collections=None, name=None) 摘要就是图片形式了 可以在tenso

tensorflow 梯度下降以及summary

# 保证脚本与Python3兼容 from __future__ import print_function import os import tensorflow as tf import numpy as np from utils import createSummaryWriter, generateLinearData, createLinearModel #导入utils def gradientDescent(X, Y, model, learningRate=0.01, maxI

TensorFlow 之 Summary 的用法

summary是TensorFlow可视化的工具,主要用到以下函数: 1.tf.summary.scalar() 2. tf.summary.merge_all() 3.tf.summary.FileWriter() tf.summary.scalar('loss', loss)   ## 用来搜集 loss 的数据,命名为 'loss' merge_summary = tf.summary.merge_all()  ## 这个函数可以将所有的 summary 全部保存到磁盘 train_wri

Tensorflow一些常用基本概念与函数(四)

摘要:本系列主要对tf的一些常用概念与方法进行描述.本文主要针对tensorflow的模型训练Training与测试Testing等相关函数进行讲解.为'Tensorflow一些常用基本概念与函数'系列之四. 1.序言 本文所讲的内容主要为以下列表中相关函数.函数training()通过梯度下降法为最小化损失函数增加了相关的优化操作,在训练过程中,先实例化一个优化函数,比如 tf.train.GradientDescentOptimizer,并基于一定的学习率进行梯度优化训练: optimize

Ubuntu16.04+cuda8.0+cuDNNV5.1 + Tensorflow+ GT 840M安装小结

最近重装系统,安装了tensorflow的配置环境 总结一下. 参考资料http://blog.csdn.net/ZWX2445205419/article/details/69429518http://blog.csdn.net/u013294888/article/details/56666023http://www.2cto.com/kf/201612/578337.htmlhttp://blog.csdn.net/10km/article/details/61915535 NVIDIA驱