Tensorflow 细节P-40

1、绝大部分时候都会忽略graph的使用,如下代码所示,学会怎样tf.get_default_graph()是重要的,此外注意变量定义时的初始化必须加 initializer

2、此外,要知道
writer2 = tf.summary.FileWriter(Summary_log, g2)
writer2.close()
这两条语句加在哪里也是极为重要的

3、注意命名及命名空间的使用

import tensorflow as tf

Summary_log = './path'
g1 = tf.Graph()
with g1.as_default():
    with tf.name_scope("MAT_MUL"):
        a = tf.constant(1.0, tf.float32, [1, 2], name="tensor_a")
        b = tf.constant(2.0, tf.float32, [2, 1], name="tensor_b")
        result = tf.matmul(a, b, name="mat_mul")

g2 = tf.Graph()
with g2.as_default():
    a = tf.get_variable("v_1", [2, 2], tf.float32, initializer=tf.ones_initializer)
    b = tf.get_variable("v_2", [2, 2], tf.float32, initializer=tf.ones_initializer)
    with tf.variable_scope("ADD"):
        result2 = tf.add_n([a, b], name="add")

# writer1 = tf.summary.FileWriter(Summary_log, g1)
# writer1.close()
writer2 = tf.summary.FileWriter(Summary_log, g2)
writer2.close()
# with tf.Session(graph=g1) as sess:
#     print(sess.run(result))
with tf.Session(graph=g2) as sess:
    tf.global_variables_initializer().run()
    print(sess.run(result2))

原文地址:https://www.cnblogs.com/liuboblog/p/11615571.html

时间: 2024-11-09 09:56:10

Tensorflow 细节P-40的相关文章

Tensorflow细节-P42张量的概念及使用

1.运行以下代码 import tensorflow as tf a = tf.constant([1.0, 2.0], name="a") b = tf.constant([2.0, 3.0], name="b") result = a + b print result sess = tf.InteractiveSession () print(result.eval()) sess.close() 得到 其中,add与代码中的add有关,0表示第一个输出,图中的

Tensorflow细节-P80-深度神经网络

1.本节多为复习内容,从以下图片可见一般: 2.学会使用 from numpy.random import RandomState 然后 rdm = RandomState(1) dataset_size = 128 X = rdm.rand(dataset_size, 2) Y = [[(x1 + x2) + rdm.rand() / 10.0-0.05] for(x1, x2) in X] 进行赋值的时候就可以不变了 import tensorflow as tf from numpy.ra

Tensorflow细节-P89-collection的使用

知识总结 (1)再次注意summary的使用 (2)x = rdm.rand(dataset_size, 2) y_ = [[x1**2 + x2**2] for (x1, x2) in x]这里的问题要注意 (3)注意batch时,全部先按照一套W进行前向传播,这时候在进行正则化时,加的是同一套W,然后反向传播改变W值,进行下一轮前向传播 代码如下 import tensorflow as tf import numpy as np from numpy.random import Rando

Tensorflow细节-P112-模型持久化

第一个代码 import tensorflow as tf v1 = tf.Variable(tf.random_normal([1], stddev=1, seed=1)) v2 = tf.Variable(tf.random_normal([1], stddev=1, seed=1)) result = v1 + v2 init_op = tf.global_variables_initializer() saver = tf.train.Saver() with tf.Session()

Tensorflow细节-P190-输入文件队列

以下代码要学会几个地方 1.filename = ('data.tfrecords-%.5d-of-%.5d' % (i, num_shards)) 这个东西就是要会data.tfrecords-%.5d-of-%.5d两个.5d, 2.记住这两个操作writer = tf.python_io.TFRecordWriter(filename)与writer = tf.python_io.TFRecordWriter(filename) 3.得到的是以下TFrecoard两个文件 import t

Tensorflow细节-P319-使用GPU基本的操作

如果什么都不加,直接运行装了GPU的Tensorflow,结果是这样子的 import tensorflow as tf a = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a') b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b') c = a + b sess = tf.Session(config=tf.ConfigProto(log_device_placement=True)) # 通

Tensorflow细节-P84-梯度下降与批量梯度下降

1.批量梯度下降 批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新.从数学上理解如下: 对应的目标函数(代价函数)即为: (1)对目标函数求偏导: (2)每次迭代对参数进行更新: 优点: ??(1)一次迭代是对所有样本进行计算,此时利用矩阵进行操作,实现了并行. ??(2)由全数据集确定的方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向.当目标函数为凸函数时,BGD一定能够得到全局最优. 缺点: ??(1)当样本数目 m 很大时,每迭代一步都需要对所有样本

(原)tensorflow中函数执行完毕,显存不自动释放

转载请注明出处: http://www.cnblogs.com/darkknightzh/p/7608916.html 参考网址: https://stackoverflow.com/questions/39758094/clearing-tensorflow-gpu-memory-after-model-execution https://github.com/tensorflow/tensorflow/issues/1727#issuecomment-285815312s tensorflo

开源框架---tensorflow c++ API中./configure步骤细节

[email protected]:~/tf1.13/tensorflow$ git checkout r1.13 分支 r1.13 设置为跟踪来自 origin 的远程分支 r1.13.切换到一个新分支 'r1.13' [email protected]:~/tf1.13/tensorflow$ ./configure WARNING: --batch mode is deprecated. Please instead explicitly shut down your Bazel serv