TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum

referrence: 莫烦视频

先介绍几个函数

1.tf.cast()

英文解释:

也就是说cast的直译,类似于映射,映射到一个你制定的类型。

2.tf.argmax 原型:

含义:返回最大值所在的坐标。(谁给翻译下最后一句???)

ps:谁给解释下axis最后一句话?

例子:

 3.tf.reduce_mean() 原型:

含义:一句话来说就是对制定的reduction_index进行均值计算。

注意,reduction_indices为0时,是算的不同的[]的同一个位置上的均值

为1是是算的[]内的均值。

 1 import numpy as np
 2 import tensorflow as tf
 3 tt = tf.reduce_mean([1,2,3,4])
 4 ttt = tf.reduce_mean([[1.0,2,3,4,5],[6,7,8,9,10],[1,1,1,1,1]],reduction_indices=[1])
 5 t = tf.reduce_mean([[1.0,2,3,4,5],[6,7,8,9,10],[1,1,1,1,1]],reduction_indices=[0])
 6 sess = tf.Session()
 7 sess.run(tf.initialize_all_variables())
 8
 9 print (sess.run(t))
10 print (sess.run(tt))

时间: 2024-10-21 15:28:49

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum的相关文章

TFboy养成记 MNIST Classification (主要是如何计算accuracy)

参考:莫烦. 主要是运用的MLP.另外这里用到的是批训练: 这个代码很简单,跟上次的基本没有什么区别. 这里的lossfunction用到的是是交叉熵cross_entropy.可能网上很多形式跟这里的并不一样. 这里一段时间会另开一个栏.专门去写一些机器学习上的一些理论知识. 这里代码主要写一下如何计算accuracy: 1 def getAccuracy(v_xs,v_ys): 2 global y_pre 3 y_v = sess.run(y_pre,feed_dict={x:v_xs})

TFboy养成记 CNN

1 # -*- coding: utf-8 -*- 2 """ 3 Created on Sun Jul 2 19:59:43 2017 4 5 @author: Administrator 6 """ 7 import tensorflow as tf 8 import numpy as np 9 from tensorflow.examples.tutorials.mnist import input_data 10 11 def compu

TFboy养成记 简单小程序(Variable & placeholder)

学习参考周莫烦的视频. Variable:主要是用于训练变量之类的.比如我们经常使用的网络权重,偏置. 值得注意的是Variable在声明是必须赋予初始值.在训练过程中该值很可能会进行不断的加减操作变化. placeholder:也是用于存储数据,但是主要用于feed_dict的配合,接收输入数据用于训练模型等.placeholder值在训练过程中会不断地被赋予新的值,用于批训练,基本上其值是不会轻易进行加减操作. placeholder在命名时是不会需要赋予值得,其被赋予值得时间实在feed_

TFboy养成记 多层感知器 MLP

内容总结与莫烦的视频. 这里多层感知器代码写的是一个简单的三层神经网络,输入层,隐藏层,输出层.代码的目的是你和一个二次曲线.同时,为了保证数据的自然,添加了mean为0,steddv为0.05的噪声. 添加层代码: def addLayer(inputs,inSize,outSize,activ_func = None):#insize outsize表示输如输出层的大小,inputs是输入.activ_func是激活函数,输出层没有激活函数.默认激活函数为空 with tf.name_sco

TFboy养成记 tensorboard

首先介绍几个用法: with tf.name_scope(name = "inputs"): 这个是用于区分区域的.如,train,inputs等. xs = tf.placeholder(tf.float32,[None,1],name = "x_input") name用于对节点的命名. merged = tf.summary.merge_all() 注:这里很多代码可能跟莫烦老师的代码并不一样,主要是由于版本变迁,tensorflow很多函数改变. 这一步很重

TFBOY 养成记 一些比较好多文章。

API解释中文版(简书文章,没事看看): http://www.jianshu.com/p/e3a79eac554f Tensorlfow op辨异:tf.add()与tf.nn.bias_add()区别: http://blog.csdn.net/lanchunhui/article/details/66477742

tf.cast()的用法(转)

一.函数 tf.cast() cast( x, dtype, name=None ) 将x的数据格式转化成dtype.例如,原来x的数据格式是bool, 那么将其转化成float以后,就能够将其转化成0和1的序列.反之也可以 二.例子 [code] a = tf.Variable([1,0,0,1,1]) b = tf.cast(a,dtype=tf.bool) sess = tf.Session() sess.run(tf.initialize_all_variables()) print(s

tf.cast()数据类型转换

tf.cast()函数的作用是执行 tensorflow 中张量数据类型转换,比如读入的图片如果是int8类型的,一般在要在训练前把图像的数据格式转换为float32. cast定义: cast(x, dtype, name=None)第一个参数 x:   待转换的数据(张量)第二个参数 dtype: 目标数据类型第三个参数 name: 可选参数,定义操作的名称 int32转换为float32: import tensorflow as tf t1 = tf.Variable([1,2,3,4,

TF Boys (TensorFlow Boys ) 养成记(五)

郑重声明:此文为本人原创,转载请注明出处:http://www.cnblogs.com/Charles-Wan/p/6207039.html 有了数据,有了网络结构,下面我们就来写 cifar10 的代码. 首先处理输入,在 /home/your_name/TensorFlow/cifar10/ 下建立 cifar10_input.py,输入如下代码: from __future__ import absolute_import # 绝对导入 from __future__ import div