[吃药深度学习随笔] 张量 计算图 会话

张量(tensor):即多为数组/列表

阶:即为张量的维数

张量可以表示0阶到n阶的多维数组

例子:

import tensorflow as tf
a = tf.constant([1.0, 2.0])
b = tf.constant([3.0, 4.0])

result = a+b
print(result)

得到结果

Tensor("add:0", shape=(2,), dtype=float32)

计算图(Graph):搭建神经网络的计算过程,只搭建,不运算,运算在会话(Session)里

(计算图,其中X1和X2分别乘上权重得到Y)

例子:

import tensorflow as tf
a = tf.constant([[1.0, 2.0]])
b = tf.constant([[3.0], [4.0]])

y = tf.matmul(a, b)
print(y)

其中 tf.matmul 是矩阵相乘的函数

得到结果:Tensor("MatMul:0", shape=(1, 1), dtype=float32)

意思为(矩阵输出号:0,形状(1x1的矩阵),数据类型:32位浮点)

会话(Session):执行一个图中的节点运算

例子:

import tensorflow as tf
a = tf.constant([[1.0, 2.0]])
b = tf.constant([[3.0], [4.0]])

y = tf.matmul(a, b)
print(y)

with tf.Session() as sess:
    print (sess.run(y))

其中

with tf.Session() as sess:
    print (sess.run(y))

等价于

sess = tf.Session()
print (sess.run(y))
sess.close

with的作用在于在使用完会话后自动Close

得到结果:[[11.]]

意思是:一个1x1矩阵 元素为11

验算:1*3+2*4 = 11 计算正确 为矩阵乘法

原文地址:https://www.cnblogs.com/EatMedicine/p/9029209.html

时间: 2024-10-09 03:05:01

[吃药深度学习随笔] 张量 计算图 会话的相关文章

[吃药深度学习随笔] 练习:训练二次方程的参数

import tensorflow as tf import numpy as np #训练二次函数的参数 #二次函数: y = ax^2 + bx +c SEED = 12345 #ABC参数 pA = 2 pB = 5 pC = 100 rng = np.random.RandomState(SEED) X = rng.rand(320, 1) #定义一个a=2 b=5 c=10的二次方程 Y = [[float(pA * pow(i, 2) + pB * i + pC)] for i in

[吃药深度学习随笔] 前向传播:即如何在图中输入数据向前推进从而得到计算结果

w = tf.Variable(tf.random_normal([2,3], stddev=2,mean=0, seed=1)) 其中 tf.random_normal是正太分布 除了这个 还有tf.truncated_normal:去掉过大偏离点(大于2个标准差)的正态分布 tf.random_uniform:平均分布 [2,3]是生成2x3的矩阵 stddev是标准差 mean是均值 seed是随机数种子 构造其余量的方法: #tf.zeros 全0数组 tf.zeros([3,2], i

[吃药深度学习随笔] 损失函数

神经元模型 常用的激活函数(激励函数): 神经网络(NN)复杂度:多用神经网络层数和神经网络参数个数来表示 层数 = 隐藏层层数+1个输出层 参数个数 = 总W(权重) + 总B(偏置) 比如 损失函数(loss):预测值y 和已知答案y_ 的差距 神经网络优化目标:使损失函数loss 达到最小 常用loss计算方法:均方误差MSE 公式: 在TensorFlow中代码: loss_MSE = tf.reduce_mean(tf.square(y-y_)) 例子: import tensorfl

深度学习框架太抽象?其实不外乎这五大核心组件

许多初学者觉得深度学习框架抽象,虽然调用了几个函数/方法,计算了几个数学难题,但始终不能理解这些框架的全貌. 为了更好地认识深度学习框架,也为了给一些想要自己亲手搭建深度学习框架的朋友提供一些基础性的指导,日前来自苏黎世联邦理工学院计算机科学系的硕士研究生Gokula Krishnan Santhanam在博客上撰文,概括了大部分深度学习框架都会包含的五大核心组件,为我们详细剖析了深度学习框架一般性的内部组织结构.以下由AI科技评论编译. Gokula Krishnan Santhanam认为,

深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-01-CNN基础知识点

第一天<CNN基础知识点>From:Convolutional Neural Networks (LeNet) 神经认知机. CNN的灵感来源在诸多论文中已经讲得很全面了,就是伟大的生物发现Receptive Field(感受野细胞).根据这个概念提出了神经认知机.它的主要作用就是Recept部分图像信息(或特征),然后通过分层递交相连,将各个局部特征组合成整个图像特征. 需要仔细阅读的论文包括: (1) 第一篇关于感受野功能的论文Receptive fields and functional

深度学习面试题23:批次张量和卷积核的简易定义方式

目录 直接定义的缺点 简易定义的方式 参考资料 直接定义的缺点 在tensorflow中假设有一批输入为: 其定义如下: tf.constant([ [ [ [3, 1, -3], [1, -1, 7] ], [ [-2, 2, -5], [2, 7, 3] ] ], [ [ [-1, 3, 1], [-3, -8, 6] ], [ [4, 6, 8], [5, 9, -5] ] ] ], tf.float32) 这是一个4维张量,中括号的层次比较多,因此定义起来很容易写错:另外一批卷积核的定义

深度学习与自然语言处理(6)_斯坦福cs224d 一起来学Tensorflow part1

内容翻译:@穆文(微信公众号 数据挖掘机养成记) && 寒小阳 校正调整:寒小阳 && 龙心尘 时间:2016年7月 出处: http://blog.csdn.net/han_xiaoyang/article/details/51871068 http://blog.csdn.net/longxinchen_ml/article/details/51823339 说明:本文为斯坦福大学CS224d课程的中文版内容笔记整理,已得到斯坦福大学课程@Richard Socher教

主流的深度学习框架基本知识

本章内容 1.TensorFlow 2.Keras 3.MXNet 4.CNTK 5.PyTorch 常见的深度学习框架 常见的深度学习框架有 TensorFlow .Caffe.Theano.Keras.PyTorch.MXNet等,如下图所示.这些深度学习框架被应用于计算机视觉.语音识别.自然语言处理与生物信息学等领域,并获取了极好的效果.下面将主要介绍当前深度学习领域影响力比较大的几个框架, 1.TensorFlow-----擅长推断特征提取 2015年11月10日,Google宣布推出全

TensorFlow和深度学习新手教程(TensorFlow and deep learning without a PhD)

前言 上月导师在组会上交我们用tensorflow写深度学习和卷积神经网络.并把其PPT的參考学习资料给了我们, 这是codelabs上的教程:<TensorFlow and deep learning,without a PhD> 当然登入须要FQ,我也顺带巩固下,做个翻译.不好之处请包括指正. 当然须要安装python,教程推荐使用python3.假设是Mac,能够參考博主的另外两片博文,Mac下升级python2.7到python3.6, Mac安装tensorflow1.0 好多专业词