python/numpy/tensorflow中,对矩阵行列操作,下标是怎么回事儿?

Python中的list/tuple,numpy中的ndarrray与tensorflow中的tensor。

用python中list/tuple理解,仅仅是从内存角度理解一个序列数据,而非数学中标量,向量和张量。

从python内存角度理解,就是一个数值,长度为1,并且不是一个序列;

从numpy与tensorflow数学角度理解,就是一个标量,shape为(),其轴为0;

[1,2,3,4,5,6]

从python内存角度理解,就是1*6或者长度为6的一个序列;

从numpy与tensorflow数学角度理解,就是一维向量,并且是列向量,shape为(6,),其轴为1;注:一维向量,列向量,其轴为1,轴下标为0,表示第一个轴;

[[1,2,3], [4,5,6]]

从python内存角度理解,就是一个二维数组2*3,2列3行;注意:不管python还是numpy/tensorflow都是列在前,即一个向量默认为列向量;

从numpy/tensorflow数学角度理解,就是一个二维张量,shape为(2,3),其轴为2;注:二维向量,第一个轴为列,下标为0,第二个轴为行,下标为1;

例子:

  import os, sys

  import numpy

  import tensorflow as tf

  a = [[1,2,3],[4,5,6]]

  b = tf.Variable(a, dtype=tf.float32)

  init = tf.global_variables_initializer()

  sess = tf.Session()

  sess.run(init)

  d1 = tf.reduce_mean(b)

  d2 = tf.reduce_mean(b, 0)

  d3 = tf.reduce_mean(b, 1)

  sess.run([b, b[0,:], b[:, 0]])

# [array([[ 1.,  2.,  3.],

#         [ 4.,  5.,  6.]], dtype=float32),

#  array([ 1.,  2.,  3.], dtype=float32),

#  array([ 1.,  4.], dtype=float32)]

  sess.run([d1, d2, d3])

# [3.5,

#  array([ 2.5,  3.5,  4.5], dtype=float32),

#  array([ 2.,  5.], dtype=float32)]

 
注:
[b, b[i,:], b[:, i]]
b[i,:]: 表示b矩阵第一个轴(列),第i列对应所有元素;
b[:,i]: 表示b矩阵第二个轴(行),第i行对应所有元素;
d1=tf.reduce_mean(b): 表示对矩阵所有元素进行均值;
d2=tf.reduce_mean(b, 0):表示对矩阵进行第一个轴(列)方向上的投影,即每一行上的均值;
d3=tf.reduce_mean(b, 1):表示对矩阵进行第二个轴(行)方向上的投影,即每一列的均值;
查看这个网址:http://www.cnblogs.com/silence-tommy/p/6554986.html
这个网址上说的有问题:
tf.reduce_mean(x) ==> 2.5 #如果不指定第二个参数,那么就在所有的元素中取平均值
tf.reduce_mean(x, 0) ==> [2.,  3.] #指定第二个参数为0,则第一维的元素取平均值,即每一列求平均值
tf.reduce_mean(x, 1) ==> [1.5,  3.5] #指定第二个参数为1,则第二维的元素取平均值,即每一行求平均值

这两句下划线的标注,是错误的。显然没有理解对于矩阵轴的概念;

(不好意思,这个网址博主,仅仅是看到了,所以仅仅从开发角度分析了下,并非故意,敬请谅解!)

时间: 2024-10-12 20:17:59

python/numpy/tensorflow中,对矩阵行列操作,下标是怎么回事儿?的相关文章

tensorflow中一个矩阵和一个向量相加

import tensorflow as tf x=tf.constant([[1,2],[3,4]]) y=tf.constant([[1],[1]])#列向量 z=tf.constant([1,1])#行向量 u=x+y v=x+z print(u) print(v) tensorflow中矩阵可以和矢量相加, 输出结果: 原文地址:https://www.cnblogs.com/sinceret/p/11723227.html

python numpy初始化一个图像矩阵

mask_all = np.zeros((256, 256), dtype='uint8')  单通道 mask_all_enlarge = np.zeros((256, 256, 3), dtype='uint8'  三通道 #为三通道图像赋值,这里我用的是循环,因该还有更简单的方式 img_base = np.zeros((256, 256, 3), np.uint8)     for i in range(256):        for j in range(256):         

python numpy数组中的复制问题

vector = numpy.array([5, 10, 15, 20]) equal_to_ten_or_five = (vector == 10) | (vector == 5) vector[equal_to_ten_or_five] = 50 print(vector) 第一次看到这个的时候一脸懵逼,后来分析了下懂了下面记录下,方便下次看看 第一行分析:结果5, 10, 15, 20 第二行分析:vector == 10 数组和值比对获得结果是每个元素和这个数比较生成相应的bool数组

Python Numpy数组的读入、存储操作

从文件中加载ndarray数组 从文本文件中加载ndarray数组 np.loadtxt >>> np.loadtxt(textfile) # textfile是文本文件 从.npy或者.npz文件中加载ndarray数组np.load 如果是.npy结尾的文件,则返回单个ndarray数组 如果是.npz结尾的文件,则返回一个字典类型对象,{filename: array} >>> np.load(textfile) # textfile是.npz或.npy结尾的二进

第十四节,TensorFlow中的反卷积,反池化操作以及gradients的使用

反卷积是指,通过测量输出和已知输入重构未知输入的过程.在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积神经网络,没有学习训练的过程.反卷积有着许多特别的应用,一般可以用于信道均衡.图像恢复.语音识别.地震学.无损探伤等未知输入估计和过程辨识方面的问题. 在神经网络的研究中,反卷积更多的是充当可视化的作用,对于一个复杂的深度卷积网络,通过每层若干个卷积核的变换,我们无法知道每个卷积核关注的是什么,变换后的特征是什么样子.通过反卷积的还原,可以对这些问题有个清晰的可视

Python - Y.shape[n,m];Numpy中的矩阵合并

The shape attribute for numpy arrays returns the dimensions of the array. If Y has n rows and m columns, then Y.shape is (n,m). So Y.shape[0] is n. In [46]: Y = np.arange(12).reshape(3,4) In [47]: Y Out[47]: array([[ 0, 1, 2, 3], [ 4, 5, 6, 7], [ 8,

Python Numpy中的几个矩阵乘法

数学上的内积.外积和叉积 内积 也即是:点积.标量积或者数量积 从代数角度看,先对两个数字序列中的每组对应元素求积,再对所有积求和,结果即为点积.从几何角度看,点积则是两个向量的长度与它们夹角余弦的积. 具体解释 外积 也即是:张量积 在线性代数中一般指两个向量的张量积,其结果为一矩阵,也就是矩阵乘法 具体解释 叉积 也即是:向量积 叉积axb得到的是与a和b都垂直的向量 具体解释 Numpy中的矩阵乘法 np.dot() 对于二维矩阵,计算真正意义上的矩阵乘积:对于一维矩阵,计算两者的内积.(

Numpy中使用矩阵

http://blog.csdn.net/pipisorry/article/details/39088003 Numpy是Python中的一个矩阵计算包,功能类似于MATLAB的矩阵计算. 具体参见http://www.numpy.org/.安装Pythonxy时已经包含了numpy包及其依赖包. (1) 定义矩阵 >>> from numpy import * >>> a = array([[1,2.2,3],[4,5,6]]) >>> a.ndi

42-python中的矩阵、多维数组----numpy

xzcfightingup python中的矩阵.多维数组----numpy 1. 引言 最近在将一个算法由matlab转成python,初学python,很多地方还不熟悉,总体感觉就是上手容易,实际上很优雅地用python还是蛮难的.目前为止,觉得就算法仿真研究而言,还是matlab用得特别舒服,可能是比较熟悉的缘故吧.matlab直接集成了很多算法工具箱,函数查询.调用.变量查询等非常方便,或许以后用久了python也会感觉很好用.与python相比,最喜欢的莫过于可以直接选中某段代码执行了