pytorch 模块

pytorch的中文手册:https://github.com/zergtant/pytorch-handbook

一、定义/初始化张量Define tensors

tensor,即“张量”。实际上跟numpy数组、向量、矩阵的格式基本一样。但是是专门针对GPU来设计的,可以运行在GPU上来加快计算效率。

PyTorch中定义tensor,就跟numpy定义矩阵、向量差不多,例如定义一个5×3的tensor,每一项都是0的张量:
x = torch.zeros(5,3)

如果想查看某个tensor的形状的话,使用:
z.size(),或者z.shape,但是前者更常用。

下面列举一些常用的定义tensor的方法:

常数初始化:

  • torch.empty(size)返回形状为size的空tensor
  • torch.zeros(size)全部是0的tensor
  • torch.zeros_like(input)返回跟input的tensor一个size的全零tensor
  • torch.ones(size)全部是1的tensor
  • torch.ones_like(input)返回跟input的tensor一个size的全一tensor
  • torch.arange(start=0, end, step=1)返回一个从start到end的序列,可以只输入一个end参数,就跟python的range()一样了。实际上PyTorch也有range(),但是这个要被废掉了,替换成arange了
  • torch.full(size, fill_value)这个有时候比较方便,把fill_value这个数字变成size形状的张量

随机抽样(随机初始化):

  • torch.rand(size) [0,1)内的均匀分布随机数
  • torch.rand_like(input)返回跟input的tensor一样size的0-1随机数
  • torch.randn(size)返回标准正太分布N(0,1)的随机数
  • torch.normal(mean, std, out=None)正态分布。这里注意,mean和std都是tensor,返回的形状由mean和std的形状决定,一般要求两者形状一样。如果,mean缺失,则默认为均值0,如果std缺失,则默认标准差为1.

更多的随机抽样方法,参见链接:
https://pytorch.org/docs/stable/torch.html#random-sampling


二、基本操作、运算 Basic operations

1.tensor的切片、合并、变形、抽取操作

(Indexing, Slicing, Joining, Mutating)

这里我就简单总结一些重要的tensor基本操作:

  • torch.cat(seq, dim=0, out=None),把一堆tensor丢进去,按照dim指定的维度拼接、堆叠在一起.
    比如:
In [70]: x = torch.tensor([[1,2,3]])
In [71]: x
Out[71]: tensor([[1, 2, 3]])

 #按第0维度堆叠,对于矩阵,相当于“竖着”堆
In [72]: print(torch.cat((x,x,x),0))
tensor([[1, 2, 3],
        [1, 2, 3],
        [1, 2, 3]])

 #按第1维度堆叠,对于矩阵,相当于“横着”拼
In [73]: print(torch.cat((x,x,x),1))
tensor([[1, 2, 3, 1, 2, 3, 1, 2, 3]])
  • torch.chunk(tensor, chunks, dim=0)把tensor切成块,数量由chunks指定。
    例如:
In [74]: a = torch.arange(10)
In [75]: a
Out[75]: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

In [76]: torch.chunk(a,4)
Out[76]: (tensor([0, 1, 2]), tensor([3, 4, 5]), tensor([6, 7, 8]), tensor([9]))
  • 切块还有torch.split(tensor, split_size_or_sections, dim=0)具体区别大家自行查阅文档
  • 按index选择:torch.index_select(input, dim, index, out=None)
  • 按mask选择:torch.masked_select(input, mask, out=None)
  • 经常会使用的“压扁”函数:torch.squeeze(input),压缩成1维。注意,压缩后的tensor和原来的tensor共享地址
  • 改变形状:torch.reshape(input, shape)以及tensor.view(shape).前者是把tensor作为函数的输入,后者是任何tensor的函数。实际上,二者的返回值,都只是让我们从另一种视角看某个tensor,所以不会改变本来的形状,除非你把结果又赋值给原来的tensor。下面给一个例子对比二者的用法:
In [82]: a
Out[82]: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

# 单纯的调用view函数:
In [83]: a.view(2,5)
Out[83]:
tensor([[0, 1, 2, 3, 4],
        [5, 6, 7, 8, 9]])

# a的形状并不会变化
In [84]: print(a)
tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

# 试试reshape函数:
In [86]: torch.reshape(a,[5,2])
Out[86]:
tensor([[0, 1],
        [2, 3],
        [4, 5],
        [6, 7],
        [8, 9]])

# a的形状依然不会变化:
In [87]: a
Out[87]: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

要想让a的形状变化,比如把结果赋值给a,比如a = a.view(2,5)

还有好多有意思的操作,自己去发掘吧:
https://pytorch.org/docs/stable/torch.html#indexing-slicing-joining-mutating-ops

2.基本数学操作

  • 加法直接加:x+y
    或者用torch.add(x,y).
    实际上,.add()可以接受三个参数:torch.add(input, value, out=None)
    out怎么用呢?一般,如果直接torch.add(x,y),那么x,y本身都不会变化的。但是如果设置out=x,那么x就变变成加和后的值。

特别的,若想进行in-place操作,就比方说y加上x,y的值就改变了,就可以用y.add_(x)这样y就直接被改变了。Torch里面所有带"_"的操作,都是in-place的。例如x.copy_(y)

  • 乘法:torch.mul(input, other, out=None)用input乘以other
  • 除法:torch.div(input, other, out=None)用input除以other
  • 指数:torch.pow(input, exponent, out=None)
  • 开根号:torch.sqrt(input, out=None)
  • 四舍五入到整数:torch.round(input, out=None)
  • argmax函数torch.argmax(input, dim=None, keepdim=False)返回指定维度最大值的序号,dim给定的定义是:the demention to reduce.也就是把dim这个维度的,变成这个维度的最大值的index。例如:

    argmax

  • sigmoid函数:torch.sigmoid(input, out=None)
  • tanh函数:torch.tanh(input, out=None)
  • torch.abs(input, out=None)取绝对值
  • torch.ceil(input, out=None)向上取整,等于向下取整+1
  • torch.clamp(input, min, max, out=None)刀削函数,把输入数据规范在min-max区间,超过范围的用min、max代替

太多了,基本上,numpy里面有的数学函数这里都有,能想到的的基本都有。所以更详细的内容,还是去查看文档吧哈哈:
https://pytorch.org/docs/stable/torch.html#math-operations

三、Torch Tensor与Numpy的互相转换

  • Tensor-->Numpy
    直接用.numpy()即可。但是注意,转换后,numpy的变量和原来的tensor会共用底层内存地址,所以如果原来的tensor改变了,numpy变量也会随之改变。参见下面的例子:
In [11]: a = torch.ones(2,4)
In [12]: a
Out[12]:
tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.]])

In [13]: b = a.numpy()
In [14]: b
Out[14]:
array([[1., 1., 1., 1.],
       [1., 1., 1., 1.]], dtype=float32)

In [15]: a.add_(1)
Out[15]:
tensor([[2., 2., 2., 2.],
        [2., 2., 2., 2.]])

In [16]: b
Out[16]:
array([[2., 2., 2., 2.],
       [2., 2., 2., 2.]], dtype=float32)
  • Numpy-->Tensor
    torch.from_numpy()来转换。参见下面例子:
import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)

输出:

[2. 2. 2. 2. 2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

同样,两者会共用内存地址。

作者:Stack_empty
链接:https://www.jianshu.com/p/7dbfc7076e5a
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

原文地址:https://www.cnblogs.com/Ian-learning/p/11729766.html

时间: 2024-11-02 20:45:49

pytorch 模块的相关文章

pytorch对可变长度序列的处理

主要是用函数torch.nn.utils.rnn.PackedSequence()和torch.nn.utils.rnn.pack_padded_sequence()以及torch.nn.utils.rnn.pad_packed_sequence()来进行的,分别来看看这三个函数的用法. 1.torch.nn.utils.rnn.PackedSequence() NOTE: 这个类的实例不能手动创建.它们只能被 pack_padded_sequence() 实例化. PackedSequence

库、教程、论文实现,这是一份超全的PyTorch资源列表(Github 2.2K星)

项目地址:https://github.com/bharathgs/Awesome-pytorch-list 列表结构: NLP 与语音处理 计算机视觉 概率/生成库 其他库 教程与示例 论文实现 PyTorch 其他项目 自然语言处理和语音处理 该部分项目涉及语音识别.多说话人语音处理.机器翻译.共指消解.情感分类.词嵌入/表征.语音生成.文本语音转换.视觉问答等任务,其中有一些是具体论文的 PyTorch 复现,此外还包括一些任务更广泛的库.工具集.框架. 这些项目有很多是官方的实现,其中

第十章、numpy模块

目录 第十章.numpy模块 一.导入方式 二.作用 三.通过函数创建numpy数组 四. numpy数组运算 五.重点 第十章.numpy模块 一.导入方式 import numpy as np#约定俗成 二.作用 数组或矩阵的运算 numpy数组 arr1 = np.array([1,2,3]) #创建一维数组对象 arr1 arr2 = np.array([[1,2,3],[4,5,6]]) arr2 #二维数组 三维数组不用numpy模块,用TensorFlow.pytorch模块 属性

一线开发者在Reddit上讨论深度学习框架:PyTorch和TensorFlow到底哪个更好?

本文标签:   机器学习 TensorFlow Google深度学习框架 分布式机器学习 PyTorch   近日,Reddit用户 cjmcmurtrie 发了一个主题为「PyTorch vs. TensorFlow」的讨论帖,想要了解这两大流行的框架之间各自有什么优势. 原帖地址:https://redd.it/5w3q74 帖子一楼写道: 我还没有从 Torch7 迁移到 TensorFlow.我玩过 TensorFlow,但我发现 Torch7 更加直观(也许是我玩得不够?).我也尝试了

PyTorch教程之Neural Networks

我们可以通过torch.nn package构建神经网络. 现在我们已经了解了autograd,nn基于autograd来定义模型并对他们有所区分. 一个 nn.Module模块由如下部分构成:若干层,以及返回output的forward(input)方法. 例如,这张图描述了进行数字图像分类的神经网络: 这是一个简单的前馈( feed-forward)网络,读入input内容,每层接受前一级的输入,并输出到下一级,直到给出outpu结果. 一个经典神经网络的训练程序如下: 1.定义具有可学习参

Pytorch实现卷积神经网络CNN

Pytorch是torch的Python版本,对TensorFlow造成很大的冲击,TensorFlow无疑是最流行的,但是Pytorch号称在诸多性能上要优于TensorFlow,比如在RNN的训练上,所以Pytorch也吸引了很多人的关注.之前有一篇关于TensorFlow实现的CNN可以用来做对比. 下面我们就开始用Pytorch实现CNN. step 0 导入需要的包 1 import torch 2 import torch.nn as nn 3 from torch.autograd

Anaconda+tensorflow+pyTorch安装

Anaconda安装 在清华大学 TUNA 镜像源选择对应的操作系统与所需的Python版本下载Anaconda安装包.Ubuntu环境下在终端执行 $ bash Anaconda2-4.3.1-Linux-x86_64.sh #Python 2.7版本 或 $ bash Anaconda3-4.3.1-Linux-x86_64.sh #Python 3.5 版本 在安装的过程中,会询问安装路径,按回车即可.之后会询问是否将Anaconda安装路径加入到环境变量(.bashrc)中,输入yes,

PyTorch为何如此高效好用?

C/C++中 Python 扩展对象的简介 你可能知道可以借助 C/C++扩展 Python,并开发所谓的「扩展」.PyTorch 的所有繁重工作由 C/C++实现,而不是纯 Python.为了定义 C/C++中一个新的 Python 对象类型,你需要定义如下实例的一个类似结构: // Python object that backs torch.autograd.Variable structTHPVariable{ PyObject_HEAD torch::autograd::Variabl

Pytorch(一)

一.Pytorch介绍 Pytorch 是Torch在Python上的衍生物 和Tensorflow相比: Pytorch建立的神经网络是动态的,而Tensorflow建立的神经网络是静态的 Tensorflow的高度工业化,它的底层代码很难看懂 官网:http://pytorch.org/ Pytorch主要有两个模块: 一个是torch,一个是torchvision,torch是主模块,用来搭建神经网络.torchvision是辅模块,有数据库,还有一些已经训练好的神经网络等着你直接用比如(