PyTorch教程之Neural Networks

我们可以通过torch.nn package构建神经网络。

现在我们已经了解了autograd,nn基于autograd来定义模型并对他们有所区分。

一个 nn.Module模块由如下部分构成:若干层,以及返回output的forward(input)方法。

例如,这张图描述了进行数字图像分类的神经网络:

这是一个简单的前馈( feed-forward)网络,读入input内容,每层接受前一级的输入,并输出到下一级,直到给出outpu结果。

一个经典神经网络的训练程序如下:

1.定义具有可学习参数(或权重)的神经网络

2.遍历iinput数据集

3.通过神经网络对input进行处理得到output结果

4.计算损失(ouput离正确值有多远)

5.将梯度返回到神经网络的参数中

6.更新神经网络的权重,通常使用一个简单的更新规则:

weight = weight - learning_rate * gradient

一、如何在pytorch中定义神经网络

定义神经网络:

import torch
from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    # 定义Net的初始化函数,本函数定义了神经网络的基本结构
    def __init__(self):
        # 继承父类的初始化方法,即先运行nn.Module的初始化函数
        super(Net,self).__init__()
        # 定义卷积层:输入1通道(灰度图)的图片,输出6张特征图,卷积核5x5
        self.conv1 = nn.Conv2d(1,6,(5,5))
        # 定义卷积层:输入6张特征图,输出16张特征图,卷积核5x5
        self.conv2 = nn.Conv2d(6,16,5)
        # 定义全连接层:线性连接(y = Wx + b),16*5*5个节点连接到120个节点上
        self.fc1 = nn.Linear(16*5*5,120)
        # 定义全连接层:线性连接(y = Wx + b),120个节点连接到84个节点上
        self.fc2 = nn.Linear(120,84)
        # 定义全连接层:线性连接(y = Wx + b),84个节点连接到10个节点上
        self.fc3 = nn.Linear(84,10)
    # 定义向前传播函数,并自动生成向后传播函数(autograd)
    def forward(self,x):
        # 输入x->conv1->relu->2x2窗口的最大池化->更新到x
        x = F.max_pool2d(F.relu(self.conv1(x)),(2,2))
        # 如果大小是一个正方形,可以只指定一个数字
        x = F.max_pool2d(F.relu(self.conv2(x)),2)
        # view函数将张量x变形成一维向量形式,总特征数不变,为全连接层做准备
        x = x.view(-1,self.num_flat_features(x))
        # 输入x->fc1->relu,更新到x
        x = F.relu(self.fc1(x))
        # 输入x->fc2->relu,更新到x
        x = F.relu(self.fc2(x))
        # 输入x->fc3,更新到x
        x = self.fc3(x)
        return x
    # 计算张量x的总特征量
    def num_flat_features(selfself,x):
        # 由于默认批量输入,第零维度的batch剔除
        size = x.size()[1:]
        num_features = 1
        for s in size:
            num_features *= s
        return num_features

net = Net()
print(net)

输出结果:

Net (
  (conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
  (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
  (fc1): Linear (400 -> 120)
  (fc2): Linear (120 -> 84)
  (fc3): Linear (84 -> 10)
)

通过net.parameters()可以得到可学习的参数:

params = list(net.parameters())
print(len(params))
print(params[0].size())  # conv1‘s .weight

输出结果:

10
torch.Size([6, 1, 5, 5])

我们模拟一下单向传播,其中input和output均为autograd.Variable:

input = Variable(torch.randn(1, 1, 32, 32))
out = net(input)
print(out)

输出结果:

Variable containing:
-0.0618 -0.0648 -0.0350  0.0443  0.0633 -0.0414  0.0317 -0.1100 -0.0569 -0.0636
[torch.FloatTensor of size 1x10]

对所有参数的梯度缓冲区归零并设置随机梯度反向传播:

net.zero_grad()
out.backward(torch.randn(1, 10))

整个torch.nn包只接受那种小批量样本的数据,而无法接受单个样本。 例如,nn.Conv2d能够构建一个四维的Tensor:nSamples x nChannels x Height x Width。

如果需要对单个样本进行操作,使用input.unsqueeze(0)来加一个假维度就可以了。

我们回顾一下目前出现过的概念:

torch.Tensor - 一个多维数组
autograd.Variable - 改变Tensor并且记录下来历史操作过程。和Tensor拥有相同的API,以及backward()的一些API。同时包含着和Tensor 相关的梯度。
nn.Module - 神经网络模块。便捷的数据封装,能够将运算移往GPU,还包括一些输入输出的东西。
nn.Parameter - 一种变量(Variable),当将任何值赋予Module时自动注册为一个参数。
autograd.Function - 实现了使用自动求导方法的前馈和后馈的定义。每个Variable的操作都会生成至少一个独立的Function节点,与生成了Variable的函数相连之后记录下历史操作过程。

二、Loss Function

时间: 2024-11-06 19:22:28

PyTorch教程之Neural Networks的相关文章

PyTorch Tutorials 3 Neural Networks

%matplotlib inline Neural Networks 使用torch.nn包来构建神经网络. 上一讲已经讲过了autograd,nn包依赖autograd包来定义模型并求导. 一个nn.Module包含各个层和一个forward(input)方法,该方法返回output. 例如: 它是一个简单的前馈神经网络,它接受一个输入,然后一层接着一层地传递,最后输出计算的结果. 神经网络的典型训练过程如下: 定义包含一些可学习的参数(或者叫权重)神经网络模型: 在数据集上迭代: 通过神经网

pytorch -- CNN 文本分类 -- 《 Convolutional Neural Networks for Sentence Classification》

论文  < Convolutional Neural Networks for Sentence Classification>通过CNN实现了文本分类. 论文地址: 666666 模型图: 模型解释可以看论文,给出code and comment: 1 # -*- coding: utf-8 -*- 2 # @time : 2019/11/9 13:55 3 4 import numpy as np 5 import torch 6 import torch.nn as nn 7 impor

[C3] Andrew Ng - Neural Networks and Deep Learning

About this Course If you want to break into cutting-edge AI, this course will help you do so. Deep learning engineers are highly sought after, and mastering deep learning will give you numerous new career opportunities. Deep learning is also a new "s

Convolutional Neural Networks

原文引用https://www.dazhuanlan.com/2019/08/25/5d625a7694a88/ Convolutional Neural Networks 白雪峰 - [email protected]这是一篇关于CNN的总结 Outline CNN栗子镇楼 What is CNN 什么是卷积 什么是池化 Why CNN 对CNN的其他一些理解 CNN实现(接口) 1. CNN栗子(A Beginning Glimpse of CNN) (1)Modern CNN since

训练技巧详解【含有部分代码】Bag of Tricks for Image Classification with Convolutional Neural Networks

训练技巧详解[含有部分代码]Bag of Tricks for Image Classification with Convolutional Neural Networks 置顶 2018-12-11 22:07:40 Snoopy_Dream 阅读数 1332更多 分类专栏: 计算机视觉 pytorch 深度学习tricks 版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明. 本文链接:https://blog.csdn.net/e01528

Neural Networks and Deep Learning学习笔记ch1 - 神经网络

近期開始看一些深度学习的资料.想学习一下深度学习的基础知识.找到了一个比較好的tutorial,Neural Networks and Deep Learning,认真看完了之后觉得收获还是非常多的.从最主要的感知机開始讲起.到后来使用logistic函数作为激活函数的sigmoid neuron,和非常多其它如今深度学习中常使用的trick. 把深度学习的一个发展过程讲得非常清楚,并且还有非常多源代码和实验帮助理解.看完了整个tutorial后打算再又一次梳理一遍,来写点总结.以后再看其它资料

Neural Networks for Machine Learning by Geoffrey Hinton (1~2)

机器学习能良好解决的问题 识别模式 识别异常 预測 大脑工作模式 人类有个神经元,每一个包括个权重,带宽要远好于工作站. 神经元的不同类型 Linear (线性)神经元  Binary threshold (二值)神经元  watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" width="300&quo

Learning to Compare Image Patches via Convolutional Neural Networks --- Reading Summary

Learning to Compare Image Patches via Convolutional Neural Networks ---  Reading Summary 2017.03.08 Target: this paper attempt to learn a geneal similarity function for comparing image patches from image data directly. There are several ways in which

ios系类教程之用instruments来检验你的app

ios系类教程之用instruments来检验你的app 为了节省大家的时间,提供一个演示的Demo给大家.代码传送门.下载后解压然后用xcode打开.编译运行APP后 然后在搜索框内输入任意词汇,点击结果你会看到下面的结果 正如你所见的,这个app很简单.程序其实调用的是Flickr的API,通过app顶部的搜索框执行搜索后在下面的tableview显示你搜索的搜索词,搜索词后面的括号内有搜索结果的个数,点击此行进入一个略所图的结果列表页面 如上图. 点击其中一行 进入图像的大图模式,在这个页