Pytorch之可视化

先解决下keras可视化安装graphviz的问题:

注意安装顺序:

sudo pip3 install graphviz  # python包

sudo apt-get install graphviz   # 软件本身

sudo pip3 install pydot

sudo pip3 install pydot-ng  # 版本兼容需要,可选

1.  使用pytorchviz进行pytorch执行过程的可视化

sudo pip3 install git   # 安装git
sudo  pip3 install git+https://github.com/szagoruyko/pytorchviz   # github上的包

demo:

model = nn.Sequential()
model.add_module(‘W0‘, nn.Linear(8, 16))
model.add_module(‘tanh‘, nn.Tanh())
model.add_module(‘W1‘, nn.Linear(16, 1))

x = Variable(torch.randn(1,8))
y = model(x)

make_dot(y.mean(), params=dict(model.named_parameters()))

详见: https://github.com/szagoruyko/pytorchviz

原文地址:https://www.cnblogs.com/king-lps/p/8544876.html

时间: 2024-11-03 06:39:30

Pytorch之可视化的相关文章

pytorch visdom可视化工具学习—1—详细使用-1—基本使用函数

使用教程,参考: https://github.com/facebookresearch/visdom https://www.pytorchtutorial.com/using-visdom-for-visualization-in-pytorch/ https://www.pytorchtutorial.com/pytorch-visdom/ ??中间发现visdom安装的版本过低,导致发生了一些问题,后面更改了版本为最新版本0.1.8.8,所以可能会发现截图有些不同,但是功能不会有太多影响

Pytorch使用tensorboardX网络结构可视化。超详细!!!

https://www.jianshu.com/p/46eb3004beca 1 引言 我们都知道tensorflow框架可以使用tensorboard这一高级的可视化的工具,为了使用tensorboard这一套完美的可视化工具,未免可以将其应用到Pytorch中,用于Pytorch的可视化.这里特别感谢Github上的解决方案: https://github.com/lanpa/tensorboardX. 本文主要是针对该解决方案提供一些介绍. TensorboardX支持scalar, im

[BUAA软工]个人总结

软工总结 一.课程初阅读提问博客 link Q1.1: 敏捷开发对于产品的可靠行要求不高? 这里的可靠性应当是相对而言,对于安防国防领域的软件,由于自身特性,在软件设计时首先考虑可靠性.相对来说,敏捷开发对于产品的可靠性要求要低一点点,容忍度好一点. Q1.2: 这本书适合作为教材吗? 我个人还是觉得,这本书和教材的定位并不同,让我选,是不会用这本书作为教材的.如果从开始筹划一本教材,那么它一定是完全针对于某一门具体的课,融合进多年的教学经验,凸显学习过程中的重点难点的,旨在为同学们构建一个完善

Pytorch实现的语义分割器

使用Detectron预训练权重输出 *e2e_mask_rcnn-R-101-FPN_2x* 的示例 从Detectron输出的相关示例 使用Detectron预训练权重输出 *e2e_keypoint_rcnn-R-50-FPN_s1x*的示例 这个代码是按照Detectron的安装架构来实现的,仅支持部分功能性,你可以通过点击此链接来获取更多相关信息. 通过这个代码,你可以-- 根据草图训练模型: 通过使用Detectron中得到预训练权重(*.pk)来进行推断: 这个储存器最早是建在jw

Pytorch系列教程-使用字符级RNN生成姓名

前言 本系列教程为pytorch官网文档翻译.本文对应官网地址:https://pytorch.org/tutorials/intermediate/char_rnn_generation_tutorial.html 系列教程总目录传送门:我是一个传送门 本系列教程对应的 jupyter notebook 可以在我的Github仓库下载: 下载地址:https://github.com/Holy-Shine/Pytorch-notebook 我们仍然使用手工搭建的包含几个线性层的小型RNN.与之

Pytorch入门实战一:LeNet神经网络实现 MNIST手写数字识别

记得第一次接触手写数字识别数据集还在学习TensorFlow,各种sess.run(),头都绕晕了.自从接触pytorch以来,一直想写点什么.曾经在2017年5月,Andrej Karpathy发表的一片Twitter,调侃道:l've been using PyTorch a few months now, l've never felt better, l've more energy.My skin is clearer. My eye sight has improved.确实,使用p

pytorch例子学习——TRANSFER LEARNING TUTORIAL

参考:https://pytorch.org/tutorials/beginner/transfer_learning_tutorial.html 以下是两种主要的迁移学习场景 微调convnet : 与随机初始化不同,我们使用一个预训练的网络初始化网络,就像在imagenet 1000 dataset上训练的网络一样.其余的训练看起来和往常一样. 将ConvNet作为固定的特征提取器 : 在这里,我们将冻结所有网络的权重,除了最后的全连接层.最后一个完全连接的层被替换为一个具有随机权重的新层,

“卷积可视化”:Grad-CAM

http://spytensor.com/index.php/archives/20/ 背景 无意间发现了一篇论文<Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization>,文中介绍了一种卷积神经网络的解释方法,通过构建类似热力图 (heatmap) 的形式,直观展示出卷积神经网络学习到的特征,简单说就是:到底我的模型关注点在哪?凭啥认为这张图中有猫?当然,其本质还是从像素角度去解释,并不能

pytorch multi-gpu train

记录一下pytorch如何进行单机多卡训练: 官网例程:https://pytorch.org/tutorials/beginner/blitz/data_parallel_tutorial.html 下面以一个例子讲解一下,例如现在总共有8张卡,在第5.6.7三张卡上进行训练: step 1:可视化需要用到的GPU import os os.environ["CUDA_VISIBLE_DEVICES"] = "5 , 6 , 7" device = torch.d