模型参数的初始化

1.  tf.global_variables_initializer() 可以初始化所有变量。

import tensorflow as tfa=tf.Variable(tf.ones((2,3)),name=‘a‘)b=tf.Variable(tf.random_normal(shape=(2,3),stddev=0.35),name=‘b‘)sess=tf.Session()sess.run(tf.global_variables_initializer())print(sess.run(a))print(sess.run(b))

2.  tf.variables_initializer([var_list]) 仅初始化列表var_list种的值。

import tensorflow as tfa=tf.Variable(tf.ones((2,3)),name=‘a‘)b=tf.Variable(tf.random_normal(shape=(2,3),stddev=0.35),name=‘b‘)sess=tf.Session()# sess.run(tf.variables_initializer([a])) # 只初始化变量a,而变量b未作初始化,因此执行会报错。sess.run(tf.variables_initializer([a,b])) # 对变量a与b做了初始化,执行将不会报错print(sess.run(a))print(sess.run(b))

报错结果:

正确结果:

3.  变量重复赋值并未报错,其结果如下:

此点证实模型参数可以用assign分配,可用checkpoint模型文件保存值赋值到变量种。

原文地址:https://www.cnblogs.com/tangjunjun/p/11681751.html

时间: 2024-10-12 04:58:38

模型参数的初始化的相关文章

从头学pytorch(十):模型参数访问/初始化/共享

模型参数的访问初始化和共享 参数访问 参数访问:通过下述两个方法.这两个方法是在nn.Module类中实现的.继承自该类的子类也有相同方法. .parameters() .named_parameters() import torch from torch import nn from torch.nn import init net = nn.Sequential(nn.Linear(4, 3), nn.ReLU(), nn.Linear(3, 1)) # pytorch已进行默认初始化 pr

fluent批量处理——模型参数的设置

对于常见的工程应用来说,计算的工况很多,尤其优化工作,少则几百,多则上千,面对如此之多的case文件要写,假如按照一个一个的读写的话,相信你一定会为这么机械的工作烦躁,甚至影响今后好几天的心情,那么有什么简便一些的方法呢?答案是肯定的.那就是采用fluent的journal文件.首先打开fluent软件,在file/write/start journal,见下图: 选择保存文件名*.journal后(看你自己怎么设置文件名),我一般按照这一组的类型来命名:这样, journal文件就开始记录你以

程序的转化 & 明确的初始化操作 & 参数的初始化 & 返回值的初始化

一丶程序的转化考察以下代码: 1 X Foo() 2 { 3 X xx; 4 //... 5 return xx; 6 } 看到这个, 你可能会有两个想法:1. 每次 Foo() 被调用, 就会传回 xx 的值.2. 如果 class X 定义了一个 copy constructor, 那么当 Foo() 被调用时, 保证该 copy constructor 也会被调用. 这两个假设的真实性实际都要以 class X 如何定义而定, 在一个高品质的 C++ 编译器中, 以上两个假设都是错误的.

【scikit-learn】如何进行模型参数的选择

内容概要 这一节我们介绍以下几个内容: 我们该怎样选择模型用于监督学习任务? 我们该如何选择调整得到最好的模型参数? 我们该如何对测试数据进行预测估计? 1. 使用整个数据集进行训练和测试 这里我们使用手中的整个数据集来训练模型 使用同样的数据集来测试模型,然后评估预测的结果和真实结果的差别 In [1]: from sklearn.datasets import load_iris iris = load_iris() # create X(features) and y(response)

Torch 网络层 参数的初始化问题

Torch 网络层 参数的初始化问题 参考链接: https://github.com/Kaixhin/nninit 从 Torch 中自带的包,可以看到:https://github.com/torch/torch7/wiki/Cheatsheet#utility-libraries 在 Machine Learning 这一栏当中,有一软件包 nninit 可以实现该功能: nninit - Weight initialisation schemes for nn modules

C#4.0语法糖之第三篇: 参数默认值和命名参数 对象初始化器与集合初始化器

今天继续写上一篇文章C#4.0语法糖之第二篇,在开始今天的文章之前感谢各位园友的支持,通过昨天写的文章,今天有很多园友们也提出了文章中的一些不足,再次感谢这些关心我的园友,在以后些文章的过程中不断的完善以及自我提高,给各位园友们带来更好,更高效的文章. 废话就说到这里,下面正式进入我们的今天的C#4.0语法糖,今天给大家分享一下参数默认值.命名参数.对象初始化器和集合初始化器. 参数默认值和命名参数:方法的可选参数是.net 4.0最新提出的新的功能,对应简单的重载可以使用可选参数和命名参数混合

mxnet-读取模型参数

#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Fri Aug 10 16:13:29 2018 @author: myhaspl """ import mxnet as mx from mxnet import nd from mxnet import gluon from mxnet.gluon import nn from mxnet.gluon.data.visi

[深度学习] Pytorch(三)—— 多/单GPU、CPU,训练保存、加载模型参数问题

[深度学习] Pytorch(三)-- 多/单GPU.CPU,训练保存.加载预测模型问题 上一篇实践学习中,遇到了在多/单个GPU.GPU与CPU的不同环境下训练保存.加载使用使用模型的问题,如果保存.加载的上述三类环境不同,加载时会出错.就去研究了一下,做了实验,得出以下结论: 多/单GPU训练保存模型参数.CPU加载使用模型 #保存 PATH = 'cifar_net.pth' torch.save(net.module.state_dict(), PATH) #加载 net = Net()

使用原始模型,模型参数解析

使用原始模型,模型参数解析 STEPS: (400, 450) MAX_ITER: 500 表示最大轮数和改变学习率的轮次数 https://blog.csdn.net/zziahgf/article/details/79803171 原文地址:https://www.cnblogs.com/miaozhijuan/p/12556343.html