<深度学习>Tensorflow遇到的坑之一

AttributeError: module ‘tensorflow‘ has no attribute ‘random_normal‘

AttributeError: module ‘tensorflow‘ has no attribute ‘Session‘

查了很多,发现是tensorflow2.0不支持session了,之前试了

sess = tf.compat.v1.Session()

这句无效。

with tf.compat.v1.Session() as ses:

  # Build a graph.
  a = tf.constant(5.0)
  b = tf.constant(6.0)
  c = a * b

  # Evaluate the tensor `c`.
  print(ses.run(c))

这种写法可以解决,但是不兼容,我换个代码就不行了。。

然后在博客的回复里看到一个,可以解决这个问题:

import os
import tensorflow as tf
import matplotlib.pyplot as plt
import tensorflow.compat.v1 as tf
os.environ["CUDA_VISIBLE_DEVICES"] = "-1"

tf.disable_v2_behavior()
a = tf.random_([2, 30])
sess = tf.Session()
out = sess.run(a)
x, y = out
plt.scatter(x, y)
plt.show()

导入的时候直接导入tensorflow1的包

原文地址:https://www.cnblogs.com/painKiller/p/12066631.html

时间: 2024-10-02 19:24:49

<深度学习>Tensorflow遇到的坑之一的相关文章

深度学习TensorFlow如何使用多GPU并行模式?

TensorFlow可以用单个GPU,加速深度学习模型的训练过程,但要利用更多的GPU或者机器,需要了解如何并行化地训练深度学习模型. 常用的并行化深度学习模型训练方式有两种:同步模式和异步模式. 下面将介绍这两种模式的工作方式及其优劣. 如下图,深度学习模型的训练是一个迭代的过程. 在每一轮迭代中,前向传播算法会根据当前参数的取值,计算出在一小部分训练数据上的预测值,然后反向传播算法,再根据损失函数计算参数的梯度并更新参数. 异步模式的训练流程图 在并行化地训练深度学习模型时,不同设备(GPU

吴裕雄--天生自然 神经网络人工智能项目:基于深度学习TensorFlow框架的图像分类与目标跟踪报告(续一)

1.3 项目计划 第一周:深入学习和了解神经网络的工作原理,学习卷积的相关理论. 第二周:使用python的TensorFlow库,编写神经网络深度学习代码,搭建神经网络层,并且了解其工作原理和相关的计算.相关参数的传递等,到htttps://www.kaggle.com/moltean/fruits下载fruits压缩包,对数据进行初步的处理. 第三周:使用TensorFlow搭建卷积神经网络,采用训练集数据对测试集数据进行预测:完成数据可视化,显示每个文件夹中第5张图片.使用Tensorbo

[深度学习]TensorFlow安装

virtualenv 可以用来建立一个专属于项目的python环境,保持一个干净的环境.只需要通过命令创建一个虚拟环境,不用的时候通过命令退出,删除.实践证明用虚拟环境能避免很多糟心的事. 下面介绍一下安装方法: 安装 virtualenv; 安装 virtualenvwrapper; 安装 Numpy,Scipy,Matplotlib 等Python科学计算的库; 1.安装 virtualenv $ sudo pip install virtualenv 然后建立一个测试目录: $ mkdir

Ubuntu16.04下安装配置numpy,scipy,matplotlibm,pandas 以及sklearn+深度学习tensorflow配置(非Anaconda环境)

1.ubuntu镜像源准备(防止下载过慢): 参考博文:http://www.cnblogs.com/top5/archive/2009/10/07/1578815.html 步骤如下: 首先,备份一下ubuntu 12.10 原来的源地址列表文件 sudo cp /etc/apt/sources.list /etc/apt/sources.list.old 然后进行修改  sudo gedit /etc/apt/sources.list 可以在里面添加资源地址,直接覆盖掉原来的. 2.使用ap

深度学习入门(占坑)

摘要 最近在学习 ng 的神经网络入门.先记录一笔,一些概念 CNN( conventional Neual Network) 卷积神经网络 RNN(Recurrent neural network) 递归神经网络 误差函数 logistic regression 求导 正向传播.反向传播 单层神经网络 双层神经网络 多层神经网络 原文地址:https://www.cnblogs.com/huxiaoyun90/p/8717420.html

算法工程师耗尽心血终成TensorFlow深度学习应用实践,值得一学!

本篇总的指导思想是在掌握深度学习的基本知识和特性的基础上,培养使用TensorFlow进行实际编程以解决图像处理相关问题的能力.全篇力求深入浅出,通过通俗易懂的语言和详细的程序分析,介绍TensorFlow的基本用法.高级模型设计和对应的程序编写. 本篇强调理论联系实际,重点介绍TensorFlow编程解决图像识别的应用,提供了大量数据集,并以代码的形式实现了深度学习模型,以供读者参考. 本篇可作为学习人工神经网络.深度学习TensorFlow 程序设计以及图像处理等相关内容的程序设计人员学习.

深度学习中的数据增强技术(二)

上篇文章介绍了深度学习中数据增强技术的应用,及部分TensorFlow实现代码.废话不说了,这篇接着介绍: TensorFlow实现图片数据增强 注:类似的方法放在了代码中注释的部分,实际调试时可以分别打开运行 ③图像色彩调整 import matplotlib.pyplot as plt import tensorflow as tf # 读取图片 image_data = tf.gfile.FastGFile("data/dog3.jpg", 'br').read() # 4中调整

windows10配置tensorflow深度学习环境(GPU版)各种坑

我们配置一个tensorflow-gpu版的深度学习环境 windows10 64 python3.5 vs2017(需要C++部分) cuda9.0 cudnn7.1 GeForce GTX1060 1.安装python 我们选择python3.5,直接从官网下载windows10版本的安装就行,可以选择默认安装路径,并添加环境变量. 测试打卡cmd,输入python,输出python的版本信息 则安装成功 2.安装vs2017 3.安装cuda 首先要确保你的电脑上装了一块差不多的显卡 我们

深度学习主机环境配置: Ubuntu16.04 + GeForce GTX 1070 + CUDA8.0 + cuDNN5.1 + TensorFlow

深度学习主机环境配置: Ubuntu16.04 + GeForce GTX 1070 + CUDA8.0 + cuDNN5.1 + TensorFlow 最近在公司做深度学习相关的学习和实验,原来一直在自己的电脑上安装虚拟机跑,速度实在太慢,主机本身性能太弱,独显都没有,物理安装Ubuntu也没多大意义,所以考虑用公司性能最强悍的游戏主机(i7 6700+GTX 1070) 做实验,这台主机平时是用来跑HTC VIVE的,现在归我用了o(*≧▽≦)ツ. 原本以为整个一套安装下来会很顺利,一路火花