Tensorflow细节-P319-使用GPU基本的操作

如果什么都不加,直接运行装了GPU的Tensorflow,结果是这样子的

import tensorflow as tf

a = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a')
b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b')
c = a + b

sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))  # 通过log_device_placement参数来记录运行每一个运算的设备。
print(sess.run(c))

来来来,看图

当指定cpu还是GPU时:

import tensorflow as tf

# 通过tf.device将运算指定到特定的设备上。
with tf.device('/cpu:0'):
    a = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a')
    b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b')

with tf.device('/gpu:0'):
     c = a + b

sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
print(sess.run(c))

结果就变成了这样子:

最后一个

import tensorflow as tf

a_cpu = tf.Variable(0, name="a_cpu")
with tf.device('/gpu:0'):
    a_gpu = tf.Variable(0, name="a_gpu")
    # 通过allow_soft_placement参数自动将无法放在GPU上的操作放回CPU上。
sess = tf.Session(config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=True))
sess.run(tf.global_variables_initializer())

结果:

原文地址:https://www.cnblogs.com/liuboblog/p/11680272.html

时间: 2024-11-09 09:59:37

Tensorflow细节-P319-使用GPU基本的操作的相关文章

TensorFlow——tensorflow指定CPU与GPU运算

1.指定GPU运算 如果安装的是GPU版本,在运行的过程中TensorFlow能够自动检测.如果检测到GPU,TensorFlow会尽可能的利用找到的第一个GPU来执行操作. 如果机器上有超过一个可用的GPU,除了第一个之外的其他的GPU默认是不参与计算的.为了让TensorFlow使用这些GPU,必须将OP明确指派给他们执行.with......device语句能够用来指派特定的CPU或者GPU执行操作: import tensorflow as tf import numpy as np w

深度学习TensorFlow如何使用多GPU并行模式?

TensorFlow可以用单个GPU,加速深度学习模型的训练过程,但要利用更多的GPU或者机器,需要了解如何并行化地训练深度学习模型. 常用的并行化深度学习模型训练方式有两种:同步模式和异步模式. 下面将介绍这两种模式的工作方式及其优劣. 如下图,深度学习模型的训练是一个迭代的过程. 在每一轮迭代中,前向传播算法会根据当前参数的取值,计算出在一小部分训练数据上的预测值,然后反向传播算法,再根据损失函数计算参数的梯度并更新参数. 异步模式的训练流程图 在并行化地训练深度学习模型时,不同设备(GPU

深度学习入门——测试PyTorch和Tensorflow能正常使用GPU

1.测试PyTorch能正常使用GPU: import torch torch.cuda.is_available() 返回结果: True 2.测试Tensorflow能正常使用GPU: 示例一: tf.test.is_gpu_available() 返回结果: True 示例二: gpu_device_name = tf.test.gpu_device_name() print(gpu_device_name) 返回结果: /device:GPU:0 示例三: import tensorfl

Tensorflow Windows Build with GPU Support

Step-by-step Windows build 虽然Research一直在用Caffe,而且用的飞起,但还是很关注tensorflow社区的事情,最近发现TF有windows版本的了,就自己试了试. 步骤:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/cmake Pre-requisites: Microsoft Windows 10 Microsoft Visual Studio Enter

使用tensorflow时,关于GPU的设置

查看显卡使用情况: nvidia-smi 设置tensorflow按需分配资源: import os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"] = "1" # 使用第二块GPU(从0开始) gpu_options = tf.GPUOptions(allow_growth=True) sess = tf.Se

怎么查看keras 或者 tensorflow 正在使用的GPU

查看keras认得到的GPU from keras import backend as K K.tensorflow_backend._get_available_gpus() Out[28]: ['/job:localhost/replica:0/task:0/device:GPU:0'] 查看更详细device信息 from tensorflow.python.client import device_lib import tensorflow as tf print(device_lib.

Tensorflow r1.12及tensorflow serving r1.12 GPU版本编译遇到的问题

1.git clone tensorflow serving 及tensorflow代码 2. ERROR: /root/.cache/bazel/_bazel_root/f71d782da17fd83c84ed6253a342a306/external/local_config_cuda/crosstool/BUILD:4:1: Traceback (most recent call last): File "/root/.cache/bazel/_bazel_root/f71d782da17

Tensorflow细节-P42张量的概念及使用

1.运行以下代码 import tensorflow as tf a = tf.constant([1.0, 2.0], name="a") b = tf.constant([2.0, 3.0], name="b") result = a + b print result sess = tf.InteractiveSession () print(result.eval()) sess.close() 得到 其中,add与代码中的add有关,0表示第一个输出,图中的

Tensorflow细节-P190-输入文件队列

以下代码要学会几个地方 1.filename = ('data.tfrecords-%.5d-of-%.5d' % (i, num_shards)) 这个东西就是要会data.tfrecords-%.5d-of-%.5d两个.5d, 2.记住这两个操作writer = tf.python_io.TFRecordWriter(filename)与writer = tf.python_io.TFRecordWriter(filename) 3.得到的是以下TFrecoard两个文件 import t