怎么查看keras 或者 tensorflow 正在使用的GPU

查看keras认得到的GPU

from keras import backend as K
K.tensorflow_backend._get_available_gpus()

Out[28]:

[‘/job:localhost/replica:0/task:0/device:GPU:0‘]

查看更详细device信息

from tensorflow.python.client import device_lib
import tensorflow as tf

print(device_lib.list_local_devices())
print(tf.test.is_built_with_cuda())

output:

[name: "/device:CPU:0"

device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 9443078288448539683
, name: "/device:XLA_CPU:0"
device_type: "XLA_CPU"
memory_limit: 17179869184
locality {
}
incarnation: 14589028880023685106
physical_device_desc: "device: XLA_CPU device"
, name: "/device:XLA_GPU:0"
device_type: "XLA_GPU"
memory_limit: 17179869184
locality {
}
incarnation: 12944586764183584921
physical_device_desc: "device: XLA_GPU device"
, name: "/device:GPU:0"
device_type: "GPU"
memory_limit: 8365150044
locality {
  bus_id: 1
  links {
  }
}
incarnation: 8725535454902618392
physical_device_desc: "device: 0, name: Tesla P100-PCIE-16GB, pci bus id: 0000:00:04.0, compute capability: 6.0"
]
True

查看正在使用的GPU

import tensorflow as tf
print (tf.__version__)
if tf.test.gpu_device_name():
    print(‘Default GPU Device: {}‘.format(tf.test.gpu_device_name()))
else:
    print("Please install GPU version of TF")

output:

1.13.1
Default GPU Device: /device:GPU:0

原文地址:https://www.cnblogs.com/mashuai-191/p/11028448.html

时间: 2024-11-13 04:21:17

怎么查看keras 或者 tensorflow 正在使用的GPU的相关文章

Reducing and Profiling GPU Memory Usage in Keras with TensorFlow Backend

keras 自适应分配显存 & 清理不用的变量释放 GPU 显存 Intro Are you running out of GPU memory when using keras or tensorflow deep learning models, but only some of the time? Are you curious about exactly how much GPU memory your tensorflow model uses during training? Are

import keras,tensorflow,出现kernel died restarting,解决办法

故障描述 设备环境:Win10家庭版,Anaconda3,Spyder3.3.1,Python3.6. 当加载tensorflow模块时,导致kernel崩溃,如运行一下任一行均会崩溃 1 from keras.models import Sequential #keras 以tensorflow为后端 2 from keras.layers.core import Dense, Activation 3 import tensorflow as tf 注:最开始安装使用是正常的,好久没用近来用

【tf.keras】tf.keras使用tensorflow中定义的optimizer

我的 tensorflow+keras 版本: print(tf.VERSION) # '1.10.0' print(tf.keras.__version__) # '2.1.6-tf' tf.keras 没有实现 AdamW,即 Adam with Weight decay.论文<DECOUPLED WEIGHT DECAY REGULARIZATION>提出,在使用 Adam 时,weight decay 不等于 L2 regularization.具体可以参见 当前训练神经网络最快的方式

window下 人工智能 Keras、TensorFlow、PyTorch、CUDA、cuDNN 的

======= 人工智能 Keras.TensorFlow 的环境安装 ======?1.window下?安装 anaconda(python 3.6 / python 3.7)https://blog.csdn.net/zimiao552147572/article/details/888542392.安装 ubuntu 16/18https://blog.csdn.net/zimiao552147572/article/details/888543703.window下安装 Keras.Te

深度学习TensorFlow如何使用多GPU并行模式?

TensorFlow可以用单个GPU,加速深度学习模型的训练过程,但要利用更多的GPU或者机器,需要了解如何并行化地训练深度学习模型. 常用的并行化深度学习模型训练方式有两种:同步模式和异步模式. 下面将介绍这两种模式的工作方式及其优劣. 如下图,深度学习模型的训练是一个迭代的过程. 在每一轮迭代中,前向传播算法会根据当前参数的取值,计算出在一小部分训练数据上的预测值,然后反向传播算法,再根据损失函数计算参数的梯度并更新参数. 异步模式的训练流程图 在并行化地训练深度学习模型时,不同设备(GPU

深度学习入门——测试PyTorch和Tensorflow能正常使用GPU

1.测试PyTorch能正常使用GPU: import torch torch.cuda.is_available() 返回结果: True 2.测试Tensorflow能正常使用GPU: 示例一: tf.test.is_gpu_available() 返回结果: True 示例二: gpu_device_name = tf.test.gpu_device_name() print(gpu_device_name) 返回结果: /device:GPU:0 示例三: import tensorfl

[ML]keras和tensorflow实现同样的模型

import tensorflow as tf from input_data import Data import matplotlib.pyplot as plt import os data=Data("./data/") X=tf.placeholder(tf.float32,[None,40,40,3]) y=tf.placeholder(tf.float32,[None,62]) keep_prob=tf.placeholder(tf.float32) conv1_1=tf

查看已安装tensorflow版本

命令行输入python python Python 2.7.12 (default, Dec 4 2017, 14:50:18) [GCC 5.4.0 20160609] on linux2 Type "help", "copyright", "credits" or "license" for more information. >>> 可以查看python版本. 然后输入 import tensorflo

用keras 和 tensorflow 构建手写字识别神经网路

#导入数据 import numpy as np import tensorflow as tf import matplotlib.pyplot as plt from keras.datasets import mnist (train_images, train_labels), (test_images, test_labels) = mnist.load_data() print(train_images.shape) print(train_images.dtype) print(t