转载请注明出处:
http://www.cnblogs.com/darkknightzh/p/7418694.html
参考网址:
https://gitter.im/torch/torch7/archives/2015/05/21
https://gitter.im/torch/torch7/archives/2015/09/04
在使用tensorflow时,可以指定哪些GPU可见,这样tensorflow在分配内存时,不会把每个gpu都分配内存。
以前使用torch7时,一直是直接th script.lua。但是电脑上有多个gpu时,每个gpu均会占用186M的显存。虽然占用的不多,但是总感觉不爽。
实际上,也可以设置运行torch的lua程序时,哪些gpu可见(默认全部可见)。如下:
CUDA_VISIBLE_DEVICES=2,3 th script.lua
上面GPU编号从0开始,相当于使用电脑中的第三个和第四个GPU(lua默认从1开始)。
程序中在使用cutorch时,GPU由于从1开始,以前使用3,4这两个,加上上面那句话后,程序内部改成1,2这两个GPU即可(加上那句话后,可见的GPU就是1,2了)。
时间: 2024-11-05 11:48:42