linux系统怎样指定gpu运行,linux服务器如何指定gpu以及用量
1.在終端執行程序時指定GPU
CUDA_VISIBLE_DEVICES=0? ? python? your_file.py? # 指定GPU集群中第一塊GPU使用,其他的屏蔽掉
CUDA_VISIBLE_DEVICES=1? ? ? ? ? ?Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1? ? ? ? ?Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES="0,1"? ? ? ?Same as above, quotation marks are optional 多GPU一起使用
CUDA_VISIBLE_DEVICES=0,2,3? ? ? ?Devices 0, 2, 3 will be visible; device 1 is masked
CUDA_VISIBLE_DEVICES=""? ? ? ? ? No GPU will be visible
z這段話摘抄的,錯誤:注意,服務器看到的GPU序號和手動在Linux上查看的序號是相反的,比如我們指定os.environ[“CUDA_VISIBLE_DEVICES”] = “0”的話,你會發現在watch nvidia-smi指令下,倒數第一塊GPU正在滿負荷的運行!
2.在Python代碼中指定GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"? #指定第一塊gpu
3.設置定量的GPU使用量
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的顯存
session = tf.Session(config=config)
4.設置最小的GPU使用量
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
5.GPU狀態顯示和部分指標含義
輸入查看:
watch nvidia-smi
GPU:GPU 編號;
Name:GPU 型號;
Persistence-M:持續模式的狀態。持續模式雖然耗能大,但是在新的GPU應用啟動時,花費的時間更少,這里顯示的是off的狀態;
Fan:風扇轉速,從0到100%之間變動;
Temp:溫度,單位是攝氏度;
Perf:性能狀態,從P0到P12,P0表示最大性能,P12表示狀態最小性能(即 GPU 未工作時為P0,達到最大工作限度時為P12)。
Pwr:Usage/Cap:能耗;
Memory Usage:顯存使用率;
Bus-Id:涉及GPU總線的東西,domain:bus:device.function;
Disp.A:Display Active,表示GPU的顯示是否初始化;
Volatile GPU-Util:浮動的GPU利用率;
Uncorr. ECC:Error Correcting Code,錯誤檢查與糾正;
Compute M:compute mode,計算模式。
下方的 Processes 表示每個進程對 GPU 的顯存使用率。
總結
以上是生活随笔為你收集整理的linux系统怎样指定gpu运行,linux服务器如何指定gpu以及用量的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: linux 搭建.net运行环境,.ne
- 下一篇: linux批量管理服务,通过PSSH批量